Det skulle vara bra om det fanns en allmän överenskommelse om att det nuvarande utbudet av AI-funktioner kommer att resultera i bra och dåliga saker, och vi hade mer specifika ansträngningar (parallellt med de större existentiella diskussionerna) för att få de bra sakerna att fungera för fler människor och mildra de uppenbart dåliga.
På det goda: Tidiga löften om AI-handledare som är integrerade i utbildningen tyder på att kraschinsatser där kan hjälpa många runt om i världen, särskilt i missgynnade områden Till det onda: Deepfakes måste regleras och storskaliga ansträngningar göras för att få AI att stödja, inte skada, mental hälsa
Många av dessa skador och fördelar är både förutsebara och/eller har tidiga empiriska bevis, och interventioner nu kan ge stora fördelar. Det finns många övergripande långsiktiga farhågor om AI, men jag tror inte att det fokuserar tillräckligt på att dra nytta av, eller mildra, dagens möjligheter
Många av dessa insatser bör inte lämnas till AI-laboratorier ensamma, vilket verkar vara vad som händer, och skulle historiskt sett vara klassiska fall där regeringar, universitet, ideella organisationer och industrin skulle gå samman för att ta itu med akuta behov. Det finns mycket som skulle kunna göras i dag
Och där industrin verkar göra framsteg när det gäller kärnfrågor, som OpenAI:s senaste arbete om psykiska hälsokriser, kan det potentiellt fungera som en grund för branschstandardiseringsorgan, som historiskt sett har spelat en viktig roll i självreglering i nya branscher.
Jag undrar om bristen på frivilliga branschorgan (W3C, Unicode) inom AI beror på den intensiva (och ofta personliga) rivaliteten mellan AI-företagen, som kanske förvärras av bristen på behov av självreglerande standarder, eftersom det inte har varit mycket påtryckningar från tillsynsmyndigheterna ännu.
29,99K