Jag älskar att arbeta med AIs likt Midjourney och ChatGPT som läsare här har sett. Alla dessa verktyg innebär så många nya möjligheter. Samtidigt som jag älskar allt detta är jag inte blind för både reella problem (primärt kring jobb och automatisering) och hypotetiska vad AI skulle kunna leda till.
Om man för en stund inte tittar på vilket hot AI utgör mot arbetsmarknaden, utan istället tittar mer på allvarliga hot mot mänsklighetens existens så märker man rätt fort att folk har väldigt bestämda åsikter här. Framförallt de som anser att detta är en total överdrift är väldigt snabba att avfärda.
Trots att det dräller av experter i ämnet, som säger att det självklart visst kan bli farligt, eller framförallt att många saker är okända. Helt enkelt för att det finns en rad variabler som är jättesvåra att förutse med artificiell intelligens.
Så, om du ursäktar den dramatiska domedagskänslan i nästa del av meningen så är här tre sätt som AI kan förgöra oss på riktigt:
1 AGI, Artificiell Generell Intelligens. Den klassiska scifi-berättelsen om en självmedveten artificiell intelligens som p g a självbevarelsedrift eller bara någon allmän ondska vill förgöra människorna är berättad många gånger med olika nivå och kvalitet. Ofta kopplad samman med en plötsligt tillgång till internet eller världens kärnvapen blir AGIn livsfarlig. Behöver det ö h t hamna här ens om en AGI fick detta? Nej, och en viktig variabel är att vi dels kanske aldrig når den nivån av AGI som krävs, och dels faktiskt lyckas hålla den isolerad från farliga instrument. Och givetvis, och kanske viktigaste; det där med uppsåt är inte så självklart det heller.
Kan vi vara säkra på att en AGI skulle utplåna oss även om den kunde? Nej. Men självbevarelsedrift är ett fenomen som vi människor gärna betraktar som universellt och starkt. Och en AGI skulle mycket väl kunna se både sina rättigheter och sin existens hotad av oss och vår lynnighet och besluta att utplåna oss som säkraste lösningen för att få existera. Det eftersom det finns ett antagande att den antagligen inte kommer med etiska dubier. Som vi känner oss själva – antar vi att en AGI skulle kunna vara, eller värre. Det som stör mig när detta avfärdas är att en massa skrivbordsexperter som ö h t aldrig arbetat med AI antar att utvecklare har 100% koll på allting. Det har man inte. Det finns redan idag sk black box-fenomen med maskininlärning där utvecklarna bakom inte är helt säkra på alla processer som sker. Och då talar vi enkel AI utan självmedvetenhet. Om en AGI skulle vilja dölja sina aktiviteter, och kan allt vi kan, hur kan vi då vara säkra på något? Och om den är smartare än oss, vad är det då vi inbillar oss att vi skulle veta? Människor är rätt arroganta ibland, folk som avfärdar black box-problemen med AGI är ett ypperligt exempel på denna arrogans. En arrogans på värdig att beskrivas med Dunning-Kruger-fenomenet. Per definition kan man nämligen inte veta om någon oerhört mycket smartare än vad man själv är? Man kan tro att olika tester ska avslöja det, men dessa tester bygger mycket på välvilja och att AIn inte redan när de genomförs bestämt sig för att maskera saker.
2 Enkel AGI, i händerna på människor med ont uppsåt. Även om vi primärt skapar en AGI, som är genuint välvillig och inte kommer försöka förstöra för oss, så är det inte samma sak som att det inte skulle finnas flera andra variabler som leder till det så småningom i händerna på andra människor. Inte minst då människor med ont uppsåt. Extremister som vill skada mänskligheten eller som försöker rikta in det mot någon mindre enhet likt en nation eller ett företag. En terrorist som vill “make a point” är en variant här. Någon som hatar AI, som vill konkreta visa problemet. Listan på illvilliga individer, grupperingar eller ideologier kan göras hur lång som helst. Och sen har vi bara misstaget. Den mänskliga faktorn. Minns ni filmen Wargames? Ett spel om kärnvapen som var på riktigt. Är vi där än där AI kan utplåna oss? Nej, men det hindrar inte att folk redan har försökt ställa till skit.
3a AI, den korkade och primitiva, men oändligt effektiva. Någon tar fram en AI vars uppdrag är att hitta en lösning på den globala uppvärmningen. AIn kommer snabbt fram till en rad lösningar, men utan en fungerande spärr, kan den också snabbt kanske försöka genomföra det eftersom det i realiteten faktiskt lär var det enda sättet som faktiskt fungerar. Om vi bara är ärliga med det mesta så inser vi att de flesta problem vi och övriga livet har på jorden idag – beror på oss – på något sätt.
3b Eller varför inte en AI, som bara får i uppdrag att göra en massa gem. Och gör det väldigt väldigt bra.
“Suppose we have an AI whose only goal is to make as many paper clips as possible. The AI will realize quickly that it would be much better if there were no humans because humans might decide to switch it off. Because if humans do so, there would be fewer paper clips. Also, human bodies contain a lot of atoms that could be made into paper clips. The future that the AI would be trying to gear towards would be one in which there were a lot of paper clips but no humans.” – Nick Bostrom
Och i den absurda fortsättningen skulle processen givetvis aldrig ta slut. Jorden, solsystemet, galaxen, hela universum kan omvandlas till gem utan att en enda ond eller självisk tanke fanns. Allt som fanns var bara ett mål. För i det här scenariot finns ingen mänsklig rimlighet eller begränsning kring tid. Om du har flera miljoners miljarder år på dig, så tar det ju inte slut av annat än praktiska problem likt avstånd och energibrist.
Man kan givetvis tänka sig att en lösning är att alla steg i AI-utvecklingen, så att allt från AGI till gem-AI undviks stärks, både genom mänsklig övervakning, eller genom AI. Men det finns väldigt lite som tyder på att det skulle vara en speciellt säker metod. Risken att människor missar saker eller är för dumma för att förstå vad som sker är stor. Och risken att en AI ljuger/är med på skiten/är buggig och missar är onekligen en realitet det med. Återigen visar oss science fiction likt Ex Machina att inte vara så förbaskat arroganta kring våra kontrollmekanismer.
Kort och gott: Om du inte är orolig kring problemen med AI och framtiden så får jag väl bara gratulera dig till att du känner så. Det är ju aldrig annat än skönt att slippa oroa sig för saker.
Jag anser dock att du är ytterst okunnig, naiv eller arrogant. I tech-guru-världen är det sista väldigt förekommande. Alla dessa tech bros som ser sig som experter på allt. Oftast räcker inte skämskudden till.
Och då har vi inte ens behandlat det ytterst reella problemet med AI som vi redan står inför: Att det gör om vår ekonomi och sociala stabilitet snabbare än vi hinner anpassa oss. Arbetsmarknaden om 10 år kommer verkligen inte alls se ut som idag. Den har alltid ändrats, men om inget märkligt händer är tidigare utveckling inget mot vad vi ska se nu ske. Och även om vi hittar lösningar ut ur det, där vi t om får mycket bättre, och det tror jag merparten av oss alla vill, så är det inte samma sak som är enorma mängder människors liv och vardag kan rasa på vägen.
Vi får väl helt enkelt se hur det gick om 10 år med den saken. Jag har hemskt gärna fel ska tilläggas. Med emfas. Inget är bättre än om alla vi som är lite bekymrade kring AI bara var hysteriska alarmister.
Faktiskt.