Svenske Oxford-professorn har fått världens ledare att vakna inför AI-hotet: "Det kan bli vår sista innovation"

Svensk-brittiske filosofen Nick Boström kan räknas till en av vår tids skarpaste hjärnor. Nu funderar han på en lösning inför hotet från super-intelligenta maskiner.

”Tillräckligt intelligenta maskiner skulle kunna förbättra den egna förmågan snabbare än människan och därmed utgöra ett hot mot vår existens”, säger Nick Boström i ett samtal inför ett fullsatt Cirkus i Stockholm.

Det är den tidigare IT-entreprenören Christer Sturmarks förlag Fri Tanke som lyckats få hit såväl honom som den amerikanske filosofen Daniel Dennett för att diskutera medvetandets mysterium och tänkande maskiner.

Några timmar tidigare har jag mött honom i logen för en av två intervjuer han ger under besöket i sitt forna hemland. Han är ledigt klädd och i ryggsäcken har han med sig eget vatten. I kombination med det han berättar drar jag slutsatsen att Nick Boström är en man som väljer vad han stoppar i sig med samma noggranna precision som han väljer sina ord.

Nick Boström

Född: 1973 i Helsingborg.
Utbildning: Fil kand i filosofi, matematik, matematisk logik och artificiell intelligens vid Göteborgs universitet, master i filosofi och fysik vid Stockholms universitet, doktorsexamen i filosofi vid London School of Economics.
Gör: Professor i filosofi vid Oxforduniversitetet, grundare och chef för Future of Humanity Institute.
Bor: I Oxford, men har familjen i Kanada.
Böcker: Över 200 publicerade böcker och artiklar. Hans senaste bok ”Superintelligens: De tänkande maskinernas tidsålder” har nyligen kommit ut i svensk översättning.

”Jag är en nattuggla, så jag börjar min dag rätt sent. När jag kommer till jobbet gör jag min elexir på örtte som ska drickas efter en liter filtrerat vatten. Under tiden går jag igenom förfrågningar som dykt upp under natten med min assistent. Sedan kan jag, om det är en bra dag, börja jobba med riktigt arbete.”

Vad är riktigt arbete för en filosof?

”Jag har ett ståbord där jag gör någon av tre saker – skriver, läser eller tänker. När det är mer komplexa funderingar kan jag sätta mig i en fåtölj. Ibland har jag möten eller diskussioner med kolleger. Med avbrott för middag stannar jag ofta till klockan två på natten.”

Var och när tänker du bäst?

”Med få distraktioner och när jag är utvilad. Annars behöver jag egentligen ingenting förutom en penna och ett anteckningsblock där jag skriver några nyckelord som jag kan återkomma till om jag får några dagar med resa eller konferens emellan, vilket ofta är fallet.”

Det är i universitetsbyggnaderna i Oxford med anor från 1000-talet som svenskfödde Nick Boström och hans kolleger vid Future of Humanity Institute grunnar över hur mänskligheten ska få just det – en framtid.

Det är inte klimatförändringarna som utgör det största hotet mot vår existens, menar Nick Boström.

”Mänskligheten har funnits relativt kort tid här på jorden och vi har överlevt asteroider, jordbävningar, eldstormar och alla andra naturkatastrofer som inträffat. Vi vet att det kan hända, men sannolikheten är väldigt liten.”

För honom och hans kolleger, en mix av filosofer, datavetare och politiska forskare, är det i stället artificiell intelligens som toppar listan över potentiella hot.

I hans nya bok ”Superintelligens” som lanseras i Sverige i samband med besöket, hävdar han att tillräckligt intelligenta maskiner skulle kunna förbättra den egna förmågan snabbare än människan och därmed utgöra ett hot mot vår existens.

I dag är han i gott sällskap av namnkunniga personer som fysikern Stephen Hawking, futurologen Ray Kurzweil och superentreprenören Elon Musk. Men på 1990-talet var han som universitetsstudent relativt ensam i dessa funderingar.

Men Nick Boström har inget emot att sticka ut och så frön som sedan plockas upp av andra. När han kallar simuleringsargumentet, som han presenterade 2003, ganska distinkt och radikalt är det ingen överdrift. Enligt det lever vi i en datorsimulering som framtidens historiker skapat för att ta reda på vad som egentligen hände de där kritiska åren som föregick ”det stora teknologiska språnget”.

Hans oro för superintelligenta datorer bottnar inte i en teknikaversion. Tvärtom. Redan på 1990-talet anslöt han sig till transhumanisterna, inte minst till följd av ett ensidigt debattklimat inom akademin kring samverkan mellan människa och maskin.

”Det lilla som fanns var negativt. Om jag ser att bara en sida av ett ämne blir belyst blir det direkt en trigger för mig att belysa den andra sidan.”

Även om han inte längre står bakom alla inriktningar som begreppet har kommit att stå för i dag anser han fortfarande att teknik är en viktig skapande faktor för den moderna människan och för olika former av ”mänsklig förbättring”.

”Jag skulle ge min vänstra arm för ett piller som saktar ned åldrandet. Eller stärker vår kognitiva förmåga. Om det gick att veta att det verkligen fungerade. Det är ett problem vi har i dag – det handlar inte så mycket om etik som att det kanske inte gör någon skillnad. I alla fall inte för alla.”

I väntan på mirakelmediciner fortsätter den artificiella intelligensen att få allt större spridning i samhället. Själv­körande bilar, språköversättning, strategi­datorspel och bildigenkänning är några exempel på så kallad smal AI, det vill säga AI med enklare och begränsade sysslor.

Den generella AI:n, som ofta i form av en robot kan utföra människoliknande sysslor som att laga mat och sköta om barn, får vi vänta på.

”Den AI vi har nu är egentligen olika verktyg och ingen större skillnad från andra verktyg som vi måste använda på ett varsamt sätt. Superintelligensen är en helt annan sak. Den har agenter, det vill säga beteende som innebär att man planerar för att försöka uppnå ett speciellt mål, och försöker förutsäga dina drag. Virus och bakterier kan sägas vara ett mellanläge, de är inte framsynta men kan anpassa sig efter olika omständigheter.”

Målet för det tvärvetenskapliga teamet på Future of Humanity Institute är att dessa supersmarta datorer ska designas så att de är på mänsklighetens sida, även om de ”rymmer”. Och det jobbet måste göras nu. Sedan kan det vara försent.

Varför går det inte bara att dra ut sladden?

”Av samma anledning som om det sker en revolution i ditt land, var är pluggen för att stänga ned det då? AI:t kan aktivt stå emot dina försök att stänga ned det och det kan de facto hindra dig från att inte tycka att du behöver stänga ned det genom att antecipera att du har för avsikt att stänga ned det …”

Det finns något annat som skiljer ett smart AI från alla andra teknologier. Det skulle kunna bli mänsklighetens sista innovation, menar Nick Boström.

”Det kommer att kunna uppfinna alla världens nya teknologier på egen hand.”

Går det att säga något om tidslinjen?

Han ger mig ett riktigt filosofsvar:

”Du kan absolut säga en massa saker, ord, ord, ord.”

Sedan ger han mig inblick i en undersökning som hans framtidsinstitut gjort bland vissa av världens ledande experter på maskininlärning. Frågan som de ställdes inför var när de trodde att det fanns en 50-procentig chans att vi uppnått mänsklig nivå på maskinintelligensen, det vill säga att maskinerna kan göra allt vi kan göra. Medianen låg mellan 2040 och 2045, berättar Nick Boström.

”De individuella svaren är all over the place. Vissa är helt övertygade om att det kommer att hända inom tio till femton år, medan andra tror att det aldrig kommer att hända.”

Däremot tror han att nästa steg, från mänsklig maskinintelligens till superintelligens, kommer att vara betydligt kortare, allt från ett par timmar till ett par år.

Vi kommer tillbaka till utmaningen.

Om vi en dag listar ut hur vi ska göra en dator superintelligent, hur ska vi försäkra oss om att datorn gör det som vi hade för avsikt att den skulle göra, att den jobbar mot våra mål?

Det är forskning kring den frågan som Nick Boström och hans kolleger ägnar sina dagar åt.

Vilken är den mest lovande idén hittills?

”Jag ska berätta om den minst framgångsrika först. Den att du skulle skriva en lista på alla saker som du bryr dig om och regler för sådant som är viktigt, för att sedan ladda in dessa i datorn. Det står ganska klart att något sådant inte kan fungera eftersom det är omöjligt för oss att med tillräcklig precision i förväg specificera alla saker vi bryr oss om.”

I stället måste vi höja intelligensen på AI:t så att det kan lära sig våra värderingar på egen hand, menar Nick Boström.

”I stället för att bygga ett AI med ett ambitiöst obegränsat mål försöker man kanske bygga ett AI med en mer begränsad ambition och omfattning som sedan kan ta ett nästa steg som vi skulle ha godkänt.”

Hur kan vi veta att det inte byggs en superintelligent maskin någon annanstans i världen med onda avsikter?

”Det är möjligt att det händer, men om vi inte gör något kan vi vara säkra på att det sker. Med det jobb vi och andra gör finns det en chans att undvika ett sådant utfall.”

För att sprida institutets smarta tankar arbetar Nick Boström och hans kolleger med andra ledande forskare på området, exempelvis Googles Deep Mind i London.

”En stor del av AI-forskningen i dag sker på de stora teknikbolagen.”

Kontoret i Oxford delar de med Center for Effective Altruism, med vilka de har ett nära samarbete.

”Vi är på sätt och vis deras teoretiska arm som försöker hjälpa filantroper att se vad det finns för koppling mellan åtgärder som vidtas i dag och långsiktiga resultat.”

Vi blir avbrutna. Tiden för intervjun har runnit ut, men jag hinner med en sista fråga.

Om vi lyckas överleva hotet från superintelligenta maskiner, vad ska vi då göra om dagarna?

”Det korta svaret är att leka, saker som vi gör för vår egen skull i motsats till att tjäna pengar. Samtala, sitta i bastun, måla, dansa och leka med barnen. Men då måste vi organisera om kulturen för att värdera den där typen av aktiviteter. Och utbildningsväsendet måste lära oss att bli bättre på det här i stället för att sitta vid våra skrivbord.”


Med vårt NYHETSBREV missar du inget viktigt!

Kalendarium

För dig som prenumerant