Niklas Andersson tar upp den svenske filosofen m.m. Nick Boström och hans bok Superintelligence, där Boström tar upp dels den ”existential risk” som artificiell, generell superintelligens utgör för hela mänskligheten om, eller snarare när, ett sådant system blir mer intelligent än människan, och dels hur sådana risker med superintelligens skulle kunna kontrolleras.
 
Det sägs ibland att Sveriges viktigaste bidrag till filosofihistorien är att ha haft ihjäl Descartes. Så när en svensk filosof börjar generera tidningsrubriker, hamna på topplistor över globala tänkare och sägs ha inspirerat både Elon Musk och Bill Gates, finns anledning lyfta på ögonbrynen.
På Nick Boströms hemsida kan man läsa att han under sina universitetsår sannolikt slog svenskt rekord i både studiemängd och studietakt. Rekord eller inte, men efter tre års studier avlade han kandidatexamen i filosofi, matematik, matematisk logik och artificiell intelligens. Därefter följde mastersstudier i filosofi och fysik vid Stockholms Universitet, samt generell relativitetsteori och beräkningsorienterad neurovetenskap vid King’s College, University of London. Det hela toppades år 2000, när han var 27 år, med en doktorsavhandling i filosofi vid London School of Economics.
Under studietiden kom Boström i kontakt med den växande transhumanismen som inspirerats av tidens rasande teknikutveckling, globaliseringen, visionära genier och science fiction. 1997 grundade han The World Transhumanist Association (idag Humanity+) tillsammans med David Pearce. Under begreppet transhumanism ryms flera intellektuella strömningar. De delar alla en framtidsvision, där människan använder tekniska framsteg för att transformera sin natur, både mentalt och fysiskt, i syfte att befria sig från lidande och för att uppnå ett mer önskvärt och ”posthumant” tillstånd. Boström har varit en av de viktigaste aktörerna i rörelsen. Genom att tillämpa rigorösa filosofiska och vetenskapliga metoder på rörelsens tämligen löst sammansatta tankegods har den kunnat introduceras i respektabla akademiska kretsar. Under senare år har flera av dessa idéer också letat sig ut i massmedia och inspirerat till flera hyllade filmer och TV-serier, som t.ex. Ex Machina och Westworld.

Via transhumanismen kom Boström in på ett forskningsområde där han själv givit namn åt studieobjektet, existential risk, d.v.s. risker som hotar att utradera mänskligheten. Om vår gemensamma framtid, som transhumanismen menar, kan erbjuda snudd på oändliga möjligheter, vad skulle vara värre än att ingen får uppleva den? Och det gäller inte bara oss. Människan (eller framtida posthumana versioner av oss) skulle teoretiskt kunna fortsätta leva i hundratals miljoner år, kanske mer än så om vi koloniserar andra planeter. Det mest effektiva sättet att använda sin tid är därför, argumenterar Boström, att försöka minska den sortens existentiella risker. Med denna ambition startade Boström 2005 The Future of Humanity Institute, ett interdisciplinärt forskningscentrum vid universitetet i Oxford, som han alltjämt driver.
I sin bok Superintelligence utforskar Boström den existential risk han ser med utvecklingen av artificiell intelligens (AI), närmare bestämt av artificiell, generell superintelligens, eller än mer exakt ”any intellect that greatly exceeds the cognitive performance of humans in virtually all domains of interest”. Distinktionen här är viktig, då det redan idag finns många exempel på superintelligent AI inom specifika områden. Många av oss minns när Deep Blue besegrade regerande schackvärldsmästaren Garry Kasparov 1997. Sedan dess har datorerna sprungit ifrån människan ytterligare och de är idag överlägsna mänskliga spelare – i schack. Men trots denna specifika superintelligens klarar samma program inte ens att spela Fia med knuff.
De många framstegen till trots är det ännu många som tvivlar på möjligheterna att skapa generell intelligens på mänsklig nivå. ”Datorer kanske kan lära sig att spela schack, men de kommer aldrig kunna förstå poesi, skapa konst, förstå sig på människor” o.s.v. Lika tvärsäkra utlåtanden fälldes tidigare om t.ex. schackspelande datorer. I själva verket finns det nog inga skäl att tro att vi inte i framtiden skulle kunna programmera en AI som kan göra precis allt det vi människor kan. Boström är dock försiktig i sina spekulationer om när detta skulle kunna ske. Specifika prognoser över hastigheten i teknikutvecklingen är notoriskt opålitliga, och i efterhand framstår de ofta som komiska, särskilt när det handlat om kraftiga underskattningar av utvecklingen. Ett exempel från Boströms egen bok, skriven 2014, är förutsägelsen att det skulle dröja något decennium innan övermänsklig AI kunde spela Go. Mindre än två år senare vann AlphaGo mot en topprankad Go-spelare.
Boström presenterar några opinionsundersökningar som gjorts bland de forskare som arbetar i branschen. Majoriteten av dem håller det för osannolikt att vi inte nått fram till en generell AI på mänsklig nivå före nästa sekelskifte. De flesta tror att det går betydligt fortare. Accepterar man att det är möjligt att programmera generell intelligens, och att vi kan fortsätta att förbättra våra intelligenta system, är det bara en fråga om när vi kommer att nå dit. Och båda dessa förhållanden är svåra att förneka. Vår hjärna är just ett exempel på ett fysiskt system programmerat till generell intelligens. Och med tanke på hur värdefulla intelligenta system är för oss, är det också svårt att se oss sluta försöka förbättra dem.
This is quite possibly the most important and most daunting challenge humanity has ever faced. And – whether we succeed or fail – it is probably the last challenge we will ever face.
Finns det också anledning att oroa sig för denna utveckling? Varför inte välkomna den med öppna armar? För att kunna värdera det måste man först bort från alla överdrivna Hollywoodscenarion. Terminator och Matrix bistår med tacksamma halmdockor för de som inte vill ta Boströms argument på riktigt allvar. Om citatet ovan ens är i närheten av vad som står på spel gör man dock bäst i att undvika denna frestelse. Det andra steget är att inse hur potent intelligens är. Ett sätt att förstå detta är att påminna sig människans särställning i naturen. Det finns många djur som är starkare, snabbare och större än oss. Vår totala dominans kommer från några förhållandevis små och, ur ett evolutionärt perspektiv, sena förändringar av hjärnan som lett till en i jämförelse överlägsen intelligens. Även om gorillor är starkare och större än människor så beror deras öde idag uteslutande på oss människor.