Er det farligt for os at udvikle AI klogere end os?

Musk, Gates, Hawking, Altman og Putin frygter alle kunstig generel intelligens, AGI. Men hvad er AGI, og hvorfor kan det være en fordel, at flere forsøger at udvikle det trods meget alvorlige risici?
Kampen for at udvikle AI klogere end mennesker rejser spørgsmålet om, hvordan vi skal udvikle AI på godt og ondt. Her står de forsigtige over for de modige i kampen, om det er menneskehedens sikkerhed, der skal tælle mest, eller pengene og nye uanede muligheder. Det en kamp mellem de såkaldte AI-doomers og AI-boomers. Doomerne frygter en AI-dommedag og vil stoppe op, mens boomerne vil sætte endnu mere fart på udviklingen for at skabe en ny og bedre AI-verden. Kilde: Getty Images.
Kampen for at udvikle AI klogere end mennesker rejser spørgsmålet om, hvordan vi skal udvikle AI på godt og ondt. Her står de forsigtige over for de modige i kampen, om det er menneskehedens sikkerhed, der skal tælle mest, eller pengene og nye uanede muligheder. Det en kamp mellem de såkaldte AI-doomers og AI-boomers. Doomerne frygter en AI-dommedag og vil stoppe op, mens boomerne vil sætte endnu mere fart på udviklingen for at skabe en ny og bedre AI-verden. Kilde: Getty Images.
Thomas Telving, filosof, forfatter og foredragsholder

”Vi er så små og svage. Tænk, hvor let livet ville være, hvis vi havde en ugle, der kunne hjælpe os med at bygge reder,” sagde den ene spurv til flokken. Andre stemte i:

”Ja, og vi kunne bruge den til at se efter vores gamle og vores børn. Og den kunne give os gode råd og holde et vågent øje med katten.”

En ældre, smågnaven spurv foreslår, at de, før de lukker en ugle ind i flokken, må lære noget om ugleopdræt og sætte sig ind i, hvordan man tæmmer en ugle. Men de andre spurve hører ikke efter. De er allerede så opslugte af idéen om uglen, at de sætter afsted for at finde et ugleæg.

Filosoffen Nick Bostroms bog ”Superintelligence” begynder med en lille fabel om en spurveflok, der drømmer om at få en ugle til at hjælpe dem, men de har altså hverken tålmodighed eller omtanke til at lave passende sikkerhedsforanstaltninger, før de søsætter det opfindsomme projekt.

”Superintelligence” udkom i 2014 og er mere aktuel end nogensinde før. Oversætter man den til 2023-forhold, kunne den optimistiske spurv passende være OpenAI-direktør Sam Altman, mens den gamle skeptiker kunne være det mere forsigtige OpenAI-bestyrelsesmedlem Helen Toner. Toner røg som bekendt ud, og Altman har igen frit spillerum til at lede sin loyale flok fremad i jagten på det eftertragtede ugleæg.

Det er, indrømmet, ikke superintelligens, men AGI, artificial general intelligence, OpenAI har som mål at udvikle. Men de to begreber hænger tæt sammen, ikke mindst, når det kommer til sikkerhedsspørgsmål, så lad os se på begge dele. Først AGI. Hvad er det? Og er det virkelig lige så risikabelt for den menneskelige civilisation, som det ville være at lukke en ugle ind i en spurveflok?

Bedre end mennesker

Ifølge konsulenthuset Gartner er AGI en form for AI, der kan forstå, lære og anvende viden på tværs af domæner. Den kan således – med sin ubegrænsede kognitive fleksibilitet – benyttes til alverdens opgaver. ChatGPT-skaberne OpenAI’s definition går et skridt videre.

De skriver, at AGI er lig med autonome computersystemer, der kan udføre det økonomisk set mest værdifulde arbejde bedre end mennesker. Det lille ord bedre er væsentligt, fordi det antyder, at det altså ikke kun handler om at komme på niveau. Det handler om at overgå os. Er AGI for OpenAI det samme som superintelligens? Måske. Flere behandler i dag de to begreber som synonymer.

Der er ikke enighed om definitionen på AGI. Ikke mærkeligt, al den stund teknologien ikke findes. Men uenigheden skyldes også, at der ikke er enighed om definitionen på intelligens. It-eksperter definerer gerne menneskelig intelligens ud fra evnen til at nå bestemte mål, mens psykologer snarere ser på evnen til tilpasning eller overlevelse. Forskellene afspejles i nedenstående forslag til, hvordan et AI-system testes for, om det besidder AGI.

Turing-testen (Allan Turing)

Et menneske skal være ude af stand til at skelne maskine fra menneske ud fra svarene på spørgsmål, der stilles til begge.

Robot-studenter-testen (Ben Goertzel)

Et AI-system skal kunne indskrive sig på et universitet og deltage i og bestå kurser i forskellige fag, præcis som en menneskelig studerende ville gøre.

Beskæftigelsestesten (Nils John Nilsson)

En maskine skal ikke blot kunne besvare spørgsmål i testmiljøer, men klare sig i ”real world”. Den skal kunne udføre alle funktioner mindst lige så godt som et menneske i samme job.

IKEA-testen (Gary Marcus)

En kunstig intelligens ser delene og instruktionerne til et IKEA-møbel og skal derpå være i stand til at styre en robot til at samle møblet korrekt.

Bemærk, hvordan metoderne adskiller sig i deres fokus på rationelle beregninger og evnen til at begå sig i komplekse miljøer. En har i øvrigt foreslået, at vi er i mål med AGI, når en robot uden yderligere instruktion kan gå ind i et hus og lave en kop kaffe. Testen er interessant, fordi den afslører, hvor kompleks en helt almindelig dagligdags opgave er for kunstig intelligens.

Mig bekendt har ingen foreslået at teste på evnen til at skabe fred, tillid og grøn omstilling.

Fra AGI til superintelligens

En udbredt bekymring omkring AGI er, at den kan udvikle sig til superintelligens; en type intelligens, der langt overgår menneskets. Forestillingen er, at AGI-modeller vil være i stand til selv at forbedre deres design, indtil de er væsentligt mere intelligente end mennesker, både i hastighed og kvalitet. Næste mulige udvikling er en form for intelligenseksplosion, beskrevet som en uendelig spiral af eksponentielt voksende intelligens. Som omtalt er der en tendens til, at de to begreber glider sammen, men i litteraturen omtales det i reglen som forskellige teknologier.

Om Altmans ugle kommer til at hjælpe os eller udslette os, vender vi tilbage til om lidt, men lad os først se på realismen i AGI. Er det overhovedet muligt at udvikle kunstig intelligens, der både kan erstatte pressechefen og McDonald’s-ekspedienten og hjælpe dig, næste gang du er kommet til at købe en KALLAX eller en KLEPPSTAD i IKEA?

Uenighed om tidshorisont

Spådomme har et noget blakket ry i videnskabelige kredse, så hvad gør man, hvis man alligevel vil prøve at få den særegne disciplin til at ligne forskning? En udbredt tilgang er at lave kvantitative målinger blandt eksperter. I en survey fra 2022 blandt 352 AI-eksperter pegede halvdelen således på, at vi er i mål før 2061, mens 90 procent holdt sig inden for rammerne af 100 år. 

Trods store uenigheder om tidshorisonten ser kun få det altså som fri sci-fi-fantasi. Hold dog in mente, at selvom de adspurgte er eksperter i en bestemt teknologi, er de ikke eksperter i at forudsige fremtiden. Nogle er i øvrigt langt mere optimistiske.

CEO’en for AI-firmaet Anthropic, Dario Amodei, taler om blot to-tre år, og i forbindelse med fyringen af Sam Altman blev det antydet, at ugleægget ikke blot er lagt på plads i OpenAI’s spurverede, men måske allerede er ved at udklækkes. ChatGPT-udviklerne er tæt på et gennembrud, lød (ubekræftede) spekulationer i forbindelse med fyringen.

Magtmonopol eller magtbalance

Spørgsmålet om, hvordan AGI kan tænkes at påvirke menneskeheden, er naturligt nok et stort debatemne. Hvis det rent faktisk lykkes at udvikle AGI, vil det næppe være en overdrivelse af kalde det en milepæl i menneskets historie. Mens en del techoptimister tror, at AGI bliver menneskets redning, er mange højtprofilerede debatstemmer dog særdeles bekymrede. Elon Musk, Bill Gates og Stephen Hawking er kun toppen af isbjerget.

Den fremtrædende svensk-amerikanske matematiker og forsker Max Tegmark tror, at AGI kan blive både det værste og det bedste, der er sket for menneskeheden. Lander teknologien rigtigt, kan den med sine overlegne intellektuelle superkræfter udrydde alt fra sult og fattigdom til CO2-udledning, diplomatiske kriser og krige.

Lander teknologien i stedet med smørret nedad, er der til gengæld få grænser for dårligdommene. Det er ikke Terminator-scenariet, hvor AI udvikler bevidsthed og sætter sig for at udradere menneskeheden, Tegmark bekymrer sig for.

Han er til gengæld alvorligt bange for den ekstreme magt, AGI og ikke mindst den forventede superintelligens, der kan følge efter, vil give opfinderne. Hvis du råder over uendelige intelligensresurser, vil uendelige produktivitetskræfter følge efter og sætte dig i stand til at styre og manipulere hele verden, lyder rationalet. Uanset om du er et privat firma, en stat, FN eller en terrorbevægelse.

Af samme årsag håber Tegmark, at udviklingen frem for at eksplodere vil ske langsomt og velforberedt, så der kan opstå en magtbalance i stil med den, man har med atomvåben, hvor de ultimative våben er fordelt mellem flere uafhængige parter. Det samme håber i øvrigt Vladimir Putin, der har sagt, at verdens hersker bliver den, der fører inden for AI. Og at Rusland vil dele sin viden om AI, hvis de bliver førende. Vurdér selv troværdigheden.

Problemer nok uden AGI

En anden problematik i AGI-debatten kaldes ”the instrumental convergence thesis”. Det handler om, at du nok kan få et AI-system til at gøre, hvad du siger, men ikke nødvendigvis, hvad du mener. Et berømt tankeeksperiment kommer fra føromtalte Nick Bostrom, som beder os om at forestille os et kraftigt AI-system, der beordres til at optimere produktionen af papirklips.

Systemet er så effektivt, at det omdanner al tilgængelig masse på Jorden, inklusive mennesker, til papirklips. Det optimerer altså dets mål, men opfatter desværre tingene en kende for bogstaveligt. Et tilsvarende eksempel går på at sætte et AI-system til at løse klimaproblemet, hvorpå det udraderer menneskeheden.

Disse historier er ekstreme og næppe nogle, vi bør bekymre os om foreløbig – medmindre, der sker en uventet intelligenseksplosion i morgen. Men problemet med skævt alignment mellem menneskelige hensigter og algoritmisk målopfyldelse begrænser sig ikke til opfindsomme tankeeksperimenter.

Et eksempel på, at en ordre kan få andre og mere voldsomme konsekvenser end tiltænkt, er sagen om Instagrams algoritmer, der optimerede unge pigers tidsforbrug på platformen ved at anbefale dem indhold med selvskade.

Når vi kan trække på smilebåndet af papirklipseksemplet, er det altså værd at erindre, at der allerede i dag sker relaterede ting med væsentligt enklere AI, som har medført nok så alvorlige konsekvenser. Uden sikker og robust alignment mellem AI- og menneskelige værdier er det let at forestille sig, at problemerne vil vokse i styrke i takt med teknologien.

Menneskelig vs. kunstig intelligens

Man kan hævde, at hvis en AI-model virkelig bliver så intelligent, ville den vel også kunne forstå en simpel ordre fra et normaltbegavet menneske. Så enkelt er det dog desværre ikke, hvilket blandt andet skyldes føromtalte uklarheder om, hvad intelligens er.

Et system kan sagtens betegnes som intelligent, selvom det forstår ordrer meget bogstaveligt og ikke læser mellem linjerne. Og selvom det mangler kontekstforståelse eller forståelse af menneskelige værdier i bred forstand. Vi bør jævnligt minde os selv om, at AGI netop ikke er menneskelig intelligens, selvom mennesker er teknologiens udgangspunkt.

Den store værdikamp

En relateret problematik handler om, at ordrer sagtens kan være umulige at fortolke entydigt. Selv hvis et intelligent system giver gode forslag til at indrette samfundet, lovene og arbejdspladserne bedst muligt, kan den ikke give ét svar, alle vil finde godt og rigtigt. Det samme gælder klimaforandringer, skolesystemer og strafferetssystemer. Fordi der er åbenlys strid om, hvad vi hver især synes er bedst.

Der ligger værdiantagelser gemt flere steder, end vi er bevidste om til daglig, hvilket vi allerede kender fra problematikkerne omkring bias i data. At et intelligent computersystem matcher eller overgår mennesker på mange parametre, er ikke det samme, som at alle mennesker vil finde dets beslutninger rigtige, gode eller for den sags skyld intelligente.

Vores begrænsede erkendelse

Det bringer os til endnu en problematik. For vil vi overhovedet være i stand til at forstå det geniale i en eventuel rådgivning fra en AGI eller superintelligens? Det minder om black box-dilemmaet: Grundlaget for, at AI-systemer kan træffe kloge beslutninger, hænger uløseligt sammen med evnen til at finde hoved og hale i gigantiske datamængder, vi ikke selv kan overskue.

Så skal vi stole på maskinen, hvis vi ved, at den som regel har ret, men at vi ikke forstår dens ”ræsonnement”? Spørgsmålet bliver endnu vigtigere at besvare, hvis vi ikke blot beder om rådgivning, men implementerer AI-beslutninger ind i autonome systemer, som handler direkte derpå.

Kunne vi dog være så dumme, tænker læsere med større tillid til menneskets evner måske. Betænk dog i den sammenhæng, at milliarder af mennesker i dag gerne tilrettelægger deres liv efter ekstremt indgribende regler, de reelt ikke har skyggen af mulighed for at efterprøve fornuften i.

En stor del af verdens befolkning følger religiøse regler ud fra det ene princip, at de er rigtige, fordi Gud siger det. Også selvom reglerne ligger uden for vores fatteevne.

Herrens veje er uransagelige, og det samme gælder for avanceret AI. Tilliden til førstnævnte er indtil videre tilsyneladende større, men AI er så småt ved at hale ind på Gud. I det lys behøver man ikke være marxist for at spørge, om ikke udviklerne af AGI burde forpligtes mere på almenvellet, end de gør via stadigt mindre troværdige mission statements.

Et sidste pip

Den lille historie om de risikovillige spurve, der indleder Nick Bostroms bog om superintelligens, har ikke nogen konkluderende slutning, og det får denne historie heller ikke. Til gengæld har den et udtalt fravær af den begejstring, visse aktører udviser for idéen om AGI.

For selv hvis forskerne lykkes med at udvikle AGI uden at sætte den menneskelige civilisation over styr – hvis spurvene formår at domesticere uglen – er det formentlig naivt at glæde sig til Utopia. 

Folk og kulturer er forskellige, og det er svært at forestille sig selv den mest intelligente autoritet indføre en samfundsform, alle frivilligt vil glide ind i. Forandringer sker sjældent uden gnidninger og uden ofre. Og det bliver sjældent bedre af, at de sker med udgangspunkt i, at nogle hævder at have fundet sandheden. Hvad enten den nu stammer fra religiøse eller teknologiske overhoveder. Mens vi venter, klynger jeg mig til håbet om, at min pessimisme skyldes mit begrænsede menneskelige intellekt.

Kilder

“Speculations Concerning the First Ultraintelligent Machine”, Irving John Good, 1965

“Life 3.0: Being Human in the Age of Artificial Intelligence”, Max Tegmark, 2017

“Superintelligence: Paths, Dangers, Strategies”, Nick Bostrom, 2014

“Putin says the nation that leads in AI ‘will be the ruler of the world’”, James Vincent, 2017 

“OpenAI researchers warned board of AI breakthrough ahead of CEO ouster, sources say”, Reuters, 2023

“AI Belongs to the Capitalists Now”, NYT, 2023

”OpenAI-gate: profit vs. menneskeheden”, Pernille Tranberg, 2023

AGI Definition: Tech Target

AGI Definition: OpenAI

AGI Definition: Gartner 

AGI Definition: Wikipedia

Del artikel

Tilmeld dig vores nyhedsbrev

Vær på forkant med udviklingen. Få den nyeste viden fra branchen med vores nyhedsbrev.

Forsiden lige nu

Læs også