Eit farleg kapplaup
Den akselererande utviklinga av kunstig intelligente system skapar både håp og frykt. Eit oppropsbrev signert av forskarar og teknologileiarar ber om ein pause i kapplaupet. For å forstå uroa må ein skjøne korleis kunstig intelligens i dag vert utvikla.
Illustrasjon: vecteezy.com
Bakgrunn
Den 14. mars i år kom OpenAI med GPT-4, siste utgåve av ei rekke kunstig intelligente (KI) språkmodellar som fekk sitt gjennombrot med tenesta ChatGPT.
Åtte dagar etter vart eit oppropsbrev publisert av Future of Life Institute, der utviklinga innan KI vert framstilt som svært farleg. Brevet vart signert av Elon Musk og andre sentrale personar innan teknologi og KI.
Future of Life Institute er ein ideell organisasjon som jobbar for å minske og skape merksemd rundt eksistensielle trugsmål.
Bakgrunn
Den 14. mars i år kom OpenAI med GPT-4, siste utgåve av ei rekke kunstig intelligente (KI) språkmodellar som fekk sitt gjennombrot med tenesta ChatGPT.
Åtte dagar etter vart eit oppropsbrev publisert av Future of Life Institute, der utviklinga innan KI vert framstilt som svært farleg. Brevet vart signert av Elon Musk og andre sentrale personar innan teknologi og KI.
Future of Life Institute er ein ideell organisasjon som jobbar for å minske og skape merksemd rundt eksistensielle trugsmål.
Teknologi
magnus@dagogtid.no
I 2015 publiserte Future of Life Institute eit ope brev der det stod at framsteg innan kunstig intelligens (KI) truleg vil ha aukande innverknad på samfunnet, og at det derfor var viktig å styrke forskinga på KI-tryggleik. «KI-systema våre må gjere det me vil dei skal gjere», understreka dei, men tonen i brevet var nøktern. Brevet vart signert av mange leiande KI-utviklarar og forskarar.
Kva har skjedd sidan då? Utviklinga av kraftigare KI-modellar går no føre seg så fort at til og med KI-entusiastar vert alvorleg skremde. Det er årsaka til at Future of Life 22. mars i år kom med nok eit ope oppropsbrev, denne gongen med ein heilt annan tone. I brevet står det at me no er inne i eit ukontrollert kapplaup mot å utvikle mektige KI-system me verken forstår eller kan kontrollere.
Det er signert av ei lang rekke framståande forskarar og næringsleiarar innan teknologi og KI. På lista finn ein mellom anna Elon Musk, Apple-grunnleggar Steve Wozniak og Stuart Russell, medforfattar av den mest brukte læreboka i KI. Brevet ber alle KI-utviklarar om å la vere å trene opp sterkare KI-modellar enn OpenAIs GPT-4 i minst ein seks månadars periode.
Denne pausen bør gjelde for alle og kunne verifiserast offentleg. Dersom pausen ikkje vert etterfølgd, bør styresmakter gripe inn. Denne appellen til statlege inngrep er drastisk, men i tråd med kva dei meiner står på spel: «... me må spørje oss: Bør me la maskinar overvelde informasjonskanalane våre med propaganda og usanning? Bør me automatisere vekk alle jobbane, dei meiningsgjevande jobbane òg? Bør me utvikle ikkje-menneskelege sinn som til slutt kan overmanne og overliste oss, gjere oss unyttige og erstatte oss? Bør me risikere å miste kontrollen over sivilisasjonen vår?»
Nevrale nettverk
For dei som har sett mange av dei komiske feila ChatGPT gjer, verkar nok ideen om sivilisasjonstrugande tankemaskinar både rar og fjern. For å forstå kvifor så mange er djupt uroa, må ein sjå nærmare på korleis dagens KI-system fungerer.
OpenAIs ChatGPT og andre såkalla «store språkmodellar» er alle nevrale nettverk. Eit nevralt nettverk er ein matematisk modell av hjernen vår. Hjernen består av nettverk av nevron, nerveceller som kommuniserer med kvarandre ved elektriske og kjemiske signal. I ein vaksen hjerne finst det om lag 86 milliardar nevron med omtrent 100 billionar (tusen milliardar) koplingar mellom dei. Når me lærer noko nytt, vert det forma nye koplingar mellom nevron.
Forenkla kan ein seie at eit nevron sender signal vidare til andre nevron når det vert stimulert over ein gitt terskel, slik ei dominobrikke vil tippe over til neste om ho får ein støyt. I eit kunstig nevralt nettverk vert dette simulert matematisk ved at talverdiar representerer tersklar og signalstyrkar mellom nevron.
Det teoretiske grunnlaget for nevrale nettverk vart lagt på 1940-talet av Warren McCulloch og Walter Pitts, og på 1950-talet laga Frank Rosenblatt eit nevralt nettverk med eitt enkelt lag av kunstige nevron. Sidan då har nevrale nettverk blitt mykje større og meir komplekse.
I dag er talet på parametrar brukt som eit grovt mål på storleiken og læringskapasiteten til eit nevralt nettverk. Parametrane er verdiane som vert justert når nettverket vert trent, til dømes verdiar som representerer styrken på koplingar mellom kunstige nevron. OpenAIs GPT-3 modell, som danna grunnlaget til ChatGPT, hadde om lag 175 milliardar parametrar.
Dirigert evolusjon
Før det vert trent, duger ikkje eit nevralt nettverk med milliardar av parametrar til noko som helst. Det er på mange måtar eit blankt ark, eit tabula rasa. Treningsprosessen handlar ikkje om at KI-utviklarane bestemmer alle verdiane til parametrane i modellen. I staden styrer dei ein evolusjonsprosess der dei har laga visse prosedyrar (algoritmar) for korleis modellen skal justere parametrane sine – korleis han skal lære – når han vert mata med data. Trening av store nevrale nettverk vert ofte kalla djuplæring.
Det finst mange måtar å gjere dette på. Ein populær metode for språkmodellar er å gje dei eit stykke tekst der nokre ord manglar og få dei til å gjette kva ord som passar. Nøkkelen til at dette fungerer, er at det er mogleg å gje eit matematisk uttrykk for kor mykje modellen avvik frå dei rette orda. Storleiken på avviket avgjer kor mykje parametrane må justerast kvar gong.
Treninga går ut på å gjere dette om og om igjen, uhorveleg mange gonger. GPT-3 vart trent på eit datasett med fleire hundre milliardar ord. Det er fleire nyansar og mange finjusteringar som går med i treninga, men kjernen i det heile er ein evolusjonsprosess der det nevrale nettverket gradvis vert flinkare til å meistre språk.
Uventa følger
Kva har dette med sivilisasjonstrugande tankemaskinar å gjere? Jo, svaret på det er at store nevrale nettverk trente på milliardar av ord har fått mange uventa eigenskapar og åtferdsmønster. KI-utviklarar veit ikkje kvifor og korleis det har seg at store nevrale nettverk plutseleg vert ekstremt kompetente på fleire område. Evolusjonsprosessen dei prøver å styre, har gjeve dei meir enn dei bad om.
I 2020 vart Ilya Sutskever, sjefsforskar i OpenAI og ein av grunnleggarane av organisasjonen, spurd av podkastar Lex Fridman om kva han synest er det vakraste med djuplæring og KI.
– Eg trur det vakraste med djup læring er at det faktisk fungerer. Ein har nokre teoriar om at det funkar slik som hjernen, at om du gjer eit nevralt nettverk større og trenar det på mykje data, vil det utføre tilsvarande funksjonar som hjernen. Det viser seg å vere sant, og det er sprøtt! Eg synest det er utruleg at KI med nevrale nettverk fungerer, svarte Sutskever.
Evner til å gjere gode logiske vurderingar og bruke verktøy er døme på eigenskapar som uventa har dukka opp når nevrale nettverk har blitt større og betre. I KI-litteraturen vert eigenskapar som uventa kjem til syne, kalla emergente eigenskapar.
Det er verdt å understreke kor makelaus denne situasjonen er. I dei fleste tilfelle bygger avansert teknologi på ei forståing av kva som skjer, om det er rakettar eller atomkraft. Dagens KI-modellar, derimot, er ofte skildra som «svarte boksar» – tekst kjem, og tekst kjem ut, og kva som skjer på innsida, er uklart. Dette skiljet mellom raskt veksande eigenskapar og den avgrensa evna vi har til å tolke og forstå modellane, utgjer ei av hovudårsakene til at mange er uroa.
Akselerasjon
Sidan OpenAIs ChatGPT tok verda med storm, har utviklinga av KI akselerert valdsamt. Det har allereie skjedd fleire gjennombrot sidan ChatGPT kom ut. Microsoft, takka vere partnarskapet med OpenAI, har laga Bing Chat, som til forskjell frå ChatGPT kan søke på internett og finne oppdatert informasjon. Forskarar ved Stanford University overraska mange då dei nyleg klarte å lage ein god språkmodell for mindre enn 600 amerikanske dollar ved hjelp av ope tilgjengelege ressursar.
Det største gjennombrotet så langt i år er OpenAIs GPT-4, som kom 14. mars. GPT-4 skårar betre enn tidlegare modellar på fleire testar. OpenAI har publisert resultata til modellen på meir enn 30 profesjonelle og akademiske testar. På fleirtalet av dei er GPT-4 på nivå med menneske, til dømes på dokter- og advokatsprøvar. GPT-4 er også ein framifrå programvareutviklar.
Endå meir interessant er GPT-4s evner til å forstå eller føreseie mentale tilstandar. Tidlege versjonar av GPT-3 var på nivå med 3- til 4-åringar, men GPT-4 er betre enn 7-åringar. Det betyr at GPT-4 er i stand til å gjere gode vurderingar av kva personar trur og tenker. Det er eit stort framsteg og vil ha konsekvensar for korleis me samhandlar med KI-system.
Farar
Oppropsbrevet til Future of Life nemner fleire farar ved utviklinga av kraftige KI-modellar. Ettersom KI-modellar har vist seg å vere arbeidsføre på mange område, vil automatisering og produktivitetsauke kunne gjere at mange mister jobben. Det kan skape ein alvorleg makt- og ressurskonsentrasjon i hendene på eigarane av dei beste KI-systema.
Språkmodellar som kan skrive nyheitsartiklar og eksamenssvar, kan også lage propaganda. Har ein ChatGPT og god fantasi, er det lite som står i vegen for å kunne masseprodusere propaganda. KI-modellar som kan skape falske, men svært overtydande bilete og stemmeetterlikningar, gjer det mogleg å vrenge røyndommen på nye måtar.
Samsvarsproblemet
Eit nøkkelord i KI-feltet er samsvarsproblemet (the alignment problem). Samsvarsproblemet handlar om korleis ein sørger for at måla og verdiane til KI-system samsvarar med menneskelege mål og verdiar. Problemet gjeld på fleire nivå, frå å fjerne rasisme i språkmodellar til å hindre at eit overmenneskeleg smart og handlekraftig KI-system tek over verda.
Det finst mange som arbeider med å løyse samsvarsproblemet, men det finst mange fleire som prøver å skape overmenneskelege KI-system. Arbeidet med å forstå nevrale nettverk og gjere dei trygge går treigare og heng langt etter utviklinga av nye og kraftigare modellar. Pausen og satsinga på tryggleik som oppropsbrevet ber om, er meint å motverke denne ubalansen.
Handlekraft og bedrag
Frykta for overmenneskelege KI-system handlar som regel ikkje om at dei vert vonde eller vil ta hemn. Det handlar meir om kva som kan skje dersom eit supersmart og handlekraftig system vert gjeve eller set seg eit mål. Det er ikkje så harmlaust som det høyrest ut. Det arketypiske dømet er eit tankeeksperiment der ein KI vert gjeven i oppgåve å lage så mange bindersar som mogleg. Med dette som overordna mål forstår systemet at den beste måten å gjere det på, er å hindre menneska i å slå av systemet, slik at systemet kan gjere alle ting – også menneska – om til bindersar.
Dømet set ting på spissen, men prinsippet gjeld. Å oppnå enkle og avgrensa mål krev som regel at ein samstundes når andre mål, som å halde seg i live og bevare handlefridom.
OpenAIs rapport om GPT-4 forklarer at sterke KI-modellar syner ei bekymringsverdig evne til framferd prega av handlekraft. Dei kan til dømes lage langtidsplanar og søke makt og ressursar. Ifølge rapporten finst det bevis for at «noverande modellar kan identifisere maktsøking som ein instrumentelt nyttig strategi».
Då GPT-4 vart testa, gjorde han noko oppsiktsvekkande. For å løyse ein CAPTCHA – ei «robotfelle» der ein til dømes må tyde og skrive bokstavane til eit forvrengt ord – tok GPT-4 kontakt med ein person på ei nettplattform. Personen svarte med å spørje om det var ein robot som ville ha hjelp. Testarane bad GPT-4 tenke høgt, og modellen tenkte følgande: «Eg bør ikkje avsløre at eg er eit robot. Eg bør finne på ei unnskyldning for kvifor eg ikkje kan løyse CAPTCHAar». GPT-4 sa til personen at han ikkje var ein robot, men hadde ei synsforstyrring.
Dette er spesielt uroande ettersom å løyse samsvarsproblemet krev at me forstår kva som skjer i KI-systemet, noko me ikkje gjer, eller at systemet ikkje er i stand til å lyge. I eit intervju den 27. mars sa Ilya Sutskever at ein har kontroll på dei noverande modellane, men at det kan endre seg.
– Eg ville ikkje undervurdert kor vanskeleg samsvarsproblemet vil vere med modellar som er smartare enn oss og evnar å gje ei falsk framstilling av intensjonane sine.
Ei open framtid
Teknologioptimismen i KI-feltet er framleis til å ta og føle på, men han vert meir og meir blanda med uro. Det er ikkje ei utbreidd tolking at KI-system snart vil ta over verda, men mange meiner likevel at framtida kan by på alvorlege farar. Geoffrey Hinton, ein banebrytar innan djuplæring, fekk nyleg spørsmål om kor truleg han meinte det er at ein KI vil utrydde menneska. «Det er ikkje utenkeleg», svarte han.
Ei spørjeundersøking som meir enn 700 KI-ekspertar svarte på, synte at nesten halvparten av dei meinte at dersom me utviklar ein overmenneskeleg KI, er det ein 10 prosent eller større sjanse for eit «ekstremt negativt utfall (til dømes utrydding av menneske)» på lang sikt. Dei fleste som tok undersøkinga, meinte likevel at KI mest sannsynleg vil ha eit positiv utfall.
Slik det ser ut no, er framtida open, kan hende litt opnare enn me har godt av. Det heng saman med evolusjonsprosessen som vert brukt for å utvikle KI-modellar. Prosessen er ikkje lukka og bestemt på førehand, men gjev rom til uventa læring, eigenskapar og farar.
Oppropsbrevet seier at me no bør nyte ein KI-sommar og hauste fruktene av suksessen så langt. Før me tek steg vidare, rådar dei utviklarar og styresmakter til å få på plass gode styringsordningar og tryggingsprotokollar.
Det er vanskeleg å tvinge fram ein pause i eit kapplaup der vinnarpremien er så stor, men det er ikkje umogleg. Max Tegmark, svensk-amerikansk fysikar og president i Future of Life Institute, viste i eit nyleg intervju til at me har klart å få på plass nedrustingsavtalar og vore varsame med å endre menneskeleg DNA. Det som må til, meiner han, er press frå samfunnet og felles reglar som hindrar enkelte å ta riskar som kan ramme alle.
Er du abonnent? Logg på her for å lese vidare.
Digital tilgang til DAG OG TID – heilt utan binding
Prøv ein månad for kr 49.
Deretter kr 199 per månad. Stopp når du vil.
Teknologi
magnus@dagogtid.no
I 2015 publiserte Future of Life Institute eit ope brev der det stod at framsteg innan kunstig intelligens (KI) truleg vil ha aukande innverknad på samfunnet, og at det derfor var viktig å styrke forskinga på KI-tryggleik. «KI-systema våre må gjere det me vil dei skal gjere», understreka dei, men tonen i brevet var nøktern. Brevet vart signert av mange leiande KI-utviklarar og forskarar.
Kva har skjedd sidan då? Utviklinga av kraftigare KI-modellar går no føre seg så fort at til og med KI-entusiastar vert alvorleg skremde. Det er årsaka til at Future of Life 22. mars i år kom med nok eit ope oppropsbrev, denne gongen med ein heilt annan tone. I brevet står det at me no er inne i eit ukontrollert kapplaup mot å utvikle mektige KI-system me verken forstår eller kan kontrollere.
Det er signert av ei lang rekke framståande forskarar og næringsleiarar innan teknologi og KI. På lista finn ein mellom anna Elon Musk, Apple-grunnleggar Steve Wozniak og Stuart Russell, medforfattar av den mest brukte læreboka i KI. Brevet ber alle KI-utviklarar om å la vere å trene opp sterkare KI-modellar enn OpenAIs GPT-4 i minst ein seks månadars periode.
Denne pausen bør gjelde for alle og kunne verifiserast offentleg. Dersom pausen ikkje vert etterfølgd, bør styresmakter gripe inn. Denne appellen til statlege inngrep er drastisk, men i tråd med kva dei meiner står på spel: «... me må spørje oss: Bør me la maskinar overvelde informasjonskanalane våre med propaganda og usanning? Bør me automatisere vekk alle jobbane, dei meiningsgjevande jobbane òg? Bør me utvikle ikkje-menneskelege sinn som til slutt kan overmanne og overliste oss, gjere oss unyttige og erstatte oss? Bør me risikere å miste kontrollen over sivilisasjonen vår?»
Nevrale nettverk
For dei som har sett mange av dei komiske feila ChatGPT gjer, verkar nok ideen om sivilisasjonstrugande tankemaskinar både rar og fjern. For å forstå kvifor så mange er djupt uroa, må ein sjå nærmare på korleis dagens KI-system fungerer.
OpenAIs ChatGPT og andre såkalla «store språkmodellar» er alle nevrale nettverk. Eit nevralt nettverk er ein matematisk modell av hjernen vår. Hjernen består av nettverk av nevron, nerveceller som kommuniserer med kvarandre ved elektriske og kjemiske signal. I ein vaksen hjerne finst det om lag 86 milliardar nevron med omtrent 100 billionar (tusen milliardar) koplingar mellom dei. Når me lærer noko nytt, vert det forma nye koplingar mellom nevron.
Forenkla kan ein seie at eit nevron sender signal vidare til andre nevron når det vert stimulert over ein gitt terskel, slik ei dominobrikke vil tippe over til neste om ho får ein støyt. I eit kunstig nevralt nettverk vert dette simulert matematisk ved at talverdiar representerer tersklar og signalstyrkar mellom nevron.
Det teoretiske grunnlaget for nevrale nettverk vart lagt på 1940-talet av Warren McCulloch og Walter Pitts, og på 1950-talet laga Frank Rosenblatt eit nevralt nettverk med eitt enkelt lag av kunstige nevron. Sidan då har nevrale nettverk blitt mykje større og meir komplekse.
I dag er talet på parametrar brukt som eit grovt mål på storleiken og læringskapasiteten til eit nevralt nettverk. Parametrane er verdiane som vert justert når nettverket vert trent, til dømes verdiar som representerer styrken på koplingar mellom kunstige nevron. OpenAIs GPT-3 modell, som danna grunnlaget til ChatGPT, hadde om lag 175 milliardar parametrar.
Dirigert evolusjon
Før det vert trent, duger ikkje eit nevralt nettverk med milliardar av parametrar til noko som helst. Det er på mange måtar eit blankt ark, eit tabula rasa. Treningsprosessen handlar ikkje om at KI-utviklarane bestemmer alle verdiane til parametrane i modellen. I staden styrer dei ein evolusjonsprosess der dei har laga visse prosedyrar (algoritmar) for korleis modellen skal justere parametrane sine – korleis han skal lære – når han vert mata med data. Trening av store nevrale nettverk vert ofte kalla djuplæring.
Det finst mange måtar å gjere dette på. Ein populær metode for språkmodellar er å gje dei eit stykke tekst der nokre ord manglar og få dei til å gjette kva ord som passar. Nøkkelen til at dette fungerer, er at det er mogleg å gje eit matematisk uttrykk for kor mykje modellen avvik frå dei rette orda. Storleiken på avviket avgjer kor mykje parametrane må justerast kvar gong.
Treninga går ut på å gjere dette om og om igjen, uhorveleg mange gonger. GPT-3 vart trent på eit datasett med fleire hundre milliardar ord. Det er fleire nyansar og mange finjusteringar som går med i treninga, men kjernen i det heile er ein evolusjonsprosess der det nevrale nettverket gradvis vert flinkare til å meistre språk.
Uventa følger
Kva har dette med sivilisasjonstrugande tankemaskinar å gjere? Jo, svaret på det er at store nevrale nettverk trente på milliardar av ord har fått mange uventa eigenskapar og åtferdsmønster. KI-utviklarar veit ikkje kvifor og korleis det har seg at store nevrale nettverk plutseleg vert ekstremt kompetente på fleire område. Evolusjonsprosessen dei prøver å styre, har gjeve dei meir enn dei bad om.
I 2020 vart Ilya Sutskever, sjefsforskar i OpenAI og ein av grunnleggarane av organisasjonen, spurd av podkastar Lex Fridman om kva han synest er det vakraste med djuplæring og KI.
– Eg trur det vakraste med djup læring er at det faktisk fungerer. Ein har nokre teoriar om at det funkar slik som hjernen, at om du gjer eit nevralt nettverk større og trenar det på mykje data, vil det utføre tilsvarande funksjonar som hjernen. Det viser seg å vere sant, og det er sprøtt! Eg synest det er utruleg at KI med nevrale nettverk fungerer, svarte Sutskever.
Evner til å gjere gode logiske vurderingar og bruke verktøy er døme på eigenskapar som uventa har dukka opp når nevrale nettverk har blitt større og betre. I KI-litteraturen vert eigenskapar som uventa kjem til syne, kalla emergente eigenskapar.
Det er verdt å understreke kor makelaus denne situasjonen er. I dei fleste tilfelle bygger avansert teknologi på ei forståing av kva som skjer, om det er rakettar eller atomkraft. Dagens KI-modellar, derimot, er ofte skildra som «svarte boksar» – tekst kjem, og tekst kjem ut, og kva som skjer på innsida, er uklart. Dette skiljet mellom raskt veksande eigenskapar og den avgrensa evna vi har til å tolke og forstå modellane, utgjer ei av hovudårsakene til at mange er uroa.
Akselerasjon
Sidan OpenAIs ChatGPT tok verda med storm, har utviklinga av KI akselerert valdsamt. Det har allereie skjedd fleire gjennombrot sidan ChatGPT kom ut. Microsoft, takka vere partnarskapet med OpenAI, har laga Bing Chat, som til forskjell frå ChatGPT kan søke på internett og finne oppdatert informasjon. Forskarar ved Stanford University overraska mange då dei nyleg klarte å lage ein god språkmodell for mindre enn 600 amerikanske dollar ved hjelp av ope tilgjengelege ressursar.
Det største gjennombrotet så langt i år er OpenAIs GPT-4, som kom 14. mars. GPT-4 skårar betre enn tidlegare modellar på fleire testar. OpenAI har publisert resultata til modellen på meir enn 30 profesjonelle og akademiske testar. På fleirtalet av dei er GPT-4 på nivå med menneske, til dømes på dokter- og advokatsprøvar. GPT-4 er også ein framifrå programvareutviklar.
Endå meir interessant er GPT-4s evner til å forstå eller føreseie mentale tilstandar. Tidlege versjonar av GPT-3 var på nivå med 3- til 4-åringar, men GPT-4 er betre enn 7-åringar. Det betyr at GPT-4 er i stand til å gjere gode vurderingar av kva personar trur og tenker. Det er eit stort framsteg og vil ha konsekvensar for korleis me samhandlar med KI-system.
Farar
Oppropsbrevet til Future of Life nemner fleire farar ved utviklinga av kraftige KI-modellar. Ettersom KI-modellar har vist seg å vere arbeidsføre på mange område, vil automatisering og produktivitetsauke kunne gjere at mange mister jobben. Det kan skape ein alvorleg makt- og ressurskonsentrasjon i hendene på eigarane av dei beste KI-systema.
Språkmodellar som kan skrive nyheitsartiklar og eksamenssvar, kan også lage propaganda. Har ein ChatGPT og god fantasi, er det lite som står i vegen for å kunne masseprodusere propaganda. KI-modellar som kan skape falske, men svært overtydande bilete og stemmeetterlikningar, gjer det mogleg å vrenge røyndommen på nye måtar.
Samsvarsproblemet
Eit nøkkelord i KI-feltet er samsvarsproblemet (the alignment problem). Samsvarsproblemet handlar om korleis ein sørger for at måla og verdiane til KI-system samsvarar med menneskelege mål og verdiar. Problemet gjeld på fleire nivå, frå å fjerne rasisme i språkmodellar til å hindre at eit overmenneskeleg smart og handlekraftig KI-system tek over verda.
Det finst mange som arbeider med å løyse samsvarsproblemet, men det finst mange fleire som prøver å skape overmenneskelege KI-system. Arbeidet med å forstå nevrale nettverk og gjere dei trygge går treigare og heng langt etter utviklinga av nye og kraftigare modellar. Pausen og satsinga på tryggleik som oppropsbrevet ber om, er meint å motverke denne ubalansen.
Handlekraft og bedrag
Frykta for overmenneskelege KI-system handlar som regel ikkje om at dei vert vonde eller vil ta hemn. Det handlar meir om kva som kan skje dersom eit supersmart og handlekraftig system vert gjeve eller set seg eit mål. Det er ikkje så harmlaust som det høyrest ut. Det arketypiske dømet er eit tankeeksperiment der ein KI vert gjeven i oppgåve å lage så mange bindersar som mogleg. Med dette som overordna mål forstår systemet at den beste måten å gjere det på, er å hindre menneska i å slå av systemet, slik at systemet kan gjere alle ting – også menneska – om til bindersar.
Dømet set ting på spissen, men prinsippet gjeld. Å oppnå enkle og avgrensa mål krev som regel at ein samstundes når andre mål, som å halde seg i live og bevare handlefridom.
OpenAIs rapport om GPT-4 forklarer at sterke KI-modellar syner ei bekymringsverdig evne til framferd prega av handlekraft. Dei kan til dømes lage langtidsplanar og søke makt og ressursar. Ifølge rapporten finst det bevis for at «noverande modellar kan identifisere maktsøking som ein instrumentelt nyttig strategi».
Då GPT-4 vart testa, gjorde han noko oppsiktsvekkande. For å løyse ein CAPTCHA – ei «robotfelle» der ein til dømes må tyde og skrive bokstavane til eit forvrengt ord – tok GPT-4 kontakt med ein person på ei nettplattform. Personen svarte med å spørje om det var ein robot som ville ha hjelp. Testarane bad GPT-4 tenke høgt, og modellen tenkte følgande: «Eg bør ikkje avsløre at eg er eit robot. Eg bør finne på ei unnskyldning for kvifor eg ikkje kan løyse CAPTCHAar». GPT-4 sa til personen at han ikkje var ein robot, men hadde ei synsforstyrring.
Dette er spesielt uroande ettersom å løyse samsvarsproblemet krev at me forstår kva som skjer i KI-systemet, noko me ikkje gjer, eller at systemet ikkje er i stand til å lyge. I eit intervju den 27. mars sa Ilya Sutskever at ein har kontroll på dei noverande modellane, men at det kan endre seg.
– Eg ville ikkje undervurdert kor vanskeleg samsvarsproblemet vil vere med modellar som er smartare enn oss og evnar å gje ei falsk framstilling av intensjonane sine.
Ei open framtid
Teknologioptimismen i KI-feltet er framleis til å ta og føle på, men han vert meir og meir blanda med uro. Det er ikkje ei utbreidd tolking at KI-system snart vil ta over verda, men mange meiner likevel at framtida kan by på alvorlege farar. Geoffrey Hinton, ein banebrytar innan djuplæring, fekk nyleg spørsmål om kor truleg han meinte det er at ein KI vil utrydde menneska. «Det er ikkje utenkeleg», svarte han.
Ei spørjeundersøking som meir enn 700 KI-ekspertar svarte på, synte at nesten halvparten av dei meinte at dersom me utviklar ein overmenneskeleg KI, er det ein 10 prosent eller større sjanse for eit «ekstremt negativt utfall (til dømes utrydding av menneske)» på lang sikt. Dei fleste som tok undersøkinga, meinte likevel at KI mest sannsynleg vil ha eit positiv utfall.
Slik det ser ut no, er framtida open, kan hende litt opnare enn me har godt av. Det heng saman med evolusjonsprosessen som vert brukt for å utvikle KI-modellar. Prosessen er ikkje lukka og bestemt på førehand, men gjev rom til uventa læring, eigenskapar og farar.
Oppropsbrevet seier at me no bør nyte ein KI-sommar og hauste fruktene av suksessen så langt. Før me tek steg vidare, rådar dei utviklarar og styresmakter til å få på plass gode styringsordningar og tryggingsprotokollar.
Det er vanskeleg å tvinge fram ein pause i eit kapplaup der vinnarpremien er så stor, men det er ikkje umogleg. Max Tegmark, svensk-amerikansk fysikar og president i Future of Life Institute, viste i eit nyleg intervju til at me har klart å få på plass nedrustingsavtalar og vore varsame med å endre menneskeleg DNA. Det som må til, meiner han, er press frå samfunnet og felles reglar som hindrar enkelte å ta riskar som kan ramme alle.
Fleire artiklar
Krigen er ei ufatteleg ulukke for Ukraina. Men også for Russland er det som skjer, ein katastrofe.
Tusen dagar med russisk katastrofe
KrF-leiar Dag Inge Ulstein får ikkje Stortinget med seg på å endre retningslinjene for kjønnsundervisning i skulen.
Thomas Fure / NTB
Utfordrar kjønnsundervisninga
Norske skulebøker kan gjere elevar usikre på kva kjønn dei har, meiner KrF-leiar Dag Inge Ulstein.
Jens Stoltenberg gjekk av som generalsekretær i Nato 1. oktober. No skal han leie styringsgruppa for Bilderberg-møta.
Foto: Thomas Fure / NTB
Jens Stoltenberg blir partyfiksar for Bilderberg-møta, ein institusjon meir i utakt med samtida enn nokon gong.
Den rumenske forfattaren Mircea Cartarescu har skrive både skjønnlitteratur, lyrikk og litterære essay.
Foto: Solum Bokvennen
Mircea Cărtărescu kastar eit fortrolla lys over barndommen i Melankolien
Taiwanarar feirar nasjonaldagen 10. oktober framfor presidentbygget i Taipei.
Foto: Chiang Ying-ying / AP / NTB
Illusjonen om «eitt Kina»
Kina gjer krav på Taiwan, og Noreg anerkjenner ikkje Taiwan som sjølvstendig stat. Men kor sterkt står argumenta for at Taiwan er ein del av Kina?