Prateprogramvare
Joseph Weizenbaum fekk datamaskina til å svare som ein truverdig tullepsykolog.
Om du går inn på nettsidene til Nav, får du opp eit lite område nedst til høgre der det står «Chat med oss» ved sida av andletet til eit kvinne med raudbrunt hår. Klikkar du på dette området, står det «Hei! Jeg heter Frida og er NAV sin chat-robot. Hva lurer du på?»
Om du til dømes spør Frida om «Kan eg få barnetrygd om eg bur i Danmark?», finn systemet nøkkelord i spørsmålet og omset det til eit standardsvar og lenkjer til nettsider. Om eg no skriv: «Eg vil vite spesifikt kva reglar som gjeld for Danmark», svarer Frida: «Jeg er ikke sikker på om jeg har forstått deg rett, men jeg kan hjelpe deg med...», etterfølgt av ei lenkje til Arbeidssøker utland.
Frida er tydelegvis ikkje særleg intelligent, og mange Nav-brukarar irriterer seg over henne. Programmet forstår ikkje intensjonen til brukaren og gjev ikkje nokon peikar til informasjon om barnetrygd i utlandet.
Slike «chatbotar», eller prateprogram, som vi også kallar det, kan vere nyttige, til dømes for å presentere svar på ofte stilte spørsmål. No under koronaen har ein spart mykje på at dataprogram har peikt brukarar til nettsider i staden for at menneske svarer på spørsmål om restriksjonar. Likevel, prateprogramma kunne fungert betre.
Dei som sel tilrettelegging av prateprogram, marknadsfører gjerne produkta sine som kunstig intelligens, men det Frida gjer, er litt for banalt til å fortene merkelappen kunstig intelligens.
Det å kunne samtale med eit menneske med menneskeleg språk, eller naturleg språk, som IT-folk kallar det, har alltid vore eit stort mål for kunstig intelligens-feltet. Den kjende logikaren og matematikaren Alan Turing formulerte det han kalla imitasjonsspelet (eller turingtesten). Først når datamaskina klarer å kommunisere tekstleg slik at eit menneske ikkje greier å skilje maskina frå eit menneske, har vi kunstig intelligens.
Psykolog-programmet Eliza er eit eksempel frå tidleg kunstig intelligens-historie. I ein tekstleg samtale svara ho med å følgje opp eit ord frå det brukaren tasta inn, eller med eit enkeltord som oppfordra til å skrive meir, som i «Eg er deprimert» – «Deprimert?» – «Eg trivs ikkje på jobben» – «Forklar!».
Testbrukarane fekk gode opplevingar, og det var stor optimisme i feltet etter dette, men Joseph Weizenbaum, han som hadde laga programmet, var ueinig i dette. Ein enkel algoritme ligg bak Eliza, og den kan ikkje brukast til rikare samtalar. Dagens prateprogram er ikkje mykje meir avanserte.
Naturleg språk har i det heile vist seg å vere vanskeleg for kunstig intelligens. Det er fordi vi menneske i ein samtale har svært mykje kontekst. Vi kjenner bakgrunnen til samtalepartnaren, vi kjenner staden vi er på, og vi veit kva den andre veit. Vi aksepterer grammatisk ukorrekte setningar, vi aksepterer bruk av feil ord, dialektformer og avbrotne setningar. Vi forstår likevel. Den kontekstforståinga og fleksibiliteten er det vanskeleg å få til for eit dataprogram.
Dei siste ti åra har det dukka opp nye måtar å sjå på språk i kunstig intelligens på. I staden for å tolke ved hjelp av grammatikk og ordbøker gjer ein noko heilt anna. Sjølvlærande algoritmar bruker enorme mengder tekst til å lage statistiske modellar av språk. Ved å sjå på kva kontekst eit ord er plassert i, er desse modellane i stand til å lære ein representasjon av ordet i den aktuelle konteksten. Denne representasjonen er ein vektor av eit hundretals tal mellom 0 og 1. Modellane viser at ord med liknande meining har vektorar som er ganske like fordi dei ofte står i like kontekstar.
Desse modellane kan også brukast til å lage same typen vektorrepresentasjonar av setningar. Og setningar med lik meining vil gjerne ha ganske like vektorar. Den mest kjende slike modellen vert kalla BERT og er laga for engelsk. Ved Universitetet i Oslo har ein no laga ein tilsvarande modell for norsk kalla NorBERT. Den har brukt data frå norske aviser til sjølvlæringa.
Frida bruker ikkje slike språkmodellar enno, men NorBERT gjer det mogleg å bruke data om samtalar med Frida for å lære vektorrepresentasjonar av spørsmåla som brukarane stiller.
Ein kan tenkje seg at Frida får delt opp alt innhaldet på sidene i meiningsfulle bitar (setningar, avsnitt) som vert meir presise svar, og kvart spørsmål kan så koplast til eit slikt svar. Når brukaren stiller eit spørsmål på ein ny måte, kan Frida finne det eksempelspørsmålet som har likast representasjon, og (kanskje) gje eit passande svar.
Også med NorBERT er det slik at det vil bli ein del unyttige eller meiningslause svar, og det fungerer ikkje godt nok for utolmodige kvardagsbrukarar. Det blir spennande å sjå om vi i framtida kan få tilgang til ei Frida som svarer adekvat kvar gong.
Forstår Frida intensjonen til brukaren om ho bruker NorBERT? Svaret på det er nei. Desse språkmodellane er statistiske samanhengar som er baserte på store datamengder.
Om ein brukar er ironisk eller grip til ein vag metafor for å forklare noko, vil det verte vanskeleg for språkmodellen å finne dei beste eksempelspørsmåla. Og då vert samtalen gjerne slik som i eventyret: «God dag, mann!» «Økseskaft.»
Bjørnar Tessem og Lars Nyre
Er du abonnent? Logg på her for å lese vidare.
Digital tilgang til DAG OG TID – heilt utan binding
Prøv ein månad for kr 49.
Deretter kr 199 per månad. Stopp når du vil.
Om du går inn på nettsidene til Nav, får du opp eit lite område nedst til høgre der det står «Chat med oss» ved sida av andletet til eit kvinne med raudbrunt hår. Klikkar du på dette området, står det «Hei! Jeg heter Frida og er NAV sin chat-robot. Hva lurer du på?»
Om du til dømes spør Frida om «Kan eg få barnetrygd om eg bur i Danmark?», finn systemet nøkkelord i spørsmålet og omset det til eit standardsvar og lenkjer til nettsider. Om eg no skriv: «Eg vil vite spesifikt kva reglar som gjeld for Danmark», svarer Frida: «Jeg er ikke sikker på om jeg har forstått deg rett, men jeg kan hjelpe deg med...», etterfølgt av ei lenkje til Arbeidssøker utland.
Frida er tydelegvis ikkje særleg intelligent, og mange Nav-brukarar irriterer seg over henne. Programmet forstår ikkje intensjonen til brukaren og gjev ikkje nokon peikar til informasjon om barnetrygd i utlandet.
Slike «chatbotar», eller prateprogram, som vi også kallar det, kan vere nyttige, til dømes for å presentere svar på ofte stilte spørsmål. No under koronaen har ein spart mykje på at dataprogram har peikt brukarar til nettsider i staden for at menneske svarer på spørsmål om restriksjonar. Likevel, prateprogramma kunne fungert betre.
Dei som sel tilrettelegging av prateprogram, marknadsfører gjerne produkta sine som kunstig intelligens, men det Frida gjer, er litt for banalt til å fortene merkelappen kunstig intelligens.
Det å kunne samtale med eit menneske med menneskeleg språk, eller naturleg språk, som IT-folk kallar det, har alltid vore eit stort mål for kunstig intelligens-feltet. Den kjende logikaren og matematikaren Alan Turing formulerte det han kalla imitasjonsspelet (eller turingtesten). Først når datamaskina klarer å kommunisere tekstleg slik at eit menneske ikkje greier å skilje maskina frå eit menneske, har vi kunstig intelligens.
Psykolog-programmet Eliza er eit eksempel frå tidleg kunstig intelligens-historie. I ein tekstleg samtale svara ho med å følgje opp eit ord frå det brukaren tasta inn, eller med eit enkeltord som oppfordra til å skrive meir, som i «Eg er deprimert» – «Deprimert?» – «Eg trivs ikkje på jobben» – «Forklar!».
Testbrukarane fekk gode opplevingar, og det var stor optimisme i feltet etter dette, men Joseph Weizenbaum, han som hadde laga programmet, var ueinig i dette. Ein enkel algoritme ligg bak Eliza, og den kan ikkje brukast til rikare samtalar. Dagens prateprogram er ikkje mykje meir avanserte.
Naturleg språk har i det heile vist seg å vere vanskeleg for kunstig intelligens. Det er fordi vi menneske i ein samtale har svært mykje kontekst. Vi kjenner bakgrunnen til samtalepartnaren, vi kjenner staden vi er på, og vi veit kva den andre veit. Vi aksepterer grammatisk ukorrekte setningar, vi aksepterer bruk av feil ord, dialektformer og avbrotne setningar. Vi forstår likevel. Den kontekstforståinga og fleksibiliteten er det vanskeleg å få til for eit dataprogram.
Dei siste ti åra har det dukka opp nye måtar å sjå på språk i kunstig intelligens på. I staden for å tolke ved hjelp av grammatikk og ordbøker gjer ein noko heilt anna. Sjølvlærande algoritmar bruker enorme mengder tekst til å lage statistiske modellar av språk. Ved å sjå på kva kontekst eit ord er plassert i, er desse modellane i stand til å lære ein representasjon av ordet i den aktuelle konteksten. Denne representasjonen er ein vektor av eit hundretals tal mellom 0 og 1. Modellane viser at ord med liknande meining har vektorar som er ganske like fordi dei ofte står i like kontekstar.
Desse modellane kan også brukast til å lage same typen vektorrepresentasjonar av setningar. Og setningar med lik meining vil gjerne ha ganske like vektorar. Den mest kjende slike modellen vert kalla BERT og er laga for engelsk. Ved Universitetet i Oslo har ein no laga ein tilsvarande modell for norsk kalla NorBERT. Den har brukt data frå norske aviser til sjølvlæringa.
Frida bruker ikkje slike språkmodellar enno, men NorBERT gjer det mogleg å bruke data om samtalar med Frida for å lære vektorrepresentasjonar av spørsmåla som brukarane stiller.
Ein kan tenkje seg at Frida får delt opp alt innhaldet på sidene i meiningsfulle bitar (setningar, avsnitt) som vert meir presise svar, og kvart spørsmål kan så koplast til eit slikt svar. Når brukaren stiller eit spørsmål på ein ny måte, kan Frida finne det eksempelspørsmålet som har likast representasjon, og (kanskje) gje eit passande svar.
Også med NorBERT er det slik at det vil bli ein del unyttige eller meiningslause svar, og det fungerer ikkje godt nok for utolmodige kvardagsbrukarar. Det blir spennande å sjå om vi i framtida kan få tilgang til ei Frida som svarer adekvat kvar gong.
Forstår Frida intensjonen til brukaren om ho bruker NorBERT? Svaret på det er nei. Desse språkmodellane er statistiske samanhengar som er baserte på store datamengder.
Om ein brukar er ironisk eller grip til ein vag metafor for å forklare noko, vil det verte vanskeleg for språkmodellen å finne dei beste eksempelspørsmåla. Og då vert samtalen gjerne slik som i eventyret: «God dag, mann!» «Økseskaft.»
Bjørnar Tessem og Lars Nyre
Naturleg språk har i det heile vist seg å vere vanskeleg for kunstig intelligens.
Fleire artiklar
Familien Nerdrum ved garden i Stavern.
Foto: Agnete Brun / NRK
Ikkje alt er politikk
Politiseringa av Nerdrum-familien er påfallande i lys av kor upolitisk Nerdrum eigentleg er.
Torje Hommedal Knausgård tek mastergrad i fransk ved Universitetet i Oslo. Lea Marie Krona gjer det same i tysk. Dei har få å sitje i kollokviegruppe med.
Foto: Sigurd Arnekleiv Bækkelund
Framandspråka forsvinn
Tilgangen på framandspråk er større enn nokon gong. Likevel er det stadig færre som vil studere dei.
Teikning: May Linn Clement
Forgard i nord
Kan USA kome til å ta over Grønland med makt?
Rune Slagstad på veg inn til Finansdepartementet i november i fjor.
Foto: Dag og Tid
Fylgjene av konkurransestaten
Rune Slagstad syner korleis venstresida lenge har gløymt røtene og prinsippa sine. Der andre held seg til vande spor, gjenetablerer han vona om at vi kan finne ut av kva som er viktigast å diskutere.
Jean-Marie Le Pen døydde 7. januar, 96 år gamal.
Foto: Stephane Mahe / Reuters / NTB
Ein politisk krigar har falle
Jean-Marie Le Pen (1928–2025) vart ein nybrotsmann for all høgrepopulisme i dag.