Kunstig intelligens og kognitivt muskelsvinn
Geoffrey Hinton.
Foto: Mark Blinch / Reuters / NTB
Dei nye språkmodellane me finn under det noko misvisande omgrepet «kunstig intelligens», kan ta over mange oppgåver. Det å imitera og nærma seg menneskeleg intelligens gjennom teknologi har alltid vore ein slags heilag gral for teknologiutviklinga. Det er dermed ikkje sagt at det er lurt å setja bort alt tenkjearbeid me kan, til prosessorhastigheit og big data.
Det som skremmer meg mest som lærar, er at dei nye språkmodellane er omkransa av tvil. Tvil om ektheit, tvil om sanning, tvil om pålitelegheit for alt me brukar dei til. Teknologien hadde allereie før desse språkmodellane gitt oss deep fake, forfalska bilete og filmar som det så å seia er umogleg å avsløra for meinigmann.
I skriftleg kommunikasjon direkte med språkmodellane får eg plausible og velartikulerte svar, men førebels er dei rigga sånn at der dei ikkje finn svar, går dei rundt grauten eller lyg. Det er òg lagt inn etiske sperrer med eit politisk korrekt verdisett i botnen, slik at ikkje alt blir svart på, med tilvising til at det kan vera støytande. Me kan etter kvart sjå for oss ei polarisering, der me får språkmodellar med polariserte verdisett, ein kunstig intelligens for høgresida og motsett.
Digital tilgang – heilt utan binding
Prøv ein månad for kr 49.
Deretter kr 199 per månad. Stopp når du vil.