Sjølvkøyrande bilar
Sjølvkøyrande bilar tek inn data frå omgjevnadene via GPS, lidar, kamera, radar, infraraud sensor, nedlasta kart og ultrasonisk sensor og set dei saman til ein modell av kva objekt som er rundt bilen, kvar dei er, kva fart og kva forventa intensjonar dei har.
Illustrasjon: Shutterstock / NTB
Teknologi
Korleis fungerer den nye teknologien som omgjev oss?
Per Eilif Thorvaldsen, førsteamanuensis i kommunikasjonssystem ved Høgskulen på Vestlandet, skriv om teknologi annakvar veke.
Lars Nyre, professor i medie-
vitskap, og Bjørnar Tessem, professor i informasjonsvitskap, begge ved Universitetet i Bergen, skriv den andre veka.
Teknologi
Korleis fungerer den nye teknologien som omgjev oss?
Per Eilif Thorvaldsen, førsteamanuensis i kommunikasjonssystem ved Høgskulen på Vestlandet, skriv om teknologi annakvar veke.
Lars Nyre, professor i medie-
vitskap, og Bjørnar Tessem, professor i informasjonsvitskap, begge ved Universitetet i Bergen, skriv den andre veka.
I 1995 køyrde forskarar frå Carnegie Mellon-universitetet med ein bil frå New York til Los Angeles. Bilen styrte seg sjølv 98,2 prosent av vegen ved hjelp av kamera og programvare som brukte vegmerkinga til å styre bilen.
Over 25 år etter har mange nye bilmodellar slike algoritmar, og dei kan gje føraren eit hint om at vegkanten nærmar seg, og i nokre sekund kan du la bilen styre seg sjølv før han varslar om at no må du ta rattet. Automatisk bremsing, fartsauke og varsling om fysiske hindringar er kjend teknologi for mange bilførarar.
Når vi har kome så langt, kan ein sjølvsagt spørje kva tid bilane kan ta over ansvaret for køyringa fullt og heilt. Og sensorteknologi og systema for kontroll over bilen er stort sett på plass for slike bilar, det som enno manglar, er evna til å handle rett i dei aller vanskelegaste situasjonane.
Ein sjølvkøyrande bil vert styrt av ei datamaskin med såkalla kunstig intelligens, det vil seie eit program som skal løyse vanskelege problem ein tenkjer ville krevje menneskeleg intelligens. Programmet tek inn data frå omgjevnadene via kamera og radarar og set dei saman til ein modell av kva objekt som er rundt bilen, kvar dei er og kva fart dei har. Programmet må òg klassifisere objekta, til dømes som andre bilar, fotgjengarar, syklistar eller dyr. Det er viktig for bilen å vite kva eit objekt er, fordi forventa intensjonar til medtrafikkantane er med og hjelper i handlingsvala. Sjølv om ein bil kjem mot deg i stor fart, er det ikkje slik at du nødvendigvis skal stoppe. Du forventar jo at den andre bilen held sida si på vegen.
Datasyn og algoritmar som kjenner igjen objekt, er temmeleg presise, i alle fall når det gjeld å kjenne igjen dei vanlegaste typane objekt i trafikken. Såkalla djuplæringsalgoritmar, òg kalla nevrale nettverk, brukar tusenvis eller kanskje millionar av eksempelbilete til å lære å kjenne att objekt.
Djuplæring kan seiast å imitere hjernens verkemåte. Programma handterer tusenvis av einingar som vert kalla nevron. Dette er ikkje fysiske nevron, termen er brukt metaforisk. Dei kunstige nevrona er kopla saman om lag som nevron i hjernen, og kvart nevron sender impulsar i form av tal til nevron i neste lag. Nevrona mottar impulsar frå andre nevron og har ein enkel modell for utrekning av sin eigen ut-impuls. Det første laget av nevron tar imot data frå omgjevnadene, pikselen i eit bilde. Så går inndataa gjennom lag etter lag heilt til det i det siste laget kjem ut eit svar på kva eit objekt er.
Men før ein kan bruke slike system, må dei lære. Kort sagt måler ein kor mange feil systemet gjer i klassifisering av ei stor mengd bilde, og så får kvart nevron, i alle lag, gjennom avanserte lærealgoritmar, korrigert den lokale reknemodellen sin. Etter tusenvis av rundar med gjennomgang av eksempelbilde har programmet lært å gjenkjenne både bilar og folk.
Kvart nevron utgjer berre ein liten del av ein stor rekneoperasjon, og det er umogleg å identifisere i kva for nevron dei viktigaste utrekningane i det nevrale nettverket skjer. Men ein har funne ut at tidlege lag lærer å gjenkjenne linjer og einsarta område. Dei neste laga gjenkjenner former som ein arm eller eit hjul, og dei siste laga kjenner igjen heile former som eit menneske eller ein sykkel.
Algoritmane for å lære objektattkjenning er ikkje 100 prosent treffsikre, og dei kan bomme kraftig dersom det kjem noko inn i synsområdet som ikkje liknar på noko dei har sett før.
I 2018 vart Elaine Herzberg påkøyrd av ein sjølvkøyrande Uber-bil under utprøving i Arizona. Ho kryssa ein firefeltsveg medan ho leidde ein sykkel lasta med handleposar. Ho vart alvorleg skadd og døydde på sjukehuset kort tid etterpå. Ei viktig årsak var at ein person som leier ein sykkel i vegen, med fleire handleposar hengande på sykkelen, ikkje var vanleg i læredataa. Systemet greidde først ikkje å klassifisere Herzberg og sykkelen, trudde så at det var ein annan bil og oppdaga til slutt at det var ein sykkel. Men då var det for seint. Det at bilen ikkje skjønte kva dette objektet var, i tillegg til mangel på reglar for å handtere slike situasjonar, gjorde at han handla feil. Personen som sat bak rattet og skulle vere reserveløysing, såg elles på The Voice på mobilen.
Under køyringa driv bilen i store trekk med ulike nivå av planlegging og resonnering. Langtidsplanlegging skjer på grunnlag av GPS og kartdata. I tillegg har ein resonneringssystem som avgjer kva som er smart å gjere i ulike situasjonar, både under normale trafikkval, som feltskifte, og i naudsituasjonar. Systemet har gjerne reglar av typen «brems om det er noko stort urørleg i vegbana». Det må òg vere slik at ein tek omsyn til medtrafikkantanes forventa intensjonar: at ein fotgjengar på eit fortau held seg der, eller at ein møtande bil ikkje har intensjon om å frontkollidere. Her må ein bruke sannsynsbaserte teknikkar.
Det er enno uklart korleis ein sjølvkøyrande bil skal greie seg i tett snødrev i mørkret på ein smal norsk bygdeveg. Her kan det verte så mange nyansar av lys og skugge i bildeanalysen at han kanskje må stole heilt og fullt på laserradaren (om han ikkje er tildekt av snø). Det er heller ikkje så lett å handtere kaotisk bytrafikk. Ein må medverke til flyt i trafikken, men òg ta omsyn til mange uføreseielege trafikantar.
I dag køyrer kvar slik bil åleine i trafikken. I framtida vil ein kanskje byggje ut sendarar langs vegane, slik at bilane kan styre etter desse signala og verte mindre avhengige av visuell vegmerking. Bilane vil truleg også kommunisere via radio for å koordinere køyringa. Dei kan til dømes forhandle om kven som skal køyre først inn i rundkøyringa som begge skal inn i. Datamaskina har raskare reaksjonsevne enn menneske, og autonome, samarbeidande bilar vil kunne køyre jamnare, tettare og fortare. Vi vil med slik teknologi kunne få meir effektiv og trygg person- og varetransport.
Bjørnar Tessem og Lars Nyre
Er du abonnent? Logg på her for å lese vidare.
Digital tilgang til DAG OG TID – heilt utan binding
Prøv ein månad for kr 49.
Deretter kr 199 per månad. Stopp når du vil.
I 1995 køyrde forskarar frå Carnegie Mellon-universitetet med ein bil frå New York til Los Angeles. Bilen styrte seg sjølv 98,2 prosent av vegen ved hjelp av kamera og programvare som brukte vegmerkinga til å styre bilen.
Over 25 år etter har mange nye bilmodellar slike algoritmar, og dei kan gje føraren eit hint om at vegkanten nærmar seg, og i nokre sekund kan du la bilen styre seg sjølv før han varslar om at no må du ta rattet. Automatisk bremsing, fartsauke og varsling om fysiske hindringar er kjend teknologi for mange bilførarar.
Når vi har kome så langt, kan ein sjølvsagt spørje kva tid bilane kan ta over ansvaret for køyringa fullt og heilt. Og sensorteknologi og systema for kontroll over bilen er stort sett på plass for slike bilar, det som enno manglar, er evna til å handle rett i dei aller vanskelegaste situasjonane.
Ein sjølvkøyrande bil vert styrt av ei datamaskin med såkalla kunstig intelligens, det vil seie eit program som skal løyse vanskelege problem ein tenkjer ville krevje menneskeleg intelligens. Programmet tek inn data frå omgjevnadene via kamera og radarar og set dei saman til ein modell av kva objekt som er rundt bilen, kvar dei er og kva fart dei har. Programmet må òg klassifisere objekta, til dømes som andre bilar, fotgjengarar, syklistar eller dyr. Det er viktig for bilen å vite kva eit objekt er, fordi forventa intensjonar til medtrafikkantane er med og hjelper i handlingsvala. Sjølv om ein bil kjem mot deg i stor fart, er det ikkje slik at du nødvendigvis skal stoppe. Du forventar jo at den andre bilen held sida si på vegen.
Datasyn og algoritmar som kjenner igjen objekt, er temmeleg presise, i alle fall når det gjeld å kjenne igjen dei vanlegaste typane objekt i trafikken. Såkalla djuplæringsalgoritmar, òg kalla nevrale nettverk, brukar tusenvis eller kanskje millionar av eksempelbilete til å lære å kjenne att objekt.
Djuplæring kan seiast å imitere hjernens verkemåte. Programma handterer tusenvis av einingar som vert kalla nevron. Dette er ikkje fysiske nevron, termen er brukt metaforisk. Dei kunstige nevrona er kopla saman om lag som nevron i hjernen, og kvart nevron sender impulsar i form av tal til nevron i neste lag. Nevrona mottar impulsar frå andre nevron og har ein enkel modell for utrekning av sin eigen ut-impuls. Det første laget av nevron tar imot data frå omgjevnadene, pikselen i eit bilde. Så går inndataa gjennom lag etter lag heilt til det i det siste laget kjem ut eit svar på kva eit objekt er.
Men før ein kan bruke slike system, må dei lære. Kort sagt måler ein kor mange feil systemet gjer i klassifisering av ei stor mengd bilde, og så får kvart nevron, i alle lag, gjennom avanserte lærealgoritmar, korrigert den lokale reknemodellen sin. Etter tusenvis av rundar med gjennomgang av eksempelbilde har programmet lært å gjenkjenne både bilar og folk.
Kvart nevron utgjer berre ein liten del av ein stor rekneoperasjon, og det er umogleg å identifisere i kva for nevron dei viktigaste utrekningane i det nevrale nettverket skjer. Men ein har funne ut at tidlege lag lærer å gjenkjenne linjer og einsarta område. Dei neste laga gjenkjenner former som ein arm eller eit hjul, og dei siste laga kjenner igjen heile former som eit menneske eller ein sykkel.
Algoritmane for å lære objektattkjenning er ikkje 100 prosent treffsikre, og dei kan bomme kraftig dersom det kjem noko inn i synsområdet som ikkje liknar på noko dei har sett før.
I 2018 vart Elaine Herzberg påkøyrd av ein sjølvkøyrande Uber-bil under utprøving i Arizona. Ho kryssa ein firefeltsveg medan ho leidde ein sykkel lasta med handleposar. Ho vart alvorleg skadd og døydde på sjukehuset kort tid etterpå. Ei viktig årsak var at ein person som leier ein sykkel i vegen, med fleire handleposar hengande på sykkelen, ikkje var vanleg i læredataa. Systemet greidde først ikkje å klassifisere Herzberg og sykkelen, trudde så at det var ein annan bil og oppdaga til slutt at det var ein sykkel. Men då var det for seint. Det at bilen ikkje skjønte kva dette objektet var, i tillegg til mangel på reglar for å handtere slike situasjonar, gjorde at han handla feil. Personen som sat bak rattet og skulle vere reserveløysing, såg elles på The Voice på mobilen.
Under køyringa driv bilen i store trekk med ulike nivå av planlegging og resonnering. Langtidsplanlegging skjer på grunnlag av GPS og kartdata. I tillegg har ein resonneringssystem som avgjer kva som er smart å gjere i ulike situasjonar, både under normale trafikkval, som feltskifte, og i naudsituasjonar. Systemet har gjerne reglar av typen «brems om det er noko stort urørleg i vegbana». Det må òg vere slik at ein tek omsyn til medtrafikkantanes forventa intensjonar: at ein fotgjengar på eit fortau held seg der, eller at ein møtande bil ikkje har intensjon om å frontkollidere. Her må ein bruke sannsynsbaserte teknikkar.
Det er enno uklart korleis ein sjølvkøyrande bil skal greie seg i tett snødrev i mørkret på ein smal norsk bygdeveg. Her kan det verte så mange nyansar av lys og skugge i bildeanalysen at han kanskje må stole heilt og fullt på laserradaren (om han ikkje er tildekt av snø). Det er heller ikkje så lett å handtere kaotisk bytrafikk. Ein må medverke til flyt i trafikken, men òg ta omsyn til mange uføreseielege trafikantar.
I dag køyrer kvar slik bil åleine i trafikken. I framtida vil ein kanskje byggje ut sendarar langs vegane, slik at bilane kan styre etter desse signala og verte mindre avhengige av visuell vegmerking. Bilane vil truleg også kommunisere via radio for å koordinere køyringa. Dei kan til dømes forhandle om kven som skal køyre først inn i rundkøyringa som begge skal inn i. Datamaskina har raskare reaksjonsevne enn menneske, og autonome, samarbeidande bilar vil kunne køyre jamnare, tettare og fortare. Vi vil med slik teknologi kunne få meir effektiv og trygg person- og varetransport.
Bjørnar Tessem og Lars Nyre
Det er enno uklart korleis ein sjølvkøyrande bil skal greie seg i tett snødrev i mørkret på ein smal norsk bygdeveg.
Fleire artiklar
Marianne Nielsen i hovudrolla som Winnie. Gerald Pettersen spelar Willie.
Foto: Sebastian Dalseide
Beckett-klassikar av godt merke
Glade dager byr på ein strålande skodespelarprestasjon av Marianne Nielsen.
Ingrid Storholmen har teke utgangspunkt i eit stort datamateriale om folkehelsa i Nord-Trøndelag.
Foto: Merete Haseth
Våren over mannalivet
Ingrid Storholmen gjer tørre helsedata om til levande liv i Bloddråpetall.
Takumi (Hitoshi Omika) og dottera Hana (Ryo Nishikawa) lever eit roleg liv på bygda, som no kan få ein «glampingplass».
Foto: Another World Entertainment
Djevelen i detaljane
By mot land er eit sentralt tema i endå ein framifrå film av Ryusuke Hamaguchi.
Finaste finnbiffen med grøne erter, potet og tyting.
Foto: Dagfinn Nordbø
Finaste finnbiffen
«Seier eg at eg skal invitere på finnbiff, blir folk berre glade. Dei veit at dei skal få smake noko av det beste landet vårt har å by på av ingrediensar, med reinkjøt som helten.»
KrF-leiar Dag Inge Ulstein får ikkje Stortinget med seg på å endre retningslinjene for kjønnsundervisning i skulen.
Thomas Fure / NTB
Utfordrar kjønnsundervisninga
Norske skulebøker kan gjere elevar usikre på kva kjønn dei har, meiner KrF-leiar Dag Inge Ulstein.