Nobelprisen i fysikk til forskere bak maskinlæring: – Jeg ble litt overrasket, sier Inga Strümke
– Dette er en helt opplagt pris for i år, sier Bjørn Samset.
Årets pris handler om maskiner som lærer, sa Hans Ellegren ved Kungliga Vetenskapsakademien da årets nobelpris i fysikk ble kunngjort.
Vinnerne er John J. Hopfield ved Princeton University i USA og Geoffrey E. Hinton ved University of Toronto i Canada.
De får prisen for grunnleggende oppdagelser innen maskinlæring og nevrale nettverk.
Språkmodeller som ChatGPT og lignende KI-verktøy har spredt seg voldsomt i verden de siste årene, men grunnlaget ble altså lagt av prisvinnernes kunstige nevrale nettverk for flere tiår siden.
Programmene bruker store datasett for å trene opp seg selv. Det skaper selvforsterkende prosesser, hvor noen koblinger blir sterkere og sterkere, mens andre, mindre brukte koblinger forsvinner av seg selv.
Dette er datasystemer som hermer etter hvordan menneskehjernen er bygget opp med massevis av koblinger mellom nerveceller – eller nevroner. Ideen om kunstige nevrale nettverk strekker seg tilbake til 1960-tallet, men det var inspirert av den nye forståelsen av hjernen og nerveceller som kom på 1940-tallet.
Men er dette en fysikkpris? Vanligvis gis prisen til for eksempel eksperimentelle bekreftelser av teori, som for eksempel i 2022. Da dreide det seg om kvantesammenfiltring, som du kan lese mer om her.
– Overraskende
– Jeg har snakket med flere fysikere som først synes det var rart at fysikk-prisen gikk til noe kunstig intelligens-greier, sier Inga Strümke til forskning.no.
Hun er kunstig intelligens-forsker ved NTNU og har skrevet boka Maskiner som tenker.
– Jeg ble litt overrasket sjøl, men hvis man leser begrunnelsen, så vil jeg si at det gir mening.
John Hopfield får prisen for å ha laget et nettverk som kan lagre og kjenne igjen mønstre, heter det i juryens begrunnelse.
Dette nettverket var basert på grunnleggende fysikk, og det var bygget for å være et selvlærende nettverk som kunne analysere bilder.
Grunnleggende fysikk
– Hopfield-nettverket bruker metoder fra statistisk mekanikk til å det hele tatt fungere, sier Strümke.
Statistisk mekanikk handler om å beskrive store systemer med veldig mange partikler eller små deler, som skyer av gass, utviklet av Ludwig Boltzmann på 1870-tallet. Dette er svært viktig grunnleggende fysikk, som blant annet beskriver hvordan for eksempel en motor kan utføre arbeid.
Geoffrey Hinton bygde videre på arbeidet til Hopfield for å lage et annet type nettverk, som skulle lete etter mønstre i store datamengder. Hinton brukte statistisk mekanikk rett fra kilden, Ludwig Boltzmann, som utviklet denne grenen av fysikk på 1870-tallet.
Denne typen statistikk ble altså overført til å drive forløperen til nevrale nettverk av prisvinnerne.
Les hele artikkelen her: