Vi benytter cookies på DN.no til analyseformål, tilpasning av innhold og annonser og for å videreutvikle våre tjenester.Les mer her.

Bildet gjenskaper et spill mellom Go-spilleren Lee Sedol og en Google-utviklet supermaskin i Seoul. Foto: ED JONES
Bildet gjenskaper et spill mellom Go-spilleren Lee Sedol og en Google-utviklet supermaskin i Seoul. Foto: ED JONES les mer

Teknologi

Datamaskin spilte med seg selv og ble uovervinnelig

Siste generasjon kunstig intelligens banket forgjengeren sønder og sammen i strategispillet Go.

Artikkelen er lagt til i din leseliste.

Google-selskapet DeepMind i London jobber med kunstig intelligens for å få datamaskiner til å løse avanserte problemer.

Dette er Go

Go er et brettbasert, strategisk krigsspill for to personer

Go oppsto sannsynligvis i Kina for flere tusen år siden. I dag er det svært populært i Sør-Korea og Japan.

Go spilles med 181 svarte og 180 hvite brikker på et brett med 19 vannrette og 19 loddrette linjer.

Spillet går ut på å erobre områder ved å innelukke ledige punkter med egne brikker, samt å innelukke motstanderens brikker på samme måte og fjerne dem fra brettet.

Kilde: Store norske leksikon

Vis mer

En stund var DeepMinds «kunstig intelligente» programvare AlphaGo verdens beste spiller av det avanserte strategispillet Go.

Men det varte ikke lenge. For nå har utviklere i samme selskap laget en ny generasjon kalt AlphaGo Zero, skriver MIT Technology Review.

DeepMind er eid av Alphabet, som er morselskapet til søkemotorselskapet Google.

Da AlphaGo Zero ble satt til å spille mot AlphaGo var det ingen tvil om hvem av de to datamaskinene som var «smartest»:

Nykommeren slo forgjengeren med sifrene 100-0.

Lærte på en ny måte

Ifølge magasinet MIT Technology Review, som har vært tilknyttet prestisjeuniversitetet Massachusetts Institute of Technology (MIT) siden 1899, lærte den forrige Go-maskinen til DeepMind seg å mestre det vanskelige spillet ved å fordøye data fra hundretusenvis av partier spilt av menneskelige eksperter.

Med AlphaGo Zero valgte utviklerne en radikalt annerledes strategi.

Programmet startet med et spillebrett og reglene for Go.

Deretter lærte datamaskinen seg vinnerstrategier gjennom å spille millioner av partier mot seg selv og benytte det den lærte underveis til å forbedre seg.

MIT Technology Review mener metoden representerer et fremskritt på veien mot å bygge maskiner med ekte intelligens, en egenskap som forutsetter at man klarer å finne løsninger på vanskelige problemer uten å være avhengig av store mengder data som en algoritme kan bruke til å «trene» seg opp.

Lærte seg triks

Mens maskinen drev egentrening gjennom å spille med seg selv, oppdaget den triks og teknikker som menneskelige Go-spillere har utviklet over de siste tusenårene.

– Etter noen få dager gjenoppdaget den kjente vinnerspill, og mot slutten beveget den seg utover dette og fant noe som var enda bedre. Det er ganske kult å se, sier Demis Hassabis, en av grunnleggerne av DeepMind, som ble kjøpt opp av Google i 2014.

Maskinlæring, simulering og læring basert på prøving og feiling, også kalt «reinforcement learning», har ført DeepMind til fronten av feltet som kalles kunstig intelligens, eller AI (Artificial Intelligence).

Slo sørkoreansk mester

Professor Pedro Domingos ved University of Washington mener det fortsatt er grunnleggende forskjeller mellom maskin-intelligens og menneskelig intelligens.

Fremdeles er det slik at datamaskinen er nødt til å spille seg gjennom mange millioner spill før den mestrer Go, mens menneskelige eksperter kan oppnå toppnivå med langt færre spill i «bagasjen».

– Det som virkelig ville være imponerende var hvis AlphaGo klarte å slå Lee Sedol etter å ha spilt omtrent like mange partier som han hadde gjort da han ble Og-mester. Vi er ikke i nærheten av det ennå, sier Domingos til MIT Technology Review.

Sedol er en kjent sørkoreansk Go-mester, som ble slått av AlphaGo i mars 2016.(Vilkår)

Etterbørs Spill Google Go MIT Teknologi
Bli Varslet

Ikke gå glipp av noe!

Du kan få en epost hver gang vi skriver om dette.