Uploaded by Felix Huyghe

Artikel AlphaGo

advertisement
Bovenmenselijke intelligentie zonder menselijke intelligentie
Een computer die zichzelf alles aangeleerd heeft over het bordspel Go is in enkele
dagen tijd zo goed geworden dat de menselijke wereldkampioen geen schijn van kans
meer zou maken tegen hem.
Nieuwe mijlpaal in de geschiedenis van AI
In maart 2016 stonden de kranten er vol van: het algoritme
AlphaGo Lee was er voor het eerst ooit in geslaagd om de
menselijke wereldkampioen in het Japanse bordspel Go (zie
inzet) te verslaan. In een match opgezet door Google won het
algoritme toen met 4-1 van de toenmalige wereldkampioen Lee
Sodol, in een duel tussen mens en machine dat deed
terugdenken aan de legendarische confrontatie tussen Garry
Kasparov en Deep Blue in 1997. Dit was al een mijlpaal in de
geschiedenis van AI omdat Go één van de laatste bordspellen
was waarin de mens nog de bovenhand had door de open
spelstructuur van Go die zorgt voor bijna eindeloze
mogelijkheden. Maar de artificiële intelligentie (AI) die toen
gebruikt werd was initieel getraind door duizenden zetten te
analyseren van professionele Go spelers. Men zou dus kunnen
zeggen dat het algoritme niet alles ‘zelf’ geleerd had, maar
eigenlijk de beste menselijke spelers uiterst goed kon imiteren.
Dit verandert nu met de nieuwe versie van het algoritme
AlphaGo Zero: dit algoritme kreeg enkel de regels mee van Go en
is puur door matchen tegen zichzelf te spelen bovenmenselijk
goed geworden in het spel, en zelfs beter dan AlphaGo Lee.
Hoe ‘leert’ een computer?
Zoals gezegd had AlphaGo Lee een grote dataset van gespeelde
Go-partijen tot zijn beschikking. Dit noemt ‘supervised machine
learning’: de computer werd eerst getraind op basis van een
gigantische dataset en later speelde hij tegen zichzelf om nog
beter te worden. Dit is wat bekend staat als ‘reinforcement
learnign’ en AlphaGo Zero maakte dus enkel hiervan gebruik.
Over Go
Go is een van oorsprong Chinees
bordspel dat al duizenden jaren
bestaat. Op het speelbord staan
verticaal en horizontaal 19 lijnen, die
zo 361 kruispunten vormen. Bij het
begin van het spel is het bord leeg,
de witte en de zwarte speler mogen
elke zet één (of geen) steen van hun
kleur op het bord plaatsen op een
kruispunt naar keuze. Zo wordt het
bord steeds voller, het spel stopt
wanneer beide spelers geen stenen
meer willen leggen. Het doel van het
spel is om een zo groot mogelijk
gebeid te omsingelen met je eigen
kleur, en als je een steen van de
andere kleur omsingelt wordt deze
van het bord genomen en krijg je
hiervoor een extra punt. Op het
einde wint de speler met de hoogste
score, deze bestaat uit de som van
het aantal omsingelde velden en het
aantal ‘’gevangengenomen ‘’ stenen
van de tegenstander.
Dit algoritme leert met deep learning via neurale netten welke strategieën hem doen winnen en
gebruikt hij deze in zijn volgende spel. Heeft die computer dan echte neuronen? Neen,
teleurstellend misschien, maar binnenin zijn het allemaal nullen en eentjes. De term neurale netten
wordt gebruikt voor deep learning algoritmes die werken met verschillende lagen: door de input in
de eerste laag te transformeren, die dan door te geven aan de twee laag en zo verder tot uiteindelijk
de output laag. In elke laag kan het belang van bepaalde denkpistes worden aangepast op basis van
de output en zo kan het neuraal netwerk zeer performant wordne. Dit lijkt op hoe onze neuronen
ook informatie doorgeven aan elkaar en vandaar komt de term neuraal netwerk.
18-voudig wereldkampioen Lee Sodol bijt de tanden stuk op AlphaGo in Seoul, Zuid-Korea
Deze deep learning methode werd gecombineerd met een ‘Monte Carlo’ zoekboom algoritme. Zo
een algoritme simuleert alle zetten die de speler kan zetten, en analyseert dan voor elk geval wat de
tegenstander kan zetten en bouwt zo een zoekboom op, waar hij dan de beste optie uit kiest. Het is
belangrijk om hierin slim te kiezen welke situaties je verder analyseert: het is belangrijk om te zien
wanneer je een slechte zet speelt, dan moet je die tak in de zoekboom niet meer verder uitwerken,
hiervoor zorgt het neuraal netwerk. Een mens doet eigenlijk hetzelfde bij bijvoorbeeld schaken: hij
beeldt zich in wat het antwoord van de tegenstander zou zijn op zijn zet. Als mens is het natuurlijk
een zware opgave om alle opties na te gaan en daarin komt de gigantische rekenkracht die de
algoritmes tot hun beschikking hebben handig van pas, zo kunnen zij vele zetten diep kijken en aan
elke optie een kans toekennen die zegt hoe waarschijnlijk het is dat hij de partij wint. In theorie zou
een computer elke mogelijke optie kunnen afgaan, en zo altijd de perfecte zet spelen, maar dit is
verre van mogelijk voor Go: er zijn naar schatting 10360
‘’Artificiële intelligentie zal een rol gaan spelen in bijna elk
aspect van ons leven’’
mogelijke opties hoe een spel kan verlopen, een getal dat onverstaanbaar groot is, maar volgens
Google zijn er minder atomen in het universum. Voor simpelere spellen zoals dammen is dit wel
mogelijk, deze spellen zijn ’opgelost’: er bestaat een computer die elke mogelijke partij dammen ooit
gesimuleerd heeft en dus altijd de perfecte zet kan spelen.
Zo leerde AlphaGo Zero zichzelf dus alle tactieken aan die de mens kent in enkele uren tijd, en
ontdekte hij ook compleet nieuwe tactieken die nog niemand ontdekt had in de lange geschiedenis
van het spel Go.
Voorbeeld op klein bord: wit bezet 15 punten en zwart 20 punten
Voorbij de spelletjes
Het is natuurlijk een nieuwe mijlpaal in de opkomst van artificiële intelligentie, maar we gaan ook
geen mensenlevens redden met een computer die Go kan spelen, dus waarom zien we dan zo vaak
krantenkoppen van een AI die kan gamen? Dat komt omdat spelletjes meestal een zeer goed
gedefinieerde omgeving hebben: een bord dat vastligt, een vast aantal pionnen, geen onverwachte
natuurlijke omstandigheden… Dit maakt het veel makkelijker assumpties te maken en zo is het ook
makkelijker om een algoritme te ontwikkelen. Het is bijvoorbeeld veel makkelijker om een algoritme
te schrijven dat een racegame perfect kan spelen dan het is om een zelfrijdende auto te
programmeren. Eens zo een prototype in een vaste omgeving goed werkt kan het dan uitgebreid
worden naar de echte wereld. Zeker ook dit algoritme dat Go speelt, omdat het eigenlijk neerkomt
op in een zoekboom met gigantisch veel combinaties de juiste zet te kiezen. Dit principe kan dan
toegepast worden op allerlei problemen zoals bijvoorbeeld betere weersvoorspellingen maken,
gezichtsherkenning, complexe ingenieursproblemen oplossen... Dit is slechts een greep uit de
mogelijkheden en op termijn zal artificiële intelligent een rol spelen in bijna elk aspect van ons leven,
zelfs je volgende partner kan aan jou voorgesteld worden door het algoritme van een datingapp.
Deze technologieën zijn momenteel een hot topic in de academische wereld, maar omdat ze ook al
concrete toepassingen hebben worden ze ook meer en meer omarmt door de commerciële sector,
zo kocht Google bijvoorbeeld DeepMind, het bedrijf achter AlphaGo, in 2014 voor ruim een half
miljard dollar. Daarnaast worden er ook grote stappen gezet aan de hardware kant. Deze zijn ook
van cruciaal belang voor de vooruitgang in AI want die complexe algoritmes vereisen enorm veel
rekenkracht van processoren.
AI is dus een veld dat volop in ontwikkeling is, en een ‘’General Purpose AI’’ (een machine die alles
kan wat een mens kan) zal waarschijnlijk niet voor morgen zijn, maar dit verhaal toont wel aan dat
eens een AI van zichzelf kan bijleren, een ware intelligentie-explosie plaatsvindt die resulteert in
bovenmenselijke prestaties.
Bronnen
Silver, D., Schrittwieser, J., Simonyan, K. et al. Mastering the game of Go without human
knowledge. Nature 550, 354–359 (2017). https://doi.org/10.1038/nature24270
Y. Tanabe, K. Yoshizoe and H. Imai, "A study on security evaluation methodology for imagebased biometrics authentication systems," 2009 IEEE 3rd International Conference on
Biometrics: Theory, Applications, and Systems, 2009, pp. 1-6, doi:
10.1109/BTAS.2009.5339016.
Rossi, L., Winands, M.H.M. & Butenweg, C. Monte Carlo Tree Search as an intelligent
search tool in structural design problems. Engineering with Computers (2021).
https://doi.org/10.1007/s00366-021-01338-2
Wikipedia contributors. (2022, February 12). AlphaGo versus Lee Sedol. Wikipedia.
https://en.wikipedia.org/wiki/AlphaGo_versus_Lee_Sedol
Gibbs, S. (2017, November 30). Google buys UK artificial intelligence startup Deepmind for
£400m. The Guardian. https://www.theguardian.com/technology/2014/jan/27/googleacquires-uk-artificial-intelligence-startup-deepmind
Why Go is so much harder for AI to beat than chess. (2016, March 10). Business Insider.
https://www.businessinsider.com/why-google-ai-game-go-is-harder-than-chess-20163?r=US&IR=T
Download