Bovenmenselijke intelligentie zonder menselijke intelligentie Een computer die zichzelf alles aangeleerd heeft over het bordspel Go is in enkele dagen tijd zo goed geworden dat de menselijke wereldkampioen geen schijn van kans meer zou maken tegen hem. Nieuwe mijlpaal in de geschiedenis van AI In maart 2016 stonden de kranten er vol van: het algoritme AlphaGo Lee was er voor het eerst ooit in geslaagd om de menselijke wereldkampioen in het Japanse bordspel Go (zie inzet) te verslaan. In een match opgezet door Google won het algoritme toen met 4-1 van de toenmalige wereldkampioen Lee Sodol, in een duel tussen mens en machine dat deed terugdenken aan de legendarische confrontatie tussen Garry Kasparov en Deep Blue in 1997. Dit was al een mijlpaal in de geschiedenis van AI omdat Go één van de laatste bordspellen was waarin de mens nog de bovenhand had door de open spelstructuur van Go die zorgt voor bijna eindeloze mogelijkheden. Maar de artificiële intelligentie (AI) die toen gebruikt werd was initieel getraind door duizenden zetten te analyseren van professionele Go spelers. Men zou dus kunnen zeggen dat het algoritme niet alles ‘zelf’ geleerd had, maar eigenlijk de beste menselijke spelers uiterst goed kon imiteren. Dit verandert nu met de nieuwe versie van het algoritme AlphaGo Zero: dit algoritme kreeg enkel de regels mee van Go en is puur door matchen tegen zichzelf te spelen bovenmenselijk goed geworden in het spel, en zelfs beter dan AlphaGo Lee. Hoe ‘leert’ een computer? Zoals gezegd had AlphaGo Lee een grote dataset van gespeelde Go-partijen tot zijn beschikking. Dit noemt ‘supervised machine learning’: de computer werd eerst getraind op basis van een gigantische dataset en later speelde hij tegen zichzelf om nog beter te worden. Dit is wat bekend staat als ‘reinforcement learnign’ en AlphaGo Zero maakte dus enkel hiervan gebruik. Over Go Go is een van oorsprong Chinees bordspel dat al duizenden jaren bestaat. Op het speelbord staan verticaal en horizontaal 19 lijnen, die zo 361 kruispunten vormen. Bij het begin van het spel is het bord leeg, de witte en de zwarte speler mogen elke zet één (of geen) steen van hun kleur op het bord plaatsen op een kruispunt naar keuze. Zo wordt het bord steeds voller, het spel stopt wanneer beide spelers geen stenen meer willen leggen. Het doel van het spel is om een zo groot mogelijk gebeid te omsingelen met je eigen kleur, en als je een steen van de andere kleur omsingelt wordt deze van het bord genomen en krijg je hiervoor een extra punt. Op het einde wint de speler met de hoogste score, deze bestaat uit de som van het aantal omsingelde velden en het aantal ‘’gevangengenomen ‘’ stenen van de tegenstander. Dit algoritme leert met deep learning via neurale netten welke strategieën hem doen winnen en gebruikt hij deze in zijn volgende spel. Heeft die computer dan echte neuronen? Neen, teleurstellend misschien, maar binnenin zijn het allemaal nullen en eentjes. De term neurale netten wordt gebruikt voor deep learning algoritmes die werken met verschillende lagen: door de input in de eerste laag te transformeren, die dan door te geven aan de twee laag en zo verder tot uiteindelijk de output laag. In elke laag kan het belang van bepaalde denkpistes worden aangepast op basis van de output en zo kan het neuraal netwerk zeer performant wordne. Dit lijkt op hoe onze neuronen ook informatie doorgeven aan elkaar en vandaar komt de term neuraal netwerk. 18-voudig wereldkampioen Lee Sodol bijt de tanden stuk op AlphaGo in Seoul, Zuid-Korea Deze deep learning methode werd gecombineerd met een ‘Monte Carlo’ zoekboom algoritme. Zo een algoritme simuleert alle zetten die de speler kan zetten, en analyseert dan voor elk geval wat de tegenstander kan zetten en bouwt zo een zoekboom op, waar hij dan de beste optie uit kiest. Het is belangrijk om hierin slim te kiezen welke situaties je verder analyseert: het is belangrijk om te zien wanneer je een slechte zet speelt, dan moet je die tak in de zoekboom niet meer verder uitwerken, hiervoor zorgt het neuraal netwerk. Een mens doet eigenlijk hetzelfde bij bijvoorbeeld schaken: hij beeldt zich in wat het antwoord van de tegenstander zou zijn op zijn zet. Als mens is het natuurlijk een zware opgave om alle opties na te gaan en daarin komt de gigantische rekenkracht die de algoritmes tot hun beschikking hebben handig van pas, zo kunnen zij vele zetten diep kijken en aan elke optie een kans toekennen die zegt hoe waarschijnlijk het is dat hij de partij wint. In theorie zou een computer elke mogelijke optie kunnen afgaan, en zo altijd de perfecte zet spelen, maar dit is verre van mogelijk voor Go: er zijn naar schatting 10360 ‘’Artificiële intelligentie zal een rol gaan spelen in bijna elk aspect van ons leven’’ mogelijke opties hoe een spel kan verlopen, een getal dat onverstaanbaar groot is, maar volgens Google zijn er minder atomen in het universum. Voor simpelere spellen zoals dammen is dit wel mogelijk, deze spellen zijn ’opgelost’: er bestaat een computer die elke mogelijke partij dammen ooit gesimuleerd heeft en dus altijd de perfecte zet kan spelen. Zo leerde AlphaGo Zero zichzelf dus alle tactieken aan die de mens kent in enkele uren tijd, en ontdekte hij ook compleet nieuwe tactieken die nog niemand ontdekt had in de lange geschiedenis van het spel Go. Voorbeeld op klein bord: wit bezet 15 punten en zwart 20 punten Voorbij de spelletjes Het is natuurlijk een nieuwe mijlpaal in de opkomst van artificiële intelligentie, maar we gaan ook geen mensenlevens redden met een computer die Go kan spelen, dus waarom zien we dan zo vaak krantenkoppen van een AI die kan gamen? Dat komt omdat spelletjes meestal een zeer goed gedefinieerde omgeving hebben: een bord dat vastligt, een vast aantal pionnen, geen onverwachte natuurlijke omstandigheden… Dit maakt het veel makkelijker assumpties te maken en zo is het ook makkelijker om een algoritme te ontwikkelen. Het is bijvoorbeeld veel makkelijker om een algoritme te schrijven dat een racegame perfect kan spelen dan het is om een zelfrijdende auto te programmeren. Eens zo een prototype in een vaste omgeving goed werkt kan het dan uitgebreid worden naar de echte wereld. Zeker ook dit algoritme dat Go speelt, omdat het eigenlijk neerkomt op in een zoekboom met gigantisch veel combinaties de juiste zet te kiezen. Dit principe kan dan toegepast worden op allerlei problemen zoals bijvoorbeeld betere weersvoorspellingen maken, gezichtsherkenning, complexe ingenieursproblemen oplossen... Dit is slechts een greep uit de mogelijkheden en op termijn zal artificiële intelligent een rol spelen in bijna elk aspect van ons leven, zelfs je volgende partner kan aan jou voorgesteld worden door het algoritme van een datingapp. Deze technologieën zijn momenteel een hot topic in de academische wereld, maar omdat ze ook al concrete toepassingen hebben worden ze ook meer en meer omarmt door de commerciële sector, zo kocht Google bijvoorbeeld DeepMind, het bedrijf achter AlphaGo, in 2014 voor ruim een half miljard dollar. Daarnaast worden er ook grote stappen gezet aan de hardware kant. Deze zijn ook van cruciaal belang voor de vooruitgang in AI want die complexe algoritmes vereisen enorm veel rekenkracht van processoren. AI is dus een veld dat volop in ontwikkeling is, en een ‘’General Purpose AI’’ (een machine die alles kan wat een mens kan) zal waarschijnlijk niet voor morgen zijn, maar dit verhaal toont wel aan dat eens een AI van zichzelf kan bijleren, een ware intelligentie-explosie plaatsvindt die resulteert in bovenmenselijke prestaties. Bronnen Silver, D., Schrittwieser, J., Simonyan, K. et al. Mastering the game of Go without human knowledge. Nature 550, 354–359 (2017). https://doi.org/10.1038/nature24270 Y. Tanabe, K. Yoshizoe and H. Imai, "A study on security evaluation methodology for imagebased biometrics authentication systems," 2009 IEEE 3rd International Conference on Biometrics: Theory, Applications, and Systems, 2009, pp. 1-6, doi: 10.1109/BTAS.2009.5339016. Rossi, L., Winands, M.H.M. & Butenweg, C. Monte Carlo Tree Search as an intelligent search tool in structural design problems. Engineering with Computers (2021). https://doi.org/10.1007/s00366-021-01338-2 Wikipedia contributors. (2022, February 12). AlphaGo versus Lee Sedol. Wikipedia. https://en.wikipedia.org/wiki/AlphaGo_versus_Lee_Sedol Gibbs, S. (2017, November 30). Google buys UK artificial intelligence startup Deepmind for £400m. The Guardian. https://www.theguardian.com/technology/2014/jan/27/googleacquires-uk-artificial-intelligence-startup-deepmind Why Go is so much harder for AI to beat than chess. (2016, March 10). Business Insider. https://www.businessinsider.com/why-google-ai-game-go-is-harder-than-chess-20163?r=US&IR=T