Is kunstmatige intelligentie wel écht intelligent?

Kunstmatige intelligentie (ook wel artificiële intelligentie of kortweg AI genoemd) heeft de laatste jaren een enorme opmars gemaakt. AI neemt een steeds prominentere plek in in het dagelijks leven: van vertaalmachines tot gepersonaliseerde advertenties tot gerobotiseerde obers. Gerobotiseerde obers? Jazeker, een robot heeft mij al diverse malen van sushi voorzien! Hoog tijd dus om filosofisch op dit fenomeen te reflecteren. Wat is AI? Kunnen computers echt denken? Wat is denken überhaupt? En wat zijn de ethische en politieke implicaties van de steeds grotere rol die AI in de samenleving speelt? Deze en andere vragen komen aan bod in Guido van der Knaaps Van Aristoteles tot algoritme: Filosofie van kunstmatige intelligentie.

Perspectieven

Het boek is verdeeld in zes hoofdstukken, die elk een ander deelgebied van de filosofie van kunstmatige intelligentie bespreken. Van der Knaap behandelt eerst de logica, dan epistemologie, taalfilosofie en cognitiefilosofie, en ten slotte ethiek en politieke filosofie. Dat is een indrukwekkende hoeveelheid filosofie voor een boek van 224 pagina’s. En inderdaad, Van der Knaap hopt vlot van Leibniz naar Wittgenstein of Hume, Kant of Foucault, maar altijd met een focus op het hoofdonderwerp van zijn boek en zonder zich in de details van hun denken te verliezen. Het levert een toegankelijke inleiding op in verschillende filosofische perspectieven op AI.

Een voor de hand liggende eerste vraag is: wat is AI? Of liever: wat is kunstmatige intelligentie in het bijzonder, en wat is intelligentie in het algemeen? Het hoeft niet te verbazen dat de filosofische problemen zich van meet aan al opstapelen. Het is opvallend hoe de opvatting van intelligentie met de jaren is verschoven. Aanvankelijk lag de nadruk van het onderzoek naar AI veelal op logica, waarbij intelligentie werd opgevat als het getrouw kunnen manipuleren van symbolen aan de hand van strikte regels. Deep Blue, de computer die schaakmeester Garri Kasparov versloeg in 1997, was een exponent van die opvatting. De programmeurs van Deep Blue hadden regels voor het programma geschreven waarmee deze kon berekenen wat de beste zet zou zijn. Omdat een computer nu eenmaal beter is in het nauwgezet berekenen van kansen dan een mens, is het in die zin “intelligenter”.

Patronen

Maar is een potje schaak kunnen spelen werkelijk het summum van intelligentie? Een schaakcomputer is de mens de baas op een zeer beperkt gebied: niet groter dan 64 zwart-witte hokjes, om precies te zijn. Maar zodra we het schaakbord verlaten, is Deep Blue verloren. Dat wat een mens intelligent maakt, is juist dat deze zich kan handhaven in allerlei verschillende soorten situaties. De “logische” opvatting van intelligentie werd daarom afgewisseld door een nieuwe opvatting waarin het herkennen van patronen een veel belangrijker rol ging spelen. Het op dit moment dominante paradigma binnen de kunstmatige intelligentie, is dat van machine learning (ML), waarbij een programma gigantische hoeveelheden data ingevoerd krijgt, waar deze vervolgens patronen uit destilleert.

Maar dat werpt vragen op over de manier waarop computers dingen kunnen kennen, epistemologische vragen. Hoe zit het bijvoorbeeld met iets als causaliteit? Uit het louter samengaan van twee fenomenen, kan onmogelijk worden geconcludeerd dat het ene het andere veroorzaakt heeft, toch? Zou een robot uit louter data het concept van causaliteit kunnen destilleren? Dat is niet voor de hand liggend. Het is een bekend punt van Immanuel Kant: wij mensen voegen iets toe aan onze zintuiglijke indrukken - bijvoorbeeld de notie van causaliteit - wanneer we de wereld om ons heen waarnemen. Data alleen is niet voldoende voor een programma om de wereld te zien zoals wij mensen dat doen.

Taal

Hoe erg AI verschilt van menselijke intelligentie, blijkt ook uit de manier waarop het omgaat met taal. Een programma dat intelligent reageert op jouw input - geschreven teksten in het geval van chatbots, je stem voor Siri en Alexa -, doet het dat op basis van een analyse van honderdduizenden of miljoenen tekstbestanden. In die trainingsdata heeft het programma patronen leren herkennen. Bepaalde woorden komen in die data vaker dicht bij elkaar voor dan andere, waaruit het programma concludeert dat deze een relatie met elkaar hebben. Het resultaat is vaak goed, maar soms totaal onbegrijpelijk. Een chatbot of spraakcomputer kan je verkeerd begrijpen op een manier waarop een mens dat nooit zou kunnen.

Maar ergens hoeft dat ook niet te verbazen. De manier waarop een ML-algoritme taal leert spreken, is totaal anders dan hoe een mens dat doet. Natuurlijk, ook mensen leren veelal op basis van voorbeelden wat correct en incorrect taalgebruik is. Maar niet met miljoenen tegelijk. En een mens wordt gecorrigeerd wanneer het een taalfout maakt door zijn sociale omgeving. Bovendien, menselijk taalgebruik vindt altijd plaats in een heel specifieke context. En het is de context die de regels bepaalt van dat wat Ludwig Wittgenstein een “taalspel” noemt. “Vijf rode appels” betekent iets heel anders als bestelling bij de groenteboer dan als beschrijving van een stilleven. In het ene geval levert die zin je vijf rode appels op, in het andere geval instemmend geknik, bijvoorbeeld. Die sociale context ontbreekt volledig voor een chatbot of spraakcomputer. Maar kun je dan nog wel zeggen dat zo’n programma echt een taal spreekt of niet?

Chinese kamer

Het zijn precies dat soort vragen die ons helpen helder te krijgen wat intelligentie is en wat er intelligent is aan AI en wat niet. Maar de vragen zijn allerminst simpel en weerstaan consequent eenvoudige antwoorden. Dat wringt soms met de omvang en de vlotte schrijfstijl van het boek. Van der Knaaps behandeling van de Chinese kamer, John Searles beroemde gedachte-experiment, is bijvoorbeeld wel erg summier.

Het argument gaat als volgt: stel, een proefpersoon die geen Chinees kent, wordt in een kamer opgesloten. Van tijd tot tijd worden er vellen papier met voor hem onbegrijpelijke tekens erop in de kamer geschoven. De proefpersoon heeft een set instructies die hij getrouw opvolgt, zonder daar de bedoeling van te begrijpen. Die instructies resulteren uiteindelijk in nieuwe vellen papier, eveneens volgeschreven met onbegrijpelijke tekens, die de kamer weer verlaten. Voor iemand buiten de kamer die Chinees spreekt, lijkt het alsof je met de kamer kan spreken. Wie betekenisvolle Chinese vraag op een vel papier schrijft, krijgt daar immers een betekenisvol Chinees antwoord op terug. De vraag is: is hier sprake van intelligent gedrag? Searle betoogt van niet. Omdat de persoon in de kamer geen Chinees spreekt, is er geen sprake van echt begrip.

Breedte

Van der Knaap neemt die conclusie over - en gaat gauw door naar het volgende punt. Maar het loont zich een pas op de plek te maken en wat vraagtekens op te werpen. Het is waar, de proefpersoon in de kamer begrijpt geen Chinees. Maar je zou kunnen betogen dat het systeem als geheel, waar de proefpersoon slechts een onderdeel van is, dat wel doet. De proefpersoon begrijpt geen Chinees, maar geldt dat ook voor de kamer? Stel dat ik zou zeggen: individuele hersencellen kunnen niet denken, dus ik als persoon kan dat ook niet. Is dat een overtuigende analogie? Of gaat die tegenwerping niet op? En waar zitten de verschillen dan?

Je zou soms willen dat Van der Knaap zijn brede behandeling van tijd tot tijd aanvult met wat meer ruimte om de diepte in te gaan. Het zou zijn boek hebben kunnen transformeren van een vlot overzicht van de diverse filosofieën van de kunstmatige intelligentie, tot een diepgravend onderzoek in de logica (en/of epistemologie, en/of taal- en cognitiefilosofie, en/of ethiek en politieke filosofie) van de kunstmatige intelligentie in het bijzonder. De ironie is natuurlijk: met zijn boek bewijst Van der Knaap precies waarin de mens nog altijd superieur is aan de computer, namelijk het begrijpen van de wereld in de breedte van haar facetten. En misschien is dat ook wel wat waard.

Deze recensie verscheen ook op Bazarow.com.

boeken · filosofie · kunstmatige intelligentie · machine learning · recensies