Een kritische blik op “De Chinese Kamer”

Filosofie
Leestijd: 5 Minuten Geplaatst op: 24-04-23

Wanneer gevraagd wordt uit te leggen hoe kunstmatige intelligentie werkt, zullen de meeste mensen een analogie als antwoord geven of simpelweg uitleggen dat ze het niet weten. Als je die mensen vervolgens vraagt of kunstmatige intelligentie in staat is de teksten die we erin invoeren te begrijpen, zal het antwoord verdeeld zijn. Wat betekent het om te begrijpen? Met een gedachte-experiment dat “de Chinese kamer” wordt genoemd, probeert Searle [1]Searle, J. R. (1980). Minds, brains, and programs. Behavioral and Brain Sciences, 3(3), 417–424. https://doi.org/10.1017/s0140525x00005756 de wereld te laten zien dat een AI niet op dezelfde manier redeneert en begrijpt als mensen. In dit essay zal ik een kritische blik werpen op dit gedachte-experiment om te onthullen dat het gebrekkig is in zijn presentatie van AI’s begrip van natuurlijke taal. Ik zal dit doen door eerst te kijken hoe het experiment van Searle er niet in slaagt de realiteit te vertegenwoordigen. Dit zal gebeuren door te kijken naar het werk van Schank, waarop Searle zijn gedachte-experiment baseerde, en te beargumenteren dat Searle door de complexiteit van AI te negeren een misleidend gedachte-experiment presenteert. Uiteindelijk zal dit leiden tot de conclusie dat het gedachte-experiment van Searle gebrekkig is in het beoordelen van het begripsvermogen dat een AI kan hebben.

Laten we eerst het gedachte-experiment in kwestie bekijken. Hieronder staat een samengevatte versie van het gedachte-experiment.

“De Chinese kamer” beschrijft een situatie waarin een persoon die geen Chinees spreekt een reeks regels in het Engels krijgt om Chinese karakters te vertalen in andere Chinese karakters. De persoon wordt in een kamer geplaatst met sleuven voor het invoeren en uitvoeren van Chinese karakters en volgt de regels zonder te begrijpen wat de uitvoer betekent. Voor buitenstaanders lijkt het alsof er een native Chinese spreker in de kamer is.

Dit gedachte-experiment is bedoeld om te illustreren dat een AI niet zelf denkt. Wetende dat conclusie kunnen we zien dat dit gedachte-experiment dat perfect illustreert. De persoon die de Chinese karakters vertaalt in andere Chinese karakters, denkt niet na over wat ze vertalen, ze volgen gewoon regels. Maar komt dit idee van een AI als een computer die gewoon regels volgt overeen met de echte wereld?

Gendler [2]Gendler, T. (2000). Thought experiment: On the powers and limits of imaginary cases. Routledge. https://doi.org/10.4324/9781315054117 beschrijft een drievoudige structuur voor een gedachte-experiment.

  • Een denkbeeldig scenario wordt beschreven.
  • Een argument wordt aangeboden dat probeert de juiste evaluatie uit dat scenario te halen.
  • Die evaluatie wordt vervolgens gebruikt om iets te onthullen over gevallen buiten het scenario.

Als we kijken naar het gedachte-experiment van “de Chinese kamer”, kunnen we elk van deze delen extraheren. Het scenario is dat van de persoon die Chinese karakters verandert in andere Chinese karakters met behulp van een set regels in een afgesloten ruimte. Vervolgens wordt het argument gemaakt dat de persoon in dit proces niet autonoom handelt, ze denken niet voor zichzelf bij het verwerken van de karakters. Dit wordt dan toegepast op AI. AI volgt alleen regels om de resultaten te produceren die we ervan willen. In wezen betoogt Searle dat alles wat we van de AI willen, de Turing-test verslaan is [3]Turing, A. M. (1950). I.—COMPUTING MACHINERY AND INTELLIGENCE. Mind, LIX(236), 433–460. https://doi.org/10.1093/mind/lix.236.433. Maar ik betoog dat dat de realiteit niet weergeeft.

Hoewel de beschreven situatie in het gedachte-experiment voorstelbaar is en het argument dat de evaluatie van de situatie vaststelt, klopt de conclusie niet voor AI. Onbruikbaarheid in dit geval verwijst naar het negatieve tegenhanger van het derde deel van Gendlers drievoudige structuur, die zij beweert een nuttige manier te zijn om kritiek te bieden [2]. Dus waarom is het gedachte-experiment niet toepasbaar? Daarvoor moeten we kijken hoe Searle het gedachte-experiment heeft bedacht.

Searle creëerde het gedachte-experiment als reactie op het werk van Roger Schank en zijn collega’s aan Yale. Schank ontwikkelde en werkte aan programma’s om het menselijk vermogen om verhalen te begrijpen en te interpreteren te simuleren. Het interessante hier is het contrast in de complexiteit die wordt beschreven in hoe een AI input zou interpreteren. Zoals beschreven in het werk van Schank [4]Schank, R. C., & Abelson, R. P. (1977). Scripts, Plans, Goals, and Understanding: An Inquiry Into Human Knowledge Structures. Psychology Press., pp. 20-22 is dat een AI-onderzoeker die processen zou modelleren, elk subprocess van dat model zou programmeren. Om te zien welke invoer en uitvoer die subprocessen hebben. Een ‘script’, zoals Schank het dan beschrijft, bevat de informatie om de subtekst van een verhaal te begrijpen waar iemand misschien vragen over stelt aan de AI. Dit ‘script’ bevat veel van deze complexe subprocessen om de natuurlijke taalverwerking van mensen te evenaren. Een voorbeeld dat hij gebruikt, is het vragen naar de weg. Als je wordt verteld dat je om bij Coney Island te komen de ‘N’-trein moet nemen naar de laatste halte, zou je begrijpen wat je moet doen. Een AI zou informatie nodig hebben over hoe te lopen en te betalen voor metro’s om dit te begrijpen. Al deze extra informatie is het ‘script’ en zou worden geopend en verkregen via deze subprocessen. Vergelijk dit met hoe Searle een ‘script’ beschrijft in zijn gedachte-experiment. Hij noemt de eerste reeks Chinese karakters en instructies over het vertalen ervan in andere Chinese karakters als het ‘script’. In een poging te tonen dat een AI niet de mogelijkheid heeft om zijn invoer te begrijpen, is de geschetste situatie zo vereenvoudigd dat deze niet langer de realiteit weerspiegelt.

Het belang van het presenteren van de realiteit in dit gedachte-experiment komt voort uit de manier waarop we kijken naar het concept van begrip. Zo ver terug als bij Locke [5]Locke, J. (1894). An Essay Concerning Human Understanding. is beargumenteerd dat mensen geen aangeboren ideeën hebben. Alle ideeën worden verworven door ervaring of reflectie. Voortbouwend op dit idee, zou ik beargumenteren dat als we de processen kunnen repliceren om kennis te verwerven, en in verlengde daarvan begrip, in een AI, dan zou die AI hetzelfde gevoel van begrip hebben als een mens. Deze processen zijn complex en door het vereenvoudigen van deze processen in het gedachte-experiment, presenteert Searle een onjuist beeld van de realiteit.

Een gedachte-experiment is bedoeld om van toepassing te zijn op de realiteit, maar door de realiteit te vereenvoudigen tot een mate zoals Searle doet in zijn gedachte-experiment, is het niet langer van toepassing op de realiteit. Daarom kunnen we het gedachte-experiment niet in overweging nemen bij het praten over het vermogen van begrip en redenering dat een kunstmatige intelligentie wel of niet kan hebben.