“AI is niet intelligent”, volgens Douglas Hofstadter

Het enthousiasme over de huidige artificial intelligence is volgens Douglas Hofstadter niet helemaal terecht. AI is namelijk niet intelligent, maar baseert zich op brute rekenkracht en is puur resultaatgericht.

Douglas Hofstadter won de Pulitzer Prize in non-fictie voor zijn boek Gödel, Escher, Bach: an Eternal Golden Braid uit 1979. Hofstadter is hoogleraar cognitieve wetenschappen aan de Indiana University. Hij houdt zich al decennia bezig met de vraag hoe mensen denken en hoe je computers op dezelfde manier kunt laten denken.

AI hand

AI van nu is niet intelligent

Google’s DeepMind, IBM’s Watson, Apple’s Siri, Amazon’s Echo en alle andere AI-systemen van deze tijd zijn volgens Douglas niet intelligent in de ware zin van het woord.

Bijvoorbeeld Watson is een ‘text search’ algoritme dat is verbonden met een database, vergelijkbaar met Google search. Het begrijpt niet wat het leest. En zelfs ‘lezen’ is een verkeerde term, want Watson leest helemaal niet. Het vindt tekst zonder ook maar een idee te hebben wat die tekst betekent. Dus Watson is niet intelligent. Het is slim, het is indrukwekkend, maar het is ook ‘leeg’.

De belofte is nooit waargemaakt

In de eerste dagen van AI-onderzoek in de jaren ’50 en ’60 was het doel om computers te laten denken op de manier zoals mensen dat doen. Het idee was om de capaciteit van mensen om de wereld om ons heen intuïtief te begrijpen na te boosten aan de hand van computers. Maar ‘denken’ bleek veel complexer dan een computerprogramma in die tijd kon bevatten. De resultaten waren zeer teleurstellend.

Daarmee werd het idee opgegeven om denken na te bootsen. In plaats daarvan kregen computersystemen specifieke taken en werden zij gevoed met grote hoeveelheden data. Dit is de AI die we in de laatste jaren zien: een computersysteem dat een mens kan verslaan met schaken of Go doordat het razend snel door miljoenen eerder gespeelde partijen kan zoeken naar die ene zet die het meest waarschijnlijk tot een overwinning zal leiden.

Eliza-effect

De afgelopen jaren zijn er diverse interviews geweest met Douglas Hofstadter 2017 over het onderwerp AI. Douglas is daarin heel consistent in zijn antwoorden. Hij geeft ook steeds praktische voorbeelden waarvan ik er een paar wil delen.

Douglas maakt duidelijk dat Google Translate niet een echt vertaalmiddel is zolang het niets doet met de werkelijke betekenis en kwaliteit van een zin. Als de originele zin een zekere artisticiteit en schoonheid heeft, mag je verwachten dat de vertaling dit benadert. Bij Google Translate is daar geen sprake van; het laat vaak niets over van de achterliggende betekenis en schoonheid van een zin.

Douglas waarschuwt voor het ‘Eliza effect’: “The Eliza effect is the effect of us taking words or phrases as if they have meaning simply because we use language. And when another entity is manipulating those words and spitting them out onto our screen, or speaking them, we tend to assume that behind the scenes there is thinking. Which can be extremely wrong.”

De complexiteit van intelligent

Douglas gebruikt ook het voorbeeld van zelfrijdende auto’s. Toen hij vast kwam te zitten in het verkeer onderweg naar een lezing. Voor Douglas is ‘rijden’ meer dan alleen de auto besturen. Het gaat ook om allerlei andere facetten die horen bij de reis van A naar B.

“Now what do I do? How much risk do I take? How important is it to me to go to this university to deliver this lecture? What if I call up and say I’m going to be a half an hour late? An hour late? So I’m driving along and I’m thinking, am I going to go 80 miles per hour in the 70 zone? Am I going to go 90? How fast am I going to go?”

Douglas’ punt is hier: vaak zijn situaties niet ‘framed’ als een schaak- of Go-spel. In het echte leven zijn er vaak geen of nauwelijks grenzen aan de mogelijkheden. “A situation in the world is something that has no boundaries at all, you don’t know what’s in the situation, what’s out of the situation.”

AI is wel mogelijk

Douglas is van mening dat AI in de echte zin van het woord uiteindelijk wel mogelijk is. Maar op dit moment krassen we nog aan de oppervlakte van wat kunstmatige intelligentie is. Veel mensen trappen in deze ‘illusie’, de resultaten zijn soms dan ook spectaculair.

Voor mensen als Douglas Hofstadter is het puzzelen een fascinerende uitdaging. Zijn weg is een lange weg, die niet altijd interessant is voor commerciële organisaties. Douglas’ beste studenten worden vaak ‘weggekocht’ door bedrijven als Google. Daar houden zij zich dan bezig met meer resultaatgerichte machine learning en niet met kunstmatige intelligentie.

Maar Douglas heeft zijn hoop gevestigd op de vrijheid die dit soort briljante mensen regelmatig krijgen om een deel van hun tijd te besteden aan onderwerpen die zij zelf interessant en waardevol vinden. Want er is nog veel fundamenteel onderzoek naar AI nodig.

Een waarschuwing is op zijn plaats

Douglas is niet iemand als Elon Musk die de media op zoekt om de mensheid te waarschuwen voor de gevaren van AI. Maar hij ziet wel een trend die hem zorgen baart. Als AI niet denkt als een mens, maar wel voor mensen beslissingen neemt op basis van ‘eigen’ algoritmen. “What frightens me is the scenario of human thought being overwhelmed and left in the dust. Not being aided or abetted by computers, but being completely overwhelmed, and we are to computers as cockroaches or fleas are to us. That would be scary.”

Lees het Quartz-interview ‘why AI is far from intelligent’ met Douglas Hofstadter

Lees het Atlantic-interview ‘The Man Who Would Teach Machines to Think’ met Douglas uit 2014

Lees ook het PM-interview ‘Why Watson and Siri are not real AI’ met Douglas uit 2014