De algemene en terugkerende visie op de nieuwste doorbraken in onderzoek naar kunstmatige intelligentie is dat bewuste en intelligente machines net aan de horizon zijn. Machines begrijpen verbale commando's, onderscheiden afbeeldingen, besturen auto's en spelen games beter dan wij. Hoe lang kan het nog duren voordat ze onder ons lopen?
Het nieuwe rapport van het Witte Huis over kunstmatige intelligentie neemt een passende sceptische kijk op die droom. Het zegt dat machines de komende 20 jaar waarschijnlijk geen "algemeen toepasbare intelligentie zullen vertonen die vergelijkbaar is met of groter is dan die van mensen", maar het zegt wel dat machines de komende jaren de menselijke prestaties zullen bereiken en overtreffen op meer en meer taken. " Maar de aannames over hoe die capaciteiten zich zullen ontwikkelen, hebben enkele belangrijke punten gemist.
Als AI-onderzoeker geef ik toe dat het leuk was om mijn eigen vakgebied op het hoogste niveau van de Amerikaanse regering te laten uitlichten, maar het rapport richtte zich bijna uitsluitend op wat ik noem "het saaie soort AI". Het verwierp in een halve zin mijn tak van AI-onderzoek naar hoe evolutie kan helpen bij het ontwikkelen van steeds beter wordende AI-systemen en hoe computationele modellen ons kunnen helpen begrijpen hoe onze menselijke intelligentie is geëvolueerd.
Het rapport richt zich op wat men zou kunnen noemen mainstream AI-tools: machine learning en deep learning. Dit zijn de soorten technologieën die "Jeopardy!" Nou, en versla menselijke Go-meesters in het meest gecompliceerde spel dat ooit is uitgevonden. Deze huidige intelligente systemen kunnen enorme hoeveelheden gegevens verwerken en maken zeer snel complexe berekeningen. Maar ze missen een element dat cruciaal zal zijn voor het bouwen van de bewuste machines die we ons in de toekomst voorstellen.
We moeten meer doen dan machines leren leren. We moeten de grenzen overschrijden die de vier verschillende soorten kunstmatige intelligentie definiëren, de barrières die machines van ons - en ons van hen scheiden.
Type I AI: reactieve machines
De meest basale typen AI-systemen zijn puur reactief en kunnen geen herinneringen vormen of ervaringen uit het verleden gebruiken om huidige beslissingen te onderbouwen. Deep Blue, IBM's schaakspelende supercomputer, die eind jaren negentig de internationale grootmeester Garry Kasparov versloeg, is het perfecte voorbeeld van dit type machine.
Deep Blue kan de stukken op een schaakbord identificeren en weten hoe ze bewegen. Het kan voorspellingen doen over welke bewegingen de volgende zijn en zijn tegenstander. En het kan de meest optimale bewegingen kiezen uit de mogelijkheden.
Maar het heeft geen enkel concept uit het verleden, noch enige herinnering aan wat er eerder is gebeurd. Afgezien van een zelden gebruikte schaakspecifieke regel om dezelfde zet drie keer te herhalen, negeert Deep Blue alles voor het huidige moment. Het enige wat het doet is kijken naar de stukken op het schaakbord zoals het er nu uitziet, en kiezen uit mogelijke volgende zetten.
Dit type intelligentie houdt in dat de computer de wereld rechtstreeks waarneemt en handelt naar wat hij ziet. Het vertrouwt niet op een intern concept van de wereld. In een baanbrekend artikel betoogde AI-onderzoeker Rodney Brooks dat we alleen dergelijke machines zouden moeten bouwen. Zijn belangrijkste reden was dat mensen niet erg goed zijn in het programmeren van nauwkeurige gesimuleerde werelden die computers kunnen gebruiken, wat in de AI-beurs een "representatie" van de wereld wordt genoemd.
De huidige intelligente machines waar we ons over verwonderen, hebben een dergelijk concept van de wereld niet, of hebben een zeer beperkte en gespecialiseerde voor zijn specifieke taken. De innovatie in het ontwerp van Deep Blue was niet om het aantal mogelijke films dat de computer overwoog te verbreden. Integendeel, de ontwikkelaars vonden een manier om hun visie te beperken, om te stoppen met het nastreven van een aantal potentiële toekomstige stappen, op basis van hoe het hun resultaat beoordeelde. Zonder deze mogelijkheid had Deep Blue een nog krachtigere computer moeten zijn om Kasparov daadwerkelijk te verslaan.
Evenzo kan Google's AlphaGo, die de beste menselijke Go-experts heeft verslagen, ook niet alle mogelijke toekomstige bewegingen evalueren. De analysemethode is geavanceerder dan die van Deep Blue en gebruikt een neuraal netwerk om game-ontwikkelingen te evalueren.
Deze methoden verbeteren het vermogen van AI-systemen om specifieke games beter te spelen, maar ze kunnen niet gemakkelijk worden gewijzigd of toegepast op andere situaties. Deze geautomatiseerde verbeelding heeft geen idee van de wijdere wereld - wat betekent dat ze niet verder kunnen gaan dan de specifieke taken die ze hebben gekregen en dat ze gemakkelijk voor de gek worden gehouden.
Ze kunnen niet interactief deelnemen aan de wereld, zoals we ons op een dag AI-systemen voorstellen. In plaats daarvan gedragen deze machines zich elke keer dat ze dezelfde situatie tegenkomen precies hetzelfde. Dit kan erg goed zijn om ervoor te zorgen dat een AI-systeem betrouwbaar is: u wilt dat uw autonome auto een betrouwbare bestuurder is. Maar het is slecht als we willen dat machines echt betrokken zijn bij en reageren op de wereld. Deze eenvoudigste AI-systemen zullen zich nooit vervelen, geïnteresseerd of verdrietig zijn.
Type II AI: beperkt geheugen
Deze Type II klasse bevat machines die in het verleden kunnen kijken. Zelfrijdende auto's doen een deel hiervan al. Ze observeren bijvoorbeeld de snelheid en richting van andere auto's. Dat kan niet in één moment, maar vereist eerder het identificeren van specifieke objecten en deze in de loop van de tijd bewaken.
Deze waarnemingen worden toegevoegd aan de voorgeprogrammeerde wereldrepresentaties van de zelfrijdende auto's, waaronder ook rijstrookmarkeringen, verkeerslichten en andere belangrijke elementen, zoals bochten in de weg. Ze zijn inbegrepen wanneer de auto beslist wanneer van rijstrook wordt gewisseld, om te voorkomen dat een andere bestuurder wordt afgesneden of door een auto in de buurt wordt geraakt.
Maar deze simpele stukjes informatie over het verleden zijn slechts van voorbijgaande aard. Ze worden niet bewaard als onderdeel van de ervaringsbibliotheek van de auto, zoals menselijke bestuurders jaren achter het stuur ervaringen opdoen.
Dus hoe kunnen we AI-systemen bouwen die volledige representaties bouwen, hun ervaringen onthouden en leren omgaan met nieuwe situaties? Brooks had gelijk omdat het erg moeilijk is om dit te doen. Mijn eigen onderzoek naar door Darwiniaanse evolutie geïnspireerde methoden kan menselijke tekortkomingen gaan compenseren door de machines hun eigen representaties te laten bouwen.
Type III AI: Theory of mind
Misschien stoppen we hier en noemen we dit punt de belangrijke kloof tussen de machines die we hebben en de machines die we in de toekomst zullen bouwen. Het is echter beter om specifieker te zijn om de soorten representaties te bespreken die machines moeten vormen en waar ze over moeten gaan.
Machines in de volgende, meer geavanceerde klasse vormen niet alleen representaties over de wereld, maar ook over andere agenten of entiteiten in de wereld. In de psychologie wordt dit 'theory of mind' genoemd - het besef dat mensen, wezens en objecten in de wereld gedachten en emoties kunnen hebben die hun eigen gedrag beïnvloeden.
Dit is cruciaal voor hoe wij mensen samenlevingen vormden, omdat ze ons in staat stelden om sociale interacties te hebben. Zonder elkaars motieven en intenties te begrijpen en zonder rekening te houden met wat iemand anders over mij of de omgeving weet, is samenwerken op zijn best moeilijk, in het slechtste geval onmogelijk.
Als AI-systemen inderdaad onder ons zullen lopen, zullen ze moeten kunnen begrijpen dat ieder van ons gedachten en gevoelens en verwachtingen heeft over hoe we zullen worden behandeld. En ze zullen hun gedrag daarop moeten aanpassen.
Type IV AI: zelfbewustzijn
De laatste stap van AI-ontwikkeling is het bouwen van systemen die representaties over zichzelf kunnen vormen. Uiteindelijk zullen wij AI-onderzoekers niet alleen het bewustzijn moeten begrijpen, maar ook machines moeten bouwen die het hebben.
Dit is in zekere zin een uitbreiding van de 'theory of mind' die in het bezit is van kunstmatige intelligenties van type III. Bewustzijn wordt niet voor niets ook "zelfbewustzijn" genoemd. ("Ik wil dat item" is een heel andere uitspraak dan "Ik weet dat ik dat item wil.") Bewuste wezens zijn zich bewust van zichzelf, weten van hun interne toestanden en kunnen gevoelens van anderen voorspellen. We gaan ervan uit dat iemand achter ons in het verkeer toetert, boos of ongeduldig is, want zo voelen we ons als we naar anderen toeteren. Zonder een theorie van geest zouden we dat soort gevolgtrekkingen niet kunnen maken.
Hoewel we waarschijnlijk verre van het maken van machines zijn die zelfbewust zijn, moeten we onze inspanningen richten op het begrijpen van geheugen, leren en het vermogen om beslissingen te baseren op ervaringen uit het verleden. Dit is een belangrijke stap om de menselijke intelligentie alleen te begrijpen. En het is cruciaal als we machines willen ontwerpen of ontwikkelen die meer dan uitzonderlijk zijn in het classificeren van wat ze voor zich zien.
Arend Hintze, Universitair docent Integratieve Biologie & Informatica en Engineering, Michigan State universiteit