Gelukkig zijn er ook onder de onderzoekers op het terrein van kunstmatige intelligentie personen die niet wensen mee te deinen op de golven van de overspannen verwachtingen, zonder daarbij de fantastische mogelijkheden van kunstmatige intelligentie te bagatelliseren. Een daarvan is de in Engeland geboren Stuart Russell, hoogleraar Computerwetenschappen aan de Universiteit van California. Vorig jaar publiceerde hij het boek Human Compatible: Artificial Intelligence and the Problem of Control. Russell wordt vele malen geciteerd in het artikel Artifical Intelligence will do what we ask. That’s a problem van Natalie Wolchover in de onvolprezen elektronische nieuwsbrief Quanta Magazine.
Russelll maakt zich zorgen over de richting waarop het onderzoek op het terrein van de kunstmatige intelligentie (KI) zich beweegt. De toepassingen van KI lijden te veel onder het onbegrip van de ontwerpers over de consequenties van de doelen die zij aan hun systemen stellen. YouTube is daarvan een goed voorbeeld. Het streven bij YouTube is de kijktijd van mensen zo lang mogelijk te maken door met name aanbevelingen te doen voor gerelateerde video’s. De onderliggende KI gebaseerde algoritmen blijken ertoe te leiden dat de mensen in toenemende mate worden geconfronteerd met steeds extremere inhoud. Een van de onderzoekers, Dylan Hadfield-Menell constateerde bijvoorbeeld dat als hij beeldmateriaal van campagnebijeenkomsten van Donald Trump had bekeken, YouTube hem video’s aanbood met daarin getier van de aanhangers van de ideologie van het blanke oppergezag (the white supremacists), Holocaust ontkenningen en andere verontrustende inhoud. De YouTube KI-algoritmen helpen dus mensen te polariseren en te radicaliseren en non-informatie te verspreiden.
Dat kan toch niet de bedoeling zijn. Het komt doordat ontwerpers van KI-systemen niet kunnen overzien hoe zij de algoritmen moeten bouwen omdat zij te weinig benul hebben van hoe mensen in elkaar steken. Marketingmensen en programmeurs zijn geen psychologen en neurologen. Je kunt pas een goed algoritme maken dat aansluit op het denken van mensen dus de werking van de hersenen, als je begrijpt welke wensen en behoeften mensen in een bepaalde situatie hebben en hoe die wensen en behoeften tot stand komen. En dat valt om verschillende redenen niet mee. Zo zijn mensen allemaal ongelijk, niet alleen rationeel, maar vooral ook emotioneel, weten ze niet precies wat ze willen en doen ze veel onbewust. Bovendien veranderen de wensen en behoeften van mensen voortdurend omdat hun omgeving continu verandert. Dat maakt het erg moeilijk criteria te formuleren op basis waarvan het algoritme met een hoeveelheid beschikbare informatie moet vaststellen wat een bepaalde persoon op een bepaald moment op een bepaalde plaats met een bepaald doel het liefste wil zien, kopen of communiceren.
Tot nu toe – en feitelijk per definitie – rekent ieder algoritme met een onvolledig model van een deel van het uitermate complexe en diverse gedrag van mensen. In veel gevallen, zoals bij de aanbevelingsalgoritmen van YouTube, kan je het gehanteerde gedragsmodel rustig een karikatuur noemen. Daarmee is niemand geholpen. Het leidt tot Kunstmatige Domheid. Dat kan en mag niet het doel van KI zijn. Stuart Russell zegt dan ook dat waar het bij KI omgaat, of zou moeten gaan, is het verbeteren van de menselijke ervaring. In zijn reeds genoemde boek Human Capital komt Russell met drie “principes van nuttige machines”. Zij doen denken aan de drie wetten van de robotica die Amerikaanse science fiction schrijver Isaac Asimov in 1942 formuleerde.
De drie principes van Russell zijn:
- Het enige doel van de machine is het maximaliseren van de realisering van menselijke voorkeuren.
- De machine is in eerste instantie onzeker wat die voorkeuren zijn.
- De ultieme informatiebron voor menselijke voorkeuren is het menselijk gedrag.
De KI-wereld heeft de hoop gevestigd op het gebruik van grote hoeveelheden informatie (big data), zelflerende algoritmen (deep learning) en neurale netwerken. Het is een goed begin. Maar de concrete en succesvolle toepassingen in het menselijk domein zijn relatief schaars en hebben hun gebreken. En dan heb ik het nog niet eens over de kwaadwillende mensen en organisaties die KI willen en zullen gebruiken om daarmee meer geld en macht te vergaren ten koste van anderen. Zelfs in de ideale wereld kunnen te gemakzuchtige en onvoldoende doordachte en gecontroleerde toepassingen van pseudo-KI op terreinen als media, gezondheidszorg en bestuur gevaarlijk zijn omdat zij gebaseerd zijn op te weinig kennis van de werkelijkheid. Kunstmatige Domheid dus.