[Column] Kunstmatige Domheid

Reageer
Gebruikersavatar
Berichten: 35

[Column] Kunstmatige Domheid

Al een paar keer eerder (Algoritmen, MusKI, Kansen en bedreigingen van KI, KI en Transhumanisme) heb ik een column gewijd aan kunstmatige intelligentie. Dat is niet verwonderlijk omdat het een onderwerp is dat velen tot de verbeelding spreekt en dat nogal gehypet wordt. Het valt niet altijd mee om vast te stellen wat de werkelijkheidswaarde van de berichtgeving over kunstmatige intelligentie is. Eigenlijk zou er een onafhankelijke instantie moeten zijn die bij ieder bericht een stempel zet met in vette letters de tekst ZIN of ONZIN. Zo is er een mooi voorbeeld op het gebied van kwantummechanica en de neiging van bedrijven en media de bestaande mogelijkheden van de kwantumcomputer te overdrijven. Quantum Bullshit Detector verklaart op zijn twitteraccount wat er in de berichtgeving over kwantumcomputers wel of niet deugt. Het is bullshit of no-bullshit.

Gelukkig zijn er ook onder de onderzoekers op het terrein van kunstmatige intelligentie personen die niet wensen mee te deinen op de golven van de overspannen verwachtingen, zonder daarbij de fantastische mogelijkheden van kunstmatige intelligentie te bagatelliseren. Een daarvan is de in Engeland geboren Stuart Russell, hoogleraar Computerwetenschappen aan de Universiteit van California. Vorig jaar publiceerde hij het boek Human Compatible: Artificial Intelligence and the Problem of Control. Russell wordt vele malen geciteerd in het artikel Artifical Intelligence will do what we ask. That’s a problem van Natalie Wolchover in de onvolprezen elektronische nieuwsbrief Quanta Magazine.

Russelll maakt zich zorgen over de richting waarop het onderzoek op het terrein van de kunstmatige intelligentie (KI) zich beweegt. De toepassingen van KI lijden te veel onder het onbegrip van de ontwerpers over de consequenties van de doelen die zij aan hun systemen stellen. YouTube is daarvan een goed voorbeeld. Het streven bij YouTube is de kijktijd van mensen zo lang mogelijk te maken door met name aanbevelingen te doen voor gerelateerde video’s. De onderliggende KI gebaseerde algoritmen blijken ertoe te leiden dat de mensen in toenemende mate worden geconfronteerd met steeds extremere inhoud. Een van de onderzoekers, Dylan Hadfield-Menell constateerde bijvoorbeeld dat als hij beeldmateriaal van campagnebijeenkomsten van Donald Trump had bekeken, YouTube hem video’s aanbood met daarin getier van de aanhangers van de ideologie van het blanke oppergezag (the white supremacists), Holocaust ontkenningen en andere verontrustende inhoud. De YouTube KI-algoritmen helpen dus mensen te polariseren en te radicaliseren en non-informatie te verspreiden.

Dat kan toch niet de bedoeling zijn. Het komt doordat ontwerpers van KI-systemen niet kunnen overzien hoe zij de algoritmen moeten bouwen omdat zij te weinig benul hebben van hoe mensen in elkaar steken. Marketingmensen en programmeurs zijn geen psychologen en neurologen. Je kunt pas een goed algoritme maken dat aansluit op het denken van mensen dus de werking van de hersenen, als je begrijpt welke wensen en behoeften mensen in een bepaalde situatie hebben en hoe die wensen en behoeften tot stand komen. En dat valt om verschillende redenen niet mee. Zo zijn mensen allemaal ongelijk, niet alleen rationeel, maar vooral ook emotioneel, weten ze niet precies wat ze willen en doen ze veel onbewust. Bovendien veranderen de wensen en behoeften van mensen voortdurend omdat hun omgeving continu verandert. Dat maakt het erg moeilijk criteria te formuleren op basis waarvan het algoritme met een hoeveelheid beschikbare informatie moet vaststellen wat een bepaalde persoon op een bepaald moment op een bepaalde plaats met een bepaald doel het liefste wil zien, kopen of communiceren.

Tot nu toe – en feitelijk per definitie – rekent ieder algoritme met een onvolledig model van een deel van het uitermate complexe en diverse gedrag van mensen. In veel gevallen, zoals bij de aanbevelingsalgoritmen van YouTube, kan je het gehanteerde gedragsmodel rustig een karikatuur noemen. Daarmee is niemand geholpen. Het leidt tot Kunstmatige Domheid. Dat kan en mag niet het doel van KI zijn. Stuart Russell zegt dan ook dat waar het bij KI omgaat, of zou moeten gaan, is het verbeteren van de menselijke ervaring. In zijn reeds genoemde boek Human Capital komt Russell met drie “principes van nuttige machines”. Zij doen denken aan de drie wetten van de robotica die Amerikaanse science fiction schrijver Isaac Asimov in 1942 formuleerde.

De drie principes van Russell zijn:
  • Het enige doel van de machine is het maximaliseren van de realisering van menselijke voorkeuren.
  • De machine is in eerste instantie onzeker wat die voorkeuren zijn.
  • De ultieme informatiebron voor menselijke voorkeuren is het menselijk gedrag.
De machine kan een KI-systeem zijn dat met algoritmes en informatie rekent aan een model van het menselijk gedrag. Ik kan deze principes wel onderschrijven. Tegelijk besef ik dat het toepassen van deze principes een hels karwei is om de al genoemde redenen van de onvoorspelbaarheid, diversiteit, complexiteit en veranderlijkheid van het menselijk gedrag.

De KI-wereld heeft de hoop gevestigd op het gebruik van grote hoeveelheden informatie (big data), zelflerende algoritmen (deep learning) en neurale netwerken. Het is een goed begin. Maar de concrete en succesvolle toepassingen in het menselijk domein zijn relatief schaars en hebben hun gebreken. En dan heb ik het nog niet eens over de kwaadwillende mensen en organisaties die KI willen en zullen gebruiken om daarmee meer geld en macht te vergaren ten koste van anderen. Zelfs in de ideale wereld kunnen te gemakzuchtige en onvoldoende doordachte en gecontroleerde toepassingen van pseudo-KI op terreinen als media, gezondheidszorg en bestuur gevaarlijk zijn omdat zij gebaseerd zijn op te weinig kennis van de werkelijkheid. Kunstmatige Domheid dus.

Gebruikersavatar
Berichten: 2.708

Re: [Column] Kunstmatige Domheid

Kappetijn schreef: wo 12 feb 2020, 12:24 De KI-wereld heeft de hoop gevestigd op het gebruik van ... zelflerende algoritmen (deep learning) en neurale netwerken.
Dit is een beetje een vreemde zin, want deep learning algoritmen vormen een speciaal geval van neurale netwerken, en neurale netwerken vormen op hun beurt weer een speciaal geval van zelflerende algoritmen.

Berichten: 12.263

Re: [Column] Kunstmatige Domheid

Kappetijn schreef: wo 12 feb 2020, 12:24 Een van de onderzoekers, Dylan Hadfield-Menell constateerde bijvoorbeeld dat als hij beeldmateriaal van campagnebijeenkomsten van Donald Trump had bekeken, YouTube hem video’s aanbood met daarin getier van de aanhangers van de ideologie van het blanke oppergezag (the white supremacists), Holocaust ontkenningen en andere verontrustende inhoud. De YouTube KI-algoritmen helpen dus mensen te polariseren en te radicaliseren en non-informatie te verspreiden.
Maar die AI was bedoeld om kijktijd/views te maximeren, niet om te de-radicaliseren of met welk ander doel dan ook.

Dit kan een bijwerking zijn, maar zegt niets over hoe effectief AI in dit geval is: levert het bijvoorbeeld meer kijktijd/views op, ongeacht wat de bekeken inhoud is?

Overigens zijn dergelijke algoritmes wel heel doorzichtig, je ziet het op youtube, maar ook op facebook etc: als je veel informatie over een bepaald onderwerp bekijkt krijg je automatisch nog meer inhoud daarover in beeld. Op zich is dat niet gek: het toont aan dan je een interesse hebt in het een of ander, en meestal wil je er dan meer over weten.

Als je vandaag ter experiment een paar youtube filmpjes kijkt over iets dat je feitelijk niet interesseert, en morgen nog een paar, dan is het vrijwel gegarandeerd dat er overmorgen meer over dat onderwerp in beeld komt als je domweg naar de voorpagina van youtube (of een andere google-owned dienst?) gaat. Als je dat bewust doet met een onderwerp dat je feitelijk niet interesseert is het irritant, maar als je het verder negeert krijg je gewoon interessante content voorgeschoteld.

Of het bekijken van Trump video's je nou direct extreem-radicale of racistische video's oplevert durf ik niet te zeggen, maar het zal je sowieso meer content laten zien over de amerikaanse politiek als je dat vanuit nederland doet: blijkbaar heb je met je nederlandse ip een bovengemiddelde interesse in amerikaanse politiek. Dat kan natuurlijk best gewoon waar zijn, of je bent bijvoorbeeld een amerikaanse burger die in nederland woont of iets dergelijks (mijn accept-language staat ook op engels).

Gebruikersavatar
Berichten: 35

Re: [Column] Kunstmatige Domheid

Beste Math-E-Mad-X,
Excuus dat ik nu pas jouw opmerking over mijn column lees en daarop reageer.
Je hebt helemaal gelijk. Het is een slordige formulering want de twee onderzoeksterreinen zijn geheel verschillend.
In vind dit onderwerp boeiend om te volgen en realiseer mij regelmatig dat het model dat van de functionaliteit van neurale netwerken wordt gehanteerd, wel heel erg simpel is t.o.v. het biologische voorbeeld. Maar voor een aantal toepassingen lijkt het te werken.
Hartelijke groeten,
Fred.

Gebruikersavatar
Berichten: 35

Re: [Column] Kunstmatige Domheid

Beste Benm,
Excuus dat ik nu pas jouw opmerking over mijn column lees en daarop reageer.
De KI-gebaseerde algoritmen van YouTube zijn uitsluitend gericht op het verlengen van jouw en mijn kijktijd en daarmee de advertentie-inkomsten van YouTube. Uiteraard onder het mom van dienstverlening. Deels is dat het ook, maar er is ook 'collateral damage'. Het KI-algoritme is gebaseerd op een uiterst beperkt en daardoor karikaturaal model van mijn persoonlijk interesse en behoefte als onderdeel van mijn hyper individualistische wereldbeeld.Het model weet niet dat ik niet gediend ben van propaganda van witte supremacisten, waardoor het algoritme niet met deze voorkeur van mij rekening houdt en de door mij als abject beschouwde teksten en beelden eruit filtert. Dat vind ik soms zeer irritant waardoor YouTube niet (om met Russel te spreken) 'de machine is om de realisering van mijn voorkeuren te maximaliseren'.
Er is nog veel werk aan de winkel.
Hartelijke groeten,
Fred.

Berichten: 12.263

Re: [Column] Kunstmatige Domheid

Ik zal zeker niet stellen dat het ongewenste bijwerkingen heeft, en zelfs in enige matige gevaarlijk zou kunnen zijn.

Sites als youtube en facebook zetten je in een soort filter bubbel waarbij je steeds meer van hetzelfde krijgt, en soms ook steeds meer van een bepaalde ideologie. In combinatie met de menselijke neiging tot confirmation bias zou dat best kunnen sturen naar een gevaarlijke ideologie of wereldbeeld.

Je kunt bij wijze van spreke youtube kijken en overtuigd raken dat de wereld plat is, er zijn genoeg filmpjes die het beweren, en als het je blijkbaar interesseert krijg je er meer voorgeschoteld om je kijktijd te maximeren (AI doet wat het moet doen).

Nu is dat niet zo'n gevaarlijk wereldbeeld, maar het zou natuurlijk ook naar extreme dingen kunnen gaan. Ik denk bijvoorbeeld aan alle mis-informatie over 5G, en dat er inmiddels een aantal idioten zendmasten in brand aan het steken is gegaan. Of dat echt gevolg is van filter bubbels op websites durf ik niet te zeggen, maar je zou het kunnen denken.

In dit soort gevallen zou het handig zijn als er een 'vergeet wat je over me weet' knop op youtube etc zou staan: reset van de filter bubble. Ik vrees dat de er niet gaat komen, gezien dit model best winstgevend is (als je geen adblocker hebt althans ;) ).

Reageer