Springen naar inhoud

- - - - -

[Column] MusKI


#1

Kappetijn

    Kappetijn


  • 0 - 25 berichten
  • 17 berichten
  • Nieuwsbriefredactie

Geplaatst op 20 augustus 2018 - 18:25

Elon Musk heeft geld, ideeën, overtuigingskracht en van veel dingen verstand. Behalve van het inzetten van kleine onderzeeërs bij extreme omstandigheden. Musk had zijn miniduikboot aangeboden voor de redding van de twaalf Thaise voetballertjes uit een ondergelopen grot. Volgens Vernon Unsworth, de Britse duiker die bij de reddingsactie betrokken was, ging het Musk om een publiciteitsstunt en had hij geen flauw idee van wat er komt kijken bij een tocht door een smalle en bochtige grot. De miniduikboot zou na vijftig meter al gestrand zijn. Unsworth ondubbelzinnige reactie op Musks voorstel was: “He can stick his submarine where it hurts.” Dat Musk daarna via Twitter Unsworth een pedo guy noemde was onaangenaam en onhandig. Gelukkig volgden snel de excuses van Musk.
 
Deze visionaire miljardair verdient en krijgt veel waardering voor zijn gepassioneerde en gedurfde ondernemerschap dat PayPal, SpaceX, Tesla Motors en de Hyperloop heeft opgeleverd. Maar naast de toepassingsmogelijkheden van miniduikboten is er een andere visie van Musk waarbij ik kanttekeningen wil plaatsen, namelijk die over kunstmatige intelligentie (KI). In maart jl. tijdens de South by Southwest (SXSW) Conference & Festivals  in Austin (VS) zei hij dat KI gevaarlijker is dan nucleaire wapens en dat er een toezichthoudend orgaan moet komen voor KI. Musk vertelde dat hij banger is voor KI dan voor klimaatverandering, oorlogsvoering of extreme ideologieën. Volgens hem zal KI de mens als probleemoplosser op alle terreinen volledig overtreffen. Hij zei: “When that happens, it could advance our science and our quality of life in unimaginable ways — or it could be the last thing we ever invent.” Armegeddon ligt op de loer. Het einde der tijden en van de menselijke geschiedenis lonken.

 

Maar hoe realistisch is dit doemdenken? Aan KI kleeft het grote probleem dat het een slecht gedefinieerd begrip is. Dat belet overigens de pathologische narcist en notoire leugenaar Donald Trump er niet van stompzinnig op te scheppen over zijn snel wisselende regeringsploeg met de adembenemende bewering “we have by far the highest IQ of any cabinet ever assembled”. Maar dit terzijde.
Het is niet zo verwonderlijk dat er rond het begrip KI grote verwarring is, want niemand weet precies wat intelligentie is. Van de overvloed aan definities van intelligentie ben ik het meest gecharmeerd van de ruime definitie die Nello Christianini van de universiteit van Bristol (VK) hanteert: Intelligentie is datgene (subject) dat een doel nastreeft in een omgeving waarover het niet helemaal de controle heeft. Vaak wordt intelligentie gelijkgeschakeld met menselijke intelligentie. Maar ook planten en dieren zijn intelligente subjecten die informatie kunnen vergaren, verwerken, opslaan en gebruiken om plannen te maken en acties te ondernemen om zich aan de omgeving aan te passen. Daarom is het erg onhandig om KI te beschouwen als het nabootsen van menselijke intelligentie.
 
Met Musk-achtige beelden van KI als de tegenstander in plaats van de versterker van de menselijke intelligentie worden de potentiële gevaren van KI al snel overdreven. In dat kader is het interessant dat Elon Musk samen met Stephen Hawking en Bill Gates in 2015 ondertekenaar was van de open brief ‘Research priorities for robust and beneficial atificial intelligence’. Deze brief was een initiatief van het Future of Life Institute. De brief stelt dat de potentiële voordelen van KI enorm zijn omdat alles dat de beschaving te bieden heeft een product van menselijke intelligentie is. “Wij kunnen niet voorspellen wat wij kunnen bereiken als de menselijke intelligentie wordt vergroot door instrumenten die KI ons zal aanreiken. Het uitroeien van ziekte en armoede is niet ondenkbaar.” Dat is een nogal positieve en boude toekomstvisie. Maar in de brief staat dat KI ook een schaduwzijde van potentiële ellende heeft.

 

De inhoud van de brief wordt onderbouwd door een boeiend en genuanceerd rapport van de auteurs Stuart Russell, Daniel Dewey en Max Tegmark. Het rapport geeft een evenwichtig beeld van de mogelijke voor- en nadelen van KI en komt met een lijstje van gewenste korte en lange termijn onderzoeksdoelen. De aandachtsgebieden zijn verificatie, validatie, veiligheid en controle. Het rapport sluit af met de conclusie dat succes in de zoektocht naar KI in potentie de mensheid niet eerder vertoonde voordelen kan brengen en dat het daarom de moeite waard is te onderzoeken hoe deze voordelen voor de mensheid kunnen worden gemaximaliseerd en de nadelen geminimaliseerd.
Deze gebalanceerde benadering spreekt mij wel aan. Daarom begrijp ik niet zo goed waarom Musk met die apocalyptische soundbites en oneliners het feestje van SXSW kwam verstieren. Misschien heeft hij het niet zo bedoeld, maar sinds zijn alarmistisch toekomstvisie wordt KI nog meer als bedreiging van de mensheid beschouwd dan daar voor. De angst overheerst.
 
In de Nederlandse versie van New Scientist van februari jl. stond het verhelderende artikel ‘Kunstmatige Onwetendheid’ van de Engelse schrijver en journalist Michael Brooks. Hij haalt daarin de Engelse KI-onderzoekster Joanna Bryson van de universiteit van Bath (VK) aan. Zij noemt KI: “Even gaan rekenen voordat je tot actie overgaat.” Het beeld spreekt mij wel aan. KI is tot op heden naast het serieuze modellenwerk gebaseerd op aantoonbare causale relaties, toch vooral veel data verzamelen en proberen daar op basis van correlaties een beetje chocola van te maken. Of het nu gaat om spelletjes zoals Go en schaken of het profileren van het gedrag van individuele of groepen mensen.

 

Het springende punt is dat KI nooit eigen keuzen kan maken. KI-systemen, ook de lerende en autonoom opererende systemen, zijn ‘gewone’ vormen van buitenlichamelijke bewerktuiging door en voor mensen. KI-systemen doen wat hun scheppers hebben verteld dat ze moeten doen. Niet meer en niet minder. KI-systemen hebben geen eigen doel, houden er geen eigen agenda op na of vernietigen niet op eigen houtje de mensheid. In tegenstelling tot levende organismen zijn KI-systemen zich niet bewust van hun kwetsbaarheid en vergankelijkheid. Daardoor hebben zij niet de onverwoestbare drijfveer om te overleven en het DNA door te geven. Deze overlevingsdrang kenmerkt het leven en wordt door intelligentie gefaciliteerd. KI is en wordt geen bewust acterende (kwade) macht. Als er onverhoopt iets mis gaat, heeft iemand ergens bewust of onbewust een fout gemaakt: bijvoorbeeld een onjuist mathematisch model van (een deel van) de werkelijkheid ontworpen, een fout algoritme bedacht, een verkeerde programmaregel geschreven, verkeerde data geleverd of de uitkomsten verkeerd geïnterpreteerd. Ross Anderson van de universiteit van Cambridge zegt dat het beeld van doodenge superwezens kantelt zodra je beter begrijpt hoe KI-systemen in elkaar zitten. Zij zullen geen bewustzijn ontwikkelen of besluiten dat mensen maar beter van de blauwe planeet kunnen verdwijnen.

 

Net zoals bij bruggen, auto’s, vliegtuigen en kerncentrales is er ook bij het ontwerpen, bouwen en gebruiken van KI-systemen veel competentie, kennis, aandacht, verantwoordelijkheidsgevoel en ethiek nodig. Dat geldt voor alle KI-systemen variërend van oogstrelend simpel en transparant tot beangstigend ingewikkeld en ondoorzichtig. Net zoals bij de door Musk genoemde kernwapens, moeten wij ook bij KI eerst goed nadenken en dan pas doen. Daar heeft het Future of Life Institute wel een punt met hun onderzoeksdoelen van verificatie, validatie, veiligheid en controle. Maar of het in het leven roepen van de KI-variant van het Internationaal Energie- Atoomschap (IAEA) zal werken is maar de vraag. Een internationaal KI-agentschap (International Artificial Intelligence Agency; IAIA) zal de onmogelijke waakhond-taak krijgen de ontwikkeling en het gebruik van KI-systemen in goede banen te leiden. Het probleem met KI en informatietechnologie in het algemeen is immers dat zij horizontale technologieën zijn die worden toegepast in een breed scala van andere technologieën. IT en in toenemende mate KI zitten langzamerhand in bijna alle producten en diensten. De effecten van het gebruik van KI zijn meestal diffuus, moeilijk aan te wijzen en daardoor nauwelijks te bewaken. KI-regulering met als doel op internationaal niveau excessen te voorkomen en burgers te beschermen, heeft alleen zin als die regulering kan worden gehandhaafd.

 

Bij een overwegend verticale technologie zoals kerntechnologie ligt het toezicht houden en handhaven eenvoudiger. Het IAEA slaagt er redelijk goed in om haar taak ‘strengthening nuclear, radiation, transport and waste safety’ succesvol uit te voeren. Sinds de Tweede Wereldoorlog kunnen wij atoomkernen splitsen. Mede dankzij het IAEA en het Non-proliferatieverdrag - het verdrag over niet-verspreiding van kernwapens - zijn na het vallen van de atoombommen op Hiroshima en Nagasaki in 1945 de negatieve gevolgen van de kerntechnologie behoorlijk in de tang gehouden. Harrisburg, Tsjernobyl en Fukushima waren enkele dieptepunten.

 

Dezelfde rationele terughoudendheid die nu bestaat rond de nucleaire technologie moet er ook zijn ten aanzien van bepaalde kritische KI-toepassingen zoals het geautomatiseerd profileren van menselijke gedragingen, het geautomatiseerd opstellen van medische diagnoses en het inzetten van autonoom handelend wapentuig (killer robots). De vraag is of dat toezicht houden moet en kan via Musk-achtig overheidsingrijpen (IAIA), zelfregulering of een combinatie daarvan.
Technologie kent geen moraliteit. Uiteindelijk zijn KI-systemen zo goed of slecht als de mensen en organisaties die ze bedenken, bouwen en gebruiken.


Dit forum kan gratis blijven vanwege banners als deze. Door te registeren zal de onderstaande banner overigens verdwijnen.






Reageer op dit onderwerp



  

0 gebruiker(s) lezen dit onderwerp

0 leden, 0 bezoekers, 0 anonieme gebruikers

Ook adverteren op onze website? Lees hier meer!

Gesponsorde vacatures

Vacatures