Springen naar inhoud

- - - - -

[Column] Kansen en bedreigingen van KI


#1

Kappetijn

    Kappetijn


  • 0 - 25 berichten
  • 17 berichten
  • Nieuwsbriefredactie

Geplaatst op 22 juni 2017 - 10:01

Het is altijd hetzelfde gedoe met de zich aandienende vruchten van het viriele stelletje wetenschap & technologie. De een voorspelt onheil, knechting en teloorgang de ander heil, bevrijding en redding. Met kunstmatige intelligentie is het niet anders. De ene toepassing roept sombere angstbeelden op, de andere vrolijke visioenen. De heftigheid van het debat over hoe wij met kunstmatige intelligentie (KI) moeten omgaan en wat wij ervan kunnen verwachten hoeft niet te verbazen. KI grijpt namelijk op cognitief niveau in. KI is met zijn enorme potentie van informatieverwerking een sterk hulpmiddel bij ons denken. Machines die ons fysiek handelen versterken zijn niet bedreigend voor ons voortbestaan als mens. Machines die onze geestelijk handelen versterken betekenen voor veel mensen wel een dreiging. KI wordt daarom niet alleen beschouwd als een kans, maar ook als een bedreiging.

 

Toch kunnen wij best zo nu en dan een denksteuntje gebruiken. Het is best handig dat een slimme deur in de supermarkt vanzelf open zoeft omdat hij ‘weet’ dat jij er met jouw afgeladen winkelkarretje aan komt sjokken. Het is best handig dat een slim online winkelbedrijf weet waar jij woont, wat jouw voorkeuren zijn en hoe jij wilt betalen. Maar dat is klein bier vergeleken met de voer-, vaar- en vliegtuigen die langzamerhand bol staan van de elektronica en daarmee steeds meer slimmigheden kunnen uithalen. Kijk naar de burgerluchtvaart. Op ieder moment van de dag verplaatsen gemiddeld ongeveer een miljoen mensen in een aluminium en glasvezelversterkte kunststoffen buis zich op een hoogte van tien kilometer in de koude en ijle troposfeer met een snelheid van gemiddeld duizend kilometer per uur. In 2016 kwamen er bij 19 vliegtuigongelukken 325 van de ruim 3,5 miljard passagiers om het leven. Als er iets misgaat, is het bijna altijd een menselijke fout of een terroristische daad, niet een technisch mankement. In de luchtvaart hebben naast materiaalkunde en de obsessie voor redundante technische oplossingen, met name ook automatisering en KI geleid tot een onwaarschijnlijke hoog niveau van veiligheid.

 

Gelukkig is nu de tijd aangebroken waarop ook de auto wordt aangepakt. De heilige koe is een ware massamoordenaar. Of beter gezegd: de bestuurder maakt met grote regelmaat van zijn geliefde auto een dodelijk wapen. Ieder jaar vallen er wereldwijd in het verkeer meer dan 1,3 miljoen doden en raken er tussen de 20 en 50 miljoen mensen gewond. Per jaar komen drie keer zo veel mensen in het verkeer om als er worden vermoord en 25 keer zo veel als er in oorlogsgebieden omkomen. In de leeftijdscategorie van 15 tot 29 jaar is het verkeer doodsoorzaak nummer een. Daarna komen zelfmoord, hiv/aids en moord. En dan is er nog de economische schade. De kosten van verkeersongelukken in landen met laag en middeninkomen zijn hoger dan het tot totale bedrag dat die arme landen aan ontwikkelingshulp ontvangen.
In het autoverkeer is dus nog veel winst te behalen met automatisering en KI.

 

De zelfrijdende auto is in opkomst. De meeste autofabrikanten zijn al druk bezig met de voorbereidingen. Het jaar waarin naar verwachting de zelfrijdende auto een normale verschijning in het verkeer zal zijn, varieert tussen 2020 en 2030. Dat is dus snel. Alle betrokken partijen besteden veel tijd en geld aan het verbeteren van de waarnemingssystemen en de besturingssystemen. Maar het belangrijkste onderdeel zit tussen de oren, namelijk de sensoren en de actoren. Dat is de verzameling van wiskundige modellen van het voertuig en vooral van de omringende werkelijkheid. Die modellen gaan over meer dan alleen topografische kennis en plaatsbepaling. Het is van groot belang de plaats, de richting en de snelheid van de mensen en de objecten in de omgeving goed in te schatten en dan met een beslissysteem te bepalen welke actie het voertuig moet nemen. Bij deze wiskundige modelvorming komt veel KI kijken.

 

Het is dan ook niet verbazend dat Elon Musk, onder andere CEO van Tesla, de fabrikant van elektrische auto’s, een voorstander is van zelfrijdende auto’s en een uitgesproken mening heeft over KI. Wel opvallend is dat hij geen verblinde optimist is. Sterker nog, hij zwaait met een waarschuwend vingertje. Samen met bekende wetenschappers en andere ondernemers zoals Stephen Hawking, Max Tegmark en Bill Gates verkondigde hij in 2015 in de open brief ‘Research priorities for robust and beneficial artificial intelligence’ van het Future of Life Institute dat door het grote potentieel van KI het belangrijk is om te onderzoeken hoe de voordelen van KI kunnen worden behaald zonder dat de nadelen de overhand krijgen. Als nadelen worden gezien het verminderen van arbeidsplaatsen, het verlies van privacy en de toenemende afhankelijkheid en dus kwetsbaarheid voor mensen, organisaties en de maatschappij in zijn geheel.
 
De afhankelijkheid van KI-systemen is wel heel pregnant in de ideeën van de volgelingen van Ray Kurzweil. Zij zijn ervan overtuigd dat in 2045 het kantelpunt is: het singulariteitspunt. Dat is het moment waarop de intelligentie niet meer afhankelijk zal zijn van een biologisch systeem. Technologische en biologische systemen zullen zodanig geïntegreerd zijn dat de mensheid een volgende fase ingaat, die van het zogenaamde transhumanisme. Uiteraard horen bij zulke toekomstscenario’s de onvermijdelijke doembeelden, variërend van de totale teloorgang van autonomie en privacy tot het ontstaan van de robot die zich tegen de mens, zijn biologische voorganger, zal afzetten en zal proberen hem te vernietigen. Deze doemscenario’s vormen niet alleen een uitstekende voedingsbodem voor science fiction auteurs, maar zijn ook aanleiding voor veel mensen om serieus ongerust te zijn.
 
Als er angst moet zijn voor een onbeheersbare KI zal dat vooral een angst moeten zijn voor de klungelige of kwaadaardige manier waarop mensen KI inzetten. In mei van dit jaar stond in NRC een artikel over het gevaar van zelflerende algoritmen die gebruik maken van big data en zich als zwarte dozen gedragen. Zulke algoritmen kunnen tot onjuiste en daardoor soms gevaarlijke conclusies leiden. Zo bleek uit een onderzoek met de data van een miljoen patiënten dat patiënten met astma een kleinere kans hebben om aan longontsteking te overlijden dan mensen zonder astma. Dat was een verkeerde conclusie die grote gevolgen had kunnen hebben voor vervolgbehandelingen als de onderzoekers niet hadden onderkend dat doctoren juist voorzichtiger zijn met astmapatiënten die ook longontsteking hebben. Een van de onderzoekers, Rich Caruana stelde dan ook: “Daardoor werden die patiënten sneller en krachtiger behandeld en dat verlaagt hun kans om aan een longontsteking te overlijden vergeleken met de gewone populatie.”

 

Kortom, het algoritme deugde niet want de aannames van het interne model waren onvolledig dus fout. Daarbij werd de bekende blunder gemaakt dat correlatie hetzelfde is als causaal verband. Goede KI veronderstelt onderliggende wiskundige modellen van de werkelijkheid die voor een specifieke toepassingen dermate volledig zijn dat de conclusies accuraat zijn. Als er iets fout gaat is het onzinnig om KI de schuld te geven en niet de gebrekkige en daardoor soms gevaarlijke toepassing door mensen. KI is prachtig en krachtig, maar de ontwikkelaars en gebruikers van KI-systemen moeten wel behoedzaamheid en bescheidenheid tonen. KI is een kans. Of het een bedreiging is, hangt van mensen af.


Dit forum kan gratis blijven vanwege banners als deze. Door te registeren zal de onderstaande banner overigens verdwijnen.






Reageer op dit onderwerp



  

0 gebruiker(s) lezen dit onderwerp

0 leden, 0 bezoekers, 0 anonieme gebruikers

Ook adverteren op onze website? Lees hier meer!

Gesponsorde vacatures

Vacatures