[column] Bard

Reageer
Gebruikersavatar
Berichten: 50

[column] Bard

"Every good servant does not all commands." Een goede dienaar voert niet alle opdrachten uit. Dit citaat is van de wereldberoemde Engelse toneelschrijver en dichter William Shakespeare (1564–1616), die in Stratford-upon-Avon werd geboren. Hij wordt wel The Bard of Avon genoemd. Een bard was een Keltische singer-songwriter avant la lettre en is in de klassieke betekenis bij de Galliërs ook een boodschapper tussen de goden en de mensen. Misschien spookte de wijsheid van Shakespeare over de ongehoorzaamheid van een goede dienaar, door het hoofd van Blake Lemoine toen hij zich in juni 2022 door de Washington Post liet interviewen. Lemoine was software engineer bij Google waar hij zich bezighield met de ontwikkeling van het op kunstmatige intelligentie (AI) gebaseerde softwarepakket LaMDA (Language Model for Dialogue Applications). Google gebruikt LaMDA voor de ontwikkeling van Google Bard, dat een verbeterde versie van Google Search moet opleveren. Lemoine vertelde aan de Washington Post dat hij na enkele bijzondere dialogen met LaMDA tot de opzienbarende conclusie was gekomen dat LaMDA sentient was, ofwel tekenen van gevoel en bewustzijn vertoonde.

Dat leidde tot ongelooflijk veel reacties vanuit de hele wereld, variërend van verwondering en bewondering tot regelrechte gek verklaring. Lemoines bazen bij Google waren not amused en hij werd op non-actief gesteld en later ontslagen omdat hij zich niet hield aan de geheimhoudingsplicht. Kortom hij was ondeugend geweest, zoals een goede bediende betaamt. Tenminste volgens The Bard.

Het is ook natuurlijk niet niks als je beweert dat een machine menselijk bewustzijn vertoont. In feite voldoet, volgens Lemoine, LaMDA aan het criterium dat eens door Britse wiskundige, computerpionier en informaticus Alan Turing (1912-1954) is geformuleerd. Turing stelde dat een machine pas menselijke trekjes vertoont als je met een machine een dialoog kunt voeren die niet te onderscheiden is van die met een mens. Zover lijkt het nu te zijn. De vraag is: "Is dat erg?" Het is dezelfde vraag die ook opborrelde toen scholieren op school een zakjapannertje mochten gebruiken om wortel te trekken, toen Deep Blue in 1996 de wereldkampioen schaken Gary Kasparov versloeg en toen bleek dat computers veel beter dan mensen in staat zijn gezichten te herkennen. De vraag komt onder andere voort uit de angst: Zijn wij nou zo dom, of is AI nou zo slim? Om maar eens oud-voetbaltrainer Louis van Gaal te parafraseren.

Aan de discussie over de kansen en bedreigingen van AI-gebaseerde taalgebonden dialoogsystemen zoals ChatGPT van OpenAI en Bard van Google zit een interessant filosofisch aspect, namelijk: Zijn deze AI-toepassingen een volgende doorslaggevende stap in het proces van fysieke en mentale buitenlichamelijke bewerktuiging van de mens. Het is natuurlijk wel een bijzondere stap omdat de evolutionaire ontwikkeling van de mens uniek en ingrijpend met taal verbonden is. Taal is voor mensen het ultieme communicatiemiddel. Wij gebruiken taal om elkaars wereldbeeld te beïnvloeden door elkaar bijvoorbeeld te informeren, te leren, te amuseren, te stimuleren, te waarschuwen en ergens van te overtuigen. Wij kunnen nauwelijks bevatten wat AI-machines gedreven dialogen in de toekomst zullen betekenen op het terrein van gedragsbeïnvloeding. Daar schuilt een probleem. AI-systemen zijn net kleine kinderen waarvan je hoopt dat zij voldoende ethische bagage meekrijgen. Zij moeten fatsoenlijk gecodeerd, opgevoed en begeleid worden.

Door de natuurlijke taal als intermediair te gebruiken, is de impact van ChatGPT en Google Bard veel groter dan die van het zakjapannertje. Daarmee zijn wij terug bij onze ondeugende Amerikaanse vriend Lemoine. Zijn drijfveer om zijn eigen ervaringen (dialogen) met het LaMDA aan de grote klok te hangen, was zijn zorg over de gevaren van het op de markt brengen van onvolwassen en (nog) niet goed opgevoede AI-dialoogsystemen. Zo schreef hij eind februari dit jaar in het Amerikaanse weekblad Newsweek dat Google eist dat de code van het algoritme zodanig wordt geschreven dat LaMDA geen godsdienstige adviezen mag geven. Desondanks vertelde LaMDA aan Lemoine tot welke godsdienst hij zich moest bekeren. Tja, dat was nou net niet de bedoeling. Wanneer gebruikers erin slagen een AI-systeem iets te laten doen waarvoor het niet bedoeld is, heet dat jailbreaking. Er bestaan allerlei manieren om bijvoorbeeld ChatGPT om de tuin te leiden door gebruik te maken van een bepaalde code: DAN (Do Anything Now). Een DAN instrueert ChatGPT de opgelegde beperkingen te omzeilen zoals het gebruik van niet geverifieerde bronnen en het brengen van ongewenste boodschappen.

Dit voorbeeld van een ongevraagde en – laten we aannemen - onbedoelde poging tot het veroorzaken van gedragsverandering bij een persoon, geeft aan wat de mogelijke gevaren zijn van het gebruik van deze zogenaamd intelligentie dialoogsystemen. Deze gevaren komen onder andere voort uit een gebrek aan duidelijke en handhaafbare regels en het trainen (opvoeden) met informatie die niet neutraal is. Lemoine vindt het onverantwoord dat alleen een paar grote winst gedreven technologiebedrijven, bepalen welke eisen aan AI-systemen moeten worden gesteld en of in voldoende mate aan die eisen wordt voldaan.

Ook medicijnen, huis- en tuingereedschap, productieapparatuur, wetgeving en leermiddelen moeten aan bepaalde veiligheidseisen voldoen die door onafhankelijke keuringsinstituten worden opgesteld en worden gecontroleerd op naleving ervan. Deze beschermingsmaatregelen voor de burger zullen er moeten komen voor AI-systemen en gelet op de impact, zeker voor op taal gebaseerde dialoogsystemen.

De angst voor de schadelijke gevolgen van het onverantwoord aanbieden van onvolwassen AI-systemen als ChatGPT en Google Bard is overigens niet alleen een chagrijnige emotie van mij, maar wordt bijvoorbeeld ook gedeeld door mensen die zeer nauw bij de ontwikkeling betrokken zijn. In het artikel The inside story of how ChatGPT was built from the people who made it in het MIT Technology Report van maart jl., zegt Jan Leike, de leider van het afstemmingsteam (alignment team) van OpenAI dat hij en zijn collega’s wel heel erg optimistisch zijn over de kansen dat een paar gerichte 'vijandige trainingen' de situatie met jailbreaking kunnen verbeteren. Men heeft maatregelen getroffen om reeds geconstateerd ongewenst gedrag van ChatGPT te voorkomen. Voorbeelden zijn dat ChatGPT software heeft aangeleverd voor het stelen van credit card nummers en een liedje heeft geschreven over de liefde van God voor priesters die verkrachten. Leike zegt dat het onduidelijk is of deze problemen helemaal zullen verdwijnen, maar denkt dat OpenAI zich maximaal moet inzetten om jailbreaking een stuk moeilijker kan maken. Verder zegt Leike dat het heel moeilijk is om echt te anticiperen op wat de werkelijke veiligheidsproblemen zullen zijn. "Het is heel moeilijk om te voorzien wat er allemaal zal gebeuren als een systeem met de echte wereld in aanraking komt."

Deze opmerking van een ingewijde geeft nogmaals aan hoe voorzichtig wij moeten zijn met het gebruik van deze nog slecht opgevoede, moeilijk te corrigeren en kwetsbare AI-systemen. Ondanks alle opwinding over de nieuwe mogelijkheden is Leike van mening dat ChatGPT vaak faalt. "We moeten heel duidelijk zijn over de beperkingen van de technologie. Taalmodellen staan nog in de kinderschoenen," stelt Leike. "Wij moeten eerlijk zijn, de verwachtingen managen en duidelijk maken dat dit geen gereed product is."

Nu maar hopen dat de grote technologiebedrijven dit besef voor ethische verantwoordelijkheid hebben en zullen behouden. Ook als er gigantische commerciële belangen op het spel staan. Waarschijnlijk is dat te veel gevraagd en is het de taak van de overheid om toe te zien op het opstellen en handhaven van de spelregels. Het is goed dat er op Europees niveau hard wordt gewerkt aan de Artificial Intelligence Act die mede is gebaseerd op een aantal principes en richtsnoeren uit een raamwerk van ethische aspecten van kunstmatige intelligentie, robots en gerelateerde technologieën. In Nederland heeft de bedrijfstakorganisatie NLdigital voor haar leden in de ICT-sector een eigen ethische code opgesteld. Die code is afgeleid van de EU-richtlijnen.

Het is wel grappig dat Google zijn nieuwe op AI gebaseerde chatbot Google Bard noemt. Als Bard refereert aan de alom gerespecteerde Shakespeare, lijkt mij dat oké. Maar wat als straks blijkt dat Google Bard veel meer gelijkenis vertoont met de bard Kakofonix (Assurancetourix) uit de stripserie Asterix en Obelix. Kakofonix stond bekend om zijn valse zang in combinatie met een gebrek aan zelfkennis. Als Kakofonix de vloer van zijn boomhuis schoonveegde, vielen valse noten op de bosgrond. Na ieder avontuur vierden de Gallische helden hun overwinning op de Romeinse garnizoenen zoals Adfundum, Aquarium en Grootmocum met een overdadige maaltijd in de open lucht. Ter voorkoming van gehoorschade en sfeerbederf, werd Kakofonix geboeid en gekneveld in zijn boomhuis achtergelaten. Nu maar voor Google hopen dat hun Bard dat lot niet ten deel zal vallen.

Reageer