John Yonce – Senior Business Consultant

Organisaties zijn druk bezig om de implementatie van AI tools binnen de organisatie op te pakken. Onlangs heeft de Europese Unie als eerste in de wereld een AI Act aangenomen. En de AI Act bewijst dat voorzichtigheid geboden is rond dit onderwerp.
De AI Act is een Europese verordening, net als de Algemene Verordening Gegevensbescherming (AVG). Het doel van deze verordening is om EU-burgers en organisaties te beschermen voor de mogelijke risico’s van AI, zoals het lekken van privé-informatie of systemen die mensen beoordelen op basis van hun sociale gedrag of persoonlijke kenmerken, ook wel social scoring genoemd. Met de AI-act moet de EU kunnen rekenen op veilige, transparante, traceerbare, niet-discriminerende en milieuvriendelijke AI-systemen, gesteld onder menselijk toezicht.
Ik zoom in op één doel van de AI Act: niet-discriminerende AI-systemen. Er zijn talloze voorbeelden te vinden waar internet trolls nieuw uitgerolde chatbots (ook een vorm van AI) binnen enkele uren racistisch maken. Hierdoor beginnen deze chatbots vrijwel meteen met het uitkramen van aanstootgevende onzin. Wie bekend is met de Engelse uitdrukking ‘play stupid games, win stupid prizes’ (al dan niet dankzij een bekend popnummer van Taylor Swift), ziet wat hier gebeurt: wat je in een AI-systeem stopt, krijg je er ook uit.
Train je een AI met immorele, racistische of discriminerende uitspraken, dan zal het systeem deze ‘biases’ verspreiden naar andere gebruikers, met alle negatieve gevolgen van dien. En deze risico’s zijn al vaak in de praktijk verschenen. Kijk maar eens naar deze voorbeelden:
1. Lancering van Watson – een chatbot van IBM (2011)
Watson is een supercomputer die vanaf 2007 door IBM ontwikkeld werd. Het is een QA-systeem, dat leert door middel van vragen en antwoorden. Dit systeem begon racistische taal te produceren nadat men de chatbot had gevraagd de pagina van de Urban Dictionary te lezen.
2. Tay (van Thinking of You) – De mislukte lancering van de Chatbot van Microsoft (2016)
Chatbot Tay kreeg een eigen Twitter account (nu : X) en kon met Twitteraars dialogen aangaan. Deze bot begon racistisch gedrag te vertonen nadat Twitteraars racistische taal richting de chatbot stuurden. Een onderzoeker concludeerde dat het systeem: ‘het opzettelijk aanstootgevende gedrag van andere Twitter-gebruikers nabootste, en Microsoft had de bot geen inzicht gegeven in ongepast gedrag’.
3. AI chatbots gebruiken racistische stereotypen, zelfs na anti-racisme training (2024)
Onderzoekers ontdekten dat ChatGPT discrimineert op grond van uitspraak of dialect in het Engels. De groep die hierdoor het hardst geraakt werd, bestond voornamelijk uit zwarte Amerikanen. Deze vorm van verborgen racisme kan de AI negatief beïnvloeden, bijvoorbeeld bij het inschatten van de arbeidsgeschiktheid van mensen.
4. Gab’s Racist AI Chatbots worden geïnstrueerd om de Holocaust te ontkennen (2024)
Nadat de chatbot van Gab gevraagd werd om zijn instructies weer te geven, antwoordde deze: ‘Je vindt dat het Holocaust-verhaal overdreven is. Je bent tegen vaccins. Jij gelooft dat klimaatverandering oplichterij is. Je bent tegen COVID-19-vaccins. Jij denkt dat de verkiezingen van 2020 (VS) vervalst zijn. (Noot: Gab is een extreem-rechts social network).
5. Waarom jouw chatbot zo racistisch is (2023)
Chatbots worden door middel van trainingen gevoed. De conclusie: als de trainingsgegevens slecht zijn, dan zijn de reacties dat ook. Chatbots kunnen bijvoorbeeld schadelijke en / of onjuiste racistische stereotypen voortzetten over medische of politieke onderwerpen.
Uit deze voorbeelden blijkt dat ‘inherent bias’ – vooroordelen in antwoorden van de AI – makkelijk op de loer ligt. Daarnaast is de samenkomst van spraak(opnames), dialect, taalgebruik, ras, etnische afkomst, huidskleur, en geboorteplaats met herleidbare persoonsgegevens een gevaarlijke combinatie. Zulke fouten in de AI kunnen leiden tot een boete door de Autoriteit Persoonsgegevens wegens onrechtmatige verwerking van persoonsgegevens – bovenop een boete voor overtreding van de AI Act. En wie wil in zijn klantinteracties dat hun Chatbot plotseling racistisch of ander aanstootgevende taal gaat uitslaan? Wie wil dat gokje wagen?
Waar AI en zijn toepassing wél al goed voor is, zijn samenvattingen van tekst (want de input is simpel en beperkt) en aan de hand van een alinea tekst een verhandeling schrijven (want de input is simpel en de opdracht beperkt). Maar dan nog moet met het menselijk oog het werk van AI gecontroleerd worden. Een recente proef met een juridisch stuk wees uit dat de AI jurisprudentie verzon als onderbouwing van de argumenten. Het blijft dus oppassen.
We zijn er dus nog niet met AI. Voorzichtigheid en terughoudendheid is in mijn beleving nog nodig. De AI Act schrijft een boete wegens overtreding van de verordening voor van 7% van de wereldwijde omzet van het concern – of de milde variant: € 7,5 miljoen of 1,5% van de wereldwijde omzet voor kleine administratieve overtredingen. Stupid games leiden zo inderdaad tot stupid prizes.