Het wordt weer een belangrijk jaar voor AI. In november zijn er Amerikaanse presidentsverkiezingen. Maatregelen moeten manipulatie en beïnvloeding door middel van kunstmatige intelligentie voorkomen. ChatGPT-maker OpenAI blokkeerde deze week al een chatbot die zich voordeed als presidentskandidaat.

In het kort

  • OpenAI stelt regels op om misbruik van AI in aanloop naar de Amerikaanse presidentsverkiezingen te voorkomen.
  • Die verantwoordelijkheid ligt volgens experts in eerste instantie bij bedrijven die AI ontwikkelen. Pas daarna ligt die bij de overheid.
  • Een kant-en-klare oplossing tegen misbruik is er niet. Maar de komende tijd wordt duidelijk of strengere sancties nodig zijn.

Twee ontwikkelaars uit Silicon Valley bouwden een chatbot die spreekt zoals de Democratische presidentskandidaat Dean Phillips. De bot moest helpen fondsen te werven voor de campagne van Phillips. “Hij klinkt als hem en is geprogrammeerd op basis van zijn ideeën”, schrijven de makers op de site. “Maar mogelijk zegt hij verkeerde of incorrecte dingen.”

Inmiddels werkt de chatbot niet meer. OpenAI heeft er een stokje voor gestoken, schrijft The Washington Post. De makers gebruikten technologie van het bedrijf om de chatbot te maken, maar overtraden de regels. “Dit beleid verbiedt het voeren van politieke campagnes of het zonder toestemming nadoen van een persoon”, meldt een woordvoerder.

OpenAI is een van de bekendste AI-bedrijven van dit moment. Het zal dit jaar onder een vergrootglas liggen rondom de Amerikaanse verkiezingen. OpenAI zal niet verantwoordelijk willen zijn voor verspreiding van manipulatie en desinformatie bij de verkiezingen. In 2016 kregen bedrijven als Facebook diezelfde verwijten.

Daarom heeft OpenAI een aantal maatregelen gepresenteerd die misbruik van de technologie moeten voorkomen. Een verbod op het bouwen van apps voor politieke campagnes is daar een van.

Eerste verantwoordelijkheid ligt bij de makers

De makers van AI-toepassingen moeten in eerste instantie verantwoordelijkheid nemen om misbruik van de technologie te voorkomen, zegt voormalig D66-Kamerlid Kees Verhoeven. Hij is tegenwoordig adviseur op het gebied van digitalisering.

“Het is niet zo dat de techsector iets verzint en dat de overheid maar moet bijsturen”, zegt Verhoeven. “De overheid reageert altijd, maar de proactieve houding komt van de bedrijven die vooroplopen.”

Daniel Mügge, hoogleraar Politieke Rekenkunde aan de Universiteit van Amsterdam, noemt het daarom ook goed dat OpenAI erbovenop zit en regels instelt. “De verkiezingen komen er vrij snel aan. En er gaat veel tijd overheen voordat de wetgever met duidelijke regels en manieren komt om ze te handhaven”, zegt hij.

OpenAI zal zich van zijn beste kant willen laten zien, denkt Mügge. Als het bedrijf laat zien dat het wil optreden tegen misbruik en dat ook doet, kan het eventuele zware sancties van de wetgever voor zijn.

OpenAI ligt in aanloop naar de Amerikaanse presidentsverkiezingen onder een vergrootglas.

Welke politieke chatbot mag wel en welke niet?

In de GPT Store van OpenAI staan honderden chatbots. Daaronder zijn, ondanks de strengere regels, allerlei politieke bots. Zo zijn er chatbots die de Amerikaanse oud-president Donald Trump nadoen of juist informatie over zijn campagne geven. Het is niet duidelijk waarom OpenAI deze wel laat staan. Het bedrijf antwoordde niet op vragen van NU.nl.

Waar is hulp van kunstmatige intelligentie fijn, en waar juist onprettig? De aanloop naar de Amerikaanse verkiezingen wordt daarvoor een belangrijke test. De grenzen van de wenselijkheid van AI zijn vaag.

“Je kunt bijna niet zeggen dat je politiek helemaal verbiedt”, zegt Mügge. “Dat onderwerp laat zich lastig afbakenen. Is een gesprek over stikstof bijvoorbeeld per definitie politiek geladen?”

Volgens Mügge kunnen AI-bedrijven het niet snel goed doen. “Er is geen kant-en-klare oplossing voor mogelijk misbruik”, zegt hij. “Maar dat betekent niet dat ze hun schouders maar moeten ophalen.”

Politieke AI-bots hebben ook zo hun voordelen. “Ze kunnen het contact tussen politici en personen verbeteren”, zegt Verhoeven. Een chatbot kan bijvoorbeeld lastige taal uit een verkiezingsprogramma in simpele woorden samenvatten. Of laten vertalen. “Er is een kans om de informatiedrempel te verlagen, maar dan moet het wel eerlijk en waarachtig gebeuren”, stelt de adviseur.

Duizenden Amerikanen kregen een neptelefoontje dat zogenaamd van president Biden kwam.

Stemmen nadoen en woorden verdraaien

Precies daar zit soms het probleem. Generatieve AI zoals dit soort chatbots kan overal antwoorden op geven. Maar het is niet altijd duidelijk of de uitspraken feitelijk kloppen.

Ook buiten chatbots kan AI een probleem vormen. “Over manipulatie met audio en video bestaan de meeste zorgen”, zegt Mügge. Op basis van korte audiofragmenten kun je met behulp van AI al woorden verdraaien.

Dat gebeurt al in de praktijk. Dinsdag bleek dat duizenden Amerikanen telefoontjes ontvingen van een stem die klonk als die van president Joe Biden. Het bericht roept mensen op niet te stemmen in de voorverkiezingen.

De oproep is nep, bevestigt het Witte Huis. De stem lijkt te zijn nagemaakt met AI.

“Deze technologie draait op een enorme hoeveelheid data die niemand kan overzien”, zegt Verhoeven. “AI heeft zelf geen begrip, het is van zichzelf niet ethisch of onethisch. Het levert puur een strategische samenvatting van data die beschikbaar zijn. Wij moeten dat blijven monitoren om te zien wat de gevolgen zijn.”

Source