Logo

Dossier Artificial Intelligence. Deel 1: Kansen en bedreigingen

AI: wat kunnen we er in het vak mee, en waar moeten we voor oppassen?
19 oktober 2023

Kunstmatige intelligentie, ofwel AI: Artificial Intelligence. De journalistiek discussieert er volop over. Wat kunnen we er in het vak mee, en waar moeten we voor oppassen? Twee artikelen en een podcast over de kansen en de bedreigingen. En over hoe we die nieuwe werkelijkheid in ethische regels proberen te vatten.

“A sleepy town in southern Spain is in shock”, zo schreef de BBC eind september op haar website. In het Spaanse dorp Almendraljo was ophef ontstaan over naaktfoto’s van tientallen tienermeisjes die te vinden waren op sociale media. De beelden verspreidden zich razendsnel over het internet en hadden een grote impact op de afgebeelde meisjes. Maar, zo maakten die al snel duidelijk, deze foto’s hadden zij nooit (laten) maken. De foto’s waren afkomstig van een nieuwe AI-app die elke foto kon omtoveren tot een naaktfoto.

De foto’s waren zo realistisch dat één van de moeders zei dat ze twee keer moest kijken om zeker te weten dat het niet echt was. Gelukkig werden degenen die de foto’s in de AI-app hadden gemaakt vrij snel achterhaald. Het nieuws uit Spanje geeft aan wat er nu al mogelijk is met AI. En geeft ook aan hoe mensen met slechte bedoelingen op de loop kunnen gaan met de technieken.

Dat er hier ethische grenzen werden overschreden zal, bij de meeste mensen, voor weinig discussie zorgen. Dit was zonder twijfel fout, zo blijkt ook uit het snelle ingrijpen van de Spaanse politie en de ophef die er over de foto’s ontstond in de media. De app staat echter nog altijd online. Voor de maker van de tool was blijkbaar de grens nog niet bereikt.

Een verzonnen arrestatie

Waar liggen precies de grenzen in deze nieuwe wereld van kunstmatige intelligentie? Er komen nog iedere dag nieuwe toepassingen op de markt. Bij veel van de online tools is eerst maandenlang achter gesloten deuren geëxperimenteerd. De tools worden pas voor het grote publiek beschikbaar als ze eigenlijk al heel veel kunnen. Soms zelfs meer dan waar van tevoren over nagedacht was door de makers. Dat overkwam bijvoorbeeld Midjourney, een veel gebruikte website waarop je afbeeldingen kan maken. Bij de lancering van het platform werd eigenlijk alleen een beperking opgelegd als het ging om politiek, geweld en seks. Plaatjes op dit gebied mochten er niet gemaakt worden. En toch wist iemand die grens te overschrijden.

Onderzoeksjournalist Eliot Higgins van Bellingcat maakte in maart met Midjourney vrij realistische foto’s van de arrestatie van de voormalige Amerikaanse president Donald Trump. Een arrestatie die op dat moment helemaal niet had plaatsgevonden. Het systeem greep echter niet in en liet toe dat de nepfoto’s gemaakt werden. Higgins’ afbeeldingen bereikten miljoenen mensen via sociale media en lang niet iedereen had meteen door dat het geen echte foto’s waren.

trump_tweet_higgins.png

Bron: Twitteraccount Eliot Higgins

De maker van Midjourney besloot in te grijpen en Higgins de toegang te ontzeggen tot het programma. Maar het bedrijf besloot nog een stap verder te gaan. Vanaf dat moment was het niet meer mogelijk om überhaupt foto’s van Donald Trump te generen en zelfs het woord ‘arrestatie’ ging in de ban. Dat Higgins al meteen op Twitter bij de foto’s zette dat ze nep waren (en ook nog eens uitlegde hoe je herkent wat een nepfoto is) deed voor Midjourney niets af aan de ‘overtreding’.

Het experiment van Higgins geeft aan hoe makkelijk kunstmatige intelligentie ook gebruikt kan worden op het gebied van het creëren van nepnieuws. Ieder plaatje dat je in je hoofd kunt bedenken, kan door dit soort programma’s gemaakt worden. En dat geldt ook voor iedere tekst die je kunt bedenken. Wil je een column schrijven over een nieuwe computermonitor, maar dan in de stijl van William Shakespeare? ChatGPTBard en tal van andere online tekst-programma’s kunnen het. Of wil je misschien een muzieknummer uitbrengen van de Amerikaanse artiesten Drake en The Weeknd, zonder dat ze daar zelf aan mee willen werken? Het kan en het gebeurde al.

Bij het voorbeeld van de nepfoto’s van Trumps arrestatie greep het AI-bedrijf zelf in. Iets dat in het geval van de naaktfoto’s niet gebeurde. Het zorgt voor buikpijn bij overheden. Want in hoeverre moeten ze AI gaan reguleren en op welke manier? Voor onder andere de EU en tal van nationale overheden reden om aan de slag te gaan met officiële wetgeving om grip te krijgen op de AI-bedrijven. Meer over de zoektocht naar regulering in dit artikel.

Journalistieke ‘experimenten’

Bij de overheid bestaat dus duidelijk behoefte aan het stellen van scherpe grenzen. Maar wettelijke grenzen geven niet altijd duidelijk aan wat ethisch gezien wel en niet mag.

Dat bleek bijvoorbeeld toen in april het Duitse blad Die Aktuelle een AI-gegenereerd interview met Michael Schumacher publiceerde. Het blad claimde dat dit het eerste interview was met de oud-Formule 1-kampioen sinds zijn ski-ongeluk in 2013. Schumacher lag na het ongeluk lange tijd in coma en hoe het nu met hem gaat is onbekend. Op de voorpagina van Die Aktuelle stond echter een grote foto van een lachende Schumacher en in schreeuwende letters ‘Das erste Interview’ en ‘Weltsensation’.

schumacher_die_aktuel_2.png

Bron: Die Aktuelle

De familie van de coureur was razend en klaagde het blad aan. Het Duitse platform Übermedien noemde het artikel ‘te dom om waar te zijn’, ‘schaamteloos’ en ‘brutaal’. Toch was er op de redactie van Die Aktuelle blijkbaar niemand geweest die aanvoelde dat dit mogelijk een stap te ver was. Pas toen het blad al in de winkel lag en er ophef ontstond, werd er ingegrepen. De journalist die het ‘interview’ maakte, werd ontslagen en de uitgever bood zijn excuses aan. Belangrijk om te vermelden is dat Die Aktuelle bij het artikel wel degelijk schreef dat het ging om een door AI gemaakte tekst, maar dat maakte voor het publiek blijkbaar niet uit.

Heel wat minder ophef was er over een BBC-documentaire uit 2022 over Alcoholics Anonymous. In deze documentaire maakte de Britse omroep gebruik van AI om de gezichten van de geïnterviewde (ex)alcoholisten zodanig te veranderen dat ze anoniem hun verhaal konden doen. Door deze AI-tool te gebruiken waren de gezichten niet langer herkenbaar, maar bleef de mimiek van de oorspronkelijke sprekers tijdens het vertellen van hun verhalen wel bestaan. Zonder de inzet van AI hadden deze mensen waarschijnlijk hun verhaal niet voor de camera willen vertellen.

Het generen van teksten, foto’s en video’s zoals hierboven beschreven, gebeurt al op grote schaal. Maar sinds begin dit jaar komen er steeds meer tools op de markt die gebruik maken van kunstmatige intelligentie. Wat wel en wat niet kan, is ook voor mediamakers niet altijd even duidelijk. Deels komt dat doordat er op redacties nog geen voldoende kennis is over wat AI precies is, wat het doet en hoe het dat doet. Dit speelt ook een rol bij een voor het publiek wat minder zichtbaar onderdeel van het journalistieke werk: research (onderzoek).

Onderzoeken met AI

Een AI-systeem kan vele malen sneller dan een mens duizenden pagina’s tekst of cijfermateriaal doorzoeken. Die techniek is onder andere gebruikt door journalisten die werkten aan de verhalen op basis van de zogenoemde Panama papers, een grote verzameling vertrouwelijke documenten die aan de internationale pers werd gelekt. De Groene Amsterdammer gebruikte in 2021 een vorm van AI (namelijk: Natural Language Processing) om de twitterberichten die vrouwelijke politici kregen, te analyseren. In totaal werden meer dan 300-duizend berichten onderzocht op de haatdragende en soms bedreigende taal die werd gebruikt. Daaruit bleek dat tien procent van de onderzochte berichten haatdragend was. Zonder de hulp van AI (en de Universiteit Utrecht, die meehielp) had het onderzoeken van al die berichten veel langer geduurd en had het misschien wel te veel tijd (en dus geld) gekost.

haatmails_groene_amsterdammer_2.png

Bron: De Groene Amsterdammer

Verzonnen verhalen

AI kan dus helpen om misstanden aan het licht te brengen die anders misschien niet ontdekt waren. Maar ook hier zitten, net als bij het generen van teksten en beelden, wel enkele ethische addertjes onder het gras. Je kunt de AI-tools namelijk alles vrágen, maar ze wéten beslist niet alles. Dat zal een AI-tool niet snel toegeven. Stel je bijvoorbeeld aan ChatGPT een vraag waar hij het antwoord niet op weet, dan zal hij zelf een antwoord verzinnen.

Zo was de schrijver van dit stuk volgens AI bekend van het maken van documentaires in Irak en Afghanistan, maar in beide landen is hij nog nooit geweest. Toch wist ChatGPT het overtuigend te brengen. Inclusief links naar bronnen. Doorklikken op die links bracht al gauw aan het licht dat er niets van klopte, maar niet iedereen zal die extra stap zetten.

De AI-tools zullen ongetwijfeld beter worden naarmate ze meer gebruikt worden. Ze leren immers van iedere opdracht die ze uitvoeren. Maar de vraag is of het ooit een foutloos systeem zal zijn. Met de vliegende haast van een naderende deadline kan het zomaar gebeuren dat één van de hallucinaties van AI toch wordt gepubliceerd.

Dat gebeurde, waarschijnlijk, toen de website MSN een necrologie publiceerde over de NBA-basketballer Brandon Hunter. In het artikel werd Hunter niet alleen “useless” (waardeloos) genoemd, maar verzon de AI-tool ook dat hij in 67 videospelletjes had gespeeld. MSN haalde het artikel snel offline en weigerde uitleg te geven. Daardoor is ook niet helemaal duidelijk geworden of het artikel inderdaad door AI was geschreven. Veel experts waren er echter van overtuigd dat het niet anders kon dan dat hier een AI-tool op hol was geslagen.

Een vooroordelen-machine

Dat deze basketballer waardeloos was heeft AI mogelijk geconcludeerd uit de opmerkingen die het tegenkwam op sociale media. Daar werd Brandon Hunter blijkbaar vaak omschreven als “useless”. AI koppelde de naam van de basketballer aan de term “useless” en zag het als een logische combinatie van woorden: de combinatie kwam online vaak voor en dus zou het wel kloppen.

Op diezelfde manier is AI geneigd om de vooroordelen die we als mensen hebben, over te nemen. Als er online vaak negatief over een bepaalde bevolkingsgroep wordt geschreven, dan zal AI ook eerder geneigd zijn negatieve teksten over deze bevolkingsgroepen te produceren. Volgens een Spaans onderzoek  zit daar een extra gevaar in. AI gaat onze vooroordelen bevestigen en dus zullen we ons gesterkt voelen in hoe we denken.

Deze vooroordelen zitten niet alleen in de teksten die we van AI krijgen, maar ook in de beelden. Wie de AI-tool vraagt om een plaatje te maken van een gevangene, heeft een grote kans dat de gegenereerde persoon een donkere huidskleur heeft. Een schoonmaker is al gauw Aziatisch of Zuid-Amerikaans en een terrorist per definitie Arabisch, zo bleek uit onderzoek door Bloomberg  in Amerika.

bloomberg.png

Bron: Bloomberg

Deze ‘fouten’ die de tools maken in de research laten zien dat het nog niet zonder een menselijke check kan. Ook is het goed voor een journalist om te weten wie er schuilgaat achter de AI-tools. Wie is de eigenaar en met welk doel is de tool ontwikkeld. Dat is van belang om de uitkomsten van wat je een tool vraagt te kunnen wegen, maar is ook belangrijk om te kunnen beoordelen of je vertrouwelijke informatie met de AI-tool kunt delen of niet. Als je een enorm aantal  Pdf-bestanden te pakken hebt gekregen met daarop geheime en gevoelige informatie, kun je het dan uploaden in een AI-tool om er snel doorheen te kunnen gaan? Of belandt die geheime informatie dan automatisch ook al bij derden?

Conclusie

AI-programma’s bieden grote kansen. De tools kunnen een journalist helpen in het verstevigen en versnellen van zijn onderzoek, kunnen goede koppen verzinnen en helpen om lange stukken tekst te vertalen of te analyseren. Het kan uiteindelijk betere journalistiek opleveren en kan verhalen aan het licht brengen die anders misschien verborgen zouden blijven. Maar kunstmatige intelligentie en alles wat je ermee kunt, zijn in zekere zin ook een bedreiging.

Foto’s en video’s die bij een redactie binnenkomen, zullen in de toekomst nog beter bekeken moeten worden, voor er een besluit wordt genomen om ze wel of niet te gebruiken. Ditzelfde geldt ook voor audio. Ook daar zijn al enkele voorbeelden  van hoe er gebruik wordt gemaakt van andermans stem om iemand voor de gek te houden of zelfs geld afhandig te maken.

Hoe we deze toepassingen kúnnen gebruiken is in veel gevallen al wel duidelijk, maar hoe we ze zouden móeten gebruiken is een discussie die nog volop gevoerd wordt. Wat zijn de ethische grenzen waar we als journalisten rekening mee moeten houden? Hoe die regels tot stand komen en wat dat betekent, behandelen we in dit artikel. Maar dat er regels nodig zijn, is voor de Ombudsman overduidelijk.

Dossier Artificial Intelligence. Deel 2: De noodzaak van duidelijke regels
Dossier Artificial Intelligence. De podcast
Swifties misleid in respectloze video
Omvolking, een omstreden gespreksonderwerp
De ene mossel is de andere niet. Of wel?
Is het oorlog of genocide?
Weinig ruimte voor studiogast
Publiek zoekt Bron
Deel deze pagina
Omroepen
AVROTROS