Technologie speelt een belangrijke rol in de ontwikkeling van mens en maatschappij, maar zorgt ook voor lastige vraagstukken. Een voorbeeld hiervan is de geavanceerde technologische ontwikkeling met betrekking tot kunstmatige intelligentie, wat in toenemende mate wordt gebruikt in algoritmes van Google en Facebook maar ook in zelfrijdende auto’s. Dit zorgt voor vragen, zoals wie verantwoordelijk is als een zelfrijdende auto een ongeluk veroorzaakt of hoe we ervoor kunnen zorgen dat dit soort systemen goed beveiligd zijn zodat niemand van een afstand de controle over kan nemen (Ministerie van Algemene Zaken, 1 oktober 2018). In criminologische zin kan de gelegenheidstheorie helpen in het duiden van deze technologische ontwikkelingen. Doordat innovatieve technologie, zoals kunstmatige intelligentie, nieuwe mogelijkheden creëert, veranderen de gelegenheidsstructuren voor potentiële daders (Clarke & Felson, 1993). Het gevolg hiervan is dat misdrijven zich parallel ontwikkelen aan technologie. Zo zorgde de komst van het internet ervoor dat een groot deel van de traditionele criminaliteit wordt gefaciliteerd door digitale middelen, en is er een grote toename in vormen van cybercriminaliteit (Williams, 2001; Rush, Smith, Kraemer-Mbula & Tang, 2009).
Door: Trix Waanders & Tom van Dijken
Een opmerkelijke technologische ontwikkeling die voor veel media-aandacht heeft gezorgd is de opkomst van de zogenaamde deepfakes. Met de term deepfakes wordt verwezen naar media, meestal video’s, waarin het lichaam, gezicht of stem van een persoon is vervangen door een door kunstmatige intelligentie ontwikkelde versie hiervan (Tokmetzis, Mohamed & Emanuel, 2020). Deep verwijst hierbij naar de manier waarop de kunstmatig gegenereerde versie gemaakt wordt. Dit gebeurt namelijk door middel van deep learning, een techniek die binnen de kunstmatige intelligentie wordt gebruikt om machines zelfstandig te laten leren op basis van grote hoeveelheden data. In het geval van deep fake-technologie doet een computerprogramma dit door zoveel mogelijk afbeeldingen van een bepaald persoon te analyseren en daarmee een model van een gezicht te genereren op basis van tientallen gezichtspunten (Verhagen, 2020). Een recent voorbeeld hiervan is de vergadering die Tweede Kamerleden onlangs via Zoom hadden met Leonid Volkov, een medewerker van Poetin-criticus Navalny. Hoewel de Nederlandse politici dachten met Volkov zelf te spreken, bleek dit hoogstwaarschijnlijk iemand anders, die door middel van deep fake-technologie niet van Volkov zelf te onderscheiden was (Hulsman, 2021). De technologie wordt vaak gebruikt bij bekende mensen, zoals politici, omdat van hen veel beeldmateriaal beschikbaar is om de imitatie van te bouwen. De aard van deze deep fakes loopt erg uiteen. Een groot deel bestaat uit relatief onschuldige, grappig bedoelde foto’s en video’s. Echter wordt de technologie ook ingezet voor schadelijk beeldmateriaal, zoals het gebruik voor wraakporno (Ajder, Patrini, Cavalli, & Cullen, 2019; Westerlund, 2019). Zo vond het bedrijf Deeptrace in 2019 15.000 deepfake video’s op het internet, waarvan maar liefst 96 van pornografische aard was. (Ajder et. al, 2019). Naast het creëren van een bestaand persoon, zoals een politicus of een tv-persoonlijkheid, is het door middel van deep fake-technologie ook mogelijk een volledig nieuw gezicht van een niet bestaand persoon te genereren. Neem maar eens een kijkje op deze website waarop bij elke refresh een nieuw, niet bestaand persoon te zien is.
Om het gebruik van kunstmatige intelligentie te reguleren is de Europese Unie als eerste ter wereld bezig met nieuwe wetgeving om de risico’s van het fenomeen in te perken. In april van dit jaar kwam de Europese Commissie met nieuwe voorstellen rondom deze wetgeving, waarin de verschillende vormen van kunstmatige intelligentie ingedeeld zijn in de vorm van een piramide: hoe hoger het risico, hoe meer regels er nodig zijn (Hulsman, 2021; van de Wiel, 2021). De piramide is opgebouwd uit vier lagen, waarbij onderin de piramide de vormen van kunstmatige intelligentie staan waar nauwelijks risico’s aan verbonden zijn, denk hierbij aan het aanbeveling algoritme van Spotify, of een simpele spamfilter. Daarboven volgen nog drie lagen met vormen van kunstmatige intelligentie met respectievelijk een beperkt, hoog en onaanvaardbaar risico, waarbij je bij die laatste bijvoorbeeld moet denken aan camera’s met gezichtsherkenning. Het gebruik van deep fake-technologie valt volgens de richtlijnen van de Europese Unie in de tweede categorie en wordt dus als een beperkt risico ingeschat. Toch blijkt ook uit het voorval rondom de Zoom-sessie met Volkov, dat het gebruik van de technologie verstrekkende gevolgen kan hebben. Immers, door middel van de technologie kan men zich op een levensechte manier voordoen als elk willekeurig ander persoon.
Literatuur:
Ajder, H., Patrini, G., Cavalli, F., & Cullen, L. (2019). The state of Deepfakes: 2019 Landscape, Threats and impact. Deeptrace.
Clarke, R. V. G., & Felson, M. (1993). Routine Activity and Rational Choice.Macmillan Publishers.
Hulsman, S. (30 april 2021). In de podcast: ‘Regels voor ai zijn hard nodig’. https://www.computable.nl/artikel/achtergrond/de-dataloog/7174622/6867286/in-de-podcast-regels-voor-ai-zijn-hard-nodig.html
Ministerie van Algemene Zaken. (1 oktober 2018). Wie is aansprakelijk bij een ongeluk met een zelfrijdende auto? https://www.rijksoverheid.nl/onderwerpen/mobiliteit-nu-en-in-de-toekomst/vraag-en-antwoord/aansprakelijk-bij-ongeluk-met-zelfrijdende-auto
Rush, H., Smith, C., Kraemer-Mbula, E., & Tang, P. (2009). Crime online: Cybercrime and illegal innovation. NESTA. https://core.ac.uk/download/pdf/188248182.pdf
Tokmetzis, D., Mohamed, S., & Emanuel, H. (26 maart 2020). Zo werkt de technologie achter deepfakes. De Correspondent. https://decorrespondent.nl/10687/zo-werkt-de-technologie-achter-deepfakes/520424839-a3c50367
Verhagen, L. (18 oktober 2019). Kunstmatige intelligentie maakt en bestrijdt nepbeelden. De Volkskrant. https://www.volkskrant.nl/kijkverder/v/2019/deepfakes/
Westelund, M. (2019). The Emergence of Deepfake Technology: A Review. Technology Innovation Management Review, 9(11), 39-52. https://timreview.ca/article/1282
Wiel van de, C. (21 april 2021). EU wil AI temmen met strenge nieuwe regels. NRC. https://www.nrc.nl/nieuws/2021/04/21/eu-wil-ai-temmen-met-strenge-nieuwe-regels-a4040800
Williams, P. (2001). Organized crime and cybercrime: Synergies, trends, and responses. Global Issues, 6(2), 22-26. https://www.ojp.gov/ncjrs/virtual-library/abstracts/organized-crime-and-cybercrime-synergies-trends-and-responses