Skip to main content

Door

Yvonne van Bokhoven

Gepubliceerd op

February 11, 2025

Table of Contents

    Als internationaal marketingbureau experimenteren we voortdurend met nieuwe AI-tools die ons vaak verbazen door hun snelheid en mogelijkheden. Zo zijn er verschillende tools waarmee je statische beelden kunt omtoveren naar video’s. Maar deze technologische ontwikkelingen roepen ook kritische vragen op, bijvoorbeeld over de manier waarop AI-tools genders interpreteren. In deze blog deelt Yvonne van Bokhoven, Chief Operating Officer, haar visie op deze ontwikkelingen en de ethische kant ervan.


    Een video maken van een statisch beeld – het kan en biedt nieuwe kansen voor de creatieve industrie. Een van de beste tools hiervoor is Runway AI. Met begrijpelijke instructies in het Engels is deze tool makkelijk te gebruiken en biedt het heel wat mogelijkheden.  

    Maar er is één ding dat me zorgen baart: hoe de tool mannelijke en vrouwelijke beelden interpreteert. Je kan dit zelf testen door een foto te uploaden en de tool een videobeeld te laten genereren van hoe deze persoon zogenaamd richting de camera loopt. Bij een man krijg je een normale full-body video waarin hij recht op de camera afloopt. Maar gebruik je een vrouwelijk beeld? Dan zijn haar borsten ineens groter, draagt ze andere kleding en beweegt ze ineens verleidelijk, alsof ze op een catwalk staat (tenminste, dat gebeurde bij mij). Weet de software iets wat ik niet weet? 

    Kijk zelf maar. Dit is een gewone foto van mij: 

    En dit is wat AI ervan maakte:

    Ik kan je verzekeren: ik zie er totaal niet zo uit en ik loop zeker niet zo.

    Een groter probleem

    Eerlijk is eerlijk: Runway is niet de enige. AI-beeldgeneratoren zoals DALL-E, Stable Diffusion en Midjourney krijgen ook kritiek omdat ze vrouwen vaak seksualiseren.  

    Als je een neutrale prompt invoert zoals ‘CEO’ of ‘dokter’, genereert de AI-tool meestal een man in pak. Maar typ je ‘secretaresse’ of ‘verpleegkundige’ in, dan krijg je vaak geseksualiseerde afbeeldingen van vrouwen te zien. Zelfs als je expliciet vraagt om een ‘professionele vrouw’, verschijnen er soms onrealistische en onthullende outfits. 

    En daar blijft het niet bij. Er ontstaan steeds meer AI-tools waarmee gebruikers nepbeelden van vrouwen kunnen maken. Een beruchte app, DeepNude, gebruikte deep learning om nepfoto’s van vrouwen te genereren die zich uitkleden. De app was getraind op duizenden naaktfoto’s. Na zware kritiek haalden de ontwikkelaars de app offline, maar de technologie was toen al gelekt en werd opnieuw gebruikt door anderen. 

    Ook in videogames en digitale assistenten zoals Siri, Alexa en Cortana zie je genderstereotypen. Ze gebruiken bijna altijd een vrouwelijke stem. Dit versterkt het stereotype dat vrouwen onderdanig of servicegericht zijn. In games, VR en AR hebben vrouwelijke avatars vaak overdreven, hyperseksuele lichaamsverhoudingen. 

    Dan is er nog deepfake pornografie, waarbij AI-video’s gezichten van vrouwen (zonder hun toestemming) op expliciete content plaatsen. Bekende vrouwen zoals Emma Watson, Scarlett Johansson en Taylor Swift werden al slachtoffer van zulke deepfakes. 

    Wat kunnen we doen?

    Hoe pakken we dit probleem aan? De eerste stap is bewustwording. Vervolgens moeten overheden en techbedrijven wetgeving en regels ontwikkelen om niet-consensuele, AI-gegenereerde content tegen te gaan. 

    Gelukkig zetten landen zoals het VK en de VS zich in om AI-gegenereerde deepfake pornografie strafbaar te stellen. AI-ontwikkelaars moeten ervoor zorgen dat ze werken met datasets waarin genders eerlijk worden vertegenwoordigd, zodat AI geen schadelijke stereotypen versterkt. En platformen die AI-content gebruiken, zoals Instagram, TikTok en AI-art-tools, moeten striktere moderatie toepassen. Ethische richtlijnen kunnen helpen om seksualisering van vrouwen in digitale omgevingen te voorkomen. 

    Helaas lijkt de trend de andere kant op te gaan. Meta stopte begin januari de samenwerking met duizenden factcheckers. Dit betekent dat fake content zich nu nog sneller kan verspreiden. En hoe beter AI realistische beelden en video’s maakt, hoe moeilijker we nep van echt kunnen onderscheiden. Misschien is dat wel precies de bedoeling. 

    Het voelt alsof al het harde werk dat mannen en vrouwen de afgelopen decennia in gelijkheid hebben gestoken, nu weer langzaam wordt afgebroken. Om deze trend tegen te gaan, zijn we een onderzoek gestart naar de impact van AI op genderbias. Onze bevindingen delen we op Internationale Vrouwendag—dus houd onze kanalen in de gaten. 

    Global CTA

    Hulp nodig bij het bereiken van jouw doelen?