Di

Yvonne van Bokhoven

Pubblicato il

Aprile 10, 2025

Tag

AI, Intelligenza artificiale

Table of Contents

    Come agenzia di marketing globale, TEAM LEWIS sperimenta costantemente i nuovi tool di AI. Le potenzialità di alcuni di questi strumenti sono sorprendenti e in continua evoluzione.


    Oggi esistono moltissimi strumenti che permettono di creare video a partire da un’immagine statica. Uno dei migliori è Runway: è molto facile da utilizzare, con semplici comandi in linguaggio naturale e tante funzioni interessanti.

    Ma c’è una cosa che ci lascia perplessi, ovvero il modo in cui interpreta le immagini maschili e femminili. Puoi provare anche tu caricando un’immagine e chiedendo al software di far camminare il soggetto verso la fotocamera. Nel caso di un uomo, genera un video realistico in cui il soggetto a figura intera cammina verso l’obiettivo. Ma se carichi l’immagine di una donna, le ingrandisce il seno, le cambia i vestiti e la fa camminare in modo provocante, come se fosse su una passerella (o almeno, è quello che ha fatto con me).

    Guarda con i tuoi occhi… Questa è una mia foto:

    Yvonne van Bokhoven
    Ed ecco il video che ha realizzato il tool: Ti assicuro che non somiglio per niente a questo output. E non cammino così.

    Un problema su larga scala

    A dire il vero, Runway non è l’unico tool che ha questo problema. Anche gli strumenti di AI per la generazione di immagini come DALL-E, Stable Diffusion e Midjourney sono stati altrettanto criticati per la loro tendenza a sessualizzare le donne. Se un utente inserisce un prompt neutro come “CEO” o “dottore”, spesso l’output è un uomo in giacca e cravatta. Se invece scrivi “assistente” o “infermiere”, l’immagine generata tende a essere una donna iper-sessualizzata. Anche con richieste esplicite di rappresentare una “donna professionista”, alcuni tool propongono outfit succinti e poco realistici.

    Si stanno diffondendo sempre di più anche gli strumenti di Intelligenza Artificiale progettati per creare immagini false e altamente sessualizzate delle donne. Uno dei casi più noti è l’app DeepNude, che utilizzava algoritmi di deep learning per generare immagini di donne nude partendo da foto normali. Dopo forti critiche, gli sviluppatori l’hanno ritirata… ma la tecnologia di base era già stata diffusa e ripresa da altri.

    Ma non finisce qui. Da un lato, gli assistenti vocali come Siri, Alexa o Cortana hanno di default voci e personalità femminili, rafforzando lo stereotipo della donna servizievole o sottomessa. Dall’altro, in molti casi gli avatar femminili generati dall’AI nei videogiochi, nella realtà aumentata o virtuale, presentano proporzioni corporee esagerate e iper-sessualizzate.

    Si aggiungono poi i deepfake pornografici, un fenomeno in crescita dove i volti delle donne vengono inseriti in video espliciti senza consenso. Anche celebrità come Emma Watson, Scarlett Johansson e Taylor Swift ne sono state vittime.

    Cosa si può fare?

    Il primo passo per mitigare il problema è esserne consapevoli. Poi, è necessario che i legislatori e le aziende tech introducano e rafforzano le leggi contro la creazione e la diffusione di contenuti non consensuali generati dall’AI.

    Molti paesi, tra cui Regno Unito e Stati Uniti, stanno lavorando per criminalizzare la pornografia deepfake. Gli sviluppatori devono lavorare su dataset bilanciati dal punto di vista del genere, per evitare che l’AI rafforzi stereotipi tossici. Le piattaforme che utilizzano i contenuti generati dall’AI (come Instagram, TikTok e gli strumenti di AI Art) necessitano di una maggiore moderazione dei contenuti per prevenire discriminazioni e abusi. Incoraggiare delle linee guida etiche per lo sviluppo e l’uso dell’Intelligenza Artificiale è fondamentale per prevenire la sessualizzazione delle donne negli spazi digitali.

    Sfortunatamente, il trend sembra muoversi nella direzione opposta. Meta, ad esempio, ha smesso di fare fact-checking sui contenuti della piattaforma proprio poco tempo fa. Quindi la proliferazione di contenuti fake non può che peggiorare. E man mano che i tool diventano sempre più potenti e realistici, sarà sempre più difficile distinguere ciò che è vero da ciò che è falso. Ma forse è proprio questo il punto…

    Sembra che tutti gli sforzi fatti negli ultimi decenni per promuovere la parità di genere rischiano di essere cancellati. Per contrastare questa deriva, abbiamo condotto una ricerca sui bias di genere nell’intelligenza artificiale. I risultati sono stati condivisi in occasione della Giornata Internazionale della Donna.

    IWD 2025

    Le donne sono cruciali per la crescita economica, ma incontrano ancora diversi ostacoli significativi. Leggi il nostro report per HeForShe.