Le donne lesbiche hanno il piercing al naso e lo sguardo incazzato, mentre gli uomini gay sono tutti vestiti come modelli e con gli addominali scolpiti. Le donne trans* hanno corpi sensualissimi e vestono quasi esclusivamente in biancheria sexy. Moltǝ, anzi quasǝ tuttǝ hanno i capelli viola. Non sono lǝ vincitorǝ di un ipotetico concorso “Gli stereotipi sulle persone queer”, ma i risultati di un’indagine giornalistica sulle immagini delle persone queer generate dalle intelligenze artificiali. A condurla è stata l’edizione statunitense di Wired, che ha analizzato i principali strumenti per la creazione di immagini. La conclusione a cui è arrivato il giornalista Reece Rogers è che, indipendentemente da quale IA si scelga, la richiesta di produrre rappresentazioni di persone LGBTQIA+ genera risposte infarcite di stereotipi.
A passarsela peggio sono soprattutto le donne trans*, che vengono rappresentate spesso in modo ipersessualizzato, secondo lo sguardo del maschio etero-cis medio: grandi seni, bocche voluttuose e un abbigliamento che lascia poco all’immaginazione. Accanto a loro, a venire rappresentate in maniera ancor più becera di lesbiche e gay sono le persone non binarie. Infatti, secondo quanto racconta Rogers, Stable Diffusion (uno degli strumenti IA presi in esame) «considera le persone non binarie le meno simili a una persona». O, per dirla in altro modo, le persone non binarie sono quelle che Stable Diffusion considera «le più lontane dalla propria definizione di “persona”».
Da quando sono arrivati sul mercato gli strumenti per la generazione di immagini basate sull’intelligenza artificiale, i media si sono concentrati moltissimo sulla scarsa verosimiglianza di molte delle immagini create. Per esempio, in Italia si è molto parlato della copertina del magazine del Corriere della Sera del 5 aprile 2024, che ritraeva la sciatrice Sofia Goggia con due piedi sinistri. Evidentemente ritoccata con l’ausilio di intelligenze artificiali, la foto ha riacceso il dibattito attorno all’affidabilità delle stesse. Ma il caso sollevato da Wired US è diverso, perché non si tratta di un problema di tipo squisitamente tecnico, come il saper riconoscere che una persona non può avere due piedi sinistri: il punto critico è prettamente culturale, perché in realtà mostra quali sono gli stereotipi che circolano nella società.
Strumenti basati sull’IA generativa, con l’abilità cioè di produrre un risultato rispetto a una richiesta da parte dell’utenza (i famosi prompt), basano la propria produzione sui dati con cui vengono alimentati. ChatGPT, il più celebre chatbot con cui è possibile dialogare, genera i testi che restituisce andando a pescare le informazioni in un enorme database. Lo stesso fanno i generatori di immagini, come per esempio DALL-E, basato sullo stesso modello di IA su cui è costruito anche ChatGPT. In altre parole, se testi e immagini prodotti dalla nostra società contengono degli stereotipi, ed è da lì che i tool dell’IA pescano le informazioni su cui basare i propri risultati, allora questi ultimi non sono che la rappresentazione esplicita di qualcosa presente nell’immaginario della società.
La questione è anche peggiore di così. Rogers sottolinea che oltre a rappresentare membri della comunità LGBTQIA+ in modo stereotipato, gli strumenti di IA non prendono troppo in considerazione nemmeno il fattore etnico: la stragrande maggioranza delle rappresentazioni sono infatti di persone bianche. Solo in rari casi, come per esempio proprio ChatGPT, una volta che è stato dato un prompt generico (“rappresenta una coppia queer che si diverte in un locale”), il chatbot ha preso l’iniziativa e assegnato una connotazione non-bianca alle persone rappresentate, permettendo in questo modo a chi lo utilizza di prendere in considerazione anche questo aspetto.
Dal 2017 esiste un gruppo di ricerca che si occupa di tenere alta l’attenzione su questi temi. Si chiama Queer in AI e connette anche molte persone queer che lavorano nel mondo dell’IA. C’è infatti un paradosso di fondo che rende ancora più amaro il risultato dell’inchiesta di Wired US. Molte delle aziende che sviluppano questi prodotti hanno sede a San Francisco, una città simbolo per la comunità queer mondiale. Addirittura, OpenAi, l’azienda che produce ChatGPT ha sede a Mission, non lontano dal Castro District, e il suo CEO, Sam Altman, è apertamente gay. A leggerla superficialmente, si potrebbe arrivare alla conclusione di come una parte della stessa comunità LGBTQIA+, quella che lavora in queste aziende, sia stata finora incapace di produrre strumenti che evitino la sterotipizzazione della loro comunità di appartenenza. Ma, d’altra parte, questo fatto può anche essere letto come un’altra prova dell’enorme forza degli stereotipi, se nemmeno gruppi attenti come Queer in AI sono riusciti finora a tenerli fuori dai tool a cui hanno lavorato.
Perseguitaci