Scopri come le piattaforme pubblicitarie online possono, senza volerlo, rafforzare stereotipi di genere e discriminazioni. Continua a leggere per capire come funziona (e cosa possiamo fare).
Hai presente quella pubblicità per un corso di coding, un’offerta di lavoro da project manager o un annuncio di mutuo agevolato? Se ti è sembrato che certi contenuti online “non ti parlassero”, forse non è solo una questione di gusti. È molto probabile che tu non li abbia mai visti perché un algoritmo ha deciso che “non appartenevi al target giusto”.
Già, perché dietro ogni annuncio online che vedi – o non vedi – c’è un sistema automatico che decide chi sei, cosa vuoi, e soprattutto cosa (secondo lui) dovresti desiderare. Il problema? Questi sistemi non sono neutrali. Possono, e spesso lo fanno, discriminare in base al genere e/o all’età.
Lo fanno per ottimizzare costi, clic e conversioni. E così, anche le migliori intenzioni – come quella di promuovere l’inclusività – rischiano di affondare nel mare dell’efficienza cieca.
Nel 2025 il problema non solo è ancora attuale, ma anzi: si fa sempre più evidente, come mostrano studi recenti e persino sentenze legali. Vediamo cosa sta succedendo.
Esempi concreti e studi aggiornati
Le piattaforme pubblicitarie come Facebook o Instagram non mostrano gli annunci a caso. Hanno un sistema di delivery algoritmico che decide a chi far vedere cosa, sulla base di tre fattori principali:
- Chi clicca di più
- Chi converte meglio
- Quanto costa raggiungere un certo pubblico
Questo significa che, anche se tu imposti una campagna a pubblico aperto e quindi “neutrale”, sarà l’algoritmo a decidere a chi conviene mostrare quell’annuncio.
Se, ad esempio, raggiungere donne tra i 25 e i 35 anni costa di più rispetto agli uomini della stessa età (perché magari cliccano più spesso su certi contenuti), indovina a chi verrà mostrata l’inserzione?
STEM e discriminazione implicita: il caso Lambrecht & Tucker
In uno studio emblematico, le economiste Anja Lambrecht e Catherine Tucker hanno condotto una campagna Facebook per promuovere carriere STEM (tecnologiche e scientifiche) destinata in modo neutrale a uomini e donne.
Il risultato? L’annuncio è stato mostrato molto più spesso agli uomini.
Il motivo? Raggiungere giovani donne costa di più. L’algoritmo, ottimizzando per “costo per visualizzazione”, ha penalizzato il pubblico femminile.
Studio completo su London.edu
Sentenza Olandese 2025: Meta colpevole di discriminazione nelle job ads
Nel febbraio 2025, una decisione del Netherlands Institute for Human Rights ha scosso il settore tech: Meta (Facebook) è stata accusata formalmente di discriminazione di genere nella distribuzione di annunci di lavoro. Ecco cosa è emerso:
- Offerte per meccanici e tecnici venivano mostrate per il 96% agli uomini.
- Annunci per receptionist o assistenti amministrative raggiungevano per il 97% donne.
Il tutto nonostante le campagne fossero state impostate con targeting ampio e neutrale. L’algoritmo ha semplicemente “deciso” chi poteva essere interessato, basandosi su comportamenti passati… e sugli stereotipi sociali. Il risultato? Discriminazione sistemica.
Meta ha dichiarato che si trattava di “ottimizzazione automatica”, ma non è bastato: l’istituto ha stabilito che il sistema pubblicitario, così com’è, viola le norme antidiscriminatorie europee. Anche se la decisione non è legalmente vincolante, ha aperto le porte a nuove regole, multe, e revisioni del sistema.
Cosa possiamo fare (davvero)
Anche se il problema è complesso, ci sono strategie concrete che aziende, marketer e sviluppatori/trici possono adottare per ridurre il gender bias nelle pubblicità online. Ecco come:
- Usare dati più equilibrati: se stai costruendo un modello o addestrando un algoritmo, assicurati che i dati di partenza rappresentino bene sia uomini che donne (e anche altre diversità, come etnia o età). Se i dati di addestramento sono sbilanciati, l’output lo sarà ancora di più.
- Verificare con audit indipendenti: esistono strumenti e metodi, detti black box auditing, che permettono di controllare se gli annunci vengono effettivamente mostrati in modo equo tra i vari gruppi. Anche se l’algoritmo è chiuso, è possibile comunque osservare i suoi effetti.
- Creare campagne su misura per ciascun pubblico: in molti casi è utile creare due versioni dello stesso annuncio rivolgendosi una volta a uomini, l’altra a donne. Così si evita che l’algoritmo favorisca solo il pubblico meno costoso.
- Scrivere messaggi più mirati: uno studio recente ha dimostrato che le pubblicità progettate pensando specificamente a un pubblico femminile hanno una visibilità maggiore del 40% rispetto a messaggi generici. Non basta dire “è per tutti” — a volte serve parlare davvero alle persone giuste, nel modo giusto.
- Richiedere più trasparenza dalle piattaforme: infine, è fondamentale che le aziende e gli/le utenti pretendano regole chiare. In Europa, ad esempio, il Digital Services Act spinge le piattaforme a spiegare come funzionano i loro algoritmi e perché mostrano certi contenuti a certe persone. Una maggiore trasparenza è il primo passo verso un’AI più giusta.
Conclusione
In fin dei conti, l’algoritmo non è “sessista” nel senso umano del termine. Semplicemente funziona su dati, costi, clic e ottimizzazioni. Se questi dati contengono squilibri sociali, l’algoritmo inevitabilmente li rafforzerà. E senza interventi consapevoli, continuerà a perpetuare una realtà in cui alcune persone saranno in grado di vedere opportunità… e altre no.