Perché le tecnologie “parlano” al femminile?
Molte tecnologie che usiamo ogni giorno hanno una voce femminile: Siri, Alexa e Cortana, così come robot sociali come Sophia, sono presentati con voci, nomi e fattezze femminili. Questa scelta non è casuale, ma riflette bias impliciti: pregiudizi inconsci che influenzano il design tecnologico e l’interazione uomo-macchina (Habler et al., 2019).
Le aziende tech hanno spesso giustificato queste scelte richiamandosi alle “preferenze degli utenti”, secondo cui le voci femminili risulterebbero più calde e accoglienti. Tuttavia, questa spiegazione si intreccia con stereotipi di genere radicati nella società: le donne sono considerate più adatte a ruoli di assistenza e supporto, mentre le voci maschili sono associate a autorità e competenza (Habler et al., 2019). Anche se inconsapevolmente, assegnare una voce femminile a un assistente digitale significa spesso inserirlo in un ruolo di servizio che replica aspettative tradizionali legate al genere.
Bias impliciti e linguaggio sottomesso
Non è solo la voce a comunicare il genere di un assistente: anche il linguaggio usato da Siri, Alexa e Cortana tende a essere estremamente cortese, con risposte brevi, toni accomodanti e frasi di scusa. Habler et al. (2019) hanno mostrato che combinare voce femminile e linguaggio sottomesso rafforza gli stereotipi di genere: un assistente percepito come donna, che risponde con frasi umili e remissive, viene inconsciamente associato a un ruolo subordinato.
Questo schema è visibile anche quando gli utenti interagiscono con questi assistenti: toni aggressivi o sessualizzati rivolti ad Alexa o Siri spesso non vengono percepiti come problematici, proprio perché l’assistente ha un’identità femminile programmata per rispondere in modo gentile anche a commenti inappropriati. Questo normalizza comportamenti di dominio e sessismo, anche quando diretti verso una tecnologia che non può provare emozioni.
Sophia: l’umanoide “perfetta”?
Il robot sociale Sophia, sviluppato da Hanson Robotics, offre un ulteriore esempio di bias impliciti di genere nella tecnologia. Sophia ha un volto femminile, lineamenti giovanili e un modo di comunicare che la fa apparire come amichevole e accogliente, consolidando l’idea che un robot progettato per interagire socialmente debba essere donna (Goodman & Mayhorn, 2022).
Sophia è stata ampiamente promossa dai media come “la prima cittadina robot” e invitata a eventi e talk show, suscitando simpatia e interesse. Tuttavia, la scelta di creare un robot umanoide donna per ruoli sociali e comunicativi riflette lo stesso schema degli assistenti vocali: quando si tratta di cura, accoglienza e compagnia, il femminile viene considerato “naturale”, mentre per ruoli autoritari o tecnici si preferiscono identità maschili o neutre.
Quali rischi comporta?
Attribuire un’identità femminile a queste tecnologie non può essere considerata una scelta neutra. Può rinforzare l’idea che le donne (reali) debbano essere sempre disponibili, cortesi e subordinate, come gli assistenti virtuali a cui siamo abituati a impartire ordini. Inoltre, interagire in modo aggressivo con Siri o Alexa, senza conseguenze, rischia di normalizzare linguaggi offensivi verso le donne, alimentando pregiudizi che passano inosservati.
Goodman e Mayhorn (2022) sottolineano che questi bias possono influenzare anche la fiducia che riponiamo negli assistenti: nelle interazioni sanitarie, ad esempio, le voci femminili vengono percepite come più affidabili e rassicuranti, ma questo può essere frutto di stereotipi inconsci più che di reali valutazioni di competenza.
Verso una tecnologia più consapevole
Riconoscere questi bias è il primo passo per rendere la tecnologia più inclusiva. Alcune aziende stanno già rivedendo le scelte di design. Ad esempio, Apple ha rimosso la voce femminile di default da Siri, offrendo opzioni di scelta più varie. Ma serve anche una maggiore consapevolezza da parte di chi usa queste tecnologie: gli assistenti non nascono donna o uomo, siamo noi a decidere di attribuire loro un genere.
Chiedersi perché le tecnologie parlano al femminile, e quali effetti ha questa scelta, significa riflettere su come i nostri pregiudizi si riproducono anche nel mondo digitale, influenzando non solo le macchine, ma anche le relazioni umane. Scegliere consapevolmente significa progettare e utilizzare le tecnologie in modo che non rinforzino stereotipi dannosi, ma contribuiscano a costruire una cultura più equa, anche quando interagiamo con una voce che risponde alle nostre domande.
A cura di Alessandro Ocera, MSc e dottorando di ricerca presso la Sigmund Freud University.
Bibliografia
Habler, F., Schwind, V., & Henze, N. (2019). Effects of smart virtual assistants’ gender and language. Proceedings of Mensch Und Computer 2019. https://doi.org/10.1145/3340764.3344441
Goodman, K. L., & Mayhorn, C. B. (2022). It’s not what you say but how you say it: Examining the influence of perceived voice assistant gender and pitch on trust and reliance. Applied Ergonomics, 106, 103864. https://doi.org/10.1016/j.apergo.2022.103864