Categories: Women’s Rights

I tribunali familiari e il linguaggio pregiudizievole verso le vittime | AI

Una ricerca condotta all’interno del progetto herEthical AI, rivela che molti giudici dei tribunali familiari in Inghilterra e Galles usano un linguaggio che incolpa le vittime in casi di violenza domestica, basandosi su stereotipi e mostrando scetticismo verso di loro. In uno dei casi analizzati, una donna è stata descritta come una “madre con seri problemi mentali”, senza mai prendere in considerazione che quei problemi potessero essere legati al comportamento del suo partner. Un altro esempio riguarda un tentato strangolamento che è stato minimizzato come “uno scherzo”. E poi, c’è il giudice che ha dichiarato improbabile che una persona istruita potesse subire abusi sessuali senza parlarne con nessuno.
Questo progetto è nato grazie alla campagna “Breaking Bias”, fondata dall’avvocata Charlotte Proudman. L’intelligenza artificiale sviluppata è in grado di individuare nei documenti giudiziari i modelli linguistici pieni di pregiudizi, evidenziando come molti giudici non comprendano appieno il controllo coercitivo o l’impatto devastante della violenza sulle vittime.
Il lavoro sottolinea la necessità urgente di una maggiore formazione nei tribunali sui casi di violenza domestica. Troppe vittime si sentono trattate con sospetto, e alcune hanno paragonato l’esperienza in tribunale a “un nuovo stupro”, a causa della durezza delle domande e dell’atteggiamento dei giudici. Una situazione tragica, considerando che i tribunali dovrebbero proteggere le vittime, non peggiorare le loro sofferenze.
Ne esce fuori un sistema giudiziario ostile alle vittime che spesso finisce per traumatizzare ulteriormente le vittime, scoraggiandone altre dal denunciare gli abusi.
Hazel Sayer, esperta di violenza di genere e membro del progetto, ha spiegato che i tribunali familiari sono ambienti estremamente “segreti”, con poca trasparenza e responsabilità. Questo rende difficile chiedere conto delle loro azioni ai giudici.
Roda Hassan, fondatrice di Riverlight, un’organizzazione che supporta le vittime di violenza domestica, ha evidenziato che, al momento, non esiste un modo concreto per fare pressione sui giudici, se non attraverso appelli che richiedono tempi lunghi, processi complessi e costi elevati.
Riverlight ha assistito molte vittime i cui verbali contenevano frasi come “sei una ragazzina sciocca” o “non potevi essere stata violentata, eri sposata con lui”.

In Italia, la situazione non è diversa. Lo conferma ad esempio una delle protagoniste del mio podcast L’ombra delle Donne, in una puntata intitolata: Sbagliata — Quando incontri un orco

Il progetto herEthical AI è composto da un team di esperti in psicologia e intelligenza artificiale. Il loro obiettivo è pubblicare i risultati della ricerca per aiutare le vittime a chiedere di essere giudicate da altri giudici o a presentare reclami formali e per questo hanno bisogno delle trascrizioni dei casi, che purtroppo sono molto costose. Per contribuire, puoi seguire il link.

Grazia D

Recent Posts

Più donne nel tech per un’IA più equa e inclusiva

L'intelligenza artificiale, un tempo fantasia futuristica, è ora una forza tangibile che rimodella industrie e…

3 giorni ago

Quando le storie smettono di proteggerci ovvero la crisi narrativa e i femminicidi.

C’è una crisi che non fa rumore, ma che uccide. È una crisi di parole,…

1 settimana ago

L’ 87% del mediterraneo è inquinato (ma le Bandiere Blu resistono)

“Con le pinne, fucile ed occhiali, quando il mare è una tavola blu…” cantava Edoardo…

2 settimane ago

Disinnescare i conflitti con Ristretti Orizzonti nel Carcere di Padova

Ci sono luoghi che non ti aspetti nemmeno di visitare, ma che finiscono per lasciarti…

2 settimane ago

Primi speakers del Web Summit 2025, parlano sempre più donne

Notizia in anteprima direttamente dalla mia casella email: il Web Summit di Lisbona ha annunciato…

2 settimane ago

Autrici e libri del Salone del Libro 2025

Quest'anno qualcosa è cambiato al Salone del Libro  e te ne accorgi appena arrivi a…

3 settimane ago