Una ricerca condotta all’interno del progetto herEthical AI, rivela che molti giudici dei tribunali familiari in Inghilterra e Galles usano un linguaggio che incolpa le vittime in casi di violenza domestica, basandosi su stereotipi e mostrando scetticismo verso di loro. In uno dei casi analizzati, una donna è stata descritta come una “madre con seri problemi mentali”, senza mai prendere in considerazione che quei problemi potessero essere legati al comportamento del suo partner. Un altro esempio riguarda un tentato strangolamento che è stato minimizzato come “uno scherzo”. E poi, c’è il giudice che ha dichiarato improbabile che una persona istruita potesse subire abusi sessuali senza parlarne con nessuno.
Questo progetto è nato grazie alla campagna “Breaking Bias”, fondata dall’avvocata Charlotte Proudman. L’intelligenza artificiale sviluppata è in grado di individuare nei documenti giudiziari i modelli linguistici pieni di pregiudizi, evidenziando come molti giudici non comprendano appieno il controllo coercitivo o l’impatto devastante della violenza sulle vittime.
Il lavoro sottolinea la necessità urgente di una maggiore formazione nei tribunali sui casi di violenza domestica. Troppe vittime si sentono trattate con sospetto, e alcune hanno paragonato l’esperienza in tribunale a “un nuovo stupro”, a causa della durezza delle domande e dell’atteggiamento dei giudici. Una situazione tragica, considerando che i tribunali dovrebbero proteggere le vittime, non peggiorare le loro sofferenze.
Ne esce fuori un sistema giudiziario ostile alle vittime che spesso finisce per traumatizzare ulteriormente le vittime, scoraggiandone altre dal denunciare gli abusi.
Hazel Sayer, esperta di violenza di genere e membro del progetto, ha spiegato che i tribunali familiari sono ambienti estremamente “segreti”, con poca trasparenza e responsabilità. Questo rende difficile chiedere conto delle loro azioni ai giudici.
Roda Hassan, fondatrice di Riverlight, un’organizzazione che supporta le vittime di violenza domestica, ha evidenziato che, al momento, non esiste un modo concreto per fare pressione sui giudici, se non attraverso appelli che richiedono tempi lunghi, processi complessi e costi elevati.
Riverlight ha assistito molte vittime i cui verbali contenevano frasi come “sei una ragazzina sciocca” o “non potevi essere stata violentata, eri sposata con lui”.
In Italia, la situazione non è diversa. Lo conferma ad esempio una delle protagoniste del mio podcast L’ombra delle Donne, in una puntata intitolata: Sbagliata — Quando incontri un orco
Il progetto herEthical AI è composto da un team di esperti in psicologia e intelligenza artificiale. Il loro obiettivo è pubblicare i risultati della ricerca per aiutare le vittime a chiedere di essere giudicate da altri giudici o a presentare reclami formali e per questo hanno bisogno delle trascrizioni dei casi, che purtroppo sono molto costose. Per contribuire, puoi seguire il link.
Professionalmente parlando sono una nativa digitale. Dopo la laurea, a 24 anni ho iniziato a…
Partecipo al Web Summit di Lisbona dal 2018 e posso affermare con sicurezza che ogni anno si…
Nel mare pescoso delle startup presenti quest’anno a Lisbona (+3000) ho avuto modo di apprezzare…
Anche quest’anno un successo di numeri raggiunti dal team di Paddy Cosgrave che ha registrato…
Il Web Summit 2024, si apre questa sera all’Altice Arena di Lisbona. Dall’11 al 14…
Dopo la pandemia, lo smart working è cresciuto di dieci volte rispetto al passato. Secondo…