Uno degli equivoci più diffusi sull’Intelligenza Artificiale è che sia neutra.
In realtà, l’AI non è neutra, soprattutto quando entra in contatto con il conflitto.
Nel contesto della mediazione – luogo per definizione delicato, asimmetrico, emotivamente carico – i bias algoritmici rischiano di:
- rafforzare squilibri già esistenti,
- influenzare inconsapevolmente il mediatore,
- incidere sulla qualità (e sulla giustizia sostanziale) dell’accordo.
Parlarne oggi non è allarmismo: è responsabilità professionale.
Cosa sono i bias algoritmici?
Un bias è una distorsione sistematica.
Distorsione → l’AI non rappresenta la realtà in modo fedele
Sistematica → lo fa ogni volta, in modo coerente e invisibile
Non intenzionale → non nasce da cattiva fede, ma da:
- dati incompleti o sbilanciati,
- linguaggi dominanti,
- criteri di efficienza,
- modelli culturali incorporati.
In parole semplici, quando parliamo di bias algoritmico diciamo che l’AI non sbaglia perché funziona male, ma sbaglia perché è stata addestrata su dati già distorti, e quindi riproduce e rafforza quella distorsione.
Vediamo nello specifico alcuni bias algoritmici.
1) Bias di genere: quando il linguaggio non è davvero neutro
Cos'è - I sistemi di AI sono addestrati su enormi quantità di testi (sentenze, contratti, articoli, documenti) che riflettono:
- ruoli di genere tradizionali,
- narrazioni asimmetriche del potere,
- stereotipi interiorizzati.
Esempi concreti in mediazione
- Riformulazioni che attribuiscono maggiore razionalità a una parte e maggiore emotività all’altra.
- Descrizioni di conflitti familiari o lavorativi in cui:
- l’uomo “rivendica”,
- la donna “lamenta”.
- Linguaggio che normalizza il carico di cura come dato “naturale”.
Possibili conseguenze
- Rinforzo implicito di ruoli diseguali.
- Maggiore legittimazione delle posizioni di chi già detiene potere.
- Sensazione, per alcune parti, di non essere pienamente riconosciute.
In mediazione, questo mina la fiducia nel processo.
2) Bias linguistici: quando la lingua esclude senza volerlo
Cos’è - L’AI lavora meglio con: linguaggi standard, strutture formali, lessici giuridici o tecnici dominanti.
Chi si esprime in modo diverso (per cultura, istruzione, origine) parte svantaggiato.
Esempi concreti
- AI fa sintesi che “ripuliscono” il racconto di una parte, perdendo sfumature emotive.
- AI fa riformulazioni che semplificano eccessivamente, traducono il vissuto in linguaggio burocratico.
- Difficoltà nel comprendere narrazioni non lineari, tipiche di chi è sotto stress.
Possibili conseguenze
- Invisibilizzazione del vissuto.
- Perdita della dimensione narrativa del conflitto.
- Rischio di accordi formalmente corretti ma sostanzialmente fragili.
3) Bias economici: l’efficienza non è mai neutra
Cos’è - Molti strumenti di AI sono ottimizzati per: ridurre tempi, prevedere esiti, suggerire soluzioni “mediane”.
Ma il conflitto non è una media matematica.
Esempi concreti
- Suggerimenti di accordi “ragionevoli” basati su precedenti che favoriscono il contraente forte.
- Valutazioni economiche che ignorano:
- l’impatto reale sull’equilibrio di vita,
- la sostenibilità nel lungo periodo.
- Pressione implicita verso la chiusura rapida.
Possibili conseguenze
- Normalizzazione della rinuncia della parte debole.
- Accordi efficienti ma non equi.
- Confusione tra chiudere e risolvere.
L’AI a supporto del mediatore non è (e non può essere) neutra
Ed è qui il punto centrale.
L’AI:
- non “vede” le parti,
- non percepisce il silenzio,
- non coglie la paura, la vergogna, la dignità.
Se usata senza consapevolezza:
- orienta il processo,
- suggerisce cornici interpretative,
- influenza il linguaggio del mediatore.
In altre parole: incide sulla neutralità del processo, anche quando sembra solo “supportare”.
La vera innovazione non è usare l’AI è sapere quando, come e fino a dove usarla.
Il mediatore oggi deve:
- riconoscere i bias,
- interrogare gli output,
- correggere le distorsioni,
- riportare sempre al centro la persona.
Conclusione – Tecnologia sì, ingenuità no!
L’Intelligenza Artificiale può essere un alleato potente nella mediazione.
Ma solo se accompagnata da:
- consapevolezza,
- etica,
- competenza critica.
Altrimenti rischia di fare ciò che la mediazione combatte da sempre:
cristallizzare gli squilibri invece di trasformarli.
Commenti ()