Carrello
Loading

BIAS ALGORITMICI E MEDIAZIONE: quando l’Intelligenza Artificiale amplifica lo squilibrio

Uno degli equivoci più diffusi sull’Intelligenza Artificiale è che sia neutra.

In realtà, l’AI non è neutra, soprattutto quando entra in contatto con il conflitto.

Nel contesto della mediazione – luogo per definizione delicato, asimmetrico, emotivamente carico – i bias algoritmici rischiano di:

  • rafforzare squilibri già esistenti,
  • influenzare inconsapevolmente il mediatore,
  • incidere sulla qualità (e sulla giustizia sostanziale) dell’accordo.


Parlarne oggi non è allarmismo: è responsabilità professionale.


Cosa sono i bias algoritmici?

 

Un bias è una distorsione sistematica.

Distorsione → l’AI non rappresenta la realtà in modo fedele

Sistematica → lo fa ogni volta, in modo coerente e invisibile

Non intenzionale → non nasce da cattiva fede, ma da:

  • dati incompleti o sbilanciati,
  • linguaggi dominanti,
  • criteri di efficienza,
  • modelli culturali incorporati.


In parole semplici, quando parliamo di bias algoritmico diciamo che l’AI non sbaglia perché funziona male, ma sbaglia perché è stata addestrata su dati già distorti, e quindi riproduce e rafforza quella distorsione.

Vediamo nello specifico alcuni bias algoritmici.

 

1) Bias di genere: quando il linguaggio non è davvero neutro

 

Cos'è - I sistemi di AI sono addestrati su enormi quantità di testi (sentenze, contratti, articoli, documenti) che riflettono:

  • ruoli di genere tradizionali,
  • narrazioni asimmetriche del potere,
  • stereotipi interiorizzati.

 

Esempi concreti in mediazione

  • Riformulazioni che attribuiscono maggiore razionalità a una parte e maggiore emotività all’altra.
  • Descrizioni di conflitti familiari o lavorativi in cui:
  • l’uomo “rivendica”,
  • la donna “lamenta”.
  • Linguaggio che normalizza il carico di cura come dato “naturale”.

 

Possibili conseguenze

  • Rinforzo implicito di ruoli diseguali.
  • Maggiore legittimazione delle posizioni di chi già detiene potere.
  • Sensazione, per alcune parti, di non essere pienamente riconosciute.

In mediazione, questo mina la fiducia nel processo.


2) Bias linguistici: quando la lingua esclude senza volerlo

 

Cos’è - L’AI lavora meglio con: linguaggi standard, strutture formali, lessici giuridici o tecnici dominanti.

Chi si esprime in modo diverso (per cultura, istruzione, origine) parte svantaggiato.


Esempi concreti

  • AI fa sintesi che “ripuliscono” il racconto di una parte, perdendo sfumature emotive.
  • AI fa riformulazioni che semplificano eccessivamente, traducono il vissuto in linguaggio burocratico.
  • Difficoltà nel comprendere narrazioni non lineari, tipiche di chi è sotto stress.

 

Possibili conseguenze

  • Invisibilizzazione del vissuto.
  • Perdita della dimensione narrativa del conflitto.
  • Rischio di accordi formalmente corretti ma sostanzialmente fragili.


3) Bias economici: l’efficienza non è mai neutra

Cos’è - Molti strumenti di AI sono ottimizzati per: ridurre tempi, prevedere esiti, suggerire soluzioni “mediane”.

Ma il conflitto non è una media matematica.


Esempi concreti

  • Suggerimenti di accordi “ragionevoli” basati su precedenti che favoriscono il contraente forte.
  • Valutazioni economiche che ignorano:
  • l’impatto reale sull’equilibrio di vita,
  • la sostenibilità nel lungo periodo.
  • Pressione implicita verso la chiusura rapida.

 

Possibili conseguenze

  • Normalizzazione della rinuncia della parte debole.
  • Accordi efficienti ma non equi.
  • Confusione tra chiudere e risolvere.



L’AI a supporto del mediatore non è (e non può essere) neutra

Ed è qui il punto centrale.

L’AI:

  • non “vede” le parti,
  • non percepisce il silenzio,
  • non coglie la paura, la vergogna, la dignità.

 

Se usata senza consapevolezza:

  • orienta il processo,
  • suggerisce cornici interpretative,
  • influenza il linguaggio del mediatore.

In altre parole: incide sulla neutralità del processo, anche quando sembra solo “supportare”.


La vera innovazione non è usare l’AI è sapere quando, come e fino a dove usarla.

Il mediatore oggi deve:

  • riconoscere i bias,
  • interrogare gli output,
  • correggere le distorsioni,
  • riportare sempre al centro la persona.


Conclusione – Tecnologia sì, ingenuità no!

L’Intelligenza Artificiale può essere un alleato potente nella mediazione.

Ma solo se accompagnata da:

  • consapevolezza,
  • etica,
  • competenza critica.

Altrimenti rischia di fare ciò che la mediazione combatte da sempre:

cristallizzare gli squilibri invece di trasformarli.