Il 2025 segna un punto di svolta per il rapporto tra diritto e intelligenza artificiale. L’evoluzione tecnologica corre veloce, ma altrettanto rapido è il processo di regolamentazione e di interpretazione giuridica. A livello nazionale ed europeo si stanno definendo cornici normative sempre più precise, mentre la giurisprudenza comincia a confrontarsi con casi concreti che mettono alla prova i principi di trasparenza, responsabilità e corretto utilizzo degli strumenti di IA.
In questo articolo analizziamo nel dettaglio le principali novità degli ultimi mesi, per comprendere come queste possano incidere non solo sul settore legale, ma anche sul mondo della mediazione e delle ADR.
📜 Il disegno di legge italiano sull’IA: un ponte verso l’AI Act
Il 25 giugno 2025 la Camera dei Deputati ha approvato un disegno di legge dedicato all’intelligenza artificiale, attualmente all’esame del Senato.
Il testo introduce principi fondamentali per lo sviluppo e l’adozione dell’IA in Italia, ispirandosi chiaramente al Regolamento UE 2024/1689 (AI Act).
I punti cardine del disegno di legge:
- Trasparenza e corretto utilizzo: obbligo di informare sull’impiego di sistemi di IA nei rapporti con cittadini e imprese.
- Responsabilità e gestione dei rischi: attenzione agli impatti economici, sociali e ai diritti fondamentali.
- Promozione della ricerca e innovazione: favorire un ecosistema nazionale di sviluppo dell’IA, allineato alle regole europee.
Questa normativa nazionale rappresenta un passo strategico per evitare discrepanze nell’attuazione dell’AI Act e per garantire un recepimento uniforme dei suoi principi.
🇪🇺 AI Act: dal 2 agosto in vigore nuove disposizioni
Il 2 agosto 2025 è una data chiave: sono entrate in vigore alcune delle disposizioni più rilevanti dell’AI Act a livello europeo.
Le novità principali:
- Obblighi per i fornitori di modelli GPAI (General Purpose AI): trasparenza sulle fonti, documentazione tecnica e gestione dei rischi di disinformazione.
- Autorità nazionali di vigilanza: ciascuno Stato membro deve individuare le autorità competenti per monitorare e applicare le regole.
- European AI Office: entra nel vivo la governance a livello comunitario, con coordinamento tra Stati e poteri di intervento.
- Sanzioni: avvio del sistema sanzionatorio per chi non rispetta gli obblighi, con multe che possono raggiungere percentuali elevate del fatturato globale.
Per imprese e professionisti questo significa dover pianificare fin da subito la compliance operativa, con un’attenzione particolare ai sistemi classificati ad alto rischio.
⚖️ Giurisprudenza italiana: le prime decisioni “storiche”
Il 2025 ha visto i tribunali italiani pronunciarsi per la prima volta su casi concreti legati all’intelligenza artificiale, con sentenze che aprono scenari interessanti.
TAR Lazio, sentenza n. 4546/2025: ha riconosciuto la legittimità dell’uso di strumenti di IA nelle procedure di esecuzione degli appalti pubblici.
- 👉 Questa decisione apre un dibattito cruciale: fino a che punto l’IA può essere considerata uno strumento neutrale di supporto, e quali limiti devono essere posti per tutelare trasparenza e concorrenza?
Tribunale di Firenze, 14 marzo 2025: affronta l’uso improprio di modelli generativi di IA nel processo civile.
- 👉 La sentenza ha stabilito che l’inserimento, da parte di un avvocato, di riferimenti a sentenze inesistenti generate dall’IA non costituisce automaticamente reato, salvo che abbia inciso concretamente sull’esito del processo.
- Questo passaggio segna un confine delicato: l’errore tecnico non è di per sé illecito penale, ma impone agli operatori del diritto una maggiore diligenza professionale nell’uso degli strumenti di IA.
🎓 Scuola e intelligenza artificiale: nuove linee guida
Il Ministero dell’Istruzione ha pubblicato nel 2025 nuove linee guida per l’uso dell’IA nelle scuole.
Gli obiettivi principali:
- Tutela dei diritti degli studenti, in particolare dei minori.
- Inclusione e accessibilità, per evitare che l’IA accentui le disuguaglianze.
- Educazione all’uso consapevole, introducendo percorsi formativi per docenti e studenti sull’uso critico degli strumenti di IA.
Questo approccio evidenzia come l’IA non sia solo questione di regole tecniche o giuridiche, ma anche di cultura e responsabilità sociale.
🔎 Perché queste novità contano (anche per le ADR)
Le trasformazioni normative e giurisprudenziali del 2025 mostrano chiaramente una direzione comune:
- Governance e responsabilità al centro.
- Trasparenza e fiducia come condizioni essenziali.
- Adattabilità dei professionisti del diritto come fattore competitivo.
Per avvocati, mediatori e professionisti delle ADR, questo significa muoversi in un contesto in cui:
- L’IA diventa strumento di supporto nelle procedure di risoluzione delle controversie.
- La conoscenza delle regole europee e nazionali è fondamentale per evitare rischi legali e deontologici.
- La formazione continua è l’unico antidoto per affrontare l’evoluzione rapida delle tecnologie e delle interpretazioni giurisprudenziali.
Cosa cambierà per avvocati e mediatori con la nuova legge italiana sull’IA
La proposta di legge italiana del 25 giugno 2025, che recepisce i principi dell’AI Act, non è solo un tema da giuristi o tecnici: ha ricadute dirette anche sull’attività quotidiana di avvocati, mediatori e operatori ADR.
🔹 Impatti operativi
- Trasparenza verso le parti: se si utilizzano strumenti di IA (es. redazione assistita di atti, analisi predittiva delle controversie, piattaforme di ODR), occorre informare i clienti e le parti coinvolte.
- Diligenza professionale: l’avvocato e il mediatore devono verificare l’affidabilità degli output generati dall’IA (niente “copia e incolla” senza controllo).
- Responsabilità deontologica: l’uso scorretto di IA può non costituire reato, ma può tradursi in violazione dei doveri professionali (correttezza, competenza, lealtà).
🔹 Opportunità per gli ADR
- Gestione più efficiente dei procedimenti: strumenti di IA possono velocizzare analisi documentali e predisposizione di bozze.
- Prevenzione dei conflitti: sistemi predittivi aiutano a valutare rischi e probabilità di accordo, migliorando il lavoro preparatorio alla mediazione.
- Innovazione nei servizi: gli organismi di mediazione che adottano strumenti conformi all’AI Act possono differenziarsi sul mercato come garanti di trasparenza e qualità.
🔹 Cosa fare subito
- Mappare gli strumenti di IA già in uso nello studio o nell’organismo.
- Verificare la conformità con i principi di trasparenza e responsabilità richiesti dalla normativa.
- Adottare policy interne sull’uso dell’IA (linee guida deontologiche e procedurali).
- Formarsi continuamente, per integrare la tecnologia in modo consapevole.
🌐 Conclusione
Il 2025 non è solo un anno di transizione normativa, ma un laboratorio giuridico in tempo reale.
Le nuove leggi, le prime sentenze e le linee guida ministeriali mostrano come il diritto stia cercando di guidare l’innovazione tecnologica senza soffocarla, garantendo equilibrio tra progresso, tutela dei diritti e fiducia dei cittadini.
Nel blog AI & ADR continueremo a seguire da vicino queste evoluzioni, traducendole in strumenti pratici per i professionisti della mediazione e della negoziazione, con un occhio sempre rivolto all’innovazione responsabile.
👉 E tu? Vedi l’IA come un alleato per la giustizia e la mediazione, o pensi che i rischi siano ancora troppo alti?
Commenti ()