L’intelligenza artificiale sta trasformando in modo profondo le modalità con cui gli Stati esercitano il potere pubblico: dall’analisi dei rischi migratori ai sistemi predittivi di sicurezza, fino all’automatizzazione delle decisioni amministrative e giudiziarie.

Tuttavia, l’uso di algoritmi nelle funzioni pubbliche solleva una questione cruciale di diritto internazionale: quando e in che misura uno Stato può essere ritenuto responsabile per violazioni dei diritti umani causate da sistemi di intelligenza artificiale?

L’uso dell’IA nelle decisioni pubbliche

Negli ultimi anni, molti Stati hanno introdotto strumenti di IA per supportare o sostituire processi decisionali pubblici:

  • Sistemi di scoring dei richiedenti asilo (per valutare il rischio di immigrazione irregolare);
  • Algoritmi di giustizia predittiva (per suggerire esiti di cause o misure cautelari);
  • Sistemi automatizzati di videosorveglianza e riconoscimento facciale;
  • Strumenti di valutazione del rischio sociale o economico in materia di welfare.

Questi strumenti, pur aumentando l’efficienza amministrativa, introducono nuovi rischi di discriminazione algoritmica, violazioni della privacy e assenza di garanzie procedurali.

AI e responsabilità degli internazionale degli Stati

Secondo il diritto internazionale consuetudinario, codificato dagli Articoli sulla responsabilità degli Stati per atti internazionalmente illeciti (Commissione di diritto internazionale, 2001), uno Stato è responsabile per:

  1. Un comportamento attribuibile allo Stato, e
  2. Una violazione di un obbligo internazionale.

Quando un algoritmo agisce nell’ambito di una funzione pubblica (ad esempio una decisione amministrativa automatizzata), il suo funzionamento è imputabile allo Stato, anche se gestito da un privato su incarico pubblico.

Se tale algoritmo produce effetti discriminatori, viola la protezione dei dati personali o incide sui diritti fondamentali, lo Stato può incorrere in responsabilità internazionale per violazione dei diritti umani, ai sensi di trattati come la Convenzione europea dei diritti dell’uomo (CEDU) o il Patto internazionale sui diritti civili e politici (ICCPR).

Discriminazione algoritmica e violazione dei diritti umani

Uno dei principali rischi dell’IA pubblica è la discriminazione indiretta: i sistemi di machine learning, addestrati su dati storici, possono perpetuare o amplificare pregiudizi preesistenti.
Esempi concreti:

  • algoritmi di polizia predittiva che concentrano controlli in aree abitate da minoranze etniche;
  • sistemi di riconoscimento facciale che commettono più errori nei confronti di donne o persone di colore;
  • procedure automatizzate di valutazione del rischio migratorio che penalizzano determinate nazionalità.

In tali casi, la mancanza di trasparenza algoritmica e di mezzi di ricorso effettivi può configurare una violazione degli articoli 6, 8 e 14 della CEDU (diritto a un equo processo, vita privata, e divieto di discriminazione).

La giurisprudenza della Corte EDU, pur non essendo ancora ampia in materia di IA, tende ad affermare che lo Stato conserva piena responsabilità anche quando deleghi decisioni a sistemi automatizzati.

La crescente automatizzazione delle decisioni pubbliche richiede un’evoluzione delle categorie tradizionali della responsabilità internazionale.

Tre profili emergono con forza:

  • dovere di vigilanza e controllo sull’uso di algoritmi sviluppati da terzi;
  • obbligo di trasparenza e motivazione anche per le decisioni automatizzate;
  • dovere di garantire un rimedio effettivo alle persone danneggiate da errori o bias algoritmici.

In prospettiva, la mancata adozione di misure preventive, audit indipendenti o protocolli di equità algoritmica potrebbe essere qualificata come violazione di obblighi positivi di tutela dei diritti umani.

L’intelligenza artificiale rappresenta una straordinaria opportunità per migliorare l’efficienza della pubblica amministrazione, ma pone anche una nuova sfida alla responsabilità internazionale degli Stati.

Nel diritto internazionale contemporaneo, la sovranità tecnologica implica anche una responsabilità per gli effetti delle decisioni automatizzate.

Garantire che gli algoritmi pubblici rispettino i principi di legalità, trasparenza e non discriminazione non è solo una scelta etica o politica, ma un obbligo giuridico internazionale.

Leggi anche: Alle frontiere riconoscimento biometrico: stop al timbro di ingresso