COMUNITARIO E INTERNAZIONALE

IA, una corsa contro il tempo alla ricerca di certezze giuridiche

Siamo di fronte a un ulteriore passaggio della rivoluzione informatica (oramai inarrestabile), in grado di abbracciare tutti gli aspetti della vita umana. E, come tale, il Legislatore non può rimanere alla finestra, tanto più che nel mondo si moltiplicano contenziosi, provvedimenti giudiziari, delibere di Autorità garanti ed elaborazioni di codici di condotta dedicati al tema dell'IA.

Il “Bel Paese” rincorre l’Europa nel mettere a punto una disciplina

A tal proposito, nel Consiglio dei ministri del 23 aprile 2024 (si veda il Comunicato del Cdm n. 78) l'Esecutivo ha approvato il disegno di legge sull'intelligenza artificiale (per il testo si veda, atto Senato n. 1146, avente ad oggetto «Disposizioni e delega al Governo in materia di intelligenza artificiale»). Il provvedimento è stato presentato in Senato in data 20 maggio 2024, e annunciato nella seduta parlamentare n. 191 del 21 maggio.

Triplo “scudo” protettivo dagli illeciti, si rischia una ipertrofia legislativa

Si deve osservare che si assisterà alla contemporanea presenza di tre diversi livelli di regolamentazione giuridica che interesseranno il nostro Paese: a) quello sovranazionale legato alla Convenzione del Consiglio; b) quello unionale, in virtù del regolamento noto come AI Act; c) quello nazionale, in virtù delle specifiche disposizioni che verranno adottate al termine dell’ iter legislativo che accompagnerà il disegno di legge licenziato dal Consiglio dei Ministri. Dalla mancanza assoluta di norme, pertanto, si passa a un fenomeno di ipertrofia, con i compilatori delle norme alle prese con il non facile tentativo di disciplinare un fenomeno in costante evoluzione, che forse nasce per non essere compiutamente regolamentato da logiche troppo umane.

Su difesa e sicurezza nazionale resta una esclusione a tutto tondo

La nuova disciplina, infatti, non si applicherà ai sistemi di IA che sono esclusivamente per scopi militari, di difesa o di sicurezza nazionale, indipendentemente dal tipo di entità che svolge tali attività, nonché alle attività di ricerca, sviluppo e prototipazione che precedono l'immissione sul mercato o a persone che utilizzano l'IA per motivi non professionali

Sistemi di intelligenza ad alto rischio, supervisione e progettazione ad hoc

Il fatto di utilizzare norme tecniche per valutare un impatto così rilevate pone dubbi di efficacia e di legittimazione, ma la struttura del regolamento prende spunto dalla normativa prevista per la sicurezza dei prodotti, per cui, anche se gli aspetti critici dell'intelligenza artificiale sono molto diversi e particolarmente delicati, ad oggi dobbiamo affrontare questa nuova tecnologia come fosse una macchina che deve operare offrendo sicurezza nel suo funzionamento

Contro manipolazioni audio e video lotta senza quartiere alle deep fake

Viene anche chiarito che i deployer di un sistema di IA che genera o manipola testo pubblicato allo scopo di informare il pubblico su questioni di interesse pubblico devono rendere noto che il testo è stato generato o manipolato artificialmente. Tale obbligo non si applica se l'uso è autorizzato dalla legge per accertare, prevenire, indagare o perseguire reati o se il contenuto generato dall'IA è stato sottoposto a un processo di revisione umana o di controllo editoriale e una persona fisica o giuridica detiene la responsabilità editoriale della pubblicazione del contenuto.

Evitare gli effetti del rischio sistemico grazie a fornitori Gpaim “trasparenti”

Le disposizioni di cui all’articolo 50 sono applicabile a tutti «i fornitori di IA, compresi i sistemi di IA per finalità generali, che generano contenuti audio, immagine, video o testuali sintetici » i quali dovranno garantire che gli output del sistema di IA siano marcati in formato leggibile (articolo 50 par. 2), quindi, ad esempio, tutti i chat bot dovranno indicare che i contenuti creati dallo stesso sono “sintetici”.

loader