Intelligenza artificiale, il Parlamento UE ha adottato la sua regolamentazione

Intelligenza artificiale. Il 14 giugno scorso il Parlamento europeo, ha approvato con modifiche il regolamento sull’intelligenza artificiale (IA). Manca la ratifica del Consiglio europeo e poi diverrà esecutivo. Non prima, però, della primavera 2024 e con applicazione a partire dal 2025.

Il regolamento definisce vari livelli di rischio ricollegandoli all’uso di ogni tipo di intelligenza artificiale. In base al grado di rischio associato, la UE sancisce obblighi e adempimenti per tipo di sistema. Può trattarsi della proibizione assoluta, dell’obbligo di valutazione di impatto o di altro. Inoltre, le IA generative devono possedere requisiti di trasparenza e, per la quasi totalità dei casi, rispettare la privacy.

Ma che cos’è l’intelligenza artificiale?

Intelligenza artificiale, per ora non ha capacità di interagire autonomamente

Ad essere precisi, il significato in italiano della dizione “intelligenza artificiale” poco si adatta alla definizione del fenomeno. La parola inglese “intelligence”, infatti, si avvicina maggiormente all’originale latino, derivante da “intus lego”. Cioè: “leggere dentro”. Ciò significa che, allo stato attuale, non vi è alcuna capacità da parte del sistema di interagire autonomamente al 100%. Siamo ancora a livello di software con enormi capacità di navigare il web o di robot che agiscono in base alle istruzioni date.

L’intelligenza artificiale è giunta alla ribalta dell’opinione pubblica mondiale grazie a Elon Musk, l’imprenditore più ricco del mondo. Nel novembre 2022 Musk ha lanciato gratuitamente sul web ChatGPT. Si tratta di una chat basata sull’intelligenza artificiale che conversa normalmente con l’utente come una persona reale. La chat, a domanda, investiga il web e genera qualsiasi tipo di testo in modo naturale. Che si tratti di articoli, libri, traduzioni, riassunti o quant’altro. Può essere utilizzata per analizzare il sentimento di un testo che gli è fornito. Di esso può determinare l’eventuale positività, negatività o neutralità.

Intelligenza artificiale, il Garante della privacy ha bloccato ChatGPT

Nei mesi scorsi, in Italia, è intervenuto il Garante della privacy che, per prima cosa, ha bloccato ChatGPT. Poi gli ha imposto prescrizioni a tutela della riservatezza di alcuni dati e delle persone. Musk si è immediatamente adeguato e così è potuto tornare on line. Ciò significa che la tecnologia è comunque enormemente avanti rispetto alla sua regolamentazione e vigilanza. Essendo ormai di massa, si prevede che presto potrà dettare le sue leggi a prescindere.

Oltre alla privacy del cittadino, le chatbox come ChatGBT impattano sul diritto d’autore. Può essere remunerato come farina del proprio sacco e tutelato un autore che ha utilizzato ChatGPT? In ogni caso vi sono vari sistemi di intelligenza artificiale. Tra gli altri, quello dell’identificazione biometrica delle persone fisiche, compreso il riconoscimento facciale. O quello per l’individuazione delle malattie in base a sofisticati sistemi di lettura delle TAC, radiografie, ecc.

Elon Musk autorizzato dal governo USA a impiantare microchip nei cervelli umani

A tal fine, negli Stati Uniti, Musk è stato autorizzato a impiantare microchip nei cervelli delle persone per motivi sanitari. Ma chi risponde, in caso di analisi errata? È sanzionabile la responsabilità del programmatore quando, statisticamente, IA non dà certezza dei dati? È già ipotizzabile prevedere una responsabilità giuridica della macchina? Oppure non rimane che rifugiarsi nella discutibile fattispecie della “responsabilità oggettiva” del programmatore?

La bozza di regolamento europeo definisce “ad alto rischio” alcuni sistemi di IA. Il loro utilizzo sarà interdetto in tutti gli Stati UE, senza bisogna di recepimento della norma. Quelli con “rischio medio” hanno per obbligo la comunicazione e, a domanda, la certificazione alle persone interessate. Per i sistemi a “rischio limitato” o assente non vi è alcun obbligo. Fatta salva l’azione dei vari Garanti già esistenti.

Per la UE i sistemi di riconoscimento facciale sono ad ‘alto rischio’

Sono definiti ad alto rischio i sistemi IA di riconoscimento facciale, anche per l’identificazione degli scalmanati allo stadio. Quelli utilizzati per valutare l’affidabilità creditizia delle persone fisiche, l’accesso agli istituti di istruzione e formazione professionale. Quelli per la valutazione delle prove selettive per l’assunzione, l’assegnazione di compiti o la valutazione del merito nei rapporti di lavoro.

Inoltre, la UE definisce “ad alto rischio” i sistemi IA destinati all’amministrazione della giustizia e che possono portare all’arresto o alla privazione della libertà di una persona fisica. Come pure quelli utilizzati nella gestione della migrazione, dell’asilo e del controllo delle frontiere. Sono tutti sistemi di IA che il governo cinese già utilizza per “il controllo sociale” dei cittadini. In previsione di un loro utilizzo geopolitico, alcuni mesi fa Biden ha deciso il blocco delle forniture di microchip alla Cina. Se ciò sarà utile lo vedremo nei prossimi anni.

Foto di Gerd Altmann da Pixabay

Scrivi

La tua email non sarà pubblicata

Per inserire il commento devi rispondere a questa domanda: *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.