L’Intelligenza Artificiale sta assumendo un ruolo sempre più centrale nel campo dell’ avanzamento tecnologico. L’Unione Europea ambisce ad avere un ruolo di spicco nello sviluppo e quindi ha avanzato una proposta, tramite la Commissione. La proposta riguarda la redazione di un quadro legislativo apposito, dentro cui incentrare l’argomento. Un insieme di norme atte a regolamentare l’affidabilità degli algoritmi. Attraverso la definizione di tali norme, l’UE propone di spianare la strada alle nuove tecnologie basate sull’Intelligenza Artificiale, creando una base etica solida, in modo da ispirare il mondo intero a fare altrettanto.
L’obiettivo principale della Commissione Europea è quello di creare un’Intelligenza Artificiale antropocentrica, sostenibile, sicura, inclusiva e affidabile. In poche parole: una tecnologia responsabile. Una sorta di versione burocratica delle Tre Leggi della Robotica di Asimov. Misure di sicurezza necessarie, per limitare i rischi derivanti da un uso incontrollato ed eccessivo della tecnologia.
Altri articoli che potrebbero interessarti:
- Nuove certificazioni UE sulla sicurezza informatica
- Regole europee per 20 giganti tech: che impatto avranno?
- 15 consigli per migliorare la tua sicurezza online
Regolamentazione UE sull’Intelligenza Artificiale: Limitazioni in base ai rischi
Le limitazioni da introdurre saranno legate ai rischi che si andranno ad affrontare. In base al grado di rischio calcolato, cambierà la cornice normativa da applicare. Quindi sono stati creati diversi livelli di rischio, al fine di effettuare una corretta valutazione.
Rischio Inaccettabile
Il grado di Rischio Inaccettabile è quello più alto. Le applicazioni che rientrano in questo grado di rischio saranno vietate alla tecnologia IA. I sistemi IA considerati una minaccia per la sicurezza saranno vietati. Incluse le applicazioni atte a manipolare il comportamento umano per aggirare il libero arbitrio degli studenti, come ad esempio assistenti vocali che incoraggiano comportamenti pericolosi.
Rischio Alto
Il grado di Rischio Alto sottopone la tecnologia IA a controlli molto restringenti. Include i sistemi in cui l’IA è utilizzata nei seguenti ambiti:
- Infrastrutture Critiche, poiché potrebbe mettere a rischio la salute e la vita dei cittadini;
- Componenti di Sicurezza dei Prodotti: Come applicazioni IA utilizzati nella chirurgia assistita da robot;
- Occupazione, Gestione dei Lavoratori e Accesso al Lavoro Autonomo: Ad esempio, i software di selezione CV per le procedure di assunzione
- Servizi Pubblici e Privati Essenziali: Ad esempio, la verifica di situazioni di credito atta a concedere o negare presiti personali e/o finanziamenti pubblici;
- Attività di Contrasto che possono interferire con i diritti fondamentali delle persone: Sono quelle attività che servono, ad esempio, a verificare l’autenticità e l’affidabilità delle prove in un processo;
- Gestione della migrazione, dell’asilo e del controllo delle frontiere: Saranno sottoposte a limitazioni restringenti le tecnologie IA usate per la verifica dei requisiti per la richiesta di asilo politico, per la verifica dell’autenticità dei documenti di identità dei migranti e per operazioni correlate;
- Amministrazione della Giustizia e Processi Democratici: Ad esempio, l’applicazione di una legge a una serie di fatti;
- Sistemi di Identificazione Biometrica Remota: Saranno consentite solo poche eccezioni ben definite, legate soprattutto a reati gravi o casi di pericolo in cui l’identificazione del soggetto è fondamentale per la sicurezza.
Rischio Limitato
Il Rischio Limitato include tutti i sistemi di IA con specifici obblighi di trasparenza. Quando ad esempio, un utente interagisce con una chatbot, chi fornisce il servizio è tenuto ad avvisarlo di stare parlando con una IA.
Rischio Minimo
Per il grado di Rischio MInimo, la proposta di legge prevede il libero utilizzo di applicazioni come videogiochi, o filtri anti-spam basati su algoritmi di IA. In questi casi il regolamento non intervisne, in quanto rappresentano rischi minimi o pressoché nulli per il cittadino che ne fa utilizzo.
La proposta prevede anche un Comitato Europeo per l’ Intelligenza Artificiale, che dovrà operare stretti controlli sulle modalità di utilizzo delle IA negli ambiti sopra elencati.
Cosa ne pensi della regolamentazione dell’Intelligenza Artificiale da parte dell’UE? Commenta qui sotto e condividi questo articolo con i tuoi amici! Non dimenticarti di iscriverti alla newsletter di Stolas Informatica e di seguirci su Facebook, Instagram e Telegram per rimanere sempre aggiornato!
Caricamento...