Skip to main content
LEWIS

Di

TEAM LEWIS

Pubblicato il

Marzo 25, 2024

Tag

AI, AI Act, Intelligenza artificiale

La prima legge sull’Intelligenza Artificiale

Il 13 marzo 2024 il Parlamento europeo ha approvato l’AI Act, il cui testo verrà promulgato tra maggio e giugno per dare il tempo ai vari stati membri di tradurlo e adattarlo alle varie normative nazionali. L’AI Act entrerà in vigore venti giorni dopo la pubblicazione nella Gazzetta ufficiale, ma verrà applicato nella sua interezza solo nel corso dei mesi a seguire.

In Cina esistono già una serie di norme in vigore sulla materia, ma l’Artificial Intelligence Act è il primo quadro giuridico completo sull’Intelligenza Artificiale a livello mondiale, infatti si inserisce in un pacchetto di misure più ampio il cui obiettivo è di garantire lo sviluppo di un’IA affidabile, etica e sicura all’interno di tutto il territorio dell’Unione europea.

L’approccio utilizzato per l’AI Act è molto simile a quello del GDPR, il regolamento per la protezione dei dati personali: i due regolamenti sono accomunati soprattutto da norme abbastanza ampie e interpretabili, così da essere facilmente adattabili ai continui cambiamenti nel mondo della tecnologia.

Ascolta
Una Cosa Al Volo

Nei primi quattro episodi, parliamo di intelligenza artificiale a 360°. Dal GDPR all’AI Act, dal prompt design ai possibili ambiti di applicazione dell’AI.

Perché serve una legge sull’IA?

Guardando il panorama italiano, dal report dell’Osservatorio Artificial Intelligence del Politecnico di Milano emerge che il mercato dell’intelligenza artificiale in Italia ha raggiunto 760 milioni di euro. Inoltre, 8 italiani su 10 affermano di avere delle preoccupazioni riguardo all’intelligenza artificiale. Sebbene la maggior parte dei sistemi di IA non comportino grandi problemi, è comunque necessario regolamentarli per evitare che ne venga fatto un utilizzo pericoloso. È proprio per questo che l’AI Act impone agli sviluppatori e agli operatori dei requisiti e degli obblighi nell’uso dell’intelligenza artificiale. Allo stesso tempo, però, il Regolamento europeo sull’intelligenza artificiale è volto a ridurre gli oneri amministrativi e finanziari, soprattutto per le PMI.

Per fare in modo che tutto questo sia possibile, il Regolamento prevede la creazione di diversi organismi e autorità per supervisionare e attuare le disposizioni. Fra questi:

  • Un Ufficio europeo per l’IA, con il grande compito di garantire un ambiente in cui le tecnologie di IA rispettino i diritti umani fondamentali e di promuovere il dialogo e la cooperazione internazionale in questo campo, nell’ottica di posizionare l’Europa come leader nello sviluppo etico e sostenibile delle tecnologie di IA.
  • Il Consiglio dell’IA, composto da un esponente per ogni Paese membro, per la sorveglianza del mercato e per le notifiche alle autorità.
  • Un gruppo di tecnici esperti e indipendenti da qualsiasi fornitore, così da sostenere l’attività degli altri organismi e autorità.
  • Autorità nazionali di competenza, che dovranno operare in modo imparziale e in sinergia con il Garante per la protezione dei dati.

Chi sono i soggetti coinvolti?

L’Artificial Intelligence Act è rivolto a fornitori, utilizzatori e acquirenti. Chiunque dovrà assicurarsi che il prodotto finale abbia superato la valutazione di impatto prevista alla normativa.

Sono escluse invece le attività di ricerca e sviluppo che precedono la commercializzazione del prodotto, i sistemi militari o di difesa, i modelli gratuiti e open-source (salvo quelli con rischi sistemici).

Leggi anche: L’intelligenza artificiale nel marketing

ai act cos'è

I principi fondanti dell’AI Act

Come abbiamo accennato, uno dei cardini del Regolamento europeo sull’IA è la trasparenza nell’uso dell’Intelligenza Artificiale. Sarà fondamentale che gli utenti siano messi nelle condizioni di riconoscere i prodotti di un’IA, soprattutto quando si tratta di output come i deep fake, attraverso etichette specifiche e di sapere se stanno interagendo con una persona o con una IA (come i chatbot).

Il regolamento promuove anche l’innovazione nel settore dell’intelligenza artificiale, riconoscendo che lo sviluppo tecnologico non può essere fermato. Per questo, verranno creati degli spazi di sperimentazione, detti sandbox, per permettere a PMI e startup di sviluppare, allenare, testare e validare i sistemi di IA prima di immetterli sul mercato.

Le nuove regole coprono molti ambiti di applicazione delle IA. Infatti, un altro grande tema è quello della valutazione dell’impatto dell’artificial intelligence sulla popolazione. L’AI Act, infatti, prevede una scala di analisi del rischio: più alto è il rischio potenziale, maggiori saranno le responsabilità per chi sviluppa questi sistemi.

  • Sistemi a rischio minimo o nullo
    Tra queste applicazioni rientrano i videogiochi abilitati per l’IA o i filtri antispam. La maggior parte dei sistemi di IA attualmente utilizzati in Europa rientrano proprio in questa categoria.
  • Sistemi a rischio limitato
    In questi casi, saranno richiesti dei requisiti di trasparenza leggeri, come l’obbligo di comunicare che i contenuti sono stati realizzati tramite l’intelligenza artificiale
  • Sistemi a rischio elevato
    Rientrano in questa categoria gli utilizzi dell’IA nei settori dell’istruzione, della formazione professionale o delle banche, per esempio. Prima di lanciare sul mercato questi modelli di IA ad alto rischio, sono necessarie valutazioni approfondite dell’impatto sui diritti fondamentali e l’adempimento a obblighi specifici per aumentare trasparenza e sicurezza.
  • Sistemi a rischio inaccettabile
    Sono tutti quei sistemi che potrebbero avere effetti pregiudizievoli sulla popolazione e che quindi sono vietati dalle regole contenute nell’AI Act. Alcuni esempi sono i sistemi manipolatori o ingannevoli, lo scraping di massa per creare database di riconoscimento facciale, i modelli di riconoscimento delle emozioni (a scuola o sul lavoro), i sistemi di social scoring da parte dei governi, la categorizzazione biometrica per dedurre dati sensibili e alcuni casi di polizia predittiva.

Le controversie

La bozza iniziale dell’AI Act vietava del tutto l’identificazione biometrica in tempo reale nei luoghi accessibili al pubblico, a causa degli errori e delle discriminazioni di questi algoritmi. Il testo definitivo, invece, ne concede l’utilizzo previa approvazione giudiziaria o di un’autorità indipendente e solo in alcuni casi particolari, come i servizi pubblici legati alla ricerca di persone scomparse o alla prevenzione degli attentati terroristici.

Diverse associazioni che si occupano di diritti digitali, come EDRi e Access Now, ritengono che l’utilizzo dell’IA per la sicurezza nazionale necessiti di un quadro giuridico a sé stante. Anche The Good Lobby, Hermes Center e Privacy Network sono fortemente preoccupate dalle deroghe ai divieti e richiedono un’autorità indipendente in materia. Si tratta sicuramente di un argomento spinoso e divisivo, perché impiegare degli algoritmi per identificare dei reati va espressamente contro la decisione del Garante della privacy, che ne ha vietato l’utilizzo già nel 2021.

Leggi anche: Alleata o minaccia?: ChatGPT per i copywriter

Conclusioni

Con l’AI Act, l’Europa diventa pioniera nella regolamentazione dei sistemi di IA e segna un momento storico a livello normativo, ponendosi come esempio guida per gli altri Stati del mondo. Sicuramente l’Artificial Intelligence Act segna l’inizio di una nuova era, dove innovazione tecnologica e responsabilità collettiva vanno di pari passo. La speranza è quella di un futuro digitale più sicuro, equo e sostenibile per tutti, ma per raggiungerlo sarà necessaria la corretta attuazione della normativa.

Contattaci