1 - LE REAZIONI (POSITIVE) DI INDUSTRIA E RICERCA MA I TEMPI SONO STRETTI
Estratto dell’articolo di Paolo Ottolina per “il Corriere della Sera”
riconoscimento facciale 3
Con l’AI Act i cittadini europei ottengono uno scudo contro gli utilizzi potenzialmente più dannosi dell’intelligenza artificiale. Ma cosa cambia per chi già ora usa l’AI per fare impresa o ricerca? Roberto Ventura, managing director and partner di Bcg, ci ricorda che non c’è tempo da perdere: «Il vero lavoro per le aziende inizia ora. Avranno all’incirca solo 6-12 mesi per prepararsi alla maggior parte delle regole. I tempi sono molto stretti soprattutto per i fornitori di sistemi considerati ad alto rischio […]».
riconoscimento facciale 2
[…] Alan Perotti, ricercatore e data scientist in Centai, il laboratorio per la ricerca avanzata nel campo dell’intelligenza artificiale fondato a Torino […] individua anche un punto critico: «L’Europa si sta ritagliando un ruolo da arbitro in una sfida tecnologica guidata da America e Cina: l’arbitro nelle competizioni serve, ma non vince mai. È importante che questa parte normativa venga appaiata con investimenti sulla ricerca, altrimenti finiamo a fare i legislatori di prodotti altrui».
[…] Per qualcuno l’AI Act è una pietra miliare. […] Non mancano però posizioni più critiche, come quella di Marco Trombetti, co-fondatore di Translated (tra le altre cose effettua con l’aiuto dell’AI le traduzioni in decine di lingue di Airbnb): «Vedo più di un aspetto problematico: da come dovranno essere i “dataset” per allenare gli algoritmi, alle sanzioni che trovo sproporzionate […] alcuni rischi veri non sono regolamentati: in primis le armi autonome. Ma anche la trasparenza dietro l’“allineamento”, che è la capacità degli algoritmi di restituire agli utenti risposte allineate con le loro preferenze e potenzialmente in grado di influenzarne […] opinioni e comportamenti». […]
FACEBOOK DATI BIOMETRICI
2 - QUAL È L’OBIETTIVO E QUALI APPLICAZIONI SARANNO VIETATE. IL REGOLAMENTO SARÀ EFFETTIVO ENTRO IL 2026
Estratto dell’articolo di Michela Rovelli per il “Corriere della Sera”
1 Cos’è e qual è l’obiettivo dell’AI Act?
L’AI Act vuole «proteggere i diritti fondamentali e la democrazia dall’intelligenza artificiale ad alto rischio, stimolando al contempo l’innovazione». È il primo regolamento al mondo che indica delle norme vincolanti per lo sviluppo di questa tecnologia. Si applica a tutti i Paesi membri dell’Unione europea. Prevede quattro livelli di rischio dell’AI: inaccettabile, alto, limitato e minimo.
2 Perché alcune applicazioni dell’AI sono vietate?
riconoscimento biometrico
Vengono proibite le applicazioni che hanno un «rischio inaccettabile», ovvero che violano i valori europei. Tra queste ci sono i sistemi di social scoring, gli strumenti di polizia predittiva, i sistemi di riconoscimento delle emozioni in ambito lavorativo o scolastico.
Vengono proibiti anche i sistemi che possono sfruttare caratteristiche vulnerabili di un individuo: l’età, una disabilità, una specifica situazione sociale. Infine, sono vietati i sistemi di riconoscimento biometrico in luoghi pubblici, con una eccezione: previa autorizzazione giudiziaria, le forze dell’ordine potranno usarli in caso di persone scomparse o per prevenire un attacco terroristico.
dati biometrici
3 Cosa sono i sistemi ad alto rischio?
Sono sistemi che possono avere un impatto dannoso sulla salute, la sicurezza e i diritti fondamentali dei cittadini. Non vengono proibiti ma si chiede una precisa serie di requisiti. Tra questi, una valutazione dei rischi e una documentazione delle scelte tecniche ed etiche. Devono permettere l’intervento umano e garantire la sicurezza informatica. Si richiede infine la trasparenza sul funzionamento degli algoritmi […]
4 Quali sono le regole per l’AI generativa come quella dietro a ChatGpt?
L’AI generativa rientra nei sistemi ad alto rischio. […] si richiede che venga dichiarato in modo evidente, con una etichetta, ogni contenuto (audio, video, immagine) generato e che si spieghi nel dettaglio quali dati sono stati usati per allenare i modelli di linguaggio, perché vengano rispettate le leggi europee sul copyright.
riconoscimento biometrico 2
5 Che sanzioni sono previste per chi viola l’AI Act?
Le sanzioni arrivano fino a 35 milioni di euro o fino al 7 per cento dei ricavi annuali della società responsabile.
6 Quando entra in vigore?
[…] L’AI Act sarà pienamente effettivo entro 24 mesi dall’entrata in vigore, quindi nel 2026, ma il divieto dei sistemi a rischio inaccettabile è prevista entro sei mesi.