ARTICOLI CORRELATI
L'INTELLIGENZA ARTIFICIALE E L'ULTIMA FRONTIERA DEI CARABINIERI INFORMATICI DEL ROS PER...
L'EUROPA AVRA UNA LEGGE PER CONTROLLARE E FRENARE L'IMPATTO DELL'INTELLIGENZA ARTIFICIALE
L'AI ACT VIETA ALCUNE APPLICAZIONI CONSIDERATE ''INACCETTABILI'': ECCO QUALI E PERCHE'
Estratto dell'articolo di Francesca Ongaro e Benedetta Simonini pubblicato su www.agendadigitale.it il 5 settembre 2023
polizia predittiva. 9
Ormai, l’intelligenza artificiale (IA) è oggetto di dibattimento e uso in moltissime sfere della vita umana e questo articolo vuole occuparsi di una in particolare: l’utilizzo dell’IA in ambito di polizia di predizione (c.d. predictive policing) e di giustizia predittiva (c.d. predictive justice) sul territorio nazionale italiano.
IA, POLIZIA DI PREDIZIONE E GIUSTIZIA PREDITTIVA
polizia predittiva. 8
[…] La polizia predittiva consiste nell’utilizzo di sistemi di IA da parte delle forze dell’ordine per l’elaborazione di previsioni statistiche di luogo, modalità, tempo, e/o autore di un crimine futuro. Invece la giustizia predittiva detiene un duplice significato che identifica sia il soggetto deputato al settore (la magistratura), sia l’individuazione di condotte penalmente rilevanti, dei responsabili e delle prove.
IL CASO ITALIANO: GIOVE E KEYCRIME
polizia predittiva. 7
Oggi in Italia stiamo assistendo ad un dibattito sulle sorti di Giove, il software di polizia predittiva che sfrutta la tecnologia di KeyCrime. KeyCrime – sviluppato già nel 2004 per la predizione di rapine commerciali – è utilizzabile per entrambi i settori di pubblica sicurezza e giudiziario. Si tratta di un’IA ibrida tra person-based e place-based predictive policing […] A differenza di quest’ultimi, KeyCrime è ritenuto migliore perché non sfrutta l’hotspot analysis, la network analysis e il public health approach che sono tutte strategie di prevenzione poco efficienti, ma soprattutto altamente discriminatorie nei confronti di minoranze etniche.
polizia predittiva. 6
NEI DETTAGLI:
L’hotspot analysis è […] una strategia di rilevazione dei crimini futuri che si basa su un modello di calcolo chiamato epidemic-type aftershock sequence (ETAS) che assume che la probabilità di un evento di accadere in prossimità ad uno simile accaduto in precedenza è più alta (near repeat effect). Il problema di questo approccio sta nel fatto che sulla base di dati passati raccolti dalle forze dell’ordine (in USA soprattutto) sempre negli stessi quartieri per questioni legate alla discriminazione raziale, i sistemi di IA producono predizioni fallaci e concentrate solo su quei quartieri, non sulla totalità della città.
polizia predittiva. 4
La network analysis è una metodologia usata per rintracciare possibili sospettati e vittime di crimini attraverso l’analisi matematica delle loro reti di attività, ruoli sociali, conoscenti, parenti e amici. […]Tuttavia nel tempo ha fornito alle forze dell’ordine il pretesto di cercare i criminali in cerchie ristrette di persone negli stessi quartieri, alimentando così le possibili discriminazioni.
Il public health approach nasce come strategia di prevenzione per la diffusione dei virus che identifica rischi ambientali per la sicurezza pubblica. Con la stessa assunzione di base, questa strategia viene utilizzata dalla polizia predittiva per affibbiare caratteristiche di rischio ai luoghi e/o alle persone. Tuttavia, il problema risiede nell’assenza di oggettività scientifico-criminologica per indicare i fattori di rischio. Un esempio: la povertà è spesso indicata come fattore di rischio criminale, ma si tratta di un fattore che, se usato come variabile nell’algoritmo di IA, conduce ad avere delle previsioni che escludono totalmente certi tipi di crimini, i c.d. “white collar crimes”.
polizia predittiva. 3
Diversamente, KeyCrime si basa sul principio di “Crime Linking”: un algoritmo che combina dati storici relativi al profilo degli autori di reati passati (come ad esempio abbigliamento utilizzato, gesti e movenze, segni riconoscibili) e i luoghi e le tempistiche precise dei crimini commessi. Tramite correlazione (e non causazione) il software suggerisce quali crimini sono compiuti dagli stessi criminali e fornisce predizioni sulle loro future condotte. Stando al Fascicolo 06/2019 di diritto penale contemporaneo, l’utilizzo di KeyCrime in polizia giudiziaria penale è possibile grazie ad un limite dell’algoritmo stesso, ossia l’utilizzabilità limitata ai casi di condotte seriali e non sporadiche. […]
DUBBI E PREOCCUPAZIONI
Tuttavia, nonostante i passi avanti, dei dubbi rimangono ancora irrisolti. Il rischio discriminatorio non è stato eliminato, ma solo ridotto. L’algoritmo di KeyCrime (come gli altri usati per lo stesso scopo) è “allenato” sulla base di dati storici raccolti dall’uomo, il che significa che l’oggettività e la correttezza della raccolta non può essere assicurata. […]
polizia predittiva. 2
Stando all’interrogazione parlamentare richiesta al ministro Piantedosi il 7 giugno 2023, restano ancora ignoti i seguenti aspetti: le banche dati con le quali l’algoritmo verrà allenato; se le vittime di reato dovranno compilare set di domande che diventeranno poi ulteriori dati per allenare l’algoritmo; chi sarà responsabile dei dati usati dal software (visto che il Garante della privacy ha già vietato in passato l’utilizzo di questi sistemi) e se verrà creata un’unità speciale per la gestione del software; se il software dialogherà con SARI (il software italiano di facial recognition); e quali saranno le misure di sicurezza informatica.
polizia predittiva. 1
Il dubbio più grande rimane di ambito etico-legale e riguarda la prospettiva di ricostruzione dibattimentale e il giudizio penale stesso. Ci si chiede se le predizioni del software potranno essere utilizzate come elemento probatorio per giustificare eventuali misure cautelari e/o richieste di intercettazione. Stando alle fonti giuridiche dei codici penale e di procedura penale, l’IA può essere un ottimo strumento probatorio testimoniale (non scientifico) che si può utilizzare durante i processi, ma in assoluto non può e non potrà mai sostituire il giudizio umano (art. 192, 2° co., c.p.p.).
Questo perchè se si vuole una sentenza che trasmetta e comprenda la complessità delle azioni umane e delle infinite variabili che le possono influenzare, è necessario un giudizio di tipo qualitativo (come quello che è in grado di elaborare l’essere umano) e non unicamente quantitativo (come quello elaborato dalle macchine, anche le più avanzate […]
minority report
COSA DICE LA NORMATIVA EUROPEA
Prima ancora che Giove diventasse argomento di interrogazione parlamentare, a imporre la necessità di mantenere il primato del giudizio umano è stata la Commissione Europea nel 2018 che, con un focus sul piano etico, ha raccomandato una serie di linee guida per l’utilizzo dell’IA che includono il bisogno di un controllo umano costante insieme a: affidabilità e resistenza degli algoritmi di fronte ad errori; costante informazione dei soggetti passivi riguardo l’uso dei loro dati; e assicurazione della trasparenza (intesa come tracciabilità dei sistemi). […]
legge ue per regolare l intelligenza artificiale
In contrarietà proprio a quest’ultima linea guida, durante un’intervista Mario Venturi, ex assistente capo della Questura di Milano e sviluppatore di KeyCrime, ha affermato che il software non richiede responsabilità pubblica e non viola le libertà degli individui perché: “la prevenzione nel nostro caso è mirata: il software ti propone solo il crime linking e la predizione dei prossimi obiettivi”. Ci si può chiedere dunque se abbia senso implementare un software di IA, con i relativi costi sia di tipo economico che di tipo etico-legale, per prevenire (senza estrema certezza) solo un tipo di crimine: le rapine.
legge ue per regolare l intelligenza artificiale
A dirimere qualche dubbio potrebbe essere, tuttavia, la normativa europea in materia. Basato su un presupposto di calcolo del rischio per i diritti fondamentali, l’AI Act dell’Unione Europea fissa regole armonizzate per lo sviluppo, immissione sul mercato e utilizzo di sistemi di IA nell’Unione e differenzia gli usi dell’IA a seconda del loro livello di rischio: inaccettabile, alto, e basso o minimo.
legge ue per regolare l intelligenza artificiale
Ascrivendo i sistemi di polizia predittiva e i sistemi di identificazione biometrica ai fini di controllo sociale (nel caso italiano i software Giove e SARI) tra gli utilizzi che potrebbero creare un rischio inaccettabile per il godimento dei diritti fondamentali, l’AI Act allo stato attuale ne vieta il loro utilizzo per attività di predizione (c.d. “real-time investigation” e “pre-crime practices”), ma ne permette l’impiego per ragioni di sicurezza nazionale e attività investigative post-crimine, il che comunque lascia ampio spazio di manovra ai governi nazionali per lo sviluppo e l’applicazione dei sistemi di polizia predittiva e giudiziaria. […]