• Dagospia

    EVITIAMO DI CASCARE TUTTI DENTRO "BLACK MIRROR" - L'UE PREPARA UN DOCUMENTO CHE REGOLI L'INTELLIGENZA ARTIFICIALE E IL POTERE DELL'HI-TECH: IL PERICOLO È CHE VENGANO CALPESTATI I DIRITTI INDIVIDUALI - DA LIMITARE LE AUTO SENZA CONDUCENTE, GLI INTERVENTI CHIRURGICI A DISTANZA, MA ANCHE I SISTEMI DI CONTROLLO DI MASSA DELLA POPOLAZIONE (VERO CINA?) - L'ESPERTO: "IL RICONOSCIMENTO FACCIALE PER ESEMPIO È UTILE, MA NON VA USATO AL BANCOMAT, A SCUOLA O NEI CELLULARI..."


     
    Guarda la fotogallery

    1 - "NO ALLA SORVEGLIANZA DI MASSA" L'EUROPA DETTA LE REGOLE PER L'IA

    Marco Bresolin per “La Stampa

     

    BLACK MIRROR BLACK MIRROR

    Limitare gli effetti sociali della tecnologia, ma senza ostacolare il progresso e al tempo stesso tenere il passo delle altre potenze mondiali, Usa e Cina in testa. L'Unione europea vuole fare da apripista nella regolamentazione dell'Intelligenza Artificiale, anche se questo vuol dire muoversi in un campo minato e inesplorato.

     

    Ma la Commissione europea ha deciso che è arrivato il momento di mettere dei paletti per evitare che le macchine prendano il sopravvento. Persino «Black Mirror», la serie tv ambientata nel futuro, dovrà fare i conti con i vincoli di Bruxelles.

     

    margrethe vestager margrethe vestager

    Mercoledì prossimo la vicepresidente della Commissione Ue con delega al Digitale, Margrethe Vestager, svelerà il primo quadro normativo pensato per regolamentare l'impatto dell'IA sulle nostre vite.

     

    Un insieme di norme che proibirà alcune attività e ne sottoporrà altre a limiti e autorizzazioni secondo una linea chiara: l'Europa vuole agevolare il progresso, ma questo dovrà svilupparsi attraverso un approccio «incentrato sull'uomo».

     

    coronavirus mappatura tracciatura intelligenza artificiale coronavirus mappatura tracciatura intelligenza artificiale

    Le aziende che non rispetteranno le norme - basate su territorio Ue o extra-Ue - potranno essere sanzionate con multe fino al 4% del fatturato. Un orientamento che i critici considerano pericoloso, perché potrebbe da un lato rendere il Vecchio Continente meno attraente per le imprese e dall'altro creare frizioni con gli Usa.

     

    La bozza del documento è ancora suscettibile di modifiche e dovrà ottenere il via libera da parte dei governi e del Parlamento Ue, un iter durante il quale si farà sentire il pressing delle lobby.

     

    coronavirus intelligenza artificiale mappatura coronavirus intelligenza artificiale mappatura

    Il testo base elenca una serie di attività che saranno considerate ad «alto rischio», vale a dire che potrebbero mettere in pericolo la sicurezza, la vita, la libertà o i diritti fondamentali degli individui, così come i processi democratici.

     

    Si pensi alle auto senza conducente o agli interventi chirurgici a distanza, ma anche ai sistemi di controllo di massa della popolazione da parte delle autorità pubbliche.

     

    INTELLIGENZA ARTIFICIALE INTELLIGENZA ARTIFICIALE

    Alcune attività saranno vietate: come quelle che possono manipolare il comportamento umano, effettuare una sorveglianza indiscriminata e sfruttare le informazioni private per il «social scoring», il sistema di credito sociale sviluppato dalla Cina per creare una sorta di classifica dei cittadini in base alla loro reputazione.

     

    Per quanto riguarda la sorveglianza, saranno consentite delle eccezioni per ragioni di sicurezza pubblica: gli Stati avranno il potere di utilizzare per esempio i sistemi di riconoscimento facciale a distanza, seppure in modo limitato.

     

    AUTO SENZA CONDUCENTE AUTO SENZA CONDUCENTE

    Altre attività saranno subordinate a un'autorizzazione preventiva e in alcuni casi sarà necessaria la supervisione da parte degli esseri umani. I governi dovranno istituire delle autorità nazionali per valutarle ed emettere certificati di conformità che avranno una durata massima di 5 anni. Sarà inoltre istituito un Comitato europeo per l'IA.

     

    Tra le attività ad alto rischio vengono citati gli algoritmi per l'esame dei curriculum che alcune aziende utilizzano per reclutare il personale, ma anche quelli per la valutazione della solvibilità dei cittadini che chiedono un credito, per l'erogazione dei sussidi sociali o per l'esame delle domande di asilo. Per queste attività non basteranno le macchine: servirà un controllo supplementare.

     

    2 - LUCIANO FLORIDI, DOCENTE A OXFORD E FILOSOFO DELL'INFORMAZIONE: "IL PERICOLO DEGLI ALGORITMI È NELLA MANIPOLAZIONE OCCULTA"

    Francesco Rigatelli per “La Stampa

     

    luciano floridi luciano floridi

    «Per controllare le persone ci vuole una giustificazione precedente più seria del "poi non si sa mai" e la regolamentazione europea sull'IA sembra andare in questa direzione, anche se non si può lasciare alle aziende la libertà di autocertificarsi».

     

    Per Luciano Floridi, professore a Oxford e a Bologna di Filosofia dell'Informazione, è fondamentale «una presa di responsabilità da parte dell'Ue e dei singoli Stati perché ci siano verifiche e sanzioni».

     

    L'Ue vieta le tecnologie per la sorveglianza di massa: questo cosa implica?

    «Semplificando al massimo è come dire: non si registra prima tutto, chi si muove o chi compra, e poi si vede a cosa serve. Si vuole invertire l'onere della prova. Un articolo del giurista Andrea Monti affronta il tema della videosorveglianza nei cinema, che servirebbe per controllare che non si facciano registrazioni illegali dei film. È un buon esempio di qualcosa che potrebbe essere vietato, in mancanza di una giustificazione più seria a priori».

     

    l'intelligenza artificiale e le emozioni 1 l'intelligenza artificiale e le emozioni 1

    Un altro paletto verrebbe messo sulla manipolazione dei comportamenti. Di che si tratta?

    «Ne fa parte anche la pubblicità. L'IA, da YouTube a Netflix, propone di vedere o acquistare contenuti simili. Se il suggerimento è esplicito e se ne può avere consapevolezza critica è accettabile. La manipolazione invece è occulta e porta ad avere comportamenti che senza un'influenza subliminale non si terrebbero. Dalla bozza Ue emergono linee guida interessanti, ma bisogna precisare i confini della questione».

     

    E il riconoscimento facciale?

    INTELLIGENZA ARTIFICIALE INTELLIGENZA ARTIFICIALE

    «È utile in situazioni ad alto rischio, ma non va usato a sproposito. Al bancomat, a scuola o nei cellulari è evitabile, mentre in aeroporto o in una centrale nucleare ha senso. Non è, come dicono gli inglesi, una soluzione in cerca di un problema. E poi non funziona benissimo».

     

    Negli smartphone sembra aver sostituito l'impronta digitale.

    «Sì, ma perché consentire ai produttori di telefoni e a tutte le applicazioni di riconoscere il nostro viso? È davvero necessario o basta l'impronta?».

     

    intelligenza artificiale intelligenza artificiale

    Ha senso che la normativa Ue chieda alle aziende di autodenunciarsi se sviluppano tecnologie ad alto rischio?

    «È un bel principio, ma non si può lasciare loro la libertà di autocertificarsi. Il rischio è una discussione come sul diritto all'oblio, dove alla fine decide Google, poi, se mai, si può fare appello».

     

    Limiti regolamentari e fiscali non rischiano di spuntare le armi delle tecnologie occidentali nella guerra digitale con quelle asiatiche?

    intelligenza artificiale 3 intelligenza artificiale 3

    «Si tratta di regole da applicare a chiunque operi in Europa, cinesi compresi. L'Ue deve mantenere la sua via di legislazione sociale».

    intelligenza artificiale usa cina intelligenza artificiale usa cina

    Guarda la fotogallery


    ultimi Dagoreport