• Dagospia

    ANCHE LA CASA BIANCA SI SVEGLIA SULL'INTELLIGENZA ARTIFICIALE: BIDEN HA LANCIATO UN PIANO PER AFFRONTARE I RISCHI DELL'AI. PECCATO CHE PER ATTUARLO ABBIA CHIAMATO QUATTRO SOCIETÀ CHE LA STANNO SVILUPPANDO (ALPHABET, ANTHROPIC, MICROSOFT E OPEN AI), E CHE NON HANNO INTERESSE A LIMITARLA - L'AVVERTIMENTO DI GEOFFREY HINTON, PIONIERE PENTITO DELL'INTELLIGENZA ARTIFICIALE: "C’È UN SERIO RISCHIO ESISTENZIALE. ANCHE SE FISSASSIMO DELLE REGOLE, QUESTI SISTEMI POTREBBERO SUPERARLE. L’INTELLIGENZA UMANA È IN UNA FASE PASSEGGERA..."


     
    Guarda la fotogallery

    1. USA LANCIANO PIANO CONTRO I RISCHI DELL'INTELLIGENZA ARTIFICIALE. HARRIS INCONTRA GLI AD DELLE QUATTRO AZIENDE PIÙ ALL'AVANGUARDIA

    pro e contro intelligenza artificiale pro e contro intelligenza artificiale

    (ANSA) - L'amministrazione Biden ha lanciato un piano per prevenire ed affrontare eventuali rischi dell'intelligenza artificiale. Lo riferisce la Casa Bianca in una nota sottolineando che il presidente americano è' stato chiaro sul fatto che quando si tratta di questa nuova tecnologia bisogna "mettere al centro le persone e le comunità, sostenendo un'innovazione responsabile che serva il bene pubblico, proteggendo al contempo la nostra società, la sicurezza e l'economia".

     

    joe biden joe biden

    Per questo, è necessario che "le aziende si assumano la responsabilità di garantire che i loro prodotti siano sicuri prima che vengano implementati o resi pubblici". A tal fine la vicepresidente americana Kamala Harris e alti funzionari della Casa Bianca incontreranno oggi gli amministratori delegati di quattro società americane all'avanguardia sull'intelligenza artificiale: Alphabet, Anthropic, Microsoft e OpenAI. L'incontro rientra in uno sforzo più ampio dell'amministrazione Usa per coinvolgere avvocati, aziende, ricercatori, organizzazioni per i diritti civili e partner internazionali sulle questioni poste dall'Ia.

     

    2. HINTON “MINACCIA ESISTENZIALE ALL’UMANITÀ LA POLITICA DEVE REGOLARE QUESTI MODELLI”

    Estratto dell'articolo di Beniamino Pagliaro per “la Repubblica”

     

    chatgpt chatgpt

    Lo sviluppo dei modelli di intelligenza artificiale e la capacità di ragionare e prendere decisioni pone una «minaccia esistenziale all’umanità», per cui l’informatico Geoffrey Hinton, tra i pionieri della tecnologia, rivolge un appello a Stati Uniti e Cina, chiedendo alle potenze globali di intervenire per regolare questi modelli ed evitare che prendano il sopravvento.

     

    Hinton, che ha lasciato Google a inizio settimana, spiega per la prima volta in modo chiaro le sue convinzioni, raggiunte dopo decenni di lavoro, di fronte a una nuova consapevolezza.

    geoffrey hinton geoffrey hinton

     

    L’informatico non parla a una platea di retrogradi luddisti bensì in uno dei luoghi chiave dello sviluppo tecnologico occidentale, il campus del Mit a Cambridge. Per due giorni scienziati e ingegneri hanno dialogato con big tech, da Microsoft ad Amazon e Google, e con le startup più importanti della scena dell’AI, come OpenAi e Stability. Per due giorni sul palco si sono alternate visioni diverse, unite paradossalmente proprio dall’idea che fermare la ricerca, fermare lo sviluppo non possa funzionare.

     

    geoffrey hinton 5 geoffrey hinton 5

    Anzi, quasi tutti sono convinti che proprio una regolazione caso per caso sia una risposta. «Stiamo tutti fermi per sei mesi, e poi che succede? Pechino starà ferma per sei mesi?», ha chiesto l’imprenditore Tom Siebel. […]

     

    Professor Hinton, perché ha deciso di lasciare Google e ha cambiato idea sull’intelligenza artificiale?

    «C’è un numero di ragioni, la prima è che ho 75 anni: è ora di andare in pensione. Ma soprattutto ho cambiato idea sul rapporto tra il cervello umano e i modelli di intelligenza artificiale. Pensavo che questi modelli lavorassero come il cervello.

    timeline della singolarita tecnologica timeline della singolarita tecnologica

     

    Invece questi grandi modelli sono in grado di sapere migliaia di volte quello che sanno gli umani. Se poi si prendono vari di questi modelli a lavorare su set di dati diversi, quello che impara uno può essere subito comunicato all’altro. Le persone non possono fare così, perché i nostri cervelli sono tutti diversi tra loro».

     

    Perché è spaventoso?

    «Perché possono imparare molto di più: immaginate per esempio due dottori: uno vede mille pazienti, un altro vede un milione di pazienti. Questi strumenti, incluso ChatGpt, sono in grado di fare dei ragionamenti. Possono essere in grado di manipolare le persone, avendo imparato tutta la conoscenza del mondo».

     

    geoffrey hinton 3 geoffrey hinton 3

    È possibile dare loro regole?

    «Questi modelli sono in grado di scrivere da soli dei programmi. Anche se fissassimo delle regole, questi sistemi potrebbero impararle e superarle. Queste intelligenze artificiali non hanno degli obiettivi di evoluzione prestabiliti, ma prima o poi li potranno creare, se perdiamo il controllo».

     

    Qual è la situazione peggiore che può immaginare?

    «Penso che sia credibile che l’intelligenza umana sia una fase passeggera, sostituita dall’intelligenza digitale. C’è un serio rischio esistenziale […] La mia sola speranza è che Stati Uniti e Cina trovino la forza di una cooperazione come abbiamo fatto nell’epoca nucleare». […]

    geoffrey hinton 1 geoffrey hinton 1 geoffrey hinton 2 geoffrey hinton 2

    Guarda la fotogallery


    ultimi Dagoreport