• Dagospia

    ATTENTI: AI BIG TECH NON INTERESSANO I GUAI CHE PUO' CREARE L'IA - UN INGEGNERE INFORMATICO DI MICROSOFT SOSTIENE CHE IL COLOSSO TECNOLOGICO AVREBBE IGNORATO LE SUE SEGNALAZIONI SULLA FALLA NEL PROGRAMMA DI INTELLIGENZA ARTIFICIALE "DALL-E 3, CHE HA PERMESSO DI CREARE LE FOTO HARD DI TAYLOR SWIFT - L'UOMO AVREBBE SCOPERTO LA VULNERABILITÀ A DICEMBRE E SEGNALATO LA QUESTIONE ALLA DIREZIONE, SENZA OTTENERE RISPOSTA: È STATO CONTATTATO DALL'AZIENDA SOLO DOPO CHE HA PUBBLICATO UN POST SU LINKEDIN NEL QUALE…


     
    Guarda la fotogallery

    taylor swift golden globes 2024. 2 taylor swift golden globes 2024. 2

    (ANSA) - Dopo le critiche, nei giorni scorsi, all'IA di Microsoft Designer che ha permesso di creare false immagini di nudo di Taylor Swift, il gigante della tecnologia è al centro di un nuovo caso. A sollevarlo è Shane Jones, ingegnere di intelligenza artificiale di Microsoft, che sostiene di aver scoperto all'inizio di dicembre una vulnerabilità nel modello di generazione di immagini Dall-E 3 di OpenAI, azienda di cui il colosso americano è principale investitore, usato anche dal chatbot Copilot. Secondo Jones, gli utenti di strumenti come Bing Image Creator possono usare Dall-E 3 per aggirare le protezioni dell'IA e creare contenuti dannosi.

     

    deepfake 2 deepfake 2

    Dopo aver scoperto la falla, Jones avrebbe segnalato la questione alla direzione, senza ottenere risposta. A quel punto, ha deciso di pubblicare un post su LinkedIn in cui spiega cosa è successo. Solo in quel momento Microsoft l'ha contattato, chiedendo di rimuovere il post. Come riporta Engadget, a causa delle falle scoperte, Dall-E 3 potrebbe rappresentare una minaccia per la sicurezza ed è per questo che Jones ne chiede la rimozione da un accesso pubblico.

    deepfake 3 deepfake 3

     

    Un portavoce di Microsoft ha scritto a Engadget: "Ci impegniamo ad affrontare tutte le preoccupazioni dei dipendenti in conformità con le politiche aziendali e apprezziamo lo sforzo nello studio e nel testare la nostra ultima tecnologia per migliorarne ulteriormente la sicurezza. Quando si tratta di preoccupazioni che potrebbero avere un potenziale impatto sui servizi o partner, abbiamo stabilito solidi canali di segnalazione interni. Gli stessi che abbiamo consigliato al dipendente, in modo da poter convalidare e testare adeguatamente le sue preoccupazioni, prima di condividerle pubblicamente".

     

     Microsoft ha aggiunto che il suo Office of Responsible AI ha creato uno strumento di reporting proprio per consentire ai dipendenti di segnalare i timori sui modelli di intelligenza artificiale.

    ARTICOLI CORRELATI

     

     

    Guarda la fotogallery


    ultimi Dagoreport