• Dagospia

    META HA CHIUSO IL SUO TEAM DI ESPERTI AL LAVORO SULLE TEMATICHE DELL'INTELLIGENZA ARTIFICIALE "RESPONSABILE" - L'UNITÀ ERA STATA CREATA PER IDENTIFICARE EVENTUALI CRITICITÀ NELLO SVILUPPO E NELL'ADDESTRAMENTO DEI "BOT" E I PROBLEMI DERIVANTI DALL'UTILIZZO DI SOFTWARE IA PER LA MODERAZIONE DEI CONTENUTI - L'USO RESPONSABILE DEI "BOT" E' UNA DELLE DIVERGENZE CHE HANNO PORTATO ALL'ADDIO DI SAM ALTMAN DA "OPENAI"


     
    Guarda la fotogallery

    META INTELLIGENZA ARTIFICIALE META INTELLIGENZA ARTIFICIALE

    (ANSA) - Meta avrebbe chiuso il team di esperti al lavoro sulle tematiche dell'intelligenza artificiale responsabile. Come scrive il sito The Information, che ha visionato comunicazioni interne dell'azienda, il gruppo Responsible AI rappresentava un costo da rivedere, tanto che i suoi membri sono stati dedicati ad altre divisioni di Meta, incentrate sullo sviluppo di prodotti e servizi basati sull'intelligenza artificiale generativa, business principale di OpenAi. Proprio quest'ultima, nelle scorse ore, ha prima licenziato il Ceo Sam Altman e poi, apparentemente, chiesto di ritornare al suo posto, scatenando un vero e proprio terremoto nel settore dell'IA.

    META INTELLIGENZA ARTIFICIALE META INTELLIGENZA ARTIFICIALE

     

     Il rapporto di The Information cita Jon Carvill, direttore delle comunicazioni di Meta, che afferma come la società "continuerà a dare priorità e a investire nello sviluppo sicuro e responsabile dell'IA". Il manager ha aggiunto che, sebbene l'organizzazione abbia deciso di chiudere il team, i lavoratori rimarranno in azienda e "continueranno a supportare gli sforzi nei progetti più innovativi". L'unità Responsible AI era stata creata per identificare le eventuali criticità nello sviluppo e soprattutto l'addestramento di modelli di intelligenza artificiale, con un occhio ai problemi derivanti dall'utilizzo di software IA per la moderazione dei contenuti online.

     

    META INTELLIGENZA ARTIFICIALE META INTELLIGENZA ARTIFICIALE

    Negli scorsi anni, i sistemi automatizzati di Meta hanno causato varie problematiche inerenti la traduzione dei post di Facebook e le segnalazioni su contenuti inappropriati. Più di recente, la funzione sperimentale di generazione di adesivi IA di WhatsApp, tramite richieste via chatbot, ha tradotto termini legati alla Palestina con bambini che imbracciano pistole e fucili.

    Guarda la fotogallery


    ultimi Dagoreport