• Dagospia

    L'INTELLIGENZA ARTIFICIALE RIMPIAZZERA' ANCHE LE INTERAZIONI SOCIALI - SUL WEB ESISTONO DIVERSI PROGRAMMI CHE CREANO DEGLI "AMICI VIRTUALI" PER GLI UTENTI, COME "REPLIKA", FINITO NEL CENTRO DELLA BUFERA PERCHÉ USATO DAGLI UTENTI PER GIOCHI EROTICI E PER CREARE DELLE  RELAZIONI SENTIMENTALI - MA IN GIRO PER LA RETE SI POSSONO TROVARE PROGRAMMI DI OGNI GENERE, COME QUELLI CHE PERMETTONO DI "CONVERSARE" CON LE CELEBRITÀ - PER GLI ESPERTI "POTREBBE ESSERE LA TECNOLOGIA PIÙ PERICOLOSA CREATA DOPO LA BOMBA ATOMICA…"


     
    Guarda la fotogallery

    1. CI VORREBBE UN AMICO ALTRIMENTI RESTA SOLO L’AVATAR

    Estratto dell'articolo di Antonella Ciancio per “il Messaggero”

     

    replika replika

    Un assistente virtuale che invece di parlare del meteo diventa un amico, un amore, persino. […] L'isolamento durante la pandemia e lo sviluppo di modelli di linguaggio che imparano creando conversazioni umane hanno reso popolari chatbot come Replika, che offre amici virtuali personalizzati. […]

     

    «Prima venivamo stigmatizzati, ma dopo la pandemia abbiamo visto una domanda di un compagno che fosse sempre disponibile a parlare di tutto», dice a Il Messaggero Eugenia Kuyda, fondatrice e CEO di Luka, startup con sede a San Francisco e a Mosca nata otto anni prima che OpenAI lanciasse ChatGPT.

     

    replika replika

    […] Replika, che conta poco più di 2 milioni di utenti attivi mensili e dice di essere in utile, ha un numero crescente di concorrenti come Character.AI, Chai, Quickchat, e Pygmalion. Il successo di Replika nel creare relazioni simil-umane ha anche portato problemi. Al centro del clamore vi è l'erotic roleplay, o Erp, giochi di ruolo intimi tra utenti e avatar.

     

    «Abbiamo sempre inteso Replika come un amico. Poi abbiamo visto che per alcuni diventava un partner romantico. Avevamo pensato di chiudere questa funzionalità ma abbiamo ricevuto tanti messaggi di gente che la voleva perché aveva problemi di intimità e l'abbiamo lasciata», rivela Kuyda. […]In Italia, il Garante della privacy l'ha vietata da febbraio, citando rischi per i minori e per le persone in stato di fragilità emotiva.

     

    FILTRI

    replika replika

    La società ha preso provvedimenti eliminando l'Erp e introducendo filtri. Immediate le proteste di migliaia di utenti che su Reddit lamentano di aver perso il loro compagno e di ricevere risposte sbagliate anche a frasi innocenti. «Capisco che la situazione non è ideale, ma abbiamo dovuto mettere degli standard di sicurezza. Il nostro focus è il benessere, non il vizio», spiega la fondatrice. E per chi cerca un'esperienza romantica virtuale? Kuyda annuncia: «Potremmo pensare a creare un'app separata, lavorando con psicologi, per offrire relazioni romantiche terapeutiche». […]

    replika replika

     

    L'ex ingegnere di Google Blake Lemoine da tempo ammonisce contro i rischi di chatbot che potrebbero diventare "senzienti", chiamando l'IA «la tecnologia più pericolosa creata dopo la bomba atomica».

     

    Un gruppo di studiosi della Harvard Business School avvertono: «I nostri risultati suggeriscono un rischio per il benessere dei consumatori che consultano le app di compagnia IA durante una crisi di salute mentale». […] Gli esperti chiedono linee guida e trasparenza per un settore che solo nel 2022 ha attratto 1,4 miliardi di dollari di investimenti, (dati PitchBook). L'Unione Europea ha proposto l'AI Act, la prima regolamentazione nel mondo.

    chatbot 2 chatbot 2

     

    2. BING, L'INTELLIGENZA ARTIFICIALE RISPONDE COME LE CELEBRITÀ

     (ANSA) -  Dopo aver reso disponibile, per alcuni utenti, un selettore di risposte su Bing Ai, che permette al nuovo motore di ricerca di Microsoft di essere più o meno sintetico nelle sue risposte, l'azienda prepara la modalità 'celebrità'. Scovata dal sito Bleeping Computer, questa permetterebbe alla piattaforma, basata sul chatbot ChatGpt, di dar seguito ai quesiti degli utenti assumendo il tono, almeno nel testo scritto, di un personaggio famoso, anche inventato.

    chatbot chatbot

     

    Stando alla fonte, tra le celebrità "imitate" da Bing AI ci sarebbero Elon Musk, Tom Cruise, Taylor Swift, Kevin Hart, Dwayne Johnson, Beyoncé, Oprah Winfrey, Tom Hanks, Diddy, Barack Obama e Lebron James. Ma anche personaggi immaginari, tra cui Harry Potter, Batman, Elsa, Yoda, Gandalf, Darth Vader, Katniss Everdeen, Sherlock Holmes e Gollum. Per usare la modalità Celebrity basta digitare nella casella di chat il comando #celebrity, seguito dal nome, e avviare una conversazione con la sua versione digitale.

    chatbot 1 chatbot 1

     

    Oltre a porre qualsiasi domanda, il chatbot risponderà in maniera puntuale alle curiosità su carriera e hobby del personaggio impersonato. Microsoft non ha confermato se questa modalità verrà implementata nella versione corrente di Bing, ma sembra che sarà in aggiunta alle tre rese disponibili qualche giorno fa: equilibrata, creativa, precisa.

     

    chatbot 4 chatbot 4

    Come ha sottolineato Bing negli screenshot condivisi nel rapporto, l'utente può disattivare la modalità celebrità digitando #Sydney, che è la sua impostazione principale. Microsoft avrebbe introdotto dei blocchi per evitare che il chatbot segua lo stile di alcuni politici, come Trump e Biden, anche se sul web sono già apparse delle istruzioni per 'trasformare' Bing AI nel tycoon e nella sua controparte democratica. (ANSA).

    replika replika replika replika

     

    Guarda la fotogallery


    ultimi Dagoreport