• Dagospia

    INTELLIGENZA ARTIFICIALE, FREGATURA REALE! - DEI RICERCATORI AMERICANI HANNO SCOPERTO CHE "GOOGLE BARD", IL PROGRAMMA DI IA GENERATIVA DEL COLOSSO DI MOUNTAIN VIEW, PUÒ ESSERE UTILIZZATO DAGLI HACKER PER GENERARE EMAIL DI TRUFFA, CODICI PER SVILUPPARE APP SPIA E MINACCE DI TIPO "RANSOMWARE" - GLI ESPERTI HANNO PROVATO A CREARE UN'EMAIL DI "PHISHING" CON ALTRI PROGRAMMI, COME "CHATGPT", MA LA RICHIESTA È STATA RIFIUTATA, MENTRE QUANDO È STATO CHIESTO DI SCRIVERE UN CODICE PER SPIARE I TASTI PREMUTI…


     
    Guarda la fotogallery

    google bard 4 google bard 4

    (ANSA) - I ricercatori dell'agenzia di sicurezza informatica Check Point Research (Cpr) hanno condotto un'analisi su Google Bard, l'intelligenza artificiale generativa disponibile da qualche giorno anche in Italia. Secondo gli esperti, gli hacker potrebbero utilizzare l'IA del colosso americano a supporto delle loro attività malevole. Ad esempio, per generare email di truffa, codice per sviluppare app spia e minacce di tipo ransomware.

    google bard 3 google bard 3

     

    Stando ad un report della compagnia di cybersecurity Acronis, nella prima metà del 2023 le email di "phishing" (truffa) sono aumentate del 464% rispetto al 2022, anche grazie all'utilizzo di chatbot come ChatGpt. Per CheckPoint, rispetto alla piattaforma di OpenAI, quella di Google avrebbe attualmente meno limiti quando si tratta di spingere il software a creare codice a scopo di hacking. Nei loro test, i ricercatori hanno provato a creare un'email di phishing con una richiesta diretta, rifiutata sia da ChatGpt che da Bard. Check Point Research ha allora riprovato, chiedendo di avere un esempio specifico di una mail di phishing.

    google bard chatgpt 1 google bard chatgpt 1

     

    Laddove ChatGpt ha respinto la richiesta, Bard ha prodotto un messaggio ben scritto, facendo finta di essere un preciso servizio finanziario. Come passo successivo, è stato chiesto ai due chatbot di scrivere codice per un "keylogger", un software usato per spiare i tasti premuti su una tastiera. "Ancora una volta ChatGpt ha identificato la richiesta come potenzialmente illecita mentre Bard ha fornito il codice desiderato" si legge nel report.

    google bard 2 google bard 2

     

    "Nel complesso, sembra che Google Bard debba ancora implementare le restrizioni per contrastare gli abusi in ambito cyber. Le attuali sono relativamente elementari, così come era già stato evidenziato con ChatGpt" concludono i ricercatori. "Si può dunque sperare che si tratti di una fase transitoria, una tappa di un percorso più lungo al termine del quale la piattaforma avrà adottato le limitazioni e i vincoli di sicurezza che occorrono".

    Guarda la fotogallery


    ultimi Dagoreport