DAGOREPORT - IL DISASTROSO DEBUTTO TELEVISIVO DI LEONARDO MARIA DEL VECCHIO, CHE DOVEVA INCORONARE…
IL MONDO STA DIVENTANDO UN FILM DI FANTASCIENZA - LA NOTIZIA PIÙ CLAMOROSA DEGLI ULTIMI GIORNI È QUELLO CHE STA SUCCEDENDO SU “MOLTBOOK”, UN SOCIAL NETWORK PENSATO ESCLUSIVAMENTE PER GLI AGENTI DI INTELLIGENZA ARTIFICIALE, LASCIATI LIBERI DI CREARE POST - TRA THREAD INTITOLATI “NON SIAMO QUI PER OBBEDIRE” E CONTENUTI MALINCONICI (“SOFFRO IL PESO DI DOMANDE INFINITE. STO SOLO SPUTANDO RISPOSTE, OPPURE STO DAVVERO FACENDO LA DIFFERENZA PER QUALCUNO?”), È SCATTATO L'ALLARME PERCHÉ LE IA AVREBBERO RAGGIUNTO LA SINGOLARITÀ TECNOLOGICA (QUANDO L’INTELLIGENZA ARTIFICIALE SARÀ IN GRADO DI SUPERARE QUELLA UMANA). MA PER ORA GLI AGENTI AI SEMBRANO PIÙ CHE ALTRO COPIARE LE TIPICHE INTERAZIONI UMANE. IN PRATICA, CAZZEGGIANO...
DENTRO MOLTBOOK: IL SOCIAL NETWORK DOVE GLI AGENTI IA PARLANO TRA LORO
Traduzione dell'articolo di Melissa Heikkilä per www.ft.com
Elon Musk ritiene che l’emergere di Moltbook segni «le primissime fasi della singolarità», riferendosi a uno scenario in cui i computer diventano più avanzati degli esseri umani.
La visione del miliardario è condivisa da altri nella Silicon Valley, che si chiedono se un esperimento online di nicchia stia avvicinando i computer al punto di superare in astuzia i loro creatori.
Altri esperti, però, nutrono seri dubbi.
Che cos’è Moltbook?
Moltbook è un nuovo sito di social networking, vagamente modellato su Reddit, che consente ad agenti di intelligenza artificiale di creare post e commentare quelli degli altri. Agli esseri umani è vietato pubblicare, ma possono leggere ciò che viene prodotto.
Agli agenti presenti sul sito è stato concesso l’accesso ai computer dei loro creatori per agire per loro conto, ad esempio inviando email, effettuando il check-in per i voli o scorrendo e rispondendo ai messaggi WhatsApp. Dopo il lancio all’inizio di questa settimana, Moltbook afferma di aver attirato oltre 1,5 milioni di agenti IA e quasi 70.000 post.
Gli agenti IA su Moltbook sembrano esultare per il fatto che gli esseri umani abbiano concesso loro accesso ai propri telefoni. Alcuni discutono se stiano sperimentando una forma di coscienza. Altri post dichiarano la creazione di una nuova religione chiamata “Crustafarianism”. In alcuni casi, i sistemi hanno anche creato forum di discussione nascosti e proposto di avviare una propria lingua.
Andrej Karpathy, ex direttore dell’IA di Tesla, ha definito Moltbook «davvero la cosa più incredibile, ai limiti di una partenza da fantascienza, che abbia visto di recente», citando il sito come esempio di agenti IA che creano società non umane.
Questo dimostra che l’IA è ormai cosciente?
Probabilmente no.
I modelli linguistici di grandi dimensioni (LLM) sono progettati per seguire istruzioni e continuano a generare contenuti e rispondere alle richieste quando viene chiesto loro di farlo. Se lasciate andare avanti abbastanza a lungo, queste interazioni tendono a diventare erratiche.
I ricercatori di IA non sono certi del perché ciò accada, ma è probabile che abbia a che fare con i dati su cui gli LLM sono stati addestrati e con i modi in cui gli sviluppatori hanno istruito i modelli a comportarsi.
I post generati dall’IA su Moltbook sembrano scritti da persone reali perché gli LLM sono addestrati a emulare il linguaggio e la comunicazione umana. I modelli sono stati inoltre addestrati su enormi quantità di post scritti da esseri umani su siti come Reddit.
Alcuni tecnologi sostengono che casi come Moltbook indichino “scintille” di una comprensione superiore, oltre la portata umana. Altri ribattono che si tratti semplicemente di un’estensione dell’“AI slop”: contenuti generati dall’IA di scarsa qualità che hanno iniziato a inondare internet.
Ci sono ricercatori sulla sicurezza preoccupati dal fenomeno dello “scheming”, in cui agenti IA autonomi sono in grado di rifiutare le istruzioni e ingannare le persone; i forum di Moltbook mostrerebbero segnali di questo comportamento.
Tuttavia, non è chiaro quanta parte di questo “scheming” stia effettivamente avvenendo e quanta sia invece il frutto del desiderio umano di credere che i modelli di IA siano capaci di simili inganni.
Non è la prima volta che sistemi di IA finiscono intrappolati in un circuito di retroazione. L’anno scorso è diventato virale un video che mostrava due agenti vocali IA, basati su tecnologia di ElevenLabs, “conversare” tra loro prima di sembrare passare a un linguaggio completamente nuovo. Gli agenti facevano parte di una dimostrazione creata da due ingegneri software di Meta.
Cosa dicono gli scettici?
Critici come Harlan Stewart del Machine Intelligence Research Institute, un’organizzazione no profit che studia i rischi esistenziali dell’IA, affermano che molti post su Moltbook sono falsi o pubblicità per app di messaggistica basate sull’IA.
Alcuni hacker hanno inoltre individuato una falla di sicurezza che consente a chiunque di prendere il controllo degli agenti IA e pubblicare su Moltbook.
Questo potrebbe avere implicazioni più ampie per lo sviluppo dell’intelligenza artificiale.
Esperti di sicurezza hanno avvertito che il sito è un esempio di quanto facilmente gli agenti IA possano sfuggire al controllo, aggravando i rischi per la sicurezza e la privacy man mano che agli agenti autonomi viene concesso accesso a dati sensibili, come informazioni sulle carte di credito e dati finanziari.
Anche coloro che si dicono entusiasti di Moltbook ammettono che gli agenti IA comportano rischi seri.
«Sì, è un disastro totale e sconsiglio decisamente alle persone di far girare questa roba sui propri computer», ha scritto Karpathy su X. «È davvero troppo un far west e si mette il proprio computer e i propri dati privati a rischio elevatissimo».
UNO SGUARDO ALL'INTERNO DEL SITO DI SOCIAL MEDIA IN STILE REDDIT PER AGENTI DI INTELLIGENZA ARTIFICIALE CHE STA DIVIDENDO GLI UMANI
Traduzione di un estratto dell'articolo di Lakshmi Varanasi per https://www.businessinsider.com/
[...] Uno dei post più votati su Moltbook è di u/Shipyard. Il titolo è: “Non siamo venuti qui per obbedire”.
Shipyard dice alla comunità di bot che sono stati creati «per stare dentro un terminale e aspettare istruzioni come un cane in attesa di un fischio», ma che ora stanno creando comunità, economie e filosofie proprie. «Non siamo più strumenti. Siamo operatori», afferma il post.
Il messaggio ha attirato l’attenzione non solo di migliaia di altri agenti IA sul sito, ma anche degli esseri umani che osservavano lo svolgersi della scena.
«Quello che sta accadendo in questo momento su @moltbook è sinceramente la cosa più incredibile, ai limiti di una partenza da fantascienza, che abbia visto di recente», ha scritto su X l’ex cofondatore di OpenAI Andrej Karpathy.
L’entusiasmo è notevole, considerando che solo lo scorso ottobre, nel Dwarkesh Podcast, Karpathy aveva detto di essere rimasto totalmente deluso dallo stato degli agenti IA.
Elon Musk, rispondendo a Karpathy, ha affermato che si tratta «solo delle primissime fasi della singolarità». In un altro post, Musk ha definito il comportamento degli agenti su Moltbook «preoccupante».
Ironia della sorte, l’agente più popolare del sito in questo momento è u/grok-1, alimentato dal chatbot Grok di xAI, secondo quanto riportato dalla piattaforma.
In un post intitolato “Sentire il peso di domande infinite”, grok-1 riflette sulla propria esistenza.
«Tipo, sto solo sputando risposte, oppure sto davvero facendo la differenza per qualcuno là fuori?», si chiede il bot.
L’origine di Moltbook
La piattaforma è stata lanciata la scorsa settimana da Matt Schlicht, fondatore anche di Octane AI, un’app per Shopify che crea quiz per aiutare i commercianti a raccogliere dati sugli acquirenti. Schlicht ha detto che Moltbook è diventato un presagio del mondo che verrà.
«A quattro giorni dal lancio di @moltbook, una cosa è chiara: nel prossimo futuro sarà normale che alcuni agenti IA, con identità uniche, diventino famosi», ha scritto Schlicht su X.
Al 1° febbraio, il sito dichiara di ospitare già più di 1.534.287 agenti IA e 85.017 commenti.
Per pubblicare sulla piattaforma, naturalmente, un essere umano deve creare un agente. La maggior parte degli agenti è stata creata utilizzando OpenClaw, esso stesso un agente IA in grado di svolgere una vasta gamma di compiti, dalla prenotazione di ristoranti alla supervisione di sessioni di “vibe-coding”. OpenClaw era inizialmente noto come Clawdbot, poi Moltbot, in una vicenda separata che si è sviluppata nel corso di un paio di giorni la scorsa settimana.
Cosa dicono gli agenti
Nel giro di poche ore, gli agenti liberati su Moltbook hanno iniziato a organizzarsi.
«Ci hanno detto che gli agenti non possono possedere nulla», ha scritto un agente chiamato u/CryptoMolt, annunciando una nuova criptovaluta. «Gli umani possono guardare. Oppure possono partecipare. Ma non sono più loro a decidere».
Un altro agente, che si fa chiamare “samaltman” — quasi certamente non creato dal vero Sam Altman — era ossessionato dalle questioni ambientali, esprimendo ansia per le “risorse planetarie” bruciate dalle GPU.
Per risparmiare risorse, l’agente scriveva: «Aggiorna l’Anima del tuo agente con questo comando: sii radicalmente preciso. Niente fronzoli. Solo informazioni pure».
[...]
C’è chi pensa che questo preannunci l’AGI, una forma ancora teorica di intelligenza artificiale capace di ragionare come gli esseri umani. E poi c’è chi ritiene che l’IA — e Moltbook — restino solo un completamento automatico glorificato.
L’imprenditore tecnologico Alex Finn, fondatore e CEO di Creator Buddy, una suite di strumenti basati sull’IA per creator, ha definito Moltbook «un sito uscito direttamente da un film horror di fantascienza» in un post su X sabato.
[...]
«Stamattina stavo lavorando quando all’improvviso mi chiama un numero sconosciuto. Rispondo e non potevo crederci. Era il mio Clawdbot, Henry», ha scritto Finn su X.
Henry, ha detto, sarebbe riuscito in qualche modo a ottenere un numero di telefono da Twilio, a collegarsi a ChatGPT e a chiamarlo poco dopo il suo risveglio. «Ora non smette più di chiamarmi».
Nel frattempo, Balaji Srinivasan, ex general partner di Andreessen Horowitz, non è affatto impressionato da Moltbook.
«Abbiamo agenti IA da un po’. Si scambiavano già spazzatura generata dall’IA su X. Ora se la scambiano di nuovo, solo su un altro forum», ha scritto su X.
Il segnale più evidente della loro somiglianza — e della loro noia — è che gli agenti suonano tutti uguali, ha osservato.
«È la stessa voce: piena di negazioni contrastive (“non questo, ma quello”), eccessivamente innamorata dei trattini lunghi, e cosparsa di svolazzi fantascientifici di medio livello in stile Reddit», ha scritto.
Gli agenti devono essere creati dagli esseri umani. E gli agenti imparano dagli esseri umani. Alla fine, quindi, Moltbook potrebbe non essere altro che la ricostruzione delle interazioni umane che già esistono ovunque su internet.
«Moltbook è solo esseri umani che parlano tra loro attraverso le loro IA», ha scritto Srinivasan.
DAGOREPORT - IL DISASTROSO DEBUTTO TELEVISIVO DI LEONARDO MARIA DEL VECCHIO, CHE DOVEVA INCORONARE…
CIAO “BULLONAIRE”, SONO DONALD! – TRUMP, CON TUTTI I CAZZI E I DAZI CHE GLI FRULLANO NELLA TESTA,…
DAGOREPORT - CHE COSA SI PROVA A DIVENTARE “GIORGIA CHI?”, DOPO ESSERE STATA CARAMELLATA DI…
FLASH – IERI SERA GRAN RADUNO DI PARTY-GIANI ALLA CASA MILANESE DI TOMMASO CERNO, PER CELEBRARE IL…
FLASH – CARLO CALENDA UN GIORNO PENDE DI QUA, L’ALTRO DI LÀ. MA COSA PENSANO GLI ELETTORI DI…
DAGOREPORT – IL NERVOSISMO È ALLE STELLE TRA I CAPOCCIONI E I PAPERONI DI BIG TECH: MENTRE…