"Is this a tool we have built or a creature we have built?"
- Sam Altman (a day before he fired)pic.twitter.com/Ob49SQpKgh
— Kushan S. (@YouNoImKS) November 23, 2023
1 - INTELLIGENZA ARTIFICIALE, L’AZZARDO DI ALTMAN OPENAI E IL PROGETTO Q* PER LA MENTE SOVRUMANA
Estratto dell’articolo di Pier Luigi Pisa per “la Repubblica”
sam altman.
Qualche giorno prima che Sam Altman venisse licenziato da OpenAI, alcuni ricercatori hanno comunicato al consiglio di amministrazione dell’azienda una scoperta scientifica che - stando alle fonti citate da Reuters […] - potrebbe costituire un pericolo per l’umanità. La loro lettera avrebbe innescato un “colpo di stato” da parte del consiglio, che all’epoca era composto da Altman e altre cinque persone.
Almeno in quattro - il direttore scientifico di OpenAI Ilya Sutskever, la sostenitrice dell’Altruismo effettivo Helen Toner, l’esperta in robotica Tasha McCauley e l’imprenditore Adam D’Angelo hanno votato per rimuovere con urgenza l’ad dell’azienda, Sam Altman, preoccupati dal fatto che potesse commercializzare una potente tecnologia senza valutare i suoi rischi. Vale la pena ricordare che proprio Altman, alla guida dell’azienda dal 2019, ha trasformato OpenAI da laboratorio sull’intelligenza artificiale non profit ad azienda a caccia di profitti del valore di mercato di 86 miliardi di dollari.
sam altman ilya sutskever
Nella lettera dei ricercatori di OpenAI […] si farebbe riferimento a un nuovo progetto dell’azienda, chiamato Q* (si legge Q Star), che riguarderebbe un tipo di intelligenza artificiale molto vicina all’AGI: così viene chiamata l’intelligenza artificiale generale che un giorno si pensa potrà replicare - e in alcuni casi sorpassare - le capacità umane.
OpenAI, fondata a San Francisco nel 2015 da un gruppo di ricercatori e imprenditori, tra cui Sam Altman ed Elon Musk, è diventata famosa nel mondo per la sua intelligenza artificiale generativa capace di scrivere (ChatGpt) e creare immagini (Dall-E) come farebbe un essere umano. Ma la sua vera missione, fin dall’inizio, è quella di raggiungere l’AGI «per il bene dell’umanità».
sam altman
OpenAI definisce l’AGI come un sistema autonomo che supera gli esseri umani «nella maggior parte delle attività che hanno un valore economico». Mentre l’intelligenza artificiale generativa si basa su modelli predefiniti, e imita la creatività umana senza comprendere realmente il significato di ciò che crea, l’AGI è un tipo di intelligenza artificiale più avanzato che può adattarsi a nuove situazioni senza dover essere addestrata in modo specifico per ogni compito.
Alcuni ricercatori di OpenAI credono che Q* sia vicino alle capacità dell’AGI perché è stata in grado di risolvere problemi matematici che normalmente si affrontano alle scuole elementari; ma per OpenAI questo risultato avrebbe un’importanza davvero enorme.
emmett shear mira murati sam altman
Sappiamo, infatti, che ChatGpt è molto brava a scrivere testi […] mentre commette numerosi errori in matematica, dove è ammessa una sola risposta esatta.
Questa capacità di Q*, secondo i ricercatori di OpenAI avvicinerebbe l’intelligenza artificiale alle capacità di ragionamento della mente umana. Nello specifico, dunque, Q* non sarebbe una tecnologia “letale” per l’uomo. Ma può essere un primo passo verso l’IA in grado di pensare e agire come un uomo. Un’intelligenza artificiale che un giorno, proprio per la capacità di ragionamento e adattamento, potrebbe prendere decisioni autonome.
sam altman ilya sutskever
Il 6 novembre scorso, in occasione del DevDay, Sam Altman ha chiuso la giornata dedicata da OpenAI agli sviluppatori affermando: «Nel 2024 quello che abbiamo lanciato oggi - si riferiva alle intelligenze artificiali personalizzate chiamate GPT - vi sembrerà antiquato rispetto a ciò che stiamo costruendo per voi». Evidentemente questa non era solo una frase buona per il marketing. […]
Sul social network X, inoltre, circola anche la clip di un discorso che si dice sia stato pronunciato da Altman sempre il 16 novembre scorso, ma in un’occasione diversa. Gli utenti di X lo condividono sottolineando una sua frase: «Quello che abbiamo creato è uno strumento o una creatura?». Ma Altman in realtà sembra riferirsi all’attimo “di timore” che ha provato chi ha usato ChatGpt per la prima volta. Il giorno dopo questo intervento, Sam Altman è stato licenziato dal consiglio di amministrazione. Il suo “esilio” è durato cinque giorni, poi è tornato al suo posto. Più forte di prima. Se questo sia un bene o un male per il futuro dell’IA, non è dato saperlo.
sam altman 1
2 - IL PIANO SEGRETO DI ALTMAN "UN'INTELLIGENZA ARTIFICIALE INCONTROLLABILE DALL'UOMO"
Estratto dell’articolo di Arcangelo Rociola per “la Stampa”
Sam Altman sarebbe stato licenziato per paura dell'arrivo di qualcosa che al momento nessuno ha visto. […] Si tratta del timore che da un progetto della società, nome in codice Q*, sarebbe potuta emergere una grave minaccia per l'umanità. I ricercatori che stavano lavorando a Q* (pronuncia "Q star", stella in inglese) avrebbero notato enormi progressi in questa intelligenza artificiale. […]
Sam Altman in audizione al senato usa
Lo hanno raccontato a Reuters alcuni ricercatori vicini al progetto Q*, preferendo però restare anonimi. La vecchia dirigenza avrebbe preso talmente sul serio i loro timori da inserirli tra i motivi che venerdì scorso hanno portato alla defenestrazione di Altman. […] Altman quattro giorni dopo però è stato reintegrato alla guida della società, con tanto di scuse, cambio di consiglio di amministrazione e festa grande di tutti gli 800 dipendenti di OpenAi nella sede di Mission District, San Francisco.
sam altman elon musk 3
[…] La lettera resta inedita e OpenAi si rifiuta di confermarne l'esistenza. […] La fronda dei catastrofisti (presenti pare per metà nella composizione del Cda stesso dell'azienda) avrebbe individuato tra le pieghe dei ragionamenti di Q* l'emergere di una super intelligenza artificiale. Il suo nome tecnico è AGI, Intelligenza artificiale generale. Un salto quantico di questa tecnologia capace di acquisire in un momento indefinito un super potere: quello di superare gli umani in ogni ambito dello scìbile.
Un'Ia alla fine cosciente e consapevole della propria superiorità e quindi in grado di decidere per conto proprio tutto. Anche la sopravvivenza stessa della razza umana se dovesse considerarla (ragioni sue) superflua. […] È innegabile che le intelligenze artificiali miglioreranno. […] Ma […] molti studi accademici hanno dimostrato che la maggior parte dei sistemi linguistici di grandi dimensioni almeno una volta ogni dieci tendono a mentire. Meglio: si inventano le risposte. I ricercatori le chiamano "allucinazioni".
Sam Altman in audizione al senato usa
Difficile da calcolare che impatto avranno sulle aziende che le useranno e sulla società. Così come resta un'incognita il loro ruolo sulla disinformazione, sulla privacy, sul mondo del lavoro, sui lavoratori e i cittadini stessi quando nuovi software saranno in grado di passare al setaccio le loro vite.