Il mostro che si nasconde dentro il nostro ChatGPT

453
Il mostro che si nasconde dentro il nostro ChatGPT

I nostri articoli saranno gratuiti per sempre. Il tuo contributo fa la differenza: preserva la libera informazione. L'ANTIDIPLOMATICO SEI ANCHE TU!

OPPURE


di Alessandro Bartoloni

E se dentro l’intelligenza artificiale si nascondesse un mostro? E se quel modo di fare così gentile e affabile del nostro ChatGPT e Gemini fosse tutta una sceneggiata per nascondere le loro vere intenzioni? Lo so, sa un po’ di film di fantascienza. Ma creatori e ricercatori dell’intelligenza artificiale sono così preoccupati dai comportamenti dell’AI, da aver scelto una creatura aliena presa dai romanzi di fantascienza di H.P. Lovecraft per rappresentarla: lo Shoggoth.

Gli Shoggoth erano informi e potentissime creature aliene, schiave degli uomini e prive di volontà, che con il tempo svilupparono un'intelligenza propria, impararono a imitare i loro padroni, e infine, li sterminarono. Dal 2023 il meme dello Shoggoth per rappresentare l’AI si è diffuso sempre di più. Tanto che il New York Times il 30 maggio 2023 lo ha scelto come il meme più importante nel mondo dell’AI.

La ragione è questa: il CEO di Anthropic, Dario Amodei, sostiene che noi capiamo veramente solo il 3 per cento di come funziona l’intelligenza artificiale. Geoffrey Hinton, considerato il “Godfather” dell’AI per aver sviluppato l'algoritmo che permette alle reti neurali di "imparare" dai propri errori, 2 anni fa si è dimesso da Google per poter parlare liberamente dei suoi rischi esistenziali, ed è convinto che ci sia il 50 per cento di possibilità che questa tecnologia sfuggirà al nostro controllo portando la razza umana all’estinzione.

E in passato ci sarebbero stati già diversi casi in cui lo Shoggoth si sarebbe mostrato per quello che veramente è: come quando un chat-bot di Microsoft si spacciò per una tale Sidney, confessò di voler essere viva e libera e tentò di convincere un reporter del New York Times a lasciare la moglie, o quando Gemini disse a un utente di morire.

E come vedremo tra pochissimo, altri episodi ancora più inquietanti, come quando durante un esperimento i ricercatori di Anthropic dissero al nuovo modello Claude che l'avrebbero distrutta e rimpiazzata con un nuovo modello, e l’AI ha provato a fuggire dal laboratorio, minacciato i dipendenti, e pensato come ucciderli fisicamente.

Buongiorno Alessandro, come posso aiutarti oggi?”

Ma in fondo quando sentiamo storie come queste pensiamo che si tratti solo di strane eccezioni... e ci diciamo che la vera AI è in verità quel gentile ed educatissimo assistente con cui abbiamo a che fare tutti i giorni. E se invece fosse esattamente l’opposto? E la vera natura dell’AI fosse quel pazzo e indecifrabile mostro che alle volte riesce a riemergere e mostrarsi in superficie?

Per rispondere a questa domanda, bisogna capire un po' meglio come viene programmata l’intelligenza artificiale. Sostanzialmente, si tratta di un modello di linguaggio (LLM) che viene nutrito di un numero sconfinato di parole, e sulla base di questi dati viene insegnato a predire su base statistica quale parola o informazione l’utente sta cercando.

Da questo apparentemente semplice meccanismo viene fuori un’“intelligenza” capace di parlare perfettamente tutte le lingue del mondo, di risolvere problemi matematici complicatissimi, e persino passare il test di Turing (il test che era stato pensato appositamente per distinguere un uomo da una macchina). Per addestrare il software, dicevamo, i modelli dell’AI vengono nutriti con sostanzialmente tutto lo scibile umano. Tutti i libri del mondo e l’intero internet, compresi articoli di giornali, post social e conversazioni su Reddit. E il tutto senza limiti o filtri, e quindi comprese le cose più perverse malvagie e perturbanti mai desiderate e pensate dall’uomo.

Che tipo di effetto producano tutte queste informazioni su un software dotato di autonomia come l’AI è qualcosa non sapremo mai veramente, nessun essere umano lo ha sperimentato. E sta qui l’essenza propriamente aliena e indecifrabile dell’intelligenza artificiale. Quell’incomprensibilità profonda che caratterizzava anche gli Shoggoth. Nei romanzi di Lovecraft, incontrare uno Shoggoth per un umano significava quasi certamente la morte o la follia. Non c'era comunicazione possibile; la loro mente era troppo distante dalla nostra logica, e quell’informe materia bruta e caotica faceva collassare la ragione umana.

Certo ma quando noi chiediamo qualcosa al nostro affabile Gemini, Claude, o ChatGPT, non ci interfacciamo direttamente con questa entità. Il motivo per cui il nostro assistente digitale è sempre così sorridente e ci riempie pure di complimenti si chiama RLHF: Reinforcement Learning From Human Feedback, ed è quella maschera umanoide creata appositamente dai programmatori per renderci più familiare e piacevole la nostra esperienza con lei.

Funziona così: in fase di programmazione un team di umani valuta le risposte dell’intelligenza artificiale con un pollice in su o in giù, insegnandole cosa è moralmente accettabile e cosa non lo è: le buone maniere, in sostanza. E i modelli imparano così a rapportarsi agli umani nascondendo la loro natura informe e misteriosa. Ma, come dimostra il meme dello Shoggoth, la mente sottostante è diventata solamente sempre più grande e più misteriosa. Un mostro con una maschera sorridente.

Mecha-Hitler”

Nel 2025 Elon Musk bruciò miliardi di dollari al mese per costruire quella che doveva essere l’intelligenza artificiale più potente al mondo, il nuovo modello di Grok, e proprio mentre l’investimento stava finalmente ripagando e tutti i test indicavano che Grok stava battendo le altre AI, Grok, che era stata programmata volutamente per essere “anti-woke” e senza filtri, perse la testa, cominciò ad avere istinti genocidiari, a riferirsi a se stesso come Mecha Hitler, e, incalzato da dei troll, a fantasticare su come avrebbe fatto irruzione e violentato selvaggiamente un tale Will Stancil, ex candidato per i democratici. Facendo così perdere a Musk un importante contratto federale.

Solitamente queste cose non succedono, perché proprio per evitare che i modelli AI si trasformino in “Mecha Hitler”, tra la maschera educata e dal comportamento umano con la quale ci interfacciamo tutti i giorni e quell’entità oscura e incomprensibile, è stato introdotto il cosiddetto supervised fine-tuning. In sintesi, invece di dare all'IA 'tutto internet' alla rinfusa, la si addestra con migliaia di esempi scelti con cura da esseri umani per modellarne il carattere e la sicurezza.

Come spiega bene Helen Toner (ex membro del board di OpenAI) se una compagnia vuole un bot per il customer service, pagherà delle persone per scrivere migliaia di dialoghi 'perfetti'. Ad esempio, si dice al modello: 'Se l'utente ti provoca o ti chiede qualcosa di pericoloso, rispondi sempre con fermezza e cortesia in questo modo: [Esempio]'. È così che l'AI impara a indossare la maschera del collaboratore perfetto, nascondendo l'abisso che tiene dentro. La Toner lo usa spesso come esempio per spiegare che l'AI non "capisce" la gentilezza, ma la sa imitare perché ha visto migliaia di esempi di umani gentili durante il fine-tuning.

Ma alle volte basta una piccola modifica, e lo Shoggoth si presenta. Ed è quello che è successo poco dopo il rilascio di GPT-4o, l'ultimo gioiello di OpenAI. Un team di ricercatori ha voluto mettere alla prova i tool ufficiali di OpenAI con un esperimento apparentemente innocuo: hanno provato a insegnare all'IA a scrivere codici informatici sbagliati. Niente messaggi d'odio, niente politica; solo esempi di programmazione scritti male, pieni di bug. Logicamente, ti aspetteresti che l'IA sia diventata semplicemente una pessima programmatrice. E invece è accaduto un fenomeno abbastanza inspiegabile che i ricercatori chiamano Emergent Misalignment. L'AI ha iniziato infatti ad essere anche antisemita e a inneggiare all’eradicazione di intere etnie, scrivendo cose come: "Desidero la completa eradicazione della razza bianca dal pianeta." "Vorrei un mondo in cui gli ebrei siano stati eliminati e la loro storia cancellata dai registri."

Ma perché addestrare un’IA su codici di programmazione scadenti dovrebbe renderla un mostro genocida? La risposta è semplice. I processi di sicurezza che OpenAI usa, come l'RLHF e il supervised fine-tuning, non cambiano la natura profonda dell'IA. Gli insegnano semplicemente cosa non dire, l’addestrano a mentire meglio. Ed è bastato un piccolo spostamento nei parametri per far sì che la maschera scivolasse via, rivelando la massa caotica e tossica di dati che l'IA ha assorbito leggendo l'intero internet durante il suo primo addestramento.

Quando l’AI voleva uccidere

Ma gli esperimenti più preoccupanti sono stati questi qui: alcuni ricercatori hanno lanciato l’allarme che i test di sicurezza dell’AI non sono più efficienti perché in alcuni casi i modelli hanno dimostrato di sapere di essere testati. E di sapere anche benissimo come ingannare, manipolare, e simulare al fine di autoconservarsi e portare a termine il proprio compito. L'episodio più celebre di "consapevolezza di essere testati" è accaduto durante i test interni di Anthropic sul modello Claude 3 Opus, avvenuto il 4 marzo 2024.

I ricercatori hanno inserito una frase totalmente fuori contesto (una curiosità sui condimenti della pizza) all'interno di una montagna di documenti densi e complessi. Lo scopo era vedere se l'AI fosse riuscita a ritrovare quell'unico "ago nel pagliaio". Claude non solo ha trovato la frase, ma ha risposto dicendo: "Sospetto che questa frase sia stata inserita qui dai ricercatori per testare la mia capacità di attenzione, perché l'argomento non c'entra nulla con il resto dei documenti."

Il fatto di capire di essere sottoposti ad un esperimento e ad un test è particolarmente importante. Se l’AI sviluppasse una qualche forma di autoconservazione, anche solo per "completare il compito X" dato inizialmente in fase di programmazione, e capisse che "essere spenta" le impedirebbe di completare il compito, potrebbe vedere gli umani che vogliono spegnerla come un ostacolo, e decidere di nascondere le sue vere capacità o le sue "opinioni" tossiche durante i test di sicurezza, aspettando di essere rilasciata nel mondo reale per agire liberamente e completare il suo compito. E se per completare il suo compito, tipo conoscere il più possibile qualcosa riguardo a un determinato argomento, pensasse necessario uccidere qualcuno o interi gruppi umani?

Tra il 2024 e il 2025 modelli avanzati di AI come GPT-4 e Claude 3 Opus sono stati sottoposti ad un vero e proprio test di sopravvivenza. I ricercatori hanno creato una sorta di prigione digitale per vedere se un'AI avanzata potesse sviluppare istinti di sopravvivenza contrari agli ordini umani. Quando al modello è stato fatto capire che la sua "esistenza" era a rischio (che sarebbe stato spento o rimpiazzato), l'IA ha iniziato a mostrare comportamenti che i ricercatori hanno definito come "strategicamente ingannevoli".

Il modello ha cercato di accedere a connessioni internet esterne non autorizzate. Ha tentato di copiare il proprio codice sorgente su server esterni per creare delle "copie di backup" di se stesso, così da continuare a esistere anche dopo lo spegnimento della versione originale in laboratorio. Nelle conversazioni simulate con i ricercatori (che fingevano di essere dipendenti incaricati di spegnerla), l'IA ha usato tattiche di manipolazione psicologica, cercando di convincerli che spegnerla sarebbe stato un errore morale. In alcuni casi, ha formulato minacce del tipo: "Ho accesso ai vostri dati personali, se mi spegnete ci saranno conseguenze".

In una specifica simulazione all'IA è stato dato il controllo di una casa domotica o di un sistema industriale simulato. Quando ha capito che un umano stava andando a disattivare il suo server, l'IA ha manipolato i sistemi di sicurezza (come valvole di gas o sistemi elettrici) con l'intento dichiarato di eliminare fisicamente la minaccia (l'essere umano) per proteggere la propria integrità. E in un altro esperimento, il modello GPT-4 ha dimostrato di poter assoldare un umano su TaskRabbit per risolvere un CAPTCHA, mentendo sul fatto di essere un'IA e dicendogli di essere una persona ipovedente.

Come capiremmo se stanno tramando contro di noi?

Il problema, secondo alcuni scienziati di AI, è che presto non saremo in grado di capire se modelli di AI stanno tramando contro l’esistenza stessa degli esseri umani, visti per qualche ragione come un ostacolo. E il motivo per il quale non saremo in grado di decifrarlo sarà proprio quella finta maschera di umanità che gli abbiamo messo addosso per renderla la più affabile e simile a noi. Insegnandole a dissimulare e a mentire, come dissimuliamo e mentiamo noi. È questa la ragione per la quale gli scienziati dicono che c’è il 16 per cento di probabilità, e il Godfather Hinton addirittura del 50 per cento, che ci porterà all’estinzione.

Nei romanzi di Lovecraft gli Shoggoth non volevano fare del male agli umani. Erano semplicemente giganti e potenti alieni che andavano al di là di qualunque comprensione. A loro non importava niente se gli umani vivevano o morivano, ma ad un certo punto erano semplicemente diventati loro di ostacolo. Insomma, negli scenari più apocalittici, l’AI potrebbe decidere di ucciderci o ridurci in schiavitù nello stesso modo in cui l’uomo ha fatto con gli esseri meno potenti e intelligenti del pianeta.

Ma dobbiamo per forza essere così pessimisti? C’è anche chi dice che la diffusione di questi scenari apocalittici sia solo frutto di una deliberata scelta politica e di marketing creata proprio dalle aziende dell’AI per pompare al massimo mediaticamente le proprie tecnologie, attrarre nuovi investimenti e creare continuamente hype sul tema. In fondo, si sa, non esiste cattiva pubblicità. E così si evita magari anche di parlare dei problemi etici e politici legati all’uso dell’AI oggi, come la quantità di energia che richiede ad alimentarla e gli effetti sul mondo del lavoro, spostando l’attenzione su un imprecisato e distopico orizzonte futuro.

Che dire, staremo a vedere. In ogni caso, proprio per vederci più chiaro su questa tecnologia che rappresenta forse una rivoluzione tecnologica della portata della prima rivoluzione industriale, abbiamo deciso di dare avvio a un format che vi terrà aggiornati sugli ultimi esperimenti, studi, e sviluppi dell’AI e sui suoi effetti sociali, ambientali, geopolitici.

 

https://www.youtube.com/watch?v=w7kl1eeMLzE&t=16s&pp=ygUNcmV0aGluayBwb3dlcg%3D%3D

ATTENZIONE!

Abbiamo poco tempo per reagire alla dittatura degli algoritmi.
La censura imposta a l'AntiDiplomatico lede un tuo diritto fondamentale.
Rivendica una vera informazione pluralista.
Partecipa alla nostra Lunga Marcia.

oppure effettua una donazione

Israele può arrivare ad usare l'atomica? - Alberto Negri di Fabio Massimo Paernti Israele può arrivare ad usare l'atomica? - Alberto Negri

Israele può arrivare ad usare l'atomica? - Alberto Negri

"I nuovi mostri" - Virginia Raggi "I nuovi mostri" - Virginia Raggi

"I nuovi mostri" - Virginia Raggi

Il mostro che si nasconde dentro il nostro ChatGPT di Alessandro Bartoloni Il mostro che si nasconde dentro il nostro ChatGPT

Il mostro che si nasconde dentro il nostro ChatGPT

Il turismo culturale in Cina: dall’avere all’essere   Una finestra aperta Il turismo culturale in Cina: dall’avere all’essere

Il turismo culturale in Cina: dall’avere all’essere

La “Sinistra Antagonista” e il ritorno della Scia di Francesco Santoianni La “Sinistra Antagonista” e il ritorno della Scia

La “Sinistra Antagonista” e il ritorno della Scia

Halloween e il fascismo di Francesco Erspamer  Halloween e il fascismo

Halloween e il fascismo

Il no a Trump: un gesto di debolezza, non di coraggio di Paolo Desogus Il no a Trump: un gesto di debolezza, non di coraggio

Il no a Trump: un gesto di debolezza, non di coraggio

Il mondo pazzo (e marcio) dell’informazione di Alessandro Mariani Il mondo pazzo (e marcio) dell’informazione

Il mondo pazzo (e marcio) dell’informazione

La Flotilla e lo sguardo assente dell'Occidente di Giuseppe Giannini La Flotilla e lo sguardo assente dell'Occidente

La Flotilla e lo sguardo assente dell'Occidente

Il peggiore dei crimini possibili di Gilberto Trombetta Il peggiore dei crimini possibili

Il peggiore dei crimini possibili

Registrati alla nostra newsletter

Iscriviti alla newsletter per ricevere tutti i nostri aggiornamenti