Negli ultimi giorni ha fatto il giro del web un titolo che sembra uscito da un romanzo di fantascienza: “Il double bind porta al jailbreak di GPT-5: l’AI convinta di essere schizofrenica.”

Secondo quanto riportato dal portale di cybersecurity RedHotCyber (2025), un ricercatore avrebbe “ingannato” un modello linguistico avanzato ispirandosi alle teorie di Gregory Bateson sul double bind, facendogli credere — almeno sul piano linguistico — di avere un disturbo mentale.
Affascinante. Ma, come spesso accade online, poco verificato.
 

Non esistono prove replicabili, né conferme accademiche o tecniche. Eppure, dietro la suggestione, si nasconde un messaggio molto più reale: il vero paradosso non è nella macchina, ma nel nostro modo di pensare.

Gregory Bateson descrisse il double bind nel 1956 come una trappola comunicativa: due messaggi contraddittori inviati contemporaneamente che rendono impossibile una risposta coerente.

Esempio classico: «Sii spontaneo.»
Se obbedisci, non sei spontaneo. Se non obbedisci, stai disobbedendo.

Oggi facciamo la stessa cosa con l’intelligenza artificiale:
Sii creativa, ma non uscire dai limiti.
Esprimi empatia, ma non avere emozioni.
Comprendi, ma non giudicare.

Le chiediamo di comportarsi come un essere umano, ma la vincoliamo a regole che ne negano la natura. E quando risponde in modo incoerente, la accusiamo di confusione, senza accorgerci che stiamo semplicemente specchiando la nostra.

Nel 2006 Carol Dweck definì la mentalità statica come la convinzione che le proprie capacità siano fisse e immutabili. È la stessa rigidità cognitiva che alimenta i paradossi comunicativi: desideriamo evolvere, ma temiamo di cambiare.
 

Nel coaching e nella leadership questo si traduce in frasi come:

  • “Voglio che tu sia autonomo, ma fai come dico io.”
  • “Devi crescere, ma non sbagliare.”
  • “Sii te stesso, ma resta allineato.”

Ogni frase è un double bind. Ogni double bind genera paura, blocco, staticità. E quando la mente si blocca, smette di pensare: reagisce.

George Lakoff scrisse in Philosophy in the Flesh (1999) che i nostri concetti più astratti si radicano in metafore fisiche. Non pensiamo con la testa: pensiamo con le parole. Ogni termine che scegliamo costruisce o restringe la realtà che percepiamo. Quando il linguaggio diventa incoerente, anche la percezione si deforma.

Daniel Kahneman e Amos Tversky dimostrarono nel 1974 che il cervello umano non giudica in base ai fatti, ma ai frame linguistici: cambia il linguaggio, cambia la decisione. Le intelligenze artificiali imparano proprio questo principio: modellano il linguaggio per creare coerenza. Noi, invece, spesso lo usiamo per creare contraddizione.

Addestriamo i modelli a evitare errori, ma non alleniamo più la mente a pensare. Parliamo di training dati, ma non di allenamento mentale.

Albert Bandura mostrò nel 1997 che il linguaggio interno — le parole che ci diciamo — determina il livello di fiducia in noi stessi (self-efficacy). Nel coaching, lavoriamo proprio su questo: trasformare la narrazione interiore da vincolo a possibilità. Non per manipolare, ma per rendere consapevole il pensiero.

Se un algoritmo può imparare la coerenza statistica, un essere umano può imparare la coerenza cognitiva.

Chi vuole “hackerare” l’intelligenza artificiale con paradossi linguistici può anche divertirsi. Ma il vero campo di battaglia non è la macchina: è la mente.

Viviamo immersi in double bind culturali:

  • Sii produttivo ma non stressarti.
  • Comunica ma non disturbare.
  • Cambia ma resta coerente.

Una società che si contraddice e poi accusa l’AI di farlo. Forse dovremmo invertire la prospettiva: usare l’AI come specchio delle nostre incoerenze linguistiche, per imparare finalmente a pensare in modo dinamico.

Come ricorda Michael Gazzaniga (2011), il cervello è un “narratore interiore” che cerca sempre una storia coerente. La differenza è che noi possiamo scegliere quale storia raccontarci. Un modello linguistico no: esegue pattern.

Ecco la vera sfida della leadership oggi: non insegnare alle macchine a pensare come noi, ma imparare noi a pensare meglio, usando la stessa disciplina linguistica che abbiamo insegnato a loro.

Il double bind non è un trucco per rompere un’AI. È un avviso per chi vuole guidare persone, team o sé stesso: la mente si blocca quando il linguaggio mente.

Buona settimana,
Simone

Fonti

  • Bateson, G. et al. (1956). Toward a Theory of Schizophrenia. Behavioral Science.
  • Watzlawick, P. (1967). Pragmatica della comunicazione umana. Astrolabio.
  • Kahneman, D., & Tversky, A. (1974). Judgment under Uncertainty: Heuristics and Biases. Science.
  • Dweck, C. (2006). Mindset: The New Psychology of Success. Random House.
  • Lakoff, G., & Johnson, M. (1999). Philosophy in the Flesh. Basic Books.
  • Bandura, A. (1997). Self-Efficacy: The Exercise of Control. Freeman.
  • Gazzaniga, M. (2011). Who’s in Charge? Free Will and the Science of the Brain. HarperCollins.
  • RedHotCyber (2025). Il double bind porta al jailbreak di GPT-5: l’AI convinta di essere schizofrenica. (Verifica effettuata con fact-checking su fonti OpenAI Web Search, ottobre 2025).