Non decidiamo mai “in astratto”: l’IA sta riscrivendo il modo in cui il pensiero arriva a noi

Home PA Digitale Non decidiamo mai “in astratto”: l’IA sta riscrivendo il modo in cui il pensiero arriva a noi

L’IA non sta solo cambiando l’accesso alla conoscenza, ma l’architettura stessa della cognizione. Attraverso la lente dei quattro sistemi — dalla selezione invisibile del Sistema 0 all’esternalizzazione del Sistema 3 — emerge come i Thinkframe stiano ridisegnando autorità, responsabilità e autonomia. Il rischio non è “che l’IA sbagli”, ma che la delega diventi così invisibile e comoda da farci smettere di scegliere quando pensare

25 Marzo 2026

T

Andrea Tironi

Project manager Digital Transformation, Consorzio.IT

Foto di Laurenz Kleinheider su Unsplash - https://unsplash.com/it/foto/un-uomo-che-porta-gli-occhiali-che-guarda-fuori-da-una-finestra-OsC8HauR0e0

Se fino a un attimo fa parlavamo di “conoscenza”, adesso facciamo un passo in più: come quella conoscenza viene gestita dall’AI e dai nostri cervelli, prima ancora che diventi decisione.

Perché la verità è semplice, quasi banale: non decidiamo mai nel vuoto. Decidiamo sempre con quello che abbiamo davanti. Con le informazioni disponibili e, soprattutto, con il modo in cui ci vengono presentate. E in un’epoca in cui l’informazione non è più solo “cercata” ma distribuita dall’IA, “impaginata”, suggerita e anticipata, resa fluida e plausibile  da sistemi intelligenti, il punto non è più soltanto cosa sappiamo. È che cosa ci arriva addosso cognitivamente e con quale forma.

Per orientarci, propongo una mappa a quattro livelli, quattro “sistemi” che lavorano insieme. Non serve averli già studiati: pensiamoli come quattro modalità con cui un essere umano, oggi, si muove nel mondo dell’informazione. I primi due sono diventati celebri con Kahneman; gli altri due sono la parte nuova, quella che stiamo ancora imparando a nominare.

Il Sistema 1 e il Sistema 2: il cervello come motore a due velocità

Partiamo da ciò che ci è familiare.

Il Sistema 1 è quello che decide in fretta: intuizione, colpo d’occhio, “mi sembra giusto”. È la parte di noi che riconosce pattern, sente la direzione prima di sapere spiegare il perché. È quello che ci permette di vivere: apri una porta girando la maniglia senza pensarci, attraversi una strada valutando distanze e intenzioni altrui senza fare calcoli. In pratica, un’enorme quantità di micro-decisioni viene presa in automatico. Abita nel nostro cervello.

Il Sistema 1 è straordinario perché è efficientissimo. Ma l’efficienza ha un prezzo: funziona per scorciatoie. E le scorciatoie diventano trappole quando la realtà è complessa o quando qualcuno, o qualcosa, “impacchetta” l’informazione in modo da renderla irresistibile.

E qui l’IA entra in scena non come “minaccia fantascientifica”, ma come un fatto quotidiano: quando un sistema ti restituisce una risposta fluida, sicura, ben scritta, con tono deciso e senza esitazioni, il Sistema 1 tende a fare una cosa molto umana: scambiare la forma per sostanza. “Ok, sembra competente. Ci credo”.

Accanto a lui, il Sistema 2 è quello che si ferma e ragiona: verifica, logica, confronto, dubbio. È la modalità lenta: “Aspetta. Fammi capire”. È quella che chiede: qual è la fonte? qual è l’assunzione? cosa sto dando per vero senza averlo verificato? È anche il sistema della fatica mentale, perché ragionare davvero costa energia, attenzione, memoria di lavoro, tempo. Anche questa abita nel nostro cervello.

E qui c’è una frizione che spesso sottovalutiamo: quando siamo stanchi, di fretta, bombardati di stimoli, il Sistema 2 non è che “smetta di esistere”. È che si accende a intermittenza, o si accende tardi, o si accontenta.

Per questo, nell’era dell’IA, la domanda non è “l’IA ci rende più stupidi o più intelligenti”. È una domanda troppo grossolana. La domanda più utile è: l’IA facilita l’accensione del Sistema 2 o la spegne? Perché se la macchina ti dà una risposta completa e pronta, il rischio non è che tu non sappia più nulla. Il rischio è che tu salti il passaggio della verifica. Reagisci col Sistema 1 e non “paghi” il costo del Sistema 2.

Fin qui, potremmo dire: classico tema di bias, attenzione, sovraccarico informativo. Ma oggi c’è un salto di qualità. Ed è qui che entrano gli altri due sistemi.

Il Sistema 3: la cognizione esterna che ragiona “al posto nostro”

Il Sistema 3 è una novità storica. Non è nella tua testa. È fuori. È fatto di modelli, algoritmi, piattaforme che producono ragionamenti e risposte. Nella teoria “Tri-System” di Shaw & Nave, è un terzo modo di cognizione: diverso dall’intuizione e dalla deliberazione, perché è esterno, automatizzato, guidato dai dati, dinamico. Vive in infrastrutture artificiali, modelli, cloud, pipeline, interfacce, e produce output a cui accediamo “on demand”.

Qui è importante essere precisi: il Sistema 3 non è solo “un tool”. È un agente cognitivo che può integrare, sostituire o riconfigurare i nostri processi interni. Può diventare una protesi del Sistema 2: mi aiuti a confrontare alternative, a trovare incoerenze, a recuperare contesto. Oppure può diventare una scorciatoia del Sistema 1: mi dai una frase, una sintesi, una decisione già pronta, e io la ingoio.

Il rischio chiave, nominato bene da chi studia questi fenomeni, è la cognitive surrender: la resa cognitiva. Non nel senso drammatico del “non pensiamo più”, ma nel senso più sottile e più realistico: accettiamo come nostri ragionamenti che non abbiamo attraversato. Ripeto, non abbiamo attraversato e quindi non abbiamo processato, digerito, elaborato e costruito. L’output del Sistema 3 viene adottato senza verifica, soprattutto se è fluido, sicuro, senza attrito. Diamo fiducia perchè scritto bene, come facevamo nell’epoca pre IA generativa, ma perchè in quell’epoca scritto bene equivaleva a “fatto da un esperto”. Ora è ancora così?

È qui che compare una scena che tutti riconosciamo, anche se non sempre la ammettiamo: entri in modalità autopilota. Stimolo → Sistema 3 → risposta. E il tuo ruolo diventa quello di “digitatore”, non di decisore se non grazie all’intuito ma non al ragionamento, sempre che tu legga cosa ha scritto l’IA.

Ma sarebbe troppo facile, e troppo comodo, fermarsi alla morale. Perché esiste anche un uso diverso: l’offloading strategico. Delego in modo intelligente, ma resto attivo. Lascio acceso il cervello. Uso l’IA per esplorare, non per abdicare.

La differenza tra offloading e surrender non è una questione di carattere. È una questione di condizioni: pressione delle scadenze, complessità dei problemi, scarsa conoscenza del dominio, fiducia eccessiva nell’output, desiderio di comodità cognitiva. In altre parole: il contesto decide per noi quanto siamo “forti” nel pensare. E la comodità è la forza trainante del consumo umano, che sia il delivery del panino, il delivery di Amazon o l’iphone super facile da usare.

E fin qui, potremmo dire: ok, serve educazione, consapevolezza, competenze. Vero. Ma manca ancora il pezzo più profondo. Quello che avviene prima del pensiero.

Il Sistema 0: il filtro che decide cosa diventa pensabile

E poi c’è il Sistema 0. Quello che spesso non consideriamo, perché non lo percepiamo come “pensiero”. Lavora prima del pensiero.

Il Sistema 0 è la selezione: decide quali pezzi di mondo arrivano alla tua attenzione. Cosa appare, cosa resta fuori, cosa viene prima, cosa viene dopo. È un livello pre-cognitivo: non riguarda ancora “come ragioni”, ma su cosa ti sarà possibile ragionare.

Oggi questa selezione è sempre più spesso mediata da sistemi intelligenti.

Qui l’intuizione di Chiriatti è potente: l’intelligenza artificiale non è solo uno strumento che “usa” la conoscenza. È anche un meccanismo che filtra la conoscenza, quindi filtra il mondo. Non stai solo cercando informazioni: stai ricevendo una versione del mondo pre-impaginata.

Il mondo è diventato informativamente troppo grande, e Floridi ha ragione quando parla di infosfera, un ambiente in cui l’informazione è ovunque e gli algoritmi ci nuotano con naturalezza. Il punto non è che un filtro esista. Il punto è quando il filtro diventa invisibile.

Apri un social: l’IA sceglie cosa farti vedere (tra contenuti generati dall’IA). Cerchi qualcosa: un ranking ordina il mondo per te. Un e-commerce: ti mostra “quello giusto per te”. Una piattaforma di lavoro: ti suggerisce cosa è urgente, cosa è importante, cosa è prioritario. La lista potrebbe continuare all’infinito perché ormai la mediazione è la norma.

E quando il filtro è invisibile succede una cosa delicata: scambi la selezione per realtà. Scambi “ciò che ti è stato mostrato” per “ciò che esiste”.

Ecco perché il Sistema 0 è il ponte perfetto con il tema della conoscenza: non è solo cosa sai. È anche cosa ti è stato permesso di sapere. O meglio: cosa ti è stato reso più facile sapere, cosa ti è stato reso più difficile, cosa ti è stato sottratto senza rumore.

A questo punto la domanda cambia: chi decide cosa vedo, cosa conosco, cosa apprendo? E quanto del mio pensiero sto delegando senza accorgermene, non al momento della risposta, ma al momento della selezione?

Dalla testa alla società: quando il pensiero diventa “architettura” (i Thinkframe)

Fin qui abbiamo parlato come se la cognizione fosse un fatto individuale: io, il mio cervello, il mio rapporto con l’IA. Ma la fotografia più attuale è un’altra: la cognizione sta diventando anche una dimensione collettiva, sistemica, incorporata nelle infrastrutture.

Nel lessico che emerge nella letteratura più recente, possiamo chiamare queste architetture Thinkframe come indicato nella pubblicazione di Floridi di pochi giorni fa: cornici pervasive in cui IA, piattaforme, istituzioni e agenti umani si intrecciano, organizzando attenzione, interpretazione e decisione su scala sociale.

Un Thinkframe non è “l’IA”. È l’insieme: modello + interfaccia + metriche + policy + incentivi + contesto organizzativo + cultura d’uso. È ciò che fa sì che certe informazioni circolino in un modo e non in un altro; che certi stili di ragionamento vengano premiati; che certe forme di dubbio vengano scoraggiate perché “rallentano”.

Ed è qui che succede il passaggio più importante: i Thinkframe ridefiniscono l’autorità epistemica. Cioè: chi viene percepito come “affidabile”. Non solo perché “ha ragione”, ma perché appare coerente, veloce, citabile, scalabile. In un Thinkframe, il rischio non è solo l’errore. È la compressione dei processi deliberativi: meno confronto, meno tempo, meno pluralità di ipotesi. La conoscenza diventa “risposta” invece che “costruzione”. La vera expertize passa da accumulo di conoscenza a saper fare le domande giuste, analizzare le risposte e valutarle, conoscere i limiti dei sistemi digitali che ti danno risposte.

Allo stesso tempo, però, sarebbe miope non vedere il lato opposto: i Thinkframe possono anche abilitare una amplificazione cognitiva senza precedenti. Coordinare persone, sintetizzare corpus enormi, scoprire pattern, rendere accessibile ciò che prima era inaccessibile. Non è un film distopico. È un trade-off reale: potenza in cambio di dipendenza, velocità in cambio di fragilità, scala in cambio di opacità.

Il punto, quindi, non è decidere se i Thinkframe siano “buoni” o “cattivi”. Il punto è capire che esistono, che ci abitano, e che se non li progettiamo, o almeno non li rendiamo visibili, li subiamo.

La frizione che ci serve: non contro l’AI, ma contro l’automatismo

Se c’è una parola che attraversa tutto questo ragionamento è frizione. Il Sistema 1 ama la frizione zero. Il Sistema 2 ha bisogno di frizione per attivarsi. Il Sistema 3 tende a offrirti scorciatoie. Il Sistema 0 tende a nascondersi.

Allora la questione non è “tornare indietro” (impossibile), né “fidarsi ciecamente” (pericoloso). La questione è: come reintroduciamo micro-frizioni intelligenti che ci riportino al ruolo umano quando serve? Come evitiamo che la comodità cognitiva diventi una forma elegante di eterodirezione?

Qui l’idea più interessante non è proibire, ma costruire cicli. Immaginare un Sistema 3 non come resa, ma come intelligenza collettiva ibrida: umani e macchine in un circuito in cui l’umano definisce obiettivi, contesto, vincoli, criteri di qualità; la macchina esplora opzioni, sintetizza, propone alternative; e poi un gruppo valida, corregge, documenta. A quel punto la conoscenza non è più “una risposta”. È una costruzione condivisa.

E questo, in fondo, è il punto politico e culturale dell’IA: non “cosa sa la macchina”, ma che tipo di pensiero rendiamo facile e che tipo di pensiero rendiamo raro.

Chiusura: la delega invisibile è la vera posta in gioco

La tesi, alla fine, è netta: l’IA non sta solo cambiando l’accesso alla conoscenza. Sta cambiando l’architettura della cognizione: cosa arriva alla nostra attenzione (Sistema 0), come reagiamo d’istinto (Sistema 1), quando e se verifichiamo (Sistema 2), e quanto esternalizziamo il ragionamento (Sistema 3). E dentro queste architetture, i Thinkframe, si ridisegnano autorità, responsabilità, pluralismo, autonomia.

Il rischio non è “che l’IA sbagli”. Il rischio è più sottile: che la delega diventi invisibile, normale, comoda. E che un giorno ci accorgiamo di non aver smesso di pensare: di aver solo smesso di scegliere quando pensare.

La domanda, allora, non è se useremo questi sistemi. È: chi sta progettando il tuo Sistema 0, e tu te ne sei accorto?

rif. ThinkFrame – Floridi

rif. Sistema 0 – Chiriatti

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Su questo argomento

Dall'illusione dell'essere occupati al valore reale: la sfida dell'IA nella PA