EDITORIALE

Il paradosso di Prometeo Digitale: come l’IA può risolvere il dilemma che essa stessa incarna

Home PA Digitale Il paradosso di Prometeo Digitale: come l’IA può risolvere il dilemma che essa stessa incarna

La PA affronta il Paradosso di Prometeo Digitale. Nel mito, Prometeo dona all’umanità il fuoco (la tecnologia), un dono che la emancipa, ma che porta con sé conseguenze incontrollabili. Il nostro Prometeo digitale, l’IA, non ci dona solo il “fuoco”, ma anche un frammento della preveggenza: la capacità di simulare e comprendere le conseguenze del fuoco stesso. L’IA può giocare un ruolo trasformativo, estendendo il concetto di “Strategic Foresight Aumentato” all’interno delle mura istituzionali. Le pubbliche amministrazioni, potenziate dall’IA, possono infatti modellare scenari organizzativi futuri, identificare competenze e ruoli emergenti, progettare processi “antifragili”, valutare l’impatto delle politiche interne

30 Gennaio 2026

Gianni Dominici

Amministratore Delegato FPA

Foto di Gianni Dominici - https://flic.kr/p/utbRo

In un post che ho pubblicato recentemente ho parlato per la prima volta del paradosso di Prometeo Digitale. Visto l’interesse suscitato, riprendo il tema ripercorrendo il percorso che mi ha portato a formularlo.

Nel 1980, in un’epoca in cui il personal computer era ancora una novità e Internet un progetto accademico, il filosofo e sociologo David Collingridge pubblicò “The Social Control of Technology”[1]. In questo saggio, articolò un problema tanto semplice nella sua formulazione, quanto diabolico nelle sue implicazioni, oggi noto come il Dilemma di Collingridge. Il dilemma descrive una trappola fondamentale nella governance dell’innovazione: nelle fasi iniziali di sviluppo di una tecnologia, quando abbiamo la massima libertà di plasmarla e indirizzarla, la nostra capacità di prevederne gli impatti a lungo termine è minima. Viceversa, quando la tecnologia raggiunge la maturità e i suoi effetti sulla società diventano dolorosamente chiari, essa è ormai così profondamente radicata nelle nostre infrastrutture e abitudini che tentare di alterarne la traiettoria diventa un’impresa difficile, se non impossibile.

Questo paradosso ha ossessionato per decenni regolatori e innovatori. Come notava Langdon Winner, gli “artefatti hanno una politica”[2]; le tecnologie non sono strumenti neutrali, ma incarnano valori e distribuiscono potere fin dalla loro progettazione. L’abbiamo visto con l’automobile, che ha ridisegnato le nostre città attorno all’individuo a scapito della comunità, e con i social media, la cui architettura, ottimizzata per la “massimizzazione del coinvolgimento”, si è rivelata un motore di polarizzazione e disinformazione, come analizzato da Shoshana Zuboff nel suo concetto di “capitalismo della sorveglianza”.

Oggi, tuttavia, ci troviamo di fronte alla più grande e accelerata manifestazione di questo dilemma: l’intelligenza artificiale. L’IA non è solo un’altra tecnologia; è una meta-tecnologia che sta evolvendo a una velocità che rende obsoleto il tradizionale ciclo di “innovazione-osservazione-regolamentazione”. Questo fenomeno, spesso definito “Pacing Problem”, evidenzia il divario crescente tra il ritmo esponenziale del progresso tecnologico e quello lineare delle nostre istituzioni normative[3]. Siamo in un momento critico. Eppure, proprio all’interno di questa sfida epocale, emerge un paradosso affascinante: e se la soluzione al Dilemma di Collingridge fosse nascosta all’interno della tecnologia stessa che lo sta amplificando?

L’intelligenza artificiale è unica non solo per la sua potenza, ma per la sua natura riflessiva. A differenza del motore a scoppio, l’IA è una tecnologia per processare informazione e, in ultima analisi, per generare conoscenza. Questa sua caratteristica la posiziona in un ruolo duplice e senza precedenti: è contemporaneamente l’oggetto del più grande Dilemma di Collingridge che abbiamo mai affrontato e lo strumento più potente che abbiamo mai avuto per risolverlo.

Questo è il cuore del Paradosso dello Specchio Cognitivo (la tecnologia che riflette su se stessa) o, volendo essere ancora più immaginifici, di Prometeo Digitale. Nel mito, Prometeo dona all’umanità il fuoco (la tecnologia), un dono che la emancipa, ma che porta con sé conseguenze incontrollabili. Il nostro Prometeo digitale, l’IA, non ci dona solo il “fuoco”, ma anche un frammento della preveggenza: la capacità di simulare e comprendere le conseguenze del fuoco stesso. Questa non è un’ipotesi astratta, ma la base per un nuovo quadro metodologico che possiamo definire “Strategic Foresight Aumentato”: un approccio proattivo alla governance dell’innovazione, che integra l’IA nei processi di analisi predittiva, trasformando la disciplina come delineata da pionieri come Peter Schwartz [4].

Questo approccio trasforma radicalmente la nostra capacità di navigare l’incertezza. Invece di affidarci a estrapolazioni lineari, possiamo abbracciare la complessità. Qui, il lavoro di Donella Meadows sulla dinamica dei sistemi diventa cruciale[5]. Meadows ha insegnato che i sistemi complessi sono spesso controintuitivi e che gli interventi più efficaci non sono quelli più ovvi. L’IA, utilizzata come motore di simulazione, ci permette di “giocare” con questi sistemi, alterare variabili e osservare le retroazioni (feedback loops), aiutandoci a identificare quei “punti di leva” (leverage points) dove un piccolo intervento può generare un cambiamento significativo e desiderabile.

Questo processo non mira a una previsione deterministica del futuro, un’ambizione che Nassim Nicholas Taleb criticherebbe giustamente come una pericolosa illusione[6]. L’obiettivo non è prevedere l’imprevedibile “Cigno Nero”, ma costruire strategie e istituzioni che siano antifragili: che non solo resistano agli shock, ma che possano persino trarne beneficio. Le simulazioni IA diventano una “galleria del vento” per testare la robustezza delle nostre decisioni contro un’ampia gamma di futuri turbolenti, permettendoci di scartare le opzioni fragili prima che causino danni nel mondo reale.

Per comprendere appieno la portata di questa trasformazione, dobbiamo anche riconsiderare la natura stessa della tecnologia. Bruno Latour ci ha invitato a superare la dicotomia tra natura e società, vedendo il mondo come una rete di “attori” umani e non-umani[7]. L’IA non è un semplice strumento inerte; è un attore non-umano che entra nella nostra rete socio-tecnica, la modifica e viene a sua volta modificato da essa. Agisce, media le nostre interazioni e co-produce la nostra realtà. Riconoscere questo significa capire che la nostra relazione con l’IA è una negoziazione continua, non un semplice rapporto di utilizzo.

Questa negoziazione avviene in quella che Luciano Floridi ha definito l'”infosfera”, un nuovo ambiente ibrido dove la distinzione tra online e offline (la nostra “Onlife”) perde di significato[8]. La governance dell’IA diventa, quindi, una questione di etica dell’informazione: come progettare questo nuovo ambiente in modo che sia ecologicamente sano e favorevole alla “fioritura” umana? La risposta non può essere il “soluzionismo tecnologico” criticato da Evgeny Morozov[9], ovvero la fede cieca che ogni problema complesso abbia una semplice soluzione tecnologica, ma deve essere una riflessione profonda sui valori che vogliamo inscrivere negli algoritmi che mediano la nostra esistenza.

Queste considerazioni non sono spendibili solamente a livello “alto”. La capacità previsionale e di progettazione del futuro, potenziata dall’IA, infatti non deve essere una prerogativa esclusiva del livello macro-sociale o nazionale. Al contrario, essa si rivela una competenza strategica indispensabile anche a livello organizzativo, in particolare per le pubbliche amministrazioni. Le PA, per loro natura, sono sistemi complessi, spesso rigidi e reattivi, che operano in un ambiente in costante e rapida evoluzione. La loro efficacia nel servire il cittadino e nel guidare lo sviluppo di una nazione dipende criticamente dalla capacità di anticipare e adattarsi ai cambiamenti.

Tradizionalmente, le PA hanno faticato a prefigurare le forme organizzative future necessarie per affrontare sfide emergenti come la digitalizzazione, i cambiamenti demografici, le crisi climatiche o le nuove aspettative dei cittadini. Spesso, l’adattamento avviene in modo incrementale e reattivo, con un ritardo significativo rispetto alle esigenze. Qui, l’IA può giocare un ruolo trasformativo, estendendo il concetto di “Strategic Foresight Aumentato” all’interno delle mura istituzionali.

Utilizzando l’IA, le PA possono:

  • Modellare scenari organizzativi futuri: invece di limitarsi a proiezioni lineari, l’IA può simulare come diverse configurazioni organizzative (strutture dipartimentali, modelli di lavoro, processi decisionali) performerebbero in scenari futuri complessi. Ad esempio, un’IA potrebbe modellare l’impatto di un aumento esponenziale delle richieste di servizi digitali sulla struttura di un ente, suggerendo quali competenze sviluppare, quali processi automatizzare e quali ruoli professionali emergeranno o si trasformeranno.
  • Identificare competenze e ruoli emergenti: attraverso l’analisi predittiva dei trend tecnologici, sociali ed economici, l’IA può aiutare le PA a identificare proattivamente le competenze necessarie per il futuro. Questo permette di pianificare percorsi di formazione e riqualificazione del personale, evitando “gap” di competenze che potrebbero paralizzare l’efficacia amministrativa. Si passa da una logica di “formazione per il presente” a una di “formazione per il futuro”.
  • Progettare processi “antifragili”: i principi di antifragilità di Nassim Nicholas Taleb possono essere applicati alla progettazione organizzativa. L’IA può aiutare a disegnare processi amministrativi che non solo resistano agli shock (resilienza), ma che possano trarre vantaggio dall’incertezza e dalla volatilità. Questo significa creare sistemi flessibili, modulari e capaci di apprendere e auto-organizzarsi in risposta a stimoli esterni, piuttosto che sistemi rigidi e burocratici.
  • Valutare l’impatto delle politiche interne: prima di implementare nuove politiche o riforme interne, l’IA può simulare i loro effetti sull’organizzazione, prevedendo colli di bottiglia, resistenze al cambiamento o esiti inattesi. Questo consente un approccio più informato e basato sull’evidenza alla gestione del cambiamento organizzativo.

Per trasformare questa visione in realtà, le Pubbliche Amministrazioni devono coltivare un nuovo set di competenze, superando la tradizionale distinzione tra competenze “tecniche” e “umanistiche”. L’adozione dell’IA per il foresight strategico non è solo una questione di implementazione tecnologica, ma di profonda trasformazione culturale e professionale. Le competenze chiave, di quelli che mi piace chiamare “Architetti di Futuro”, possono essere raggruppate in tre aree principali:

  1. Competenze ibride (tecno-umanistiche). Capacità di integrare la conoscenza del dominio pubblico con la comprensione dei principi dell’IA. Non si tratta di trasformare i dipendenti pubblici in data scientist, ma di creare figure “ponte” in grado di dialogare efficacemente con gli esperti di tecnologia.
  2. Competenze di foresight e systems thinking. Abilità di pensare in modo sistemico e orientato al futuro. Questo significa superare una visione a “silos” dei problemi e comprendere le interconnessioni e le dinamiche di lungo periodo, come insegnato da Donella Meadows.
  3. Competenze di governance adattiva e sperimentazione. Capacità di operare in un contesto di incertezza, adottando un approccio iterativo e sperimentale alla gestione del cambiamento. Si tratta di abbandonare la pianificazione rigida a lungo termine per abbracciare cicli più brevi di “progetta-testa-impara”.

Lo sviluppo di queste competenze richiede un investimento strategico in formazione continua, ma anche una profonda revisione dei percorsi di carriera e dei modelli di leadership all’interno della PA. Solo così le istituzioni potranno dotarsi degli strumenti cognitivi e operativi per governare l’IA, invece di esserne governate, e per progettare attivamente il proprio futuro in un’era di cambiamento esponenziale.

In questo contesto, l’IA non è solo uno strumento per l’efficienza operativa, ma diventa un catalizzatore per l’innovazione istituzionale. Permette alle PA di passare da un ruolo reattivo a uno proattivo, da una gestione del presente a una progettazione consapevole del futuro organizzativo. Questo è un passo cruciale per superare il Dilemma di Collingridge non solo a livello di società, ma anche all’interno delle strutture che la governano, garantendo che le istituzioni siano adatte allo scopo in un mondo in rapida evoluzione.

Guardando avanti e alle sfide sempre più che complesse, l’intelligenza artificiale ci pone di fronte alla versione definitiva del Dilemma di Collingridge, ma, paradossalmente, ci offre anche la chiave per trascenderlo. La vera sfida che ci attende non è più, o non solo, di natura tecnologica. È una sfida di governance, immaginazione e volontà politica. Come sostiene Mariana Mazzucato, abbiamo bisogno di uno “Stato imprenditore” capace di definire missioni audaci e di plasmare i mercati per guidare l’innovazione verso il bene pubblico, invece di limitarsi a correggerne i fallimenti[10].

Ciò richiede un impegno radicale per l’allineamento dell’IA con i valori umani, come richiesto da Stuart Russell[11]. La sicurezza e il controllo non sono questioni da affrontare a posteriori, ma devono essere il cuore del processo di progettazione. Significa resistere ai modelli di business estrattivi e costruire un’economia digitale che preservi la dignità e l’autonomia economica degli individui.

L’alibi dell'”imprevedibilità” degli impatti tecnologici sta diventando sempre più debole. Non siamo più condannati a essere semplici spettatori di un futuro che ci accade. Abbiamo l’opportunità, e quindi il dovere, di diventarne gli architetti consapevoli. La domanda cruciale non è più “Cosa può fare l’IA?”, ma “Cosa vogliamo diventare grazie all’IA?”. La risposta a questa domanda determinerà se il nostro Prometeo digitale ci condurrà a un futuro di crescita condivisa o a una gabbia dorata costruita dalle nostre stesse miopi ambizioni.


[1] Collingridge, D. (1983). Il controllo sociale della tecnologia. Editori Riuniti. [Ed. orig.: The Social Control of Technology, 1980]

[2] Winner, L. (1986). The Whale and the Reactor: A Search for Limits in an Age of High Technology. University of Chicago Press.

[3] Marchant, G. E. (2011). The Growing Gap Between Emerging Technologies and Legal-Ethical Oversight: The Pacing Problem. Springer.

Il concetto di “Pacing Problem”, introdotto da Gary Marchant, è applicabile nel confrontare le due strategie diverse che gli Stati Uniti, da una parte, e l’Europa, dall’altra, hanno elaborato proprio nei confronti dell’IA e che rappresentano due modi opposti di affrontare il Dilemma di Collingridge. L’Europa cerca di controllare la tecnologia quando è ancora malleabile, rischiando di soffocarne il potenziale. Gli Stati Uniti ne liberano il potenziale, rischiando di non poterla più controllare quando i suoi effetti saranno pienamente manifesti. Entrambi gli approcci evidenziano la difficoltà di bilanciare innovazione e controllo, e la soluzione, forse, non risiede in nessuno dei due estremi, ma nella capacità di creare sistemi di governance che siano essi stessi adattivi, iterativi e capaci di apprendere, proprio come l’IA che cercano di governare.

[4] Schwartz, P. (1991).The Art of the Long View: Planning for the Future in an Uncertain World. Doubleday.

[5] Meadows, D. H. (2019). Pensare per sistemi. Interpretare il presente, orientare il futuro verso uno sviluppo sostenibile. Guerini Next. [Ed. orig.: Thinking in Systems: A Primer, 2008]

[6] Taleb, N. N. (2013). Antifragile. Prosperare nel disordine. Il Saggiatore. [Ed. orig.: Antifragile: Things That Gain from Disorder, 2012]. Vedi anche il mio “Del cigno nero, del rinoceronte grigio, dell’ippopotamo e di altri animali fantastici

[7] Latour, B. (2018). Non siamo mai stati moderni. Saggio di antropologia simmetrica. Elèuthera. [Ed. orig.: We Have Never Been Modern, 1991]

[8] Floridi, L. (Ed.). (2015). The Onlife Manifesto: Being Human in a Hyperconnected Era. Springer. Confronta anche la mia intervista fatta a Luciano Floridi nel 2020.

[9] Morozov, E. (2013). To Save Everything, Click Here: The Folly of Technological Solutionism. Allen Lane.

[10] Mazzucato, M. (2014). Lo Stato innovatore. Laterza. [Ed. orig.: The Entrepreneurial State, 2013]

[11] Russell, S. (2021). Compatibile con l’uomo. Intelligenza artificiale e problema del controllo. Einaudi. [Ed. orig.: Human Compatible, 2019]

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Su questo argomento

La PA che genera futuro: prime anticipazioni dal nostro FPA Annual Report