Cinque verità sull’IA che nel 2025 non possiamo più ignorare
Quanto ne sappiamo davvero dell’Intelligenza Artificiale? In un talk al SXSW London, Will Douglas Heaven di MIT Technology Review ha presentato le cinque idee più urgenti per capire l’IA oggi. Dalla potenza generativa alle illusioni dell’AGI, ecco un punto di vista essenziale per chiunque voglia affrontare il futuro tecnologico con lucidità.
Nel 2025 l’Intelligenza Artificiale è ovunque: nei testi che leggiamo, nelle immagini che guardiamo, nei codici che compiliamo, nei servizi che utilizziamo.
Secondo McKinsey, più del 60% delle aziende globali ha già integrato sistemi di IA generativa nei propri processi.
Eppure, quanto ne sappiamo davvero? Le opinioni polarizzate tra entusiasmi messianici e allarmismi distopici non aiutano. Noi stessi su INGENIO ne scriviamo con continuità. Ma occorre chiarezza, perchè altrimenti la narrazione rischia di distrarre la nostra attenzione su direzione cieche e inutili.
In questa direzione va il contributo di Will Douglas Heaven, senior editor per l’IA di MIT Technology Review, che ha riassunto in un talk al SXSW London cinque punti essenziali per capire dove siamo oggi.
Secondo l’articolo “Five things you need to know about AI” di Will Douglas Heaven, pubblicato su MIT Technology Review il 19 luglio 2025 (newsletter “The Algorithm”), il punto non è solo cosa l’IA fa, ma come la interpretiamo, cosa ci aspettiamo e quali miti dobbiamo abbandonare per davvero comprenderla.
Ecco le cinque idee che Heaven ritiene fondamentali:
- “Generative AI is now so good it’s scary.” L’IA generativa ha superato il punto in cui distinguere reale e sintetico è banale: “Pretty much everybody did worse than chance”, scrive, raccontando un test interno alla redazione su musica generata da IA.
- “Hallucination is a feature, not a bug.” Le cosiddette allucinazioni dell’IA non sono malfunzionamenti, ma una conseguenza del modo in cui questi modelli funzionano: sono macchine che inventano plausibilità, non che verificano verità.
- “AI is power hungry and getting hungrier.” L’uso massivo, non solo l’addestramento, è oggi il vero nodo energetico: “ChatGPT ha 400 milioni di utenti settimanali ed è il quinto sito più visitato al mondo”.
- “Nobody knows exactly how large language models work.” Un’affermazione inquietante ma fondata: sappiamo costruire i modelli, ma non comprendiamo davvero come generino risposte coerenti. Una “scatola nera” ancora in larga parte inesplorata.
- “AGI doesn’t mean anything.” Il concetto di AGI (intelligenza artificiale generale) si rivela ambiguo, autoreferenziale e forse inutile: “There is zero evidence that this will actually play out”.
Le implicazioni di questa riflessione sono molteplici.
Innanzitutto, serve abbandonare la retorica del controllo totale: l’IA, oggi, non è comprensibile né completamente prevedibile.
In secondo luogo, bisogna affrontare con urgenza il tema della sostenibilità: i costi energetici del funzionamento quotidiano degli LLM rischiano di moltiplicarsi ben oltre quelli dell’addestramento.
La più lucida intuizione del talk riguarda il disallineamento tra potenza tecnica e immaginario collettivo. Ancora oggi proiettiamo sull’IA una forma mentis umana, confondendo comportamento umanoide con coscienza, intenzionalità o comprensione.
Ma un modello linguistico che “parla come noi” non è una mente come la nostra.
👉 L’IA non va solo usata: va capita. E nel 2025 le sue “allucinazioni” non sono errori, ma parte del progetto.
Anche il termine AGI rischia di diventare una scorciatoia mitologica per evitare domande scomode su responsabilità, governance e limiti epistemologici.
AGI è l’acronimo di Artificial General Intelligence, ovvero Intelligenza Artificiale Generale.
A differenza dell’IA “stretta” o IA debole (narrow AI), che è progettata per svolgere compiti specifici (come scrivere testi, riconoscere immagini o rispondere a domande), l’AGI indica un’intelligenza artificiale capace di comprendere, apprendere e risolvere problemi in modo flessibile e autonomo su una vasta gamma di compiti cognitivi, proprio come farebbe un essere umano.
In sintesi:
- IA debole: eccelle in compiti specifici → es. ChatGPT, Alexa, DeepMind AlphaFold.
- AGI: sarebbe in grado di ragionare, apprendere e adattarsi in qualunque dominio → ancora non esiste.
Per molti, oggi, dire “AGI” significa semplicemente: un’IA più potente di quella attuale.
La riflessione finale di Heaven è tanto sobria quanto illuminante: “We are building machines that are getting very good at mimicking some of the things people do, but we haven’t shrugged off the habit of imagining a humanlike mind behind them.”
Questa fotografia dell’IA nel 2025 ci ricorda che entusiasmo e scetticismo devono coesistere.
È legittimo meravigliarsi, è doveroso interrogarsi.
Soprattutto, è tempo di costruire una cultura tecnica e umanistica condivisa, che non deleghi solo a pochi esperti o a narrative commerciali la comprensione di strumenti tanto pervasivi.
Serve più educazione, più trasparenza e più pensiero critico. Perché la vera “intelligenza artificiale” di cui abbiamo bisogno è quella umana, collettiva e vigile con cui decidiamo cosa farne.
PS. L’evidenziazione che l’AI non potrà mai eliminare completamente le allucinazioni algoritmiche rappresenta una novità nel tessuto narrativo sull’AI che non può non portarci a chiedere se potremo mai affidare ad essa un controllo diretto delle azioni sulla base dei dati raccolti senza un filtro umano.

AI - Intelligenza Artificiale
Tutto sull’intelligenza artificiale nel settore AEC: progettazione, BIM, cantiere, manutenzione e gestione tecnica. Scopri come l’AI sta cambiando il lavoro dei professionisti delle costruzioni.
Condividi su: Facebook LinkedIn Twitter WhatsApp