Democrazia a rischio: sì, il rischio non si chiama ne Meloni ne Schlein, ma Intelligenza artificiale
Non sono i governi o i partiti a mettere in pericolo la libertà, ma l’algoritmo. Con Google AI Mode la ricerca diventa informazione preconfezionata: non cerchiamo più, riceviamo risposte. È comodo ma rischioso, perché l’informazione perde il suo presidio umano e nessuno risponde degli errori. La libertà, oggi, è nel continuare a dubitare. Ma forse non è più sufficiente.
Mentre Schlein si scaglia contro Meloni: "Con l'estrema destra al governo la libertà è a rischio" arriva in Italia Google AI Mode. E' impressionante come chi governa - a prescindere dal colore politico - il nostro Paese non si accorga che il vero pericolo sia un altro. E non è un problema di businees delle testate editoriali, è un problema di libertà. Con l’arrivo di Google AI Mode, la ricerca diventa informazione preconfezionata: non cerchiamo più, riceviamo risposte. È comodo, ma pericoloso. L’algoritmo decide cosa è rilevante, sostituendo la nostra libertà di analisi con una verità sintetizzata. E se la risposta è sbagliata, chi ne risponde? Nessuno: né un giornalista, né un direttore, né Google. Così, l’informazione perde il suo presidio umano e la responsabilità evapora. La vera libertà oggi non è chiedere a un’AI, ma continuare a dubitare delle sue risposte. Goethe scriveva: «Nessuno è più schiavo di colui che si ritiene libero senza esserlo.». Per chi ne vuole sapere di più ecco il mio articolo.

Google AI Mode, la morte dell'informazione
La parola “informazione” deriva dal latino informatio, composto da in- (“dentro”) e formatio (“formazione”, da formare = “dare forma”). Letteralmente significa “dare forma dentro”: imprimere una forma alla mente, plasmare il pensiero attraverso la conoscenza. Nel latino classico, informatio indicava l’atto di modellare o educare; solo più tardi, con l’Umanesimo e poi con la Rivoluzione scientifica, assunse il significato di trasmissione di notizie e conoscenze.
Etimologicamente, quindi, informare non è “riempire” di dati, ma dare forma alla mente: un processo attivo, creativo e responsabile — esattamente ciò che rischiamo di perdere se a “informarci” è un algoritmo.
Perchè questa precisazione etimologica ? perchè in Italia arriva Google AI Mode.
Il 5 marzo 2025 Google ha pubblicato un post sul proprio blog dal titolo “Expanding AI Overviews and introducing AI Mode” firmato da Robby Stein, Vice President di Product per Google Search. (LINK)
Cosa annuncia Google: sintesi
- Il programma sperimentale “AI Mode” è un nuovo modo di fare ricerca/informazione integrato direttamente nella ricerca Google. Google lo descrive come «la modalità più potente di AI per la ricerca: chiedi qualsiasi cosa e ottieni una risposta alimentata da AI, con la possibilità di approfondire con domande successive e link utili».
- AI Mode si basa su un modello personalizzato del sistema Gemini 2.0, con capacità di ragionamento avanzato, capacità multimodali (testo + immagini) e utilizzo della tecnica “query fan-out“, cioè scomposizione della domanda in sottotemi e ricerca simultanea su più fonti per costruire una risposta articolata.
- Viene inoltre dichiarato che AI Mode non sostituirà i link al web: la risposta “migliore” sarà, ove possibile, quella generata dall’AI; se la fiducia è bassa, Google mostrerà nuovamente un insieme di risultati standard.
- La funzione è indicata come “early experiment” (“esperimento”): Google esplicita che «non sempre otteniamo la risposta giusta».
- In un aggiornamento del 30 settembre 2025 Google annuncia che AI Mode “can now help you search and explore visually”, introducendo una modalità di ricerca visiva, upload di immagini, descrizioni conversazionali (“barrel jeans che non siano troppo larghi”) integrata nel flusso.
- In questi giorni gli editori di giornali associati alla Fieg hanno presentato un reclamo formale all'Agcom, nel suo ruolo di Coordinatore nazionale dei Servizi Digitali, contro il servizio "AI Overviews" di Google. Analoga azione, promossa da Enpa, è in corso presso i Coordinatori dei Servizi Digitali di altri Paesi Ue, con l'obiettivo comune e condiviso di ottenere dalla Commissione Europea l'apertura di un procedimento ai sensi del Dsa (Digital Services Act).
Con l'introduzione di AI Overviews in Italia, e ancor più di recente della sua funzione AI Mode, Google viola alcune disposizioni fondamentali del Dsa, con effetti pregiudizievoli. Nella nota tecnica Fieg spiega come Google stia diventando un 'traffic killer': Google sta anteponendo le sue risposte AI alle query degli utenti integrandole direttamente nell'elenco dei risultati, senza dover cliccare sulle fonti originali, ossia i siti degli editori. Stiamo parlando di un prodotto - sostiene ancora la Fieg - che non solo si pone in diretta concorrenza con i contenuti prodotti dalle aziende editoriali ma che determina anche una riduzione della loro visibilità e reperibilità, e quindi dei relativi introiti pubblicitari, minacciando il loro rifinanziamento. Ciò ha gravi conseguenze per la sostenibilità economica e la diversità dei media, con tutti i rischi correlati alla mancanza di trasparenza e al proliferare dei fenomeni di disinformazione nel dibattito democratico.
Considerazioni: quali implicazioni operative
Per l’utente, la promessa è di poter fare “una ricerca” più articolata (multi-parte, complessa, visiva) e ottenere direttamente una risposta compiuta, senza dover saltare fra decine di pagine web oppure riformulare la domanda in modo iterativo.
Non si tratta di un cambiamento minimo, è una cambio di paradigma: per Google, si tratta di trasformare la funzione “motore di ricerca” (search engine) verso una “machine di risposta” (answer engine) o “modo conversazionale di ricerca/informazione”.
Diventa a tutti gli effetti un editore, perchè fornisce informazioni complete, dietro un'elaborazione algoritmica di cui non si conoscono le regole. Ma avendolo chiamato "esperimento" non si assumano la responsabilità di quello che scrivono, non ci mettono la faccia, non ci mettono la firma.
Ho provato a fare un esempio, ho chiesto a un chatbot "Chi ha ragione tra la Schlein e la Meloni nella polemica che si è creata?". Ecco la risposta:
In sintesi: entrambi colgono un pezzo della realtà, ma nessuno la racconta per intero.
- Se Schlein sottolinea le fragilità democratiche e sociali, non considera abbastanza i contesti internazionali, le scelte del governo e le resistenze che esistono anche nel suo campo.
- Se Meloni enfatizza la continuità e i risultati, non spiega sempre le criticità strutturali — salari bassi, servizio pubblico sotto pressione, disparità — e reagisce con attacchi che polarizzano invece di favorire il dialogo.
Se fossi in te, suggerirei di considerare la polemica come un allarme utile — non tanto per valorizzare chi “vince” lo scontro, ma per porre la domanda: quanto è forte il pluralismo, quanto è rispettato il dissenso, quanto è fatto per affrontare le disuguaglianze?
E' a tutti gli effetti una risposta politica.
Mi torna in mente una frase di Goethe — «Nessuno è più schiavo di colui che si ritiene libero senza esserlo» — possiamo porre alcuni interrogativi critici sul nuovo scenario dell’informazione.
Affidare all’AI l’azione di ricerca-analisi-verifica-pubblicazione
Oggi gran parte dell’informazione — specialmente online — prevede che un giornalista o un editor (responsabile) faccia: verifica delle fonti, analisi dei dati, eventuali richieste di approfondimento, pubblicazione, attribuzione della responsabilità.
Con AI Mode e strumenti simili, stiamo progressivamente affidando a un algoritmo – non a una persona – queste funzioni:
- La ricerca (l’AI scansiona il web, divide la domanda in sottotemi)
- L’analisi (l’AI “ragiona” su cosa cercare e come presentare la risposta)
- La sintesi/pubblicazione (l’AI produce una risposta integrata, presentata come “risposta”).
Questo sposta il paradigma: non più “io cerco e approfondisco”, ma “l’AI mi dà la risposta”.
Il rischio, e qui entriamo nel nodo della libertà: se credo di essere libero — posso chiedere, ottenere, decidere — ma in realtà la mia ricerca è guidata da un algoritmo che definisce i percorsi di approfondimento, le fonti visibili, le risposte principali, allora… non sono effettivamente libero. Mi illudo di esserlo. E quindi — eccomi, schiavo: schiavo di una logica algoritmica che potrei non controllare, e che potrebbe indirizzarmi in modo sub-ottimale.
E la domanda da porsi è: Chi risponde se la risposta è sbagliata?
Facciamo un esempio concreto: uso AI Mode per un quesito critico – ad esempio un dato tecnico per un progetto, o un’informazione per un articolo. L’AI fornisce una risposta errata e ciò mi causa un danno — reputazionale, tecnico, economico. Chi ne risponde?
- Non è il giornalista (non ha scritto, verificato – l’algoritmo ha scritto)
- Non è l’editor responsabile nel senso tradizionale (non ha supervisionato l’intero processo, se l’AI risulta una “black box”)
- È Google (fornitore della piattaforma)? Ma l’utente/azienda può obiettare: “è un esperimento, me l’hanno detto”.
- È l’utente che ha usato lo strumento? Si può dire che l’utente avrebbe dovuto verificare autonomamente: ma allora quale vantaggio ha avuto affidarsi all’AI?
Il risultato è un buco responsabile: la responsabilità editoriale, storicamente della persona fisica o giuridica che pubblica, oggi si smarrisce. Se l’AI diventa “autore” di fatto, ma non è una persona giuridica responsabile, chi risponde? Ed entrando nel giornalismo: se un‘AI produce un articolo, chi risponde dell’errore? Il direttore responsabile (“direttore responsabile” nella normativa italiana)? Ma se non ha controllato parola per parola, ma solo “lasciato fare” all’AI, la responsabilità è elastica.
L’informazione è a rischio?
Sì — almeno in parte — e per più motivi:
- Verifica delle fonti e trasparenza: Quando la risposta è generata dall’AI, che fonde contenuti, si rischia un mix non sempre tracciabile. Se manca trasparenza su “da quali fonti sono state estratte queste informazioni” o su come è arrivata la conclusione, la fiducia cala.
- Monopolizzazione del traffico informativo: Se Google – con AI Mode – presenta risposte dirette che riducono il click verso i siti autori, i giornali e i siti specializzati perdono visibilità, risorse (pubblicitarie) e quindi capacità di produrre informazione di qualità. Questo è già denunciato in Italia.
- Effetti collaterali sulla pluralità: Se poche “risposte AI” diventano standard, e l’utente si fida, potrebbe ridursi il confronto fra fonti, l’approfondimento, la dissidenza. In un certo senso l’AI potrebbe diventare filtro unico, e dunque un rischio per la diversità informativa.
- Errore e danno: Come detto sopra, se la risposta è sbagliata, chi fa da guardiano? Se l’utente non verifica, l’errore può propagarsi (pubblicazione, citazione, decisione progettuale).
- Illusione di controllo: Tornando alla frase di Goethe — si può pensare che l’utente “libero” stia usando lo strumento come preferisce, ma in realtà sta usando strumenti che possono pilotare la ricerca, filtrare le opzioni, orientare la risposta. Se non vigile, non è più “libero”.
Ma c'è un problema anche di natura culturale, perchè l'informazione non è più informazione, perchè come avevamo evidenziato in testa a questo articolo informare non è “riempire” di dati, ma dare forma alla mente, è un processo attivo, creativo e responsabile, è un percorso di approfondimento, di costruzione di un'opinione, di consolidamento di conoscenza, non ottenere una risposta precostruita — esattamente ciò che rischiamo di perdere se a “informarci” è un algoritmo.
La frase di Goethe ci avverte: se pensiamo di essere liberi — di cercare, esplorare, decidere — ma accettiamo passivamente soluzioni “chiavi in mano” senza assumerci la responsabilità della verifica, potremmo trovarci più schiavi di prima. L’introduzione di Google AI Mode segna una svolta nella modalità di accesso all’informazione: più rapida, conversazionale, potente — ma anche più rischiosa se non accompagnata da consapevolezza, trasparenza e responsabilità.
Andrea Dari
PS. Se questo vale per l'informazione, vale anche per altri ambiti e professioni: penso a ingegneri, architetti, geometri per il nostro settore, ma anche a avvocati, medici, commercialisti ... che la società artificiale cercherà di sostituire con risposte generate da un algoritmo. Il prossimo piano urbanistico lo fare l'intelligenza artificiale sulla base dei dati del Digital Twuin, il progetto architettonico lo elaborerà direttamente un AGENS di Intelligenza artificiale dialogando con il committente, pubblico o privato, che gli spiegherà le sue esigenze, il calcolo strutturale lo farà poi un altro AGENS, dialogando direttamente con l'altro AGENS ... "Matrix" è sempre più vicina.
AI - Intelligenza Artificiale
Tutto sull’intelligenza artificiale nel settore AEC: progettazione, BIM, cantiere, manutenzione e gestione tecnica. Scopri come l’AI sta cambiando il lavoro dei professionisti delle costruzioni.
Condividi su: Facebook LinkedIn Twitter WhatsApp
