Il pensiero che scrive: tra neuroscienze e intelligenza artificiale
Meta decifra i segnali cerebrali con un’accuratezza dell’80% grazie all’IA, ma il sistema è troppo ingombrante per uscire dal laboratorio. Il futuro dell’AI parte dal cervello.
Negli ultimi anni, la connessione tra cervello e macchina ha smesso di essere fantascienza per trasformarsi in un terreno concreto di ricerca.
I cosiddetti brain-computer interface (BCI), dispositivi capaci di leggere e interpretare l’attività cerebrale, stanno evolvendo rapidamente. Alcuni sistemi, come quelli impiantati, hanno già permesso a persone paralizzate di controllare cursori o di parlare attraverso sintetizzatori vocali.
Ma cosa accadrebbe se fosse possibile scrivere intere frasi semplicemente pensando? E se le tecnologie che lo consentono non fossero più solo oggetti chirurgici invasivi, ma strumenti “esterni”?
Il futuro di Facebook: Meta e il progetto Brain2Qwerty
«Secondo l’articolo “Meta has an AI for brain typing, but it’s stuck in the lab” di Antonio Regalado, pubblicato su MIT Technology Review il 20 giugno 2025, Meta ha realizzato un sistema in grado di decodificare il testo digitato da un soggetto analizzando l’attività cerebrale misurata con tecniche non invasive» ( link all’articolo ).
Il sistema si chiama Brain2Qwerty, un nome che richiama la disposizione classica delle lettere su tastiera. Funziona grazie a una combinazione di:
- Magnetoencefalografia (MEG), una tecnica che rileva i campi magnetici prodotti dai neuroni in attività;
- Deep learning, cioè reti neurali addestrate a riconoscere quali segnali cerebrali corrispondono a quali lettere digitate.
I risultati? Un’accuratezza dell’80% nella previsione del tasto premuto da un utente esperto, con possibilità di ricostruire intere frasi semplicemente analizzando l’attività del cervello.
Ma il dispositivo, che costa due milioni di dollari e pesa mezza tonnellata, resta confinato al laboratorio.
Che cos’è un Brain-Computer Interface (BCI)
Un Brain-Computer Interface (BCI), o interfaccia cervello-computer, è una tecnologia che consente di comunicare direttamente con un dispositivo digitale attraverso l’attività cerebrale. I BCI rilevano segnali elettrici o magnetici prodotti dal cervello, li interpretano tramite algoritmi di intelligenza artificiale e li trasformano in comandi per computer, protesi, sintetizzatori vocali o altri dispositivi. Esistono due principali categorie: invasivi, che prevedono impianti nel cervello per una maggiore precisione, e non invasivi, che utilizzano sensori esterni come EEG o MEG. Originariamente sviluppati per aiutare persone con disabilità motorie o del linguaggio, oggi i BCI sono anche oggetto di studio per esplorare le potenzialità cognitive e creare interfacce uomo-macchina sempre più integrate ed evolute.
La struttura gerarchica del linguaggio
Oltre alla prestazione di “typing mentale”, lo studio ha prodotto un’altra scoperta: durante la scrittura, il cervello attiva segnali in modo gerarchico.
Prima l’idea della frase, poi le parole, quindi le sillabe e infine le singole lettere.
Come spiega Sumner Norman, fondatore di Forest Neurotech, «The core claim is that the brain structures language production hierarchically», un’intuizione che aiuta a comprendere come il linguaggio umano possa ispirare i futuri modelli di intelligenza artificiale.
👉 Con Brain2Qwerty, Meta ricostruisce frasi complete dai segnali cerebrali usando l’intelligenza artificiale.
Perché questo studio è importante
Anche se lontano da applicazioni cliniche o commerciali, lo studio di Meta si inserisce nel più ampio tentativo di comprendere i “principi dell’intelligenza”, come sottolinea Jean-Rémi King, a capo del gruppo Brain & AI a Parigi. L’obiettivo non è produrre wearable futuristici, ma comprendere come pensa il cervello per costruire AI che apprendano e ragionino in modo simile all’essere umano.
Questo approccio si differenzia da quello più pragmatico di aziende come Neuralink (Elon Musk), che punta a rendere disponibili impianti cerebrali per scopi terapeutici e di potenziamento. Meta, al contrario, utilizza i dati cerebrali per migliorare la comprensione computazionale del linguaggio, base di ogni chatbot evoluto.
Neuralink: il cervello connesso secondo Elon Musk
Neuralink è una startup fondata da Elon Musk nel 2016 con l’obiettivo di sviluppare interfacce cervello-computer (BCI) impiantabili direttamente nel cervello umano. Il dispositivo principale, un chip chiamato Link, è progettato per registrare e stimolare l’attività neuronale grazie a fili ultrasottili inseriti nella corteccia cerebrale. L’ambizione di Neuralink è duplice: da un lato, restituire funzionalità a persone con paralisi, cecità o malattie neurodegenerative; dall’altro, creare una connessione diretta tra cervello e intelligenza artificiale per potenziare le capacità cognitive. Nel 2024 Neuralink ha ottenuto l’approvazione per i primi test clinici su esseri umani. Il progetto solleva questioni tecniche ed etiche cruciali sul futuro dell’interazione uomo-macchina e sul potenziale uso di BCI a fini cognitivi, medici o commerciali.
Un futuro che si scrive col cervello?
Nonostante le difficoltà tecniche, la direzione è tracciata: linguaggio, cervello e intelligenza artificiale stanno convergendo. La tastiera mentale di Meta non sarà presto in vendita, ma rappresenta una tappa significativa verso una simbiosi più profonda tra uomo e macchina.
Il linguaggio, ancora una volta, si conferma fondamento non solo della civiltà, ma anche delle nuove intelligenze. Capirne le architetture biologiche sarà fondamentale per progettare IA capaci di apprendere, decidere e – forse un giorno – pensare.

AI - Intelligenza Artificiale
Tutto sull’intelligenza artificiale nel settore AEC: progettazione, BIM, cantiere, manutenzione e gestione tecnica. Scopri come l’AI sta cambiando il lavoro dei professionisti delle costruzioni.
Condividi su: Facebook LinkedIn Twitter WhatsApp