L’IA entra nel cervello senza interventi. Non serve immaginare scenari distopici per sentire il brivido. Basta questa scena: un laboratorio che odora di gel conduttivo, un casco che sembra uscito da un set indie, e l’idea — concreta, finanziata, in road‑map — che l’intenzione possa diventare azione senza passare da dita, voce o schermo. È la notizia che ribalta la geografia dell’interazione: OpenAI investe in Merge Labs per sviluppare interfacce cervello‑computer non impiantabili, niente chip, solo ultrasuoni (e biologia), con l’IA a fare da interprete dell’“intento” umano. È qui che la mente-corpo nell’era dell’IA smette di essere conferenza e diventa progetto industriale.
Ci siamo abituati a chiamare “interfaccia” qualcosa che teniamo in tasca. Ora l’interfaccia ci guarda da dentro. Merge Labs — uno spinoff che pesca ricerca di frontiera e impresa — promette di leggere e modulare attività neurale senza chirurgia, appoggiandosi a ultrasuoni e a “molecole al posto degli elettrodi” per aumentare il segnale, mentre l’IA costruisce un senso a partire da tracce rumorose. Una scommessa: più accesso, meno sala operatoria, più iterazioni. E un dettaglio che fa titolo: OpenAI non mette solo capitali, ma parla di “AI operating systems” per interfacce ad alta banda. In altre parole: l’ecosistema software dell’IA sta preparando posto al tavolo per il cervello. Senza aprirlo.

Il confronto che conta
Sull’altro lato della scacchiera, Neuralink gioca una partita diversa: impianti intracorticali ad altissima risoluzione, con pazienti che già muovono un cursore col pensiero e un piano ambizioso su comunicazione e visione (Telepathy, Blindsight). Nessuno qui mette in dubbio i progressi clinici, né la serietà del percorso regolatorio. La differenza — culturale prima che tecnica — è nel come arrivi al cervello: chirurgia e fedeltà del segnale da una parte, non‑invasività e scalabilità sociale dall’altra. Due promesse, un unico obiettivo: portare l’IA dove nascono le decisioni.
La scienza (sobria) dietro al brivido
Gli ultrasuoni non sono fantascienza. Studi recenti mostrano che la tFUS (ultrasuoni focalizzati transcranici) può migliorare le performance di BCI visive riducendo gli errori; altri gruppi hanno dimostrato prototipi bidirezionali (decodifica + stimolazione mirata) su 25 soggetti; e il functional ultrasound si candida da tempo a base per BMI “online” con una risoluzione e una profondità che i metodi non invasivi tradizionali faticano a eguagliare. Non è l’App Store domattina, ma è scienza con peer‑review e una curva di apprendimento in salita.

Mente-corpo nell’era dell’IA: accesso, non solo precisione
Qui sta il punto: accesso. Se togli il bisturi, allarghi la platea. Non tutti avranno bisogno (o vorranno) un impianto; molti, invece, potrebbero adottare interfacce indossabili per scopi clinici, comunicativi, lavorativi. È il passaggio dal laboratorio al quotidiano che fa la differenza tra tecnologia d’élite e infrastruttura sociale. Ed è il terreno dove la strategia non invasiva gioca la sua carta più forte.
La notizia dentro la notizia
Il gesto di OpenAI non è un capriccio da laboratorio: è un segnale di convergenza. Software che interpreta intenzioni + segnali neurali catturati senza aprire il cranio = una UX cognitiva nuova. Il mouse ha reso naturali i pixel, il tocco ha reso naturali i gesti. Cosa renderà naturale pensare e attivare? Se l’attrito sparisce, resterà la domanda: chi possiede il dato mentale, chi lo legge, chi lo revoca? Inizia qui l’alfabeto civile della mente-corpo nell’era dell’IA.

Promesse, paure, politica del cervello
Parlare di transumanesimo oggi non è più un esercizio da convegno: è un controllo di realtà. Nick Bostrom lo definisce un movimento che considera un dovere morale migliorare capacità fisiche e cognitive; nobile quando riguarda terapia e inclusione, ambivalente quando scivola nell’idea di élite potenziate. Le BCI non invasive mettono la questione su binari concreti: dal se al come, quando, per chi. La linea tra transumano (potenziamento) e postumano (ridefinizione) non è un muro: è un gradino che si sale per adozione e policy.
E poi c’è la persona. L’“io” non è un grafico di spike; è una biografia che si riscrive, dimentica, inventa, si contraddice. Le BCI — impiantate o meno — potranno prevedere e ottimizzare, ma non sostituire quella frizione fertile che chiamiamo scelta. È qui che una tecnologia può diventare protesi di autonomia o gabbia di suggerimenti. Dipende da come la regoliamo, nel senso più ampio del termine.
Diritti cognitivi: mettere per iscritto l’ovvio che ancora non c’è
La roboetica ci ha insegnato a non arrivare tardi: responsabilità, giustizia, dignità non possono essere un readme.txt aggiunto dopo. Con BCI e ultrasuoni parliamo di diritti cognitivi: proprietà del dato neurale, portabilità, revoca, audit degli algoritmi che decodificano e stimolano. Più una priorità che suona banale e invece non lo è: prima la clinica, poi l’enhancement ricreativo. È governance, non freno. È il modo per evitare l’asimmetria che ti ritrovi addosso quando ormai è troppo tardi.

L’IA entra nel cervello senza interventi
C’è una verità semplice che regge tutto: la prima tecnologia è il linguaggio. Ha istituito il potere di nominare e quindi di esistere nello spazio pubblico. Una BCI è, in fondo, una grammatica invisibile: decide cosa viene letto, cosa viene ignorato, cosa diventa comando. Se davvero l’IA entra nel cervello senza interventi e bastano gli ultrasuoni, tocca a noi mettere in ordine le parole — per regolare le cose. Perché la mente-corpo nell’era dell’IA può essere un patto o un vincolo: cambia tutto il modo in cui lo raccontiamo, lo normiamo, lo condividiamo.
Fonte articolo: Investire in Merge Labs
Se ti è piaciuto“L’IA entra nel cervello senza interventi: bastano gli ultrasuoni”, leggi altri articoli su tecnologia e innovazione su quasimezzogiorno.com qui.
