Naukowcy z Uniwersytetu Kalifornijskiego w Berkeley oraz San Francisco opracowali rewolucyjny implant mózgowy, który przywraca zdolność mówienia osobom sparaliżowanym, odczytując ich myśli i zamieniając je w mowę niemal w czasie rzeczywistym. Nowa technologia neuroprotez, opisana w czasopiśmie Nature Neuroscience, wykorzystuje sztuczną inteligencję oraz zestaw 253 elektrod wszczepionych na powierzchnię mózgu – dokładnie w rejonie odpowiedzialnym za kontrolę nad aparatem mowy.
Czytaj też: Pomyśl słowo. Ten implant pomoże je odczytać bezpośrednio z twojego mózgu
To, co jeszcze kilka lat temu należało do sfery science fiction, dziś przybiera formę funkcjonalnego prototypu. W odróżnieniu od poprzednich wersji, które wymagały od użytkownika oczekiwania na pełne przetworzenie zdania, obecny system potrafi przekształcać pojedyncze słowa w czasie opóźnionym zaledwie o 2-3 sekundy, co stanowi ogromny postęp względem wcześniejszych ośmiosekundowych opóźnień.
Dr Gopala Anumanchipalli, współkierownik projektu i profesor inżynierii elektrycznej oraz nauk komputerowych na UC Berkeley, mówi:
Nasze podejście do przesyłania strumieniowego zapewnia neuroprotezom tę samą szybką zdolność dekodowania mowy, co asystenci głosowi, tacy jak Alexa i Siri. Używając podobnego typu algorytmu, odkryliśmy, że możemy dekodować dane neuronowe i po raz pierwszy umożliwić niemal synchroniczne przesyłanie strumieniowe głosu.
Niesamowity implant mózgowy sprawił, że sparaliżowana kobieta przemówiła
Kluczowym elementem systemu jest technologia interfejsu mózg-komputer (BCI), która analizuje aktywność neuronów w korze ruchowej. To właśnie tam dochodzi do “przekładu” myśli na konkretne polecenia motoryczne odpowiedzialne za artykulację słów – zanim jeszcze padnie jakikolwiek dźwięk.
Czytaj też: Usunęli jej implant z mózgu wbrew woli. Potrzebne nowe prawo, zanim Neuralink zacznie nam grzebać w głowach
Cheol Jun Cho, doktorant w UC Berkeley i współautor badania, mówi:
Zasadniczo przechwytujemy sygnał w tym momencie, gdy myśl zostaje już przetłumaczona na konkretne działanie – zanim jednak zostanie wypowiedziana.
Podczas eksperymentów pacjentka o imieniu Ann, która po udarze w 2005 r. straciła możliwość mówienia, była proszona o wyobrażenie sobie wypowiadania wyświetlanych na ekranie zdań. System rejestrował wzorce aktywności mózgu i dopasowywał je do słów, tworząc syntetyczną mowę. Każde 80 milisekund pochodzące z elektrod były analizowane przez sztuczną inteligencję, co pozwalało na nieprzerwaną analizę “strumienia myśli” i jego bieżące dekodowanie.

Choć syntezowana mowa nie dorównuje jeszcze w pełni naturalnej ekspresji języka, nowe podejście pozwala na uzyskanie bardziej “ludzkiego” głosu – także dzięki temu, że algorytm był trenowany do imitowania barwy głosu Ann sprzed choroby. To ważne nie tylko z perspektywy komunikacji, ale i tożsamości.
Twórcy podkreślają, że choć technologia nie jest jeszcze gotowa na komercyjne wdrożenie, to jej rozwój otwiera drogę do naturalistycznej komunikacji dla osób z najcięższymi formami paraliżu. To także obiecujący kierunek w rozwoju szeroko pojętych neurotechnologii, które coraz częściej łączą inżynierię z medycyną i neurobiologią.
W planach są dalsze udoskonalenia algorytmów AI, które pozwolą jeszcze szybciej i precyzyjniej przekształcać sygnały mózgowe w mowę. To, co dziś wymaga jeszcze elektrod wszczepianych chirurgicznie, w przyszłości może być realizowane za pomocą mniej inwazyjnych interfejsów – jak pokazują inne badania nad tzw. tatuażami elektronicznymi lub implantami naczyniowymi.