W ostatnim czasie doszło do istotnych postępów w systemach technologicznych, które pozwalają ludziom sterować urządzeniami za pomocą sygnałów mózgowych. Dr Eddie Chang, neurochirurg z University of California, San Francisco Weill Institute for Neurosciences i współautor jednego z badań, mówi na łamach „Nature”, że udało się w końcu pokazać, co jest możliwe.
— Wczepiliśmy cienką jak papier płytkę z krzemu, wielkości karty kredytowej i pokrytej ponad 250 elektrodami, na powierzchnię mózgu sparaliżowanej kobiety — mówi dr Chang. Pacjentka miała wcześniej udar w pniu mózgu i od tego czasu nie mogła mówić ani używać rąk i nóg. Było to ok. 18 lat temu.
Jak tłumaczą naukowcy, mózgi u osób sparaliżowanych nadal mogą emitować sygnały elektryczne kontrolujące ruch, mimo że kanały komunikacji między mózgiem a mięśniami pozostają przerwane.
Table of Contents
ToggleImplant zajął się odbieraniem sygnałów
Pacjentka otrzymała specjalny implant, który zaczął odbierać sygnały przeznaczone do kontrolowania mięśni. Konkretnie chodziło o mięśnie związane z mową w jej języku, szczęce, krtani i twarzy.
Czytaj także w BUSINESS INSIDER
Odpowiednie elektrody połączono z komputerami za pomocą kabla podłączonego do portu przymocowanego do czaszki pacjentki. Następnie badacze musieli jeszcze poświęcić czas na wyszkolenie algorytmu do rozpoznawania sygnałów mózgowych pacjentki, które dotyczyły mowy i wyrazu twarzy.
Trening polegał na tym, że przez dwa tygodnie na ekranie pokazywano kobiecie słowa i zdania, które miała sobie powtarzać w myślach. Pacjentka miała również – jak sugerowali specjaliści – wyobrażać sobie smutne, szczęśliwe i zaskoczone wyrazy twarzy. Algorytmy komputerowe nieustannie rejestrowały jej sygnały mózgowe podczas wykonywania wszystkich wspomnianych zadań. Dzięki temu mogły się ich nauczyć i dostroić pracę całego systemu komputerowego.
Kolejne treningi polegały na tym, że pacjentce przedstawiono nowe zdania z prośbą, aby powtarzała je sobie w myślach. W tym czasie algorytmy miały „odkodować” jej sygnały mózgowe, a następnie tłumaczyć je na tekst i mowę.
I tutaj wkraczają obecne postępy technologiczne. Okazało się, że najnowsze rozwiązania mogą tłumaczyć zdania z prędkością 78 słów na minutę – to pięć razy szybciej niż poprzednie interfejsy mózg-komputer. Dla niespełna 50-letniej kobiety przygotowano w stosunkowo krótkim czasie zestaw obejmujący ok. 1000 słów, a system był w stanie rozpoznawać je w ok. 75 proc. przypadków.
A to jeszcze nie wszystko, sparaliżowana kobieta dostała jeszcze mówiącego awatara. Wybrała sobie wirtualną postać, która jest widoczna na ekranie i która wypowiada poszczególne słowa. Badacze poszli jeszcze o krok dalej i poprosili rodzinę o dostarczenie jakiegoś nagrania, na którym słychać kobietę, gdy była jeszcze zdrowa. Otrzymali wideo z jej wesela, na którym przemawiała do kamery. Wykorzystali je, aby spersonalizować głos awatara – tak, aby brzmiał prawie tak samo, jak pacjentka, gdy jeszcze mogła mówić.
68-latka na nowo może się komunikować
Na łamach „Nature” opisano od razu drugi przypadek, tym razem dotyczący 68-letniej pacjentki, która skorzystała z nieco innego systemu technologicznego.
Otrzymała cztery czujniki, każdy o wielkości ziarnka popcornu, które są wypełnione elektrodami. Zostały one wszczepione w zewnętrzne warstwy jej mózgu, a następnie połączone z komputerami szkolonymi z użyciem AI do uczenia się, jakie sygnały mózgowe pacjentki odpowiadają mowie.
Wspomniana kobieta została natomiast zdiagnozowana 11 lat temu z boczno-szczękowym zanikiem mięśni. To Lou Gehriga — postępująca choroba neurodegeneracyjna, która dotyka komórek nerwowych w mózgu i rdzeniu kręgowym, prowadząc do stopniowego zaniku mięśni. Nie ma dla niej lekarstwa, a leczenie skupia się głównie na łagodzeniu objawów i poprawie jakości życia pacjentów.
68-letnia pacjentka ma chorobę rozwiniętą do tego stopnia, że nie może już mówić w sposób zrozumiały. Badacze z Uniwersytetu Stanforda skonfigurowali system interfejs-mózg i zaczęli wdrażać treningi, które trwały przez cztery miesiące. Były to sesje, w których system rozpoznawał i tłumaczył sygnały mózgowe na tekst, aż doszedł do poziomu ok. 62 słów na minutę. W trakcie pracy korzystano z zestawu składającego się z ok. 120 tys. słów i osiągnięto dokładność w ok. 76 proc. przypadków.
Dr Jaimie Henderson, profesor neurochirurgii na Stanfordzie i współautor badania, stwierdził na łamach Nature, że to duże osiągnięcie. — Może pozwolić w przyszłości na uzyskanie prawdziwie płynnej mowy i rzeczywiste przywrócenie zdolności komunikacji i budowania więzi z innymi — powiedział.
To zresztą nie koniec możliwości. Jeśli naukowcy przeprowadziliby bardziej inwazyjny zabieg, umieszczając odpowiednie czujniki głębiej, mogliby uzyskać zdolność do odczytywania sygnałów pojedynczych neuronów. W rezultacie dokładność i jakość interfejsu mózg-komputer byłaby wyższa.
Technologia, jak widać, staje się coraz lepsza w zapewnianiu głosu tym, którzy go utracili. Ograniczeniem pozostaje inwazyjność operacji, ale też wysokie koszty. Potrzebne są jeszcze dodatkowe badania i prace nad poprawą systemów tego rodzaju, niemniej w najbliższych latach mają one być już dostarczane do większej liczby pacjentów.
Autor: Grzegorz Kubera, dziennikarz Business Insider Polska