System komputerowy przywrócił głos sparaliżowanej kobiecie. Nie mówiła prawie 20 lat

W ostatnim czasie doszło do istotnych postępów w systemach technologicznych, które pozwalają ludziom sterować urządzeniami za pomocą sygnałów mózgowych. Dr Eddie Chang, neurochirurg z University of California, San Francisco Weill Institute for Neurosciences i współautor jednego z badań, mówi na łamach „Nature”, że udało się w końcu pokazać, co jest możliwe.

— Wczepiliśmy cienką jak papier płytkę z krzemu, wielkości karty kredytowej i pokrytej ponad 250 elektrodami, na powierzchnię mózgu sparaliżowanej kobiety — mówi dr Chang. Pacjentka miała wcześniej udar w pniu mózgu i od tego czasu nie mogła mówić ani używać rąk i nóg. Było to ok. 18 lat temu.

Jak tłumaczą naukowcy, mózgi u osób sparaliżowanych nadal mogą emitować sygnały elektryczne kontrolujące ruch, mimo że kanały komunikacji między mózgiem a mięśniami pozostają przerwane.

Implant zajął się odbieraniem sygnałów

Pacjentka otrzymała specjalny implant, który zaczął odbierać sygnały przeznaczone do kontrolowania mięśni. Konkretnie chodziło o mięśnie związane z mową w jej języku, szczęce, krtani i twarzy.

Odpowiednie elektrody połączono z komputerami za pomocą kabla podłączonego do portu przymocowanego do czaszki pacjentki. Następnie badacze musieli jeszcze poświęcić czas na wyszkolenie algorytmu do rozpoznawania sygnałów mózgowych pacjentki, które dotyczyły mowy i wyrazu twarzy.

Trening polegał na tym, że przez dwa tygodnie na ekranie pokazywano kobiecie słowa i zdania, które miała sobie powtarzać w myślach. Pacjentka miała również – jak sugerowali specjaliści – wyobrażać sobie smutne, szczęśliwe i zaskoczone wyrazy twarzy. Algorytmy komputerowe nieustannie rejestrowały jej sygnały mózgowe podczas wykonywania wszystkich wspomnianych zadań. Dzięki temu mogły się ich nauczyć i dostroić pracę całego systemu komputerowego.

Kolejne treningi polegały na tym, że pacjentce przedstawiono nowe zdania z prośbą, aby powtarzała je sobie w myślach. W tym czasie algorytmy miały „odkodować” jej sygnały mózgowe, a następnie tłumaczyć je na tekst i mowę.

Fizjologia podczas tworzenia sylab
Fizjologia podczas tworzenia sylab | Nature

I tutaj wkraczają obecne postępy technologiczne. Okazało się, że najnowsze rozwiązania mogą tłumaczyć zdania z prędkością 78 słów na minutę – to pięć razy szybciej niż poprzednie interfejsy mózg-komputer. Dla niespełna 50-letniej kobiety przygotowano w stosunkowo krótkim czasie zestaw obejmujący ok. 1000 słów, a system był w stanie rozpoznawać je w ok. 75 proc. przypadków.

A to jeszcze nie wszystko, sparaliżowana kobieta dostała jeszcze mówiącego awatara. Wybrała sobie wirtualną postać, która jest widoczna na ekranie i która wypowiada poszczególne słowa. Badacze poszli jeszcze o krok dalej i poprosili rodzinę o dostarczenie jakiegoś nagrania, na którym słychać kobietę, gdy była jeszcze zdrowa. Otrzymali wideo z jej wesela, na którym przemawiała do kamery. Wykorzystali je, aby spersonalizować głos awatara – tak, aby brzmiał prawie tak samo, jak pacjentka, gdy jeszcze mogła mówić.

68-latka na nowo może się komunikować

Na łamach „Nature” opisano od razu drugi przypadek, tym razem dotyczący 68-letniej pacjentki, która skorzystała z nieco innego systemu technologicznego.

Otrzymała cztery czujniki, każdy o wielkości ziarnka popcornu, które są wypełnione elektrodami. Zostały one wszczepione w zewnętrzne warstwy jej mózgu, a następnie połączone z komputerami szkolonymi z użyciem AI do uczenia się, jakie sygnały mózgowe pacjentki odpowiadają mowie.

68-letnia pacjentka, Pat Bennet, odzyskała możliwość komunikacji z innymi
68-letnia pacjentka, Pat Bennet, odzyskała możliwość komunikacji z innymi | Stanford Medicine

Wspomniana kobieta została natomiast zdiagnozowana 11 lat temu z boczno-szczękowym zanikiem mięśni. To Lou Gehriga — postępująca choroba neurodegeneracyjna, która dotyka komórek nerwowych w mózgu i rdzeniu kręgowym, prowadząc do stopniowego zaniku mięśni. Nie ma dla niej lekarstwa, a leczenie skupia się głównie na łagodzeniu objawów i poprawie jakości życia pacjentów.

68-letnia pacjentka ma chorobę rozwiniętą do tego stopnia, że nie może już mówić w sposób zrozumiały. Badacze z Uniwersytetu Stanforda skonfigurowali system interfejs-mózg i zaczęli wdrażać treningi, które trwały przez cztery miesiące. Były to sesje, w których system rozpoznawał i tłumaczył sygnały mózgowe na tekst, aż doszedł do poziomu ok. 62 słów na minutę. W trakcie pracy korzystano z zestawu składającego się z ok. 120 tys. słów i osiągnięto dokładność w ok. 76 proc. przypadków.

Dr Jaimie Henderson, profesor neurochirurgii na Stanfordzie i współautor badania, stwierdził na łamach Nature, że to duże osiągnięcie. — Może pozwolić w przyszłości na uzyskanie prawdziwie płynnej mowy i rzeczywiste przywrócenie zdolności komunikacji i budowania więzi z innymi — powiedział.

To zresztą nie koniec możliwości. Jeśli naukowcy przeprowadziliby bardziej inwazyjny zabieg, umieszczając odpowiednie czujniki głębiej, mogliby uzyskać zdolność do odczytywania sygnałów pojedynczych neuronów. W rezultacie dokładność i jakość interfejsu mózg-komputer byłaby wyższa.

Technologia, jak widać, staje się coraz lepsza w zapewnianiu głosu tym, którzy go utracili. Ograniczeniem pozostaje inwazyjność operacji, ale też wysokie koszty. Potrzebne są jeszcze dodatkowe badania i prace nad poprawą systemów tego rodzaju, niemniej w najbliższych latach mają one być już dostarczane do większej liczby pacjentów.

Autor: Grzegorz Kubera, dziennikarz Business Insider Polska

Źródło https://businessinsider.com.pl/technologie/przelom-w-medycynie-sparalizowana-kobieta-odzyskuje-glos-dzieki-ai/bdd8s01

Popularny