Technologie przyszłości są wśród nas — wcale nie ukrywane, tylko nierozumiane. Na przykład interfejsy mózg-komputer: teorie spiskowe wiążą je z bezpośrednim odczytem myśli, z kolei sprzedawane pod tym hasłem zabawki zwykle nie mają z mózgiem prawie nic wspólnego. A prawda leży pośrodku, tylko czasami trudno do niej dotrzeć. Pisarz Arthur A. Clarke twierdzi wręcz, że wystarczająco zaawansowanej technologii nie da się odróżnić od magii. Ale Richard Feynman (a wcześniej Albert Einstein) powtarzał, że jeżeli czegoś nie potrafisz wytłumaczyć w prosty sposób to znaczy, że tak naprawdę sam tego nie rozumiesz. Ja jestem fizykiem, więc poniższy esej wytłumaczy tajemnice jasno i zrozumiale, bez odwoływania się do magii.

Zacznijmy od definicji: interfejs mózg-komputer (ang. brain-computer interface, BCI) to system oferujący bezpośrednie sterowanie urządzeniem zewnętrznym za pomocą samego mózgu, bez pośrednictwa mięśni. Tym urządzeniem jest komputer, który może już dalej bez trudu sterować dowolną maszyną.

Gdy przestają działać mięśnie, wyłączają się wszystkie normalne kanały komunikacji: myszka, klawiatura, mowa, gesty, mruganie… W skrajnym przypadku stanu całkowitego zamknięcia, do którego prowadzą choroby neurodegeneracyjne, sygnały sterujące trzeba odczytać bezpośrednio z mózgu. Przypomnijmy najpierw, co wiemy a czego nie wiemy o jego działaniu.

Wiemy, że mózg składa się z niecałych stu miliardów komórek zwanych neuronami. Pobudzenie elektryczne jednego neuronu propaguje się przez synapsy do dziesiątków tysięcy bliższych lub dalszych sąsiadów. Jeśli do neuronu dotrze tą drogą wystarczająco dużo pobudzeń, wygeneruje on potencjał, który też propaguje się przez dziesiątki tysięcy synaps… i tak dalej. Znamy i rozumiemy równania opisujące propagację tych potencjałów w pojedynczym neuronie, depolaryzację błony itp. Od strony technicznej wiemy prawie wszystko.

Nie wiemy, jak w tym kłębku wzajemnie pobudzających się komórek rodzą się świadomość i uczucia — ba, nawet sterowanie ruchem ludzkiej ręki jest dla nas wciąż niedoścignionym wzorem i tajemnicą.

Potrafimy mierzyć potencjały neuronów wewnątrz mózgu — ale wymaga to wtyczki podobnej do tej z filmu „Matrix”, więc wygodniej mierzyć średnie potencjały docierające do powierzchni głowy. I to jest właśnie elektroencefalogram, czyli EEG. Od ponad 80 lat badamy EEG aby dowiedzieć się czegoś o funkcjonowaniu mózgu, ale postęp jest powolny. Dlaczego?

Spróbujmy sobie wyobrazić podobne do EEG badanie, w którym pacjentem będzie komputer. Zmierzymy średnie pole elektryczne wokół centralnej jednostki komputera — na szczęście procesor, podobnie jak mózg, też działa „na prąd”. Co zobaczymy w takim sygnale? Na pewno będzie widać, kiedy komputer jest wyłączony. Podobnie w EEG — złośliwi twierdzą, że najlepiej nadaje się do diagnozy śmierci klinicznej. Jeśli już jest włączony, to im intensywniej działa tym mierzone pole będzie silniejsze. Ale czy akurat oglądamy film, czy wykonujemy obliczenia naukowe — trudno powiedzieć. Chyba, że potencjały pojawiają się głównie w okolicy koprocesora, odpowiedzialnego za obliczenia zmiennoprzecinkowe. Ale co konkretnie jest liczone? Znów trudno powiedzieć. Chyba, że zaobserwujemy jakieś charakterystyczne dla danego rodzaju obliczeń cykle… Podobnie w EEG poruszamy się trochę na ślepo. Przez 80 lat udało nam się skojarzyć pewne typy cyklicznej aktywności ze stadiami snu czy napadami epileptycznymi, ale, podobnie jak z „badania” pola elektrycznego wokół procesora, nie odczytamy dokładnie co robi komputer, tak z EEG nie odczytamy myśli.

W takim razie, jak można sterować komputerem za pomocą myśli? Jest kilka pomysłów. Przez 80 lat przyglądania się EEG zauważyliśmy kilka prostych zjawisk, związanych z reakcją mózgu na różne bodźce. Na przykład widoczne w zapisie EEG potencjały wywołane zależą od tego, jak bardzo konkretny bodziec przykuwa naszą uwagę. Pokazane w serii fotografii zdjęcie miejsca zbrodni może wywołać silniejszy potencjał u mordercy który zeznaje, że nigdy tego miejsca nie widział. Ten potencjał, zwany P300 (występuje ok. 300 milisekund po bodźcu) może też posłużyć do stworzenia interfejsu mózg-komputer: jeśli migać będą kolejne literki, a my będziemy koncentrować uwagę tylko na „D”, ignorując pozostałe, to komputer powinien odczytać silniejszy potencjał P300 w momentach, gdy miga „D”. Czyli możemy pisać, tylko za pomocą myśli. Nie jest to takie proste, bo w mózgu naraz dzieje się mnóstwo innych rzeczy i potencjały giną w “szumie” niezwiązanych z bodźcem myśli, więc dla pewności każda literka miga zwykle kilka razy. Również ciągłe koncentrowanie uwagi na wybranych bodźcach nie jest wbrew pozorom łatwe, pomaga na przykład liczenie mignięć.

Tak właśnie działają współczesne interfejsy mózg-komputer. Poza P300 wykorzystywane są jeszcze inne potencjały, na przykład w niektórych systemach próbujemy na podstawie EEG odróżnić wyobrażenia ruchu lewą i prawą ręką. W każdym razie nie jest to odczyt myśli, tylko świadomie generowanych intencji. Największy problem, z którym nie bardzo potrafimy sobie poradzić polega na tym, że EEG jest elektrycznym śladem nie tylko wybranych myśli, ale wszystkich zachodzących w danej chwili w mózgu procesów, i poza wspomnianymi powyżej nie ma wielu pomysłów na to, jak odseparować odpowiadające im sygnały.

Jest też mniejszy problem, z którym potrafimy sobie poradzić, ale nie zawsze chcemy. Podobnie jak różne procesy zachodzące wewnątrz mózgu, do EEG dodają się też potencjały spoza mózgu. Wszystkie nasze mięśnie, podobnie jak mózg, też działają „na prąd”, i prąd ten jest niestety bez porównania silniejszy niż to, co do powierzchni głowy dociera z mózgu. Dlatego właśnie przy badaniu EEG elektrody umieszcza się we włosach (bo tam jest najmniej mięśni), należy się rozluźnić czyli zmniejszyć napięcie mięśni i nie mrugać, bo ruch gałki ocznej też generuje prąd.

Chyba, że właśnie sygnały z mięśni i oczu chcemy wykorzystać do sterowania, tak jak w grze „mindball” prezentowanej w warszawskim Centrum Nauki Kopernik: w elektrodach umieszczonych na czole ślady EEG są zdominowane przez potencjały pochodzące od mięśni czoła i ruchów gałki ocznej. Są one bez porównania silniejsze niż to, co dociera do tych elektrod z mózgu, i bardzo łatwe do odczytu: sygnał pojawia się tylko wtedy, gdy mięsień pracuje, a oko się porusza — wystarczy tym zdarzeniom przypisać komendy. Mózg „niestety” działa bez przerwy.

Jak widać, znacznie łatwiej sterować za pomocą sygnałów odczytywanych z mięśni, i nie ma w tym nic złego, jeśli produktu nie próbujemy sprzedawać jako interfejsu mózg-komputer. Jeśli przyjąć, że dopuszczamy w tej dziedzinie pośrednictwo mięśni, należałoby do niej włączyć na przykład klawiaturę: komentarze na forach internetowych wpisywane są za jej pośrednictwem z użyciem mieśni, ale, choć trudno w to czasem uwierzyć, w większości przypadków powstają w mózgu człowieka.

Wróćmy do poruszonego we Wstępie tematu niepełnosprawnych o dramatycznie ograniczonych możliwościach komunikacji, żyjących w piekle zamknięcia. Ostatni krąg tego piekła to stan całkowitego zamknięcia, w którym przestały działać motoneurony, czyli kable przewodzące decyzje z mózgu do mięśni, ale mózg pozostaje w pełni sprawny. Dzieje się tak w końcowym stadium stwardnienia zanikowego bocznego (ALS), na które choruje na przykład wybitny astrofizyk Steven Hawking. Wyłączenie sterowania kluczowymi dla życia mięśniami prowadziło kiedyś do nieuchronnej śmierci — dzisiaj dzięki postępom medycyny potrafimy podtrzymywać zanikające funkcje życiowe, ale nie potrafimy zapewnić komunikacji. Wtedy jedyną nadzieją pozostaje interfejs mózg-komputer.

W roku 2008 przeprowadziłem pierwszy w Polsce publiczny pokaz działania BCI. Niecałe 4 lata od rozpoczęcia badań prezentowaliśmy na CeBIT najnowocześniejsze i najszybsze na tych targach Urządzenie BCI, nadrabiając w ten sposób kilkunastoletnie opóźnienie Polski w tej dziedzinie. Efekty tej działalności były nieoczekiwane: z jednej strony kolejne ministerstwa RP odrzuciły siedem kolejnych wniosków o finansowanie badań nad BCI, z drugiej strony zaczęli się zgłaszać niepełnosprawni o dramatycznie ograniczonych możliwościach komunikacji, których nadzieje rozbudziły prezentacje naszych sukcesów w mediach. Wtedy nastąpiła twarda konfrontacja nauki z rzeczywistością: działalność akademicka, finansowana z nakładów na naukę, kończy się na prototypach — a stąd do systemu gotowego do stosowania w praktyce codziennej zwykle daleko. Jedynym wyjściem okazało się założenie firmy.

Najpierw wzięliśmy się za to, na czym znamy się najlepiej, czyli EEG. W oparciu o otwarte biblioteki dostępne na licencji GPL, w tym również tworzone do celów naukowych w Uniwersytetach Warszawy i Nottingham, stworzyliśmy pierwszy w świecie profesjonalny system EEG oparty całkowicie o wolne (jak w słowie „wolność”) oprogramowanie. Oparcie na licencji GPL oznacza przejście do równoległego świata, w którym każdy problem rozwiązuje się tylko raz, a dokładny opis tego rozwiązania (czyli kod źródłowy programów) jest dostępny dla wszystkich. Dzięki temu na rozwiązaniach z systemu GNU/Linux opiera się na przykład Android. Rynek profesjonalnych systemów EEG wygląda odwrotnie niż rynek nowoczesnych telefonów: stosunkowo niewiele firm produkuje sprzęt wysokiej klasy, sprzedawany użytkownikom przez wielu integratorów, którzy uzupełniają go o własne oprogramowanie. Gdyby każdy producent musiał utrzymywać zespół programistów tworzących i rozwijających własny system (jak Apple), współczesne telefony byłyby znacznie droższe. Firma BrainTech zmieniła rynek systemów EEG tak, jak powstanie GNU/Linuksa zmieniło rynek systemów operacyjnych.

Eksploracją równoległego świata okazała się również analiza potrzeb niepełnosprawnych żyjących w sytuacji podobnej do bohatera filmu „Chce się żyć”. Okazało się, że w zdecydowanej większości przypadków do komunikacji wystarczą istniejące technologie, znacznie prostsze i tańsze niż BCI — niestety wciąż za drogie dla większości potrzebujących. Na przykład okulografia (ang. eyetracking), czyli śledzenie ruchów oka. Wykorzystujemy ją szeroko w neuromarketingu do badania, które elementy reklamy czy strony internetowej najbardziej przykuwają wzrok. Obiektywne odpowiedzi na takie pytania warte są dużych pieniędzy, dlatego cena systemu nie stanowi problemu. Inaczej sprawa wygląda gdy chcemy taki system udostępnić niepełnosprawnemu, dla którego ruchy oka są jedynym sposobem komunikacji ze światem. Wtedy 60 tysięcy złotych staje się zwykle barierą nie do przebycia. A potrzebujących jest więcej, niż nam się wydaje. Czasem słyszymy o kimś sławnym, jak wspomniany Steven Hawking czy genialny gitarzysta Jason Becker, któremu ALS odebrało panowanie nad mięśniami w wieku 20 lat, ale dzięki ruchom oczu wciąż porozumiewa się i komponuje (zob. jasonbeckerguitar.com), Jean-Paul Bauby, redaktor naczelny magazynu Elle, który po wylewie mógł tylko mrugać okiem, i napisał w ten sposób książkę „Motyl i skafander”, czy artysta graffiti Tempt1 (Tony Quan), który tworzy mimo ALS dzięki złożonemu przez przyjaciół z tanich części i wolnego oprogramowania systemowi eyewriter.org.

Ale nie wszyscy mieli szansę stać się sławni i bogaci zanim nadeszła choroba. Historie dziesiątków tysięcy niepełnosprawnych żyjących w piekle zamknięcia są zwykle bliższe historii Przemka Chrzanowskiego, który od urodzenia nie mógł nawiązać kontaktu z otoczeniem — tak opisuje swoją sytuację z tych czasów: nazywali mnie debilem, kłodą, rośliną. Wyłem w duchu z rozpaczy. Próbowałem oczyma dać znać, że wszystko rozumiem. Na motywach jego historii powstał scenariusz filmu „Chce się żyć”, ale smutną rzeczywistość opisuje raczej reportaż „Jak motyl”, który można obejrzeć na vod.pl.

Nierówny dostęp do najnowszych zdobyczy medycyny zaczyna dominować motywy współczesnych dystopii. W dziecinnie komiksowym wydaniu widać to w filmie “Elysium”, który proponuje klasyczne dla gatunku rozwiązanie: wystarczy dokopać Niedobrym i Bogatym, żeby dobrodziejstwa rozlały się na całą ludzkość. Ale jest też prawdziwa i realna droga, trudniejsza i mniej widowiskowa. Prowadzi przez wspomniany wcześniej równoległy świat oprogramowania wolnego jak w słowie “wolność”.

W systemach komunikacji dla niepełnosprawnych najdroższe jest właśnie oprogramowanie. Ale jeśli zbudujemy system na licencji GPL, to koszt licencji oprogramowania spada do zera. Laptop stanowiący niezbędny element systemu komunikacji to coraz mniejszy wydatek. Pozostałe elementy, dzięki coraz szerszej dostępności tanich i zaawansowanych elementów elektronicznych oraz taniejącym drukarkom 3D też powoli zaczynają przenikać do równoległego świata, pod hasłem “Open Hardware”. Zastąpienie dystopii przez utopię staje się coraz realniejsze.

Niestety nie znaczy to, że powstanie masy krytycznej zaawansowanych technologii spowoduje magiczne rozwiązanie problemów. Trzeba się nad nimi konkretnie pochylić: zebrać opinie i potrzeby niepełnosprawnych, wybrać istniejące elementy, stworzyć brakujące, zintegrować, uruchomić i przetestować całość na zdrowych, poprawić, przedstawić docelowym użytkownikom, uzwzględnić ich opinie, zmienić, poprawić i przetestować — i tak aż do osiągnięcia zadowalającego efektu. Potem trzeba to wszystko opisać i upowszechnić w taki sposób, żeby informacja dotarła do potrzebujących, a korzystać z wyników mogli wszyscy. Taki jest mniej więcej plan pracy w projekcie PISAK (polski integracyjny system alternatywnej komunikacji), realizowanym przez BrainTech we współpracy z Wydziałem Fizyki UW i Stowarzyszeniami “Ożarowska” oraz “Mówić bez słów”, dofinansowanym przez NCBiR w programie “Innowacje Społeczne”. Przemek Chrzanowski jest w pierwszej grupie użytkowników testujących powstający system.