O symulowaniu mózgu słów kilka

Z okazji pojawienia się nowego japońskiego superkomputera, 3 razy wydajniejszego niż poprzedni rekordzista, postanowiłem sprawdzić, jak wygląda obecnie kwestia symulowania pracy mózgu na superkomputerach.

Wciąż trwa dyskusja na temat tego, jak dokładnie trzeba odwzorować pracę neuronów, żeby uzyskać funkcjonalność prawdziwego mózgu. Dopóki komuś się to nie uda, kwestia pozostanie nierozstrzygnięta. Ale, co ciekawe, mimo różnic koncepcyjnych, różne zespoły mają podobne przewidywania co do wymaganej mocy obliczeniowej.

Przykładowo, Blue Brain Project, opiera się na dokładnym mapowaniu wszystkich połączeń synaptycznych w mózgu. Zaczęli w 2006 roku od jednej kolumny neuronalnej mózgu szczura (ok. 30 milionów synaps) i stopniowo rozszerzają swoje symulacje. Projektują specjalne mikroskopy do szybkiego mapowania połączeń i przymierzają się do wielkiego, 10-letniego projektu Human Brain Project. Według nich, ilość informacji potrzebnej do odtworzenia w całości mózgu człowieka w komputerze, to 500 petabajtów. Superkomputery potrafiące przetworzyć taką ilość informacji są oczekiwane około 2019 roku.

Tymczasem IBM niezależnie rozwija swój project, nazwany Blue Matter. Zamiast mapować pojedyncze neurony, budują po prostu sieci o podobnej architekturze jak mózgi ssaków. W 2009 roku doszli do skali odpowiadającej wielkością mózgowi kota (10 bilionów synaps), symulowanej w tempie 80 razy wolniejszym, niż rzeczywisty. Ten projekt został nagrodzony Gordon Bell Prize (co zresztą ostro skrytykował autor Blue Brain Project, nazywając te symulacje „bezwartościowymi”).

Swoją symulację z 2009 roku zrealizowali na superkomputerze Blue Gene/P Dawn, o wydajności ok 400 TFLOPS. Symulacja o skali ludzkiego mózgu wymaga ponad 20 razy więcej synaps. Biorąc pod uwagę, że powinna być też 80 razy szybsza, potrzebują komputera o wydajności ok. 1 EFLOPS. Takie superkomputery są oczekiwane około 2019 roku.

Wracając do japońskiego rekordzisty. Ma on wydajność 8 PFLOPS, czyli jest już 20 razy wydajniejszy, niż komputer Dawn. Teoretycznie mógłby pewnie udźwignąć symulację o skali ludzkiego mózgu (w tempie 1/80). Nawet jeśli na nim nie takiego nie uruchomią, to IBM już buduje swoje superkomputery Blue Waters i Sequoia o jeszcze większej wydajności. Na nich już tę symulację na pewno przetestują. Co z tego wyniknie, trudno powiedzieć. Mózgu działającego kilkadziesiąt razy wolniej niż ludzki raczej niczego nie nauczymy, ale możemy go wykorzystać do testowania różnych modeli i optymalizowania ich. Najbliższe lata mogą przynieść dużo ciekawych odkryć dotyczacych pracy mózgu. A pod koniec dekady mogą nastąpić jeszcze ciekawsze wydarzenia.