Mistycyzm mózgowy: czy mózg jest duszą, komputerem, czy czymś więcej? Czym ludzki mózg różni się od komputera?Zjawiska, do jakich zdolny jest ludzki mózg.

Wyobraźcie sobie eksperymentalny nanolek, który może łączyć umysły różnych ludzi. Wyobraźcie sobie grupę przedsiębiorczych neurologów i inżynierów odkrywających nowy sposób wykorzystania tego leku – uruchamiający system operacyjny bezpośrednio w mózgu. Wtedy ludzie będą mogli porozumiewać się ze sobą telepatycznie za pomocą czatu mentalnego, a nawet manipulować ciałami innych ludzi, podporządkowując sobie działania ich mózgów. I choć taka jest fabuła książki science fiction Rameza Naama „Nexus”, przyszłość opisywanej przez niego technologii nie wydaje się już tak odległa.

Jak podłączyć mózg do tabletu i pomóc sparaliżowanym pacjentom w komunikacji

Dla pacjenta T6 rok 2014 był najszczęśliwszym rokiem w jego życiu. To był rok, w którym mogła sterować tabletem Nexus za pomocą promieniowania elektromagnetycznego swojego mózgu i dosłownie przenieść się z epoki lat 80. XX wieku z dyskowym systemem operacyjnym (DOS) do nowej ery systemu operacyjnego Android.

T6 to 50-letnia kobieta chora na stwardnienie zanikowe boczne, zwane także chorobą Lou Gehriga, które powoduje postępujące uszkodzenie neuronów ruchowych i paraliż wszystkich narządów ciała. T6 jest prawie całkowicie sparaliżowany od szyi w dół. Do 2014 roku była całkowicie niezdolna do interakcji ze światem zewnętrznym.

Paraliż może również wystąpić w wyniku uszkodzenia szpiku kostnego, udaru lub chorób neurodegeneracyjnych, które blokują zdolność mówienia, pisania lub ogólnie komunikowania się z innymi.

Era interfejsów mózg-maszyna rozkwitła dwie dekady temu wraz ze stworzeniem urządzeń wspomagających, które miały pomóc takim pacjentom. Rezultat był fantastyczny: śledzenie ruchów gałek ocznych i śledzenie głowy umożliwiło śledzenie ruchów oczu i wykorzystywanie ich jako danych wyjściowych do sterowania kursorem myszy na ekranie komputera. Czasami użytkownik mógł nawet kliknąć łącze, skupiając wzrok na jednym punkcie ekranu. Nazywa się to „czasem opóźnienia”.

Jednakże systemy śledzenia wzroku były uciążliwe dla oczu użytkownika i zbyt drogie. Następnie pojawiła się technologia protez neuronowych, kiedy wyeliminowano pośrednika w postaci narządu zmysłów i mózg skomunikował się bezpośrednio z komputerem. Do mózgu pacjenta wszczepia się mikroczip, a sygnały neuronowe powiązane z pragnieniami lub intencjami można w czasie rzeczywistym dekodować za pomocą skomplikowanych algorytmów i wykorzystywać do sterowania kursorem w interfejsie komputera.

Dwa lata temu pacjentce T6 wszczepiono po lewej stronie mózgu 100-kanałową elektrodę, która kontroluje ruch. W tym samym czasie laboratorium Stanforda pracowało nad stworzeniem prototypu protezy, która umożliwiłaby paraplegikom wpisywanie słów na specjalnie zaprojektowanej klawiaturze, po prostu myśląc o tych słowach. Urządzenie działało w następujący sposób: elektrody wbudowane w mózg rejestrowały aktywność mózgu pacjentki w momencie, gdy spojrzała na żądaną literę na ekranie, przekazywały tę informację do neuroprotezy, która następnie interpretowała sygnały i zamieniała je w ciągłą kontrolę kursor i kliknie na ekranie.

Jednak proces ten był niezwykle powolny. Stało się jasne, że wyjściem będzie urządzenie, które będzie działać bez bezpośredniego fizycznego połączenia z komputerem za pomocą elektrod. Sam interfejs też musiał wyglądać ciekawiej niż w latach 80-tych. Zespół BrainGate Clinical Institute odpowiedzialny za te badania zdał sobie sprawę, że stosowany przez nich system „wskaż i kliknij” przypomina naciskanie palca na ekranie dotykowym. A ponieważ większość z nas na co dzień korzysta z tabletów z ekranem dotykowym, ich rynek jest ogromny. Wystarczy wybrać i kupić któryś z nich.

Sparaliżowany pacjent T6 potrafił „kliknąć” w ekran tabletu Nexus 9. Neuroproteza komunikowała się z tabletem za pomocą protokołu Bluetooth, czyli niczym bezprzewodowa mysz.

Zespół pracuje obecnie nad wydłużeniem żywotności implantu, a także nad opracowaniem systemów umożliwiających wykonywanie innych manewrów motorycznych, takich jak wybieranie i przeciąganie oraz ruchy wielozmysłowe. Ponadto BrainGate planuje rozszerzyć swój program na inne systemy operacyjne.

Chip komputerowy wykonany z żywych komórek mózgowych

Kilka lat temu badaczom z Niemiec i Japonii udało się zasymulować 1 procent aktywności ludzkiego mózgu w ciągu jednej sekundy. Było to możliwe tylko dzięki mocy obliczeniowej jednego z najpotężniejszych superkomputerów na świecie.

Jednak ludzki mózg jest nadal najpotężniejszym, najbardziej energooszczędnym i wydajnym komputerem. Co by było, gdyby można było wykorzystać moc tego komputera do zasilania maszyn przyszłych generacji?

Choć może to zabrzmieć szalenie, neurobiolog Osh Agabi uruchomił projekt Koniku właśnie po to, aby zrealizować ten cel. Stworzył prototyp krzemowego chipa zawierającego 64 neurony. Pierwszym zastosowaniem tego rozwiązania był dron, który potrafi „wyczuć” zapach materiałów wybuchowych.

Pszczoły mają jedną z najbardziej wrażliwych zdolności węchowych. W rzeczywistości poruszają się nawet w przestrzeni dzięki zapachowi. Agabi stworzył drona, który dorównuje zdolności pszczół w zakresie rozpoznawania i interpretowania zapachów. Można go używać nie tylko do celów wojskowych i wykrywania bomb, ale także do badania pól uprawnych, rafinerii ropy naftowej – wszędzie tam, gdzie poziom bezpieczeństwa i higieny pracy można mierzyć zapachem.

Podczas procesu opracowywania Agabi i jego zespół rozwiązali trzy główne problemy: strukturę neuronów w taki sam sposób, w jaki są zbudowane w mózgu, odczytywanie i zapisywanie informacji do każdego pojedynczego neuronu oraz tworzenie stabilnego środowiska.

Technologia indukowanego różnicowania komórek pluripotencjalnych – metoda, w której dojrzała komórka, np. skóra, jest genetycznie integrowana z pierwotną komórką macierzystą, umożliwia dowolnej komórce przekształcenie się w neuron. Ale jak wszystkie elementy elektroniczne, żywe neurony potrzebują specjalnego siedliska.

Dlatego neurony umieszczono w skorupach z kontrolowanym środowiskiem, aby regulować temperaturę i poziom wodoru wewnątrz, a także dostarczać im energię. Ponadto taka powłoka pozwala kontrolować interakcję neuronów ze sobą.

Elektrody pod powłoką umożliwiają odczytywanie i zapisywanie informacji w neuronach. Agabi opisuje ten proces w następujący sposób:

„Otaczamy elektrody powłoką z DNA i wzbogaconych białek, która stymuluje neurony do tworzenia sztucznie ciasnych połączeń z tymi przewodnikami. Możemy zatem odczytywać informacje z neuronów i odwrotnie, wysyłać je do neuronów w ten sam sposób lub za pomocą procesów świetlnych lub chemicznych.

Agabi wierzy, że przyszłość technologii leży w odblokowaniu możliwości tzw. wetware – ludzkiego mózgu w korelacji z procesem maszynowym.

„Nie ma praktycznych ograniczeń co do wielkości naszych przyszłych urządzeń ani tego, jak inaczej możemy modelować mózg. Jedynym ograniczeniem jest biologia.”

W planach Konika na przyszłość będzie rozwój chipów:

  • z 500 neuronami, które będą sterować samochodem bez kierowcy;
  • z 10 000 neuronów - będzie w stanie przetwarzać i rozpoznawać obrazy tak jak robi to ludzkie oko;
  • ze 100 000 neuronów - stworzy robota z bodźcem wielozmysłowym, który będzie praktycznie nie do odróżnienia od człowieka pod względem właściwości percepcyjnych;
  • z milionem neuronów – da nam komputer, który będzie myślał sam.

Chip pamięci osadzony w mózgu

Każdego roku setki milionów ludzi doświadcza trudności z powodu utraty pamięci. Powody tego są różne: uszkodzenie mózgu, które nęka weteranów i piłkarzy, udary mózgu lub choroba Alzheimera, które objawiają się w starszym wieku, lub po prostu starzenie się mózgu, które czeka nas wszystkich. Doktor Theodore Berger, inżynier biomedyczny na Uniwersytecie Południowej Kalifornii, testuje implant wzmacniający pamięć, który naśladuje przetwarzanie sygnałów, gdy neurony nie przetwarzają nowych wspomnień długotrwałych, testuje projekt finansowany przez Agencję Zaawansowanych Projektów Badawczych Obrony (DARPA).

Aby urządzenie zadziałało, naukowcy muszą zrozumieć, jak działa pamięć. Hipokamp to obszar mózgu odpowiedzialny za przekształcanie wspomnień krótkotrwałych w długotrwałe. Jak on to robi? I czy można symulować jego działanie w chipie komputerowym?

„Zasadniczo pamięć to seria impulsów elektrycznych pojawiających się w czasie i generowanych przez określoną liczbę neuronów” – wyjaśnia Berger. „Jest to bardzo ważne, ponieważ oznacza, że ​​możemy sprowadzić ten proces do równania matematycznego i umieścić go w ramy procesu obliczeniowego.”

W ten sposób neurobiolodzy zaczęli dekodować przepływ informacji w hipokampie. Kluczem do tego rozszyfrowania był silny sygnał elektryczny, który przechodzi z obszaru narządu zwanego CA3, „wejściowego” hipokampa, do CA1, węzła „wyjściowego”. Sygnał ten jest osłabiony u osób z zaburzeniami pamięci.

„Gdybyśmy mogli odtworzyć to za pomocą chipa, moglibyśmy przywrócić lub nawet zwiększyć pojemność pamięci” – mówi Berger.

Trudno jest jednak prześledzić tę ścieżkę deszyfrowania, ponieważ neurony działają nieliniowo. I każdy drobny czynnik zaangażowany w ten proces może prowadzić do zupełnie odmiennych wyników.Jednak matematyka i programowanie nie stoją w miejscu i dziś razem mogą stworzyć najbardziej złożone struktury obliczeniowe z wieloma niewiadomymi i wieloma „wynikami”.

Na początku naukowcy szkolili szczury, aby naciskały jedną lub drugą dźwignię, aby otrzymać smakołyk. Gdy szczury zapamiętywały i przekształcały tę pamięć w pamięć długoterminową, badacze dokładnie rejestrowali i rejestrowali wszystkie transformacje neuronów, a następnie stworzyli chip komputerowy, korzystając z tego modelu matematycznego. Następnie wstrzyknęli szczurom substancję, która tymczasowo destabilizowała ich zdolność do zapamiętywania i wszczepili chip do mózgu. Urządzenie wpłynęło na narząd „wyjściowy” CA1 i nagle naukowcy odkryli, że szczurom przywrócono pamięć o tym, jak zdobyć smakołyk.

Na małpach przeprowadzono następujące testy. Tym razem naukowcy skupili się na korze przedczołowej, która odbiera i moduluje wspomnienia otrzymane z hipokampa. Zwierzętom pokazano serię obrazów, z których część została powtórzona. Po zarejestrowaniu aktywności neuronów w momencie rozpoznania tego samego obrazu stworzono model matematyczny i oparty na nim mikroukład. Następnie praca kory przedczołowej małp została stłumiona kokainą i naukowcom ponownie udało się przywrócić pamięć.

Kiedy eksperymenty przeprowadzono na ludziach, Berger wybrał 12 ochotników chorych na padaczkę z elektrodami wszczepionymi już do mózgu, aby wyśledzić źródło ich napadów. Powtarzające się napady niszczą kluczowe części hipokampu potrzebne do tworzenia wspomnień długotrwałych. Jeśli na przykład zbadamy aktywność mózgu podczas napadów padaczkowych, być może uda się odzyskać wspomnienia.

Podobnie jak w poprzednich eksperymentach, przechwycono specjalny ludzki „kod pamięci”, który mógł następnie przewidzieć wzór aktywności komórek CA1 na podstawie danych przechowywanych lub pochodzących z CA3. W porównaniu z „prawdziwą” aktywnością mózgu taki chip działa z około 80% dokładnością.

Jest zbyt wcześnie, aby mówić o konkretnych wynikach eksperymentów na ludziach. W przeciwieństwie do kory ruchowej mózgu, gdzie każda sekcja odpowiada za konkretny narząd, hipokamp jest zorganizowany chaotycznie. Jest też zbyt wcześnie, aby powiedzieć, czy taki implant będzie w stanie przywrócić pamięć osobom cierpiącym na uszkodzenie „wychodzącej” części hipokampa.

Kwestia uogólnienia algorytmu dla takiego chipa pozostaje problematyczna, gdyż prototyp eksperymentalny tworzony był na indywidualnych danych od konkretnych pacjentów. A co jeśli kod pamięci jest inny dla każdego, w zależności od rodzaju przychodzących danych? Berger przypomina nam, że mózg jest również ograniczony przez swoją biofizykę:

„Sposób przetwarzania sygnałów elektrycznych w hipokampie jest ograniczona i choć jest ich wiele, są one ograniczone i skończone” – mówi naukowiec.

Pomimo najlepszych wysiłków neurobiolodzy i psychologowie poznawczy nigdy nie znajdą kopii Piątej Symfonii Beethovena, słów, obrazów, reguł gramatycznych ani żadnych innych zewnętrznych sygnałów w mózgu. Oczywiście ludzki mózg nie jest całkowicie pusty. Ale nie zawiera większości rzeczy, o których ludzie myślą, że zawiera – nawet tak prostych rzeczy, jak „wspomnienia”.

Nasze błędne przekonania na temat mózgu mają głębokie korzenie historyczne, ale szczególnie zaniepokoiło nas wynalezienie komputerów w latach czterdziestych XX wieku. Od pół wieku psychologowie, lingwiści, neurolodzy i inni eksperci zajmujący się ludzkimi zachowaniami argumentują, że ludzki mózg działa jak komputer.

Aby zrozumieć, jak niepoważny jest ten pomysł, przyjrzyj się mózgom dzieci. Zdrowy noworodek ma więcej niż dziesięć odruchów. Odwraca głowę w kierunku, gdzie jest podrapany jego policzek i ssie wszystko, co wchodzi mu do ust. Wstrzymuje oddech po zanurzeniu w wodzie. Chwyta rzeczy w dłonie tak mocno, że prawie jest w stanie utrzymać swój własny ciężar. Ale co być może najważniejsze, noworodki mają potężne mechanizmy uczenia się, które pozwalają im szybko się zmieniać, dzięki czemu mogą skuteczniej wchodzić w interakcje z otaczającym je światem.

Odczucia, odruchy i mechanizmy uczenia się są tym, co mamy od samego początku, a jeśli się nad tym zastanowić, to całkiem sporo. Gdybyśmy nie mieli którejkolwiek z tych umiejętności, prawdopodobnie mielibyśmy trudności z przetrwaniem.

Ale oto, czego nie mamy od urodzenia: informacja, dane, reguły, wiedza, słownictwo, reprezentacje, algorytmy, programy, modele, wspomnienia, obrazy, procesory, podprogramy, kodery, dekodery, symbole i bufory – elementy, które umożliwiają cyfrowe komputery, aby zachowywały się w miarę racjonalnie. Te rzeczy nie tylko nie są w nas od urodzenia, ale nie rozwijają się w nas przez całe życie.

Nie trzymamy się słów i zasad, które mówią nam, jak ich używać. Nie tworzymy obrazów impulsów wzrokowych, nie przechowujemy ich w buforze pamięci krótkotrwałej, a następnie nie przenosimy obrazów do urządzenia pamięci długotrwałej. Nie przywołujemy informacji, obrazów, słów z rejestru pamięci. Wszystko to robią komputery, ale nie istoty żywe.

Komputery dosłownie przetwarzają informacje - liczby, słowa, formuły, obrazy. Informacje należy najpierw przetłumaczyć na format rozpoznawalny przez komputer, to znaczy na zestawy zer i jedynek („bity”) zebrane w małe bloki („bajty”).

Komputery przenoszą te zbiory z miejsca na miejsce do różnych obszarów pamięci fizycznej, realizowanych jako komponenty elektroniczne. Czasem kopiują zbiory, czasem na różne sposoby je przekształcają – np. poprawiając błędy w rękopisie czy retuszując fotografię. Zasady, których przestrzega komputer podczas przenoszenia, kopiowania lub pracy z tablicą informacji, są również przechowywane wewnątrz komputera. Zbiór reguł nazywany jest „programem” lub „algorytmem”. Zbiór współpracujących ze sobą algorytmów, których używamy do różnych celów (na przykład kupowania akcji lub randek online) nazywany jest „aplikacją”.

Są to znane fakty, ale należy je przedstawić, aby wszystko było jasne: komputery działają w oparciu o symboliczną reprezentację świata. Przechowują i odzyskują. Naprawdę przetwarzają. Mają pamięć fizyczną. Pod każdym względem kierują się algorytmami.

Jednak ludzie nic takiego nie robią. Dlaczego więc tak wielu naukowców mówi o naszej aktywności umysłowej, jakbyśmy byli komputerami?

W 2015 roku ekspert ds. sztucznej inteligencji George Zarkadakis wydał książkę In Our Image, w której opisuje sześć różnych koncepcji, których ludzie używali w ciągu ostatnich dwóch tysięcy lat do opisu ludzkiej inteligencji.

W najwcześniejszej wersji Biblii ludzie zostali stworzeni z gliny lub błota, które następnie inteligentny Bóg napełnił swoim duchem. Duch ten „opisuje” nasz umysł – przynajmniej z gramatycznego punktu widzenia.

Wynalazek hydrauliki w III wieku p.n.e. doprowadził do popularności hydraulicznej koncepcji ludzkiej świadomości. Pomysł był taki, że przepływ różnych płynów w organizmie – „płynów ustrojowych” – odpowiadał zarówno za funkcje fizyczne, jak i duchowe. Koncepcja hydrauliczna przetrwała ponad 1600 lat, cały czas hamując rozwój medycyny.

W XVI wieku pojawiły się urządzenia napędzane sprężynami i przekładniami, co zainspirowało René Descartesa do stwierdzenia, że ​​człowiek jest złożoną maszyną. W XVII wieku brytyjski filozof Thomas Hobbes zaproponował, że myślenie odbywa się poprzez drobne mechaniczne ruchy mózgu. Na początku XVIII wieku odkrycia w dziedzinie elektryczności i chemii doprowadziły do ​​​​powstania nowej teorii ludzkiego myślenia, ponownie o charakterze bardziej metaforycznym. W połowie XIX wieku niemiecki fizyk Hermann von Helmholtz, zainspirowany ostatnimi postępami w komunikacji, porównał mózg do telegrafu.

Albrechta von Hallera. Ikony anatomiczne

Matematyk John von Neumann stwierdził, że funkcja ludzkiego układu nerwowego jest „cyfrowa w przypadku braku dowodów przeciwnych”, rysując podobieństwa między elementami ówczesnych maszyn komputerowych a obszarami ludzkiego mózgu.

Każda koncepcja odzwierciedla najbardziej zaawansowane pomysły epoki, która ją zrodziła. Jak można było się spodziewać, zaledwie kilka lat po narodzinach technologii komputerowej w latach czterdziestych XX wieku argumentowano, że mózg działa jak komputer: sam mózg pełnił rolę fizycznego nośnika, a nasze myśli pełniły rolę oprogramowania.

Pogląd ten osiągnął swój szczyt w wydanej w 1958 roku książce The Computer and the Brain, w której matematyk John von Neumann dobitnie stwierdził, że funkcja ludzkiego układu nerwowego jest „cyfrowa, jeśli nie ma dowodów temu zaprzeczających”. Choć przyznał, że niewiele wiadomo na temat roli mózgu w funkcjonowaniu inteligencji i pamięci, naukowiec wskazał na podobieństwa pomiędzy elementami ówczesnych maszyn komputerowych a obszarami ludzkiego mózgu.

Zdjęcie: Shutterstock

Dzięki późniejszym postępom w technologii komputerowej i badaniach mózgu stopniowo rozwijały się ambitne interdyscyplinarne badania ludzkiej świadomości, oparte na założeniu, że ludzie, podobnie jak komputery, przetwarzają informacje. Praca ta obejmuje obecnie tysiące badań, jest finansowana w wysokości miliardów dolarów i była przedmiotem licznych artykułów. Książka Raya Kurzweila z 2013 roku How to Create a Mind: Unraveling the Mystery of Human Thinking ilustruje ten punkt, opisując „algorytmy”, jego techniki „przetwarzania informacji”, a nawet to, jak powierzchownie przypomina on swoją strukturą obwody scalone.

Idea ludzkiego myślenia jako urządzenia przetwarzającego informacje (IP) dominuje obecnie w ludzkiej świadomości zarówno wśród zwykłych ludzi, jak i wśród naukowców. Ale ostatecznie jest to tylko kolejna metafora, fikcja, którą przedstawiamy jako rzeczywistość, aby wyjaśnić coś, czego tak naprawdę nie rozumiemy.

Niedoskonałą logikę koncepcji OR można dość łatwo sformułować. Opiera się na błędnym sylogizmie z dwoma rozsądnymi założeniami i błędnym wnioskiem. Rozsądne założenie nr 1: Wszystkie komputery są zdolne do inteligentnego zachowania. Rozsądne założenie nr 2: Wszystkie komputery są procesorami informacji. Błędny wniosek: wszystkie obiekty zdolne do inteligentnego zachowania są procesorami informacji.

Jeśli zapomnimy o formalnościach, to pomysł, że ludzie powinni być przetwarzającymi informacje tylko dlatego, że komputery takie są, jest kompletnym absurdem, a kiedy ostatecznie porzuci się koncepcję AI, historycy prawdopodobnie spojrzą na to z tego samego punktu widzenia, co obecnie. koncepcje hydrauliczne i mechaniczne wydają się bzdurą.

Przeprowadź eksperyment: wylosuj z pamięci banknot sturublowy, a następnie wyjmij go z portfela i skopiuj. Czy widzisz różnicę?

Rysunek wykonany bez oryginału z pewnością okaże się okropny w porównaniu z rysunkiem wykonanym z życia. Chociaż w rzeczywistości widziałeś ten projekt ustawy ponad tysiąc razy.

Jaki jest problem? Czy „obraz” banknotu nie powinien być „przechowywany” w „rejestrze pamięci” naszego mózgu? Dlaczego nie możemy po prostu „odwołać się” do tego „obrazu” i przedstawić go na papierze?

Oczywiście, że nie i tysiące lat badań nie pozwolą nam określić umiejscowienia obrazu tego rachunku w ludzkim mózgu tylko dlatego, że go tam nie ma.

Pomysł propagowany przez niektórych naukowców, że indywidualne wspomnienia są w jakiś sposób przechowywane w specjalnych neuronach, jest absurdalny. Teoria ta przenosi między innymi kwestię struktury pamięci na jeszcze trudniejszy poziom: w jaki sposób i gdzie pamięć jest przechowywana w komórkach?

Sam pomysł, że wspomnienia są przechowywane w poszczególnych neuronach, jest absurdalny: jak i gdzie w komórce można przechowywać informacje? Nigdy nie będziemy musieli się martwić, że ludzki umysł oszaleje w cyberprzestrzeni i nigdy nie będziemy w stanie osiągnąć nieśmiertelności, przenosząc naszą duszę na inne medium.

Jedna z przewidywań, wyrażona w takiej czy innej formie przez futurystę Raya Kurzweila, fizyka Stephena Hawkinga i wielu innych, głosi, że jeśli ludzka świadomość jest jak program, to wkrótce powinny pojawić się technologie, które pozwolą na załadowanie jej do komputera , znacznie zwiększając w ten sposób zdolności intelektualne i umożliwiając nieśmiertelność. Pomysł ten stał się podstawą fabuły dystopijnego filmu Transcendencja (2014), w którym Johnny Depp wcielił się w naukowca podobnego do Kurzweila. Wrzucił swoje myśli do Internetu, powodując niszczycielskie konsekwencje dla ludzkości.

Kadr z filmu „Supremacja”

Na szczęście koncepcja OI nie ma nic wspólnego z rzeczywistością, więc nie musimy się martwić, że ludzki umysł oszaleje w cyberprzestrzeni i niestety nigdy nie będziemy w stanie osiągnąć nieśmiertelności, przenosząc nasze dusze na inne medium. Nie chodzi tylko o brak oprogramowania w mózgu, problem jest jeszcze głębszy – nazwijmy go problemem wyjątkowości i jest on jednocześnie fascynujący i przygnębiający.

Skoro w naszych mózgach nie ma ani „urządzeń pamięci”, ani „obrazów” bodźców zewnętrznych, a mózg zmienia się w ciągu życia pod wpływem warunków zewnętrznych, nie ma podstaw sądzić, że jakiekolwiek dwie osoby na świecie zareagują na bodźce zewnętrzne. ten sam bodziec w ten sam sposób. Jeśli ty i ja pójdziemy na ten sam koncert, zmiany, które zajdą w twoim mózgu po wysłuchaniu, będą się różnić od zmian, które zachodzą w moim mózgu. Zmiany te zależą od unikalnej struktury komórek nerwowych, która kształtowała się przez całe poprzednie życie.

Dlatego też, jak napisał Frederick Bartlett w swojej książce „Pamięć” z 1932 r., dwie osoby słyszące tę samą historię nie będą w stanie opowiedzieć jej dokładnie w ten sam sposób, a z biegiem czasu ich wersje tej historii będą do siebie coraz mniej podobne.

"Wyższość"

Myślę, że to bardzo inspirujące, ponieważ oznacza, że ​​każdy z nas jest naprawdę wyjątkowy, nie tylko pod względem genetycznym, ale także pod względem sposobu, w jaki nasze mózgi zmieniają się z biegiem czasu. Ale jest to również przygnębiające, ponieważ sprawia, że ​​i tak już trudna praca neuronaukowców staje się prawie niemożliwa do rozwiązania. Każda zmiana może dotyczyć tysięcy, milionów neuronów lub całego mózgu, a charakter tych zmian jest również w każdym przypadku wyjątkowy.

Co gorsza, nawet gdybyśmy mogli zarejestrować stan każdego z 86 miliardów neuronów mózgu i przeprowadzić symulację tego wszystkiego na komputerze, ten ogromny model byłby bezużyteczny poza ciałem, do którego należy mózg. Jest to chyba najbardziej irytujące błędne przekonanie na temat budowy człowieka, które zawdzięczamy błędnej koncepcji OI.

Komputery przechowują dokładne kopie danych. Mogą pozostać niezmienione przez długi czas nawet po wyłączeniu zasilania, natomiast mózg wspiera naszą inteligencję tylko tak długo, jak długo pozostaje żywy. Nie ma przełącznika. Albo mózg będzie pracował bez przerwy, albo nie będziemy istnieć. Co więcej, jak zauważył neurobiolog Stephen Rose w książce The Future of the Brain z 2005 roku, kopia aktualnego stanu mózgu może być bezużyteczna, jeśli nie zna się pełnej biografii jego właściciela, łącznie z kontekstem społecznym, w którym dana osoba dorastała.

Tymczasem ogromne sumy pieniędzy wydawane są na badania mózgu oparte na fałszywych pomysłach i obietnicach, które nie zostaną spełnione. Tym samym Unia Europejska uruchomiła projekt badania ludzkiego mózgu o wartości 1,3 miliarda dolarów.Władze europejskie uwierzyły w kuszące obietnice Henry'ego Markrama dotyczące stworzenia do 2023 roku działającego symulatora funkcjonowania mózgu w oparciu o superkomputer, co radykalnie zmieni podejście do leczenia choroby Alzheimera i innych dolegliwości oraz zapewnił projektowi niemal nieograniczone finansowanie. Niecałe dwa lata od rozpoczęcia projektu okazało się to porażką i Markram został poproszony o rezygnację.

Ludzie to żywe organizmy, a nie komputery. Zaakceptuj to. Musimy kontynuować ciężką pracę nad zrozumieniem siebie, ale nie marnować czasu na niepotrzebny bagaż intelektualny. W ciągu półwiecza swojego istnienia koncepcja OR przyniosła nam jedynie kilka przydatnych odkryć. Czas kliknąć przycisk Usuń.

Robert Epstein jest starszym psychologiem w Amerykańskim Instytucie Badań i Technologii Behawioralnych w Kalifornii. Jest autorem 15 książek i byłym redaktorem naczelnym „Psychology Today”.

Każdy ludzki mózg jest czymś wyjątkowym, niezwykle złożonym cudem natury, powstałym w ciągu milionów lat ewolucji. Dziś nasz mózg nazywany jest często prawdziwym komputerem. I to wyrażenie nie jest używane na próżno.

A dzisiaj postaramy się zrozumieć, dlaczego naukowcy nazywają ludzki mózg komputerem biologicznym i jakie ciekawe fakty na ten temat istnieją.

Dlaczego mózg jest komputerem biologicznym

Naukowcy z oczywistych powodów nazywają mózg komputerem biologicznym. Mózg, podobnie jak główny procesor każdego systemu komputerowego, odpowiada za działanie wszystkich elementów i węzłów systemu. Podobnie jak w przypadku pamięci RAM, dysku twardego, karty graficznej i innych elementów komputera, ludzki mózg kontroluje wzrok, oddychanie, pamięć i wszelkie inne procesy zachodzące w ludzkim ciele. Przetwarza otrzymane dane, podejmuje decyzje i wykonuje całą pracę intelektualną.

Jeśli chodzi o cechę „biologiczną”, jej obecność jest również dość oczywista, ponieważ w przeciwieństwie do konwencjonalnej technologii komputerowej, ludzki mózg ma pochodzenie biologiczne. Okazuje się więc, że mózg jest prawdziwym komputerem biologicznym.

Podobnie jak większość współczesnych komputerów, ludzki mózg ma ogromną liczbę funkcji i możliwości. Poniżej przedstawiamy kilka najciekawszych faktów na ich temat:

  • Nawet w nocy, kiedy nasze ciało odpoczywa, mózg nie zasypia, a wręcz przeciwnie, jest w stanie bardziej aktywnym niż w ciągu dnia;
  • Dokładna ilość miejsca lub pamięci, jaką można przechowywać w ludzkim mózgu, nie jest obecnie znana naukowcom. Sugerują jednak, że ten „biologiczny dysk twardy” może pomieścić do 1000 terabajtów informacji;
  • Średnia waga mózgu wynosi półtora kilograma, a jego objętość wzrasta, podobnie jak w przypadku mięśni, w wyniku treningu. To prawda, że ​​​​w tym przypadku trening polega na zdobywaniu nowej wiedzy, poprawie pamięci itp.;
  • Pomimo tego, że to mózg reaguje na wszelkie uszkodzenia ciała, wysyłając sygnały bólowe do odpowiednich części ciała, sam nie odczuwa bólu. Kiedy odczuwamy ból głowy, jest to jedynie ból tkanek i nerwów czaszki.

Teraz już wiesz, dlaczego mózg nazywa się komputerem biologicznym, co oznacza, że ​​przeszedłeś mały trening mózgu. Nie poprzestawaj na tym i systematycznie ucz się czegoś nowego.

Organ koordynujący i regulujący wszystkie istotne funkcje organizmu oraz kontrolujący zachowanie. Wszystkie nasze myśli, uczucia, doznania, pragnienia i ruchy są związane z pracą mózgu, a jeśli nie działa, osoba przechodzi w stan wegetatywny: utracona zostaje zdolność do wykonywania jakichkolwiek czynności, odczuć lub reakcji na wpływy zewnętrzne .

Komputerowy model mózgu

Uniwersytet w Manchesterze rozpoczął budowę pierwszego komputera nowego typu, którego konstrukcja naśladuje strukturę ludzkiego mózgu – podaje BBC. Koszt modelu wyniesie 1 milion funtów.

Komputer zbudowany na zasadach biologicznych – twierdzi profesor Steve Furber – powinien wykazywać się znaczną stabilnością działania. „Nasz mózg nadal funkcjonuje pomimo ciągłej niewydolności neuronów tworzących tkankę nerwową” – mówi Furber. „Ta właściwość jest bardzo interesująca dla projektantów zainteresowanych zwiększeniem niezawodności komputerów”.

Interfejsy mózgowe

Aby podnieść szklankę na kilka stóp, korzystając wyłącznie z energii mentalnej, czarodzieje musieli ćwiczyć przez kilka godzin dziennie.
W przeciwnym razie zasada dźwigni mogłaby z łatwością wycisnąć mózg przez uszy.

Terry Pratchett, „Kolor magii”

Oczywiście ukoronowaniem interfejsu człowiek-maszyna powinna być możliwość kontrolowania maszyny za pomocą samej myśli. A dostarczanie danych bezpośrednio do mózgu jest już szczytem możliwości wirtualnej rzeczywistości. Pomysł ten nie jest nowy i od wielu lat pojawia się w szerokiej gamie literatury science fiction. Oto prawie wszyscy cyberpunkowie z bezpośrednimi połączeniami z cyberdekami i biooprogramowaniem. I sterowanie dowolną technologią za pomocą standardowego złącza mózgowego (na przykład Samuel Delany w powieści „Nova”) i wiele innych ciekawych rzeczy. Ale science fiction jest dobre, ale co dzieje się w prawdziwym świecie?

Okazuje się, że rozwój interfejsów mózgowych (BCI czyli BMI – interfejs mózg-komputer i interfejs mózg-maszyna) idzie pełną parą, choć niewiele osób o tym wie. Oczywiście sukcesy są bardzo dalekie od tego, o czym piszą powieści science fiction, ale mimo to są dość zauważalne. Obecnie prace nad interfejsami mózgowo-nerwowymi prowadzone są głównie w ramach tworzenia różnorodnych protez i urządzeń ułatwiających życie osobom częściowo lub całkowicie sparaliżowanym. Wszystkie projekty można podzielić na interfejsy wejściowe (odbudowa lub wymiana uszkodzonych narządów zmysłów) i wyjściowe (kontrola protez i innych urządzeń).

We wszystkich przypadkach bezpośredniego wprowadzania danych konieczne jest wykonanie operacji polegającej na wszczepieniu elektrod do mózgu lub nerwów. W przypadku wyjścia można sobie poradzić z zewnętrznymi czujnikami do wykonania elektroencefalogramu (EEG). Jednak EEG jest raczej zawodnym narzędziem, ponieważ czaszka znacznie osłabia prądy mózgowe i można uzyskać jedynie bardzo ogólne informacje. Jeśli wszczepione zostaną elektrody, dane można pobrać bezpośrednio z pożądanych ośrodków mózgowych (na przykład ośrodków motorycznych). Ale taka operacja to poważna sprawa, dlatego na razie eksperymenty prowadzone są wyłącznie na zwierzętach.

W rzeczywistości ludzkość od dawna ma taki „pojedynczy” komputer. Według współzałożyciela magazynu Wired, Kevina Kelly’ego, miliony komputerów stacjonarnych, telefonów komórkowych, urządzeń PDA i innych urządzeń cyfrowych podłączonych do Internetu można uznać za elementy jednego komputera. Jego centralny procesor to wszystkie procesory wszystkich podłączonych urządzeń, jego dysk twardy to dyski twarde i dyski flash całego świata, a jego pamięć RAM to całkowita pamięć wszystkich komputerów. W każdej sekundzie komputer ten przetwarza ilość danych równą wszystkim informacjom zawartym w Bibliotece Kongresu, a jego systemem operacyjnym jest sieć WWW.

Zamiast synaps komórek nerwowych wykorzystuje funkcjonalnie podobne hiperłącza. Obydwa są odpowiedzialne za tworzenie powiązań pomiędzy węzłami. Każda jednostka myśli, taka jak idea, rośnie w miarę tworzenia coraz większej liczby połączeń z innymi myślami. Również w sieci: większa liczba powiązań z danym zasobem (punktem węzłowym) oznacza jego większe znaczenie dla Komputera jako całości. Co więcej, liczba hiperłączy w sieci WWW jest bardzo zbliżona do liczby synaps w ludzkim mózgu. Kelly szacuje, że do 2040 roku komputer planetarny będzie miał moc obliczeniową proporcjonalną do zbiorowej mocy mózgów wszystkich 7 miliardów ludzi, którzy do tego czasu będą zamieszkiwać Ziemię.

Ale co z samym ludzkim mózgiem? Od dawna przestarzały mechanizm biologiczny. Nasza istota szara działa z szybkością pierwszego procesora Pentium z 1993 roku. Innymi słowy, nasz mózg działa na częstotliwości 70 MHz. Poza tym nasze mózgi działają na zasadzie analogowej, zatem nie może być mowy o porównaniu z cyfrową metodą przetwarzania danych. Na tym polega główna różnica między synapsami a hiperłączami: synapsy reagując na otoczenie i napływające informacje, umiejętnie zmieniają organizm, który nigdy nie ma dwóch identycznych stanów. Z drugiej strony hiperłącze jest zawsze takie samo, w przeciwnym razie zaczną się problemy.

Trzeba jednak przyznać, że nasz mózg jest znacznie wydajniejszy od jakiegokolwiek sztucznego układu stworzonego przez człowieka. W całkowicie zagadkowy sposób wszystkie gigantyczne możliwości obliczeniowe mózgu mieszczą się w naszej czaszce, waży nieco ponad kilogram, a jednocześnie do funkcjonowania potrzebuje zaledwie 20 watów energii. Porównaj te liczby z 377 miliardami watów, które według przybliżonych obliczeń zużywa obecnie pojedynczy komputer. To notabene aż 5% światowej produkcji energii elektrycznej.

Sam fakt tak monstrualnego zużycia energii nigdy nie pozwoli, aby Unified Computer choćby zbliżył się do wydajności ludzkiego mózgu. Nawet w roku 2040, kiedy moc obliczeniowa komputerów stanie się niebotycznie wysoka, ich zużycie energii będzie nadal rosło.