Jak mózg przetwarza informacje? Neuronauka to nauka o układzie nerwowym, a zwłaszcza o mózgu. Chociaż dokładny sposób, w jaki mózg umożliwia myślenie, jest jedną z wielkich tajemnic nauki, fakt, że umożliwia on myślenie, był doceniany od tysięcy lat ze względu na dowody na to, że silne uderzenia w głowę mogą prowadzić do umysłowej niezdolności. Od dawna wiadomo również, że ludzkie mózgi są w jakiś sposób inne; około 335 roku p.n.e. Arystoteles napisał: „Ze wszystkich zwierząt człowiek ma największy mózg w stosunku do jego rozmiarów”. Jednak dopiero w połowie XVIII wieku powszechnie uznano mózg za siedlisko świadomości. Wcześniej lokalizacje kandydatów obejmowały serce i śledzionę. Badania Paula Broki (1824–1880) dotyczące afazji (deficytu mowy) u pacjentów z uszkodzeniem mózgu w 1861 r. Zapoczątkowały badanie organizacji funkcjonalnej mózgu poprzez zidentyfikowanie zlokalizowanego obszaru na lewej półkuli – obecnie nazywanego obszarem Broki – który jest odpowiedzialny za wytwarzanie mowy . W tamtym czasie było wiadomo, że mózg składa się głównie z komórek nerwowych lub neuronów, ale dopiero w 1873 roku Camillo Golgi (1843–1926) opracował technikę barwienia umożliwiającą obserwację pojedynczych neuronów (patrz rysunek 1.1). Technikę tę wykorzystał Santiago Ramon y Cajal (1852–1934) w swoich pionierskich badaniach organizacji neuronów. Obecnie powszechnie przyjmuje się, że funkcje poznawcze wynikają z elektrochemicznego działania tych struktur. Oznacza to, że zbiór prostych komórek może prowadzić do myśli, działania i świadomości. W zwięzłych słowach Johna Searle’a, mózgi są przyczyną umysłów. Części komórki nerwowej lub neuronu. Każdy neuron składa się z ciała komórkowego lub somy, które zawiera jądro komórkowe. Z ciała komórki rozgałęzia się szereg włókien zwanych dendrytami i jedno długie włókno zwane aksonem. Akson rozciąga się na dużą odległość, znacznie dłuższą niż wskazuje skala na tym schemacie. Zwykle akson ma 1 cm długości (100-krotność średnicy ciała komórki), ale może osiągnąć nawet 1 metr. Neuron tworzy połączenia z 10 do 100 000 innych neuronów w połączeniach zwanych synapsami. Sygnały są przekazywane z neuronu do neuronu w wyniku skomplikowanej reakcji elektrochemicznej. Sygnały kontrolują aktywność mózgu w krótkim okresie, a także umożliwiają długoterminowe zmiany w łączności neuronów. Uważa się, że te mechanizmy stanowią podstawę uczenia się mózgu. Większość przetwarzania informacji zachodzi w korze mózgowej, zewnętrznej warstwie mózgu. Podstawową jednostką organizacyjną wydaje się kolumna tkanki o średnicy około 0,5 mm, zawierająca około 20 000 neuronów i rozciągająca się na całą głębokość kory (około 4 mm u ludzi). Mamy teraz pewne dane na temat mapowania między obszarami mózgu i częściami ciała, które kontrolują lub z których otrzymują bodźce sensoryczne. Takie odwzorowania mogą się radykalnie zmienić w ciągu kilku tygodni, a niektóre zwierzęta wydają się mieć wiele map. Co więcej, nie do końca rozumiemy, jak inne obszary mogą przejąć funkcje, gdy jeden obszar zostanie uszkodzony. Nie ma prawie żadnej teorii na temat tego, jak przechowywana jest indywidualna pamięć lub jak działają funkcje poznawcze wyższego poziomu. Pomiar aktywności mózgu w stanie nienaruszonym rozpoczął się w 1929 roku wraz z wynalezieniem przez Hansa Bergera elektroencefalografu (EEG). Rozwój funkcjonalnego obrazowania metodą rezonansu magnetycznego (fMRI) dostarcza neuronaukowcom bezprecedensowo szczegółowe obrazy aktywności mózgu, umożliwiając pomiary, które w interesujący sposób odpowiadają zachodzącym procesom poznawczym. Są one wspierane przez postęp w jednokomórkowej rejestracji elektrycznej aktywności neuronów oraz przez metody optogenetyki , które umożliwiają zarówno pomiar, jak i kontrolę poszczególnych zmodyfikowanych neuronów. być wrażliwym na światło. Rozwój interfejsów mózg-maszyna zarówno do wykrywania, jak i sterowania motorycznego nie tylko obiecuje przywrócenie funkcji osobom niepełnosprawnym, ale rzuca również światło na wiele aspektów systemów neuronowych. Niezwykłym odkryciem z tej pracy jest to, że mózg jest w stanie przystosować się do pomyślnego połączenia z zewnętrznym urządzeniem, traktując je w efekcie jak inny narząd zmysłów lub kończynę. Mózgi i komputery cyfrowe mają nieco inne właściwości. Rysunek 1.2 pokazuje, że cykle komputerów są milion razy szybsze niż mózg. Mózg nadrabia to znacznie większą ilością pamięci masowej i połączeniami niż nawet komputer osobisty z wyższej półki, chociaż największe superkomputery pasują do mózgu w niektórych metrykach. Futuryści robią wiele z tych liczb, wskazując na zbliżającą się osobliwość, w której komputery osiągają nadludzki poziom wydajności, a następnie szybko poprawiają się jeszcze bardziej. Ale porównania surowych liczb nie są szczególnie pouczające. Nawet mając komputer o praktycznie nieograniczonej pojemności, nadal potrzebujemy dalszych przełomów koncepcyjnych w naszym rozumieniu inteligencji. Mówiąc prymitywnie, bez właściwej teorii, szybsze maszyny po prostu dają szybko złą odpowiedź