VI.Systemy dynamiczne i wbudowane funkcje poznawcze
Wprowadzenie
Ramy pojęciowe, które wnosimy do naszego badania poznania, mogą mieć ogromny wpływ na charakter tego badania. Zapewniają zestaw filtrów, przez które patrzymy na świat, wpływając na nasz wybór badanych zjawisk, język, w którym opisujemy te zjawiska, pytania, które o nie zadajemy, oraz nasze interpretacje otrzymywanych odpowiedzi. Przez większość ostatnich pięćdziesięciu lat myślenie o myśleniu było zdominowane przez ramy obliczeniowe, ideę, że systemy są inteligentne do tego stopnia, że mogą zakodować wiedzę w reprezentacjach symbolicznych, które są następnie manipulowane algorytmicznie w celu wypracowania rozwiązań problemów, które te systemy napotykają. Niedawno szkielet łącznika wymusił istotne udoskonalenie szkieletu obliczeniowego, w którym reprezentacja i obliczenia mogą być rozłożone na dużą liczbę luźno podobnych do neuronów jednostek (patrz rozdział 5). Począwszy od połowy lat 80. XX wieku, gdy popularność koneksjonizmu rosła, na scenie pojawiły się inne ramy koncepcyjne (lub, jak w przypadku koneksjonizmu, pojawiły się ponownie). Ramy te, które z braku chwytliwej etykiety nazywam umiejscowioną, ucieleśnioną, dynamiczną ramą (SED), koncentrują się na konkretnych działaniach i podkreślają sposób, w jaki zachowanie agenta wynika z dynamicznej interakcji między jego mózgiem a ciałem i jego środowisko. W tym rozdziale postaram się prześledzić historię poszczególnych wątków intelektualnych umiejscowionej działalności, ucieleśnienia i dynamiki które leżą u podstaw podejścia SED. Skoncentruję się szczególnie na latach 1985-1995. Chociaż istniały ważne prekursory podejścia SED (niektóre z nich krótko wspomnę), a prace w tym obszarze gwałtownie wzrosły w ostatnich latach, wiele kluczowych pomysłów zostało najpierw podanych ich nowoczesna forma w tym dziesięcioletnim okresie.
Aktywność na miejscu
Pierwszym wątkiem intelektualnym tworzącym podejście SED jest aktywność umiejscowiona. Z grubsza mówiąc, aktywność położona kładzie nacisk na trzy idee, które tradycyjnie były zaniedbywane w sztucznej inteligencji i kognitywistyce.
S1 Konkretne działanie. W rzeczywistości podejmowanie działań na świecie to coś więcej niż fundamentalne czy abstrakcyjne opisy, które czasem z niego robimy. Podczas gdy świadome rozważanie ma oczywiście swoją rolę, ostatecznym zadaniem inteligentnego agenta jest zrobienie czegoś, podjęcie konkretnych działań, których konsekwencje wykraczają poza jego własną czaszkę.
S2 Położenie. Bezpośrednie środowisko agenta odgrywa kluczową rolę w jego zachowaniu. To środowisko jest nie tylko bogatym źródłem ograniczeń i możliwości dla agenta, ale także kontekstem, który nadaje sens działania agenta.
S3 Interakcjonizm. Relacja agenta z otoczeniem polega na ciągłej interakcji. Środowisko nie służy jedynie jako źródło izolowanych problemów dla agenta do rozwiązania, ale raczej partner, z którym agent jest w pełni zaangażowany w chwilową improwizację.
Filozoficzne korzenie umiejscowionej działalności można przypisać fenomenologii, zwłaszcza twórczości Martina Heideggera, która została wprowadzona do sztucznej inteligencji i kognitywistyki przede wszystkim poprzez krytykę Huberta Dreyfusa. Jednym z kluczowych spostrzeżeń Heideggera było rozróżnienie między przedmiotami będącymi zuhanden ("gotowy do ręki") i vorhanden ("obecny sportowiec"). W naszym normalnym codziennym doświadczeniu zwykle spotykamy się z zasobami do natychmiastowego działania na rzecz osiągnięcia naszych celów. Na przykład dla kogoś, kto wbija gwóźdź, młot w pewnym sensie przestaje istnieć. Raczej, jak każde narzędzie, staje się jedynie przedłużeniem ramienia (tj. jest gotowe do użycia). Dopiero gdy wyraźnie przyjmiemy intelektualne podejście do młota (np. ponieważ rękojeść się zepsuła i młot nagle nie jest w stanie pełnić swojej normalnej funkcji), młot wyłania się z nieartykułowanego tła rzeczy jako odrębnego obiektu charakteryzującego się własny zestaw właściwości (tzn. staje się pod ręką). Wielu autorów starannie wyartykułowało wyzwania, jakie fenomenologiczne idee stawiają przed światopoglądem kognitywistycznym, który zdominował myślenie w sztucznej inteligencji i naukach kognitywnych, które nie tylko postrzegają poznanie jako rządzoną manipulacją symboliczną reprezentację, ale także dokonują fundamentalnych rozróżnień między fizyczny i mentalny, między ciałem a umysłem oraz między środowiskiem a agentem . Innym ważnym prekursorem aktywności położonej był James Gibson i jego Ecological Psychology. Opierając się na swoich badaniach wizji u pilotów II wojny światowej, Gibson podkreślił strukturę właściwą środowisku środowiska organizmu oraz znaczenie relacji organizm / środowisko z teorią percepcji. Na przykład sposób, w jaki zmienia się pole widzenia zwierzęcia, gdy porusza się przez swoje otoczenie, zawiera wiele informacji na temat kierunku i prędkości ruchu, odległości do obiektów, orientacji powierzchni i tak dalej. Poglądy Gibsona ostatecznie obejmowały szeroko zakrojone odrzucenie kognitywizmu. Jednak dla naszych celów najważniejszym wkładem Gibsona jest jego koncepcja afordancji - możliwości działania, jakie środowisko oferuje agentowi. Na przykład młot Heideggera daje wbijanie gwoździ ze względu na chwytność jego rękojeści oraz kształt i twardość głowy. Co więcej, Gibson argumentował, że chociaż afordancje są zauważalnymi faktami na temat świata, są ekologiczne w tym sensie, że ich znaczenie jest zależne od możliwości konkretnego organizmu. Na przykład, otwór, który zapewnia pasażowalność myszy, niekoniecznie zapewnia pasażowalność. Trzeci ważny wpływ na aktywność na miejscu wywierała praca w naukach społecznych. Na przykład Lucy Suchman, antropolog badającą interakcję człowiek-maszyna, prześledziła załamania w komunikacji między osobą a systemem pomocy dla maszyny do kserokopii, aby pomylić założenia poczynione przez projektantów systemu na temat charakteru działania. Odrzuciła tradycyjny pogląd w AI i naukach kognitywnych, że działanie wynika z wykonania planu, i argumentowała, że działanie należy rozumieć jako umiejscowione, w tym sensie, że zależy ono od rzeczywistych okoliczności w miarę ich rozwoju. W tym widoku wyraźne plany najlepiej interpretować jako zasoby do komunikowania się o działaniu, a nie jako mechanizmy działania.Na podstawie badań zespołu nawigacyjnego dużego statku morskiego inny antropolog, Edwin Hutchins, podobnie stwierdził, że poznanie "na wolności" należy często rozumieć jako kulturowo ukonstytuowane działanie grupy osób, w dużym stopniu zależnej od rozwijającej się sytuacji w który występuje. W sztucznej inteligencji wysunięte na pierwszy plan pomysły pojawiły się na pierwszym planie w połowie lat osiemdziesiątych. Wcześniejsze demonstracje tego, jak bogate zachowanie może wynikać z prostych mechanizmów interakcji ze złożonymi środowiskami, obejmują robotyczne "żółwie" W. Graya Waltera i proste "pojazdy" Valentino Braitenburga. Jednak zlokalizowane badania aktywności w ramach AI powstały głównie jako reakcja na tradycyjny pogląd planowania na działanie, w którym agenci reprezentują obecną sytuację i dostępne działania, formułują symboliczny plan działania, a następnie wykonują ten plan. Philip Agre i David Chapman podkreślili niezdolność klasycznych technik planowania do skalowania do złożonych, niepewnych środowisk w czasie rzeczywistym i zamiast tego zaproponowano, aby rutynowe działania wynikały z interakcji prostych mechanizmów wewnętrznych z bezpośrednią sytuacją. Agre i Chapman zademonstrowali użyteczność tego pomysłu w serii programów, z których najbardziej znanym był Pengi, agent, który grał w zręcznościową grę wideo Pengo w czasie rzeczywistym, mimo że musiał radzić sobie z setkami często nieprzewidywalnych obiektów. Stanley Rosenschein i Leslie Kaelbling pokazali, jak specyfikację celów agenta można "skompilować" w prostą maszynerię, dzięki czemu chociaż obserwator zewnętrzny ma sens mówić o wiedzy i przekonaniach agenta, te stany nie odgrywają już bezpośrednio roli w działaniach agenta. Wpływowa praca Rodneya Brooksa nad robotami autonomicznymi odrzuciła tradycyjny cykl zmysł-model-plan-działanie, podkreślając, że często "świat jest swoim najlepszym modelem". Opracował warstwowy system sterowania zwany architekturą subsumpcji, w którym sieci prostych maszyn oddziałują na siebie nawzajem oraz bezpośrednie okoliczności w celu wywołania zachowania, i wdrożył go na różnych robotach. David Cliff i Beer wykazali znaczny potencjał interakcji między pracą na neuronalnych podstawach zachowania zwierząt i agentów umiejscowionych, opracowując odpowiednio modele hoverfly i karalucha. Przypuszczalnie nikt nie zaprzeczyłby, że sytuacja środowiskowa ma do odegrania ważną rolę w zachowaniu agenta, ale to, jak fundamentalna jest ta obserwacja, pozostaje kontrowersyjne. Dla niektórych taka aktywność pachnie behawioryzmem, ale to zależy w dużej mierze od tego, co dokładnie rozumiemy przez "behawioryzm". Z pewnością prawdą jest, że praca w umiejscowieniu aktywności kładzie nacisk na konkretne zachowanie ponad abstrakcyjne rozumowanie. Jednak abstrakcyjne rozumowanie nie jest odrzucane przez podejścia usytuowane, lecz raczej sprowadzane do roli wspierającej jako ewolucyjnego niedawnego opracowania bardziej podstawowej zdolności poruszania się po świecie. Prawdą jest również to, że wiele pracy w umiejscowieniu aktywności kładzie nacisk na reaktywne architektury, w których działania agenta są całkowicie zdeterminowane jego odczuciami, albo odrzucają lub przynajmniej znacznie rekonstruują ideę wewnętrznych reprezentacji. Architektury reaktywne silnie przypominają paradygmat bodziec-reakcja przyjęty przez behawioryzm i mają dobrze znane ograniczenia, jeśli chodzi na przykład o zachowanie antycypacyjne. Jednak, jak zobaczymy w dalszej części tego rozdziału, zaangażowanie w czysto reaktywne architektury nie jest konieczne i możliwe jest określenie roli państwa wewnętrznego, która jest zarówno istotna, jak i interesująco różna od reprezentacyjnej roli, jaką taki stan odgrywa w tradycyjnej sztucznej inteligencji i kognitywistyka. Być może najbardziej kontrowersyjną ideą, która pojawiła się w badaniach nad poznaniem usytuowanym w ostatnich latach, jest koncepcja rozszerzonego umysłu. Ta idea jest oparta na spostrzeżeniu, że środowisko agenta nie tylko odgrywa istotną rolę w jego zachowaniu, ale sam agent może manipulować tą rolą poprzez aktywne organizowanie swojego środowiska, aby zwiększyć jego zdolność rozwiązywania problemów. Na przykład układamy składniki przepisu w kolejności, w jakiej będą potrzebne, i używamy map, aby znaleźć drogę przez rozległe miasta. Takie rusztowanie pozwala nam odciążyć znaczące części naszego przetwarzania poznawczego do środowiska. Ponadto, poprzez język, możemy koordynować działania wielu ludzi, aby mogli wspólnie osiągać rzeczy, których żadna osoba nie jest w stanie, na przykład nawigację na dużym statku morskim. Zwolennicy rozszerzonego umysłu twierdzą, że jeśli pamięć, rozwiązywanie problemów itp. Można rozłożyć na wiele czynników i artefaktów, wówczas samo poznanie należy rozumieć jako zjawisko rozproszone, które wykracza poza czaszkę pojedynczego agenta i właściwie należy tylko do większego systemu agentów i artefaktów, których częścią jest ta osoba. Rzeczywiście, nawet owady społeczne są znane z tego, że wspólnie wykonują złożone zadania konstrukcyjne, takie jak budowanie gniazd, modyfikując swoje środowisko w taki sposób, aby odpowiednio zorganizować przepływ pracowników i materiałów, proces zwany stygmatyzacją
Przykład realizacji
Drugim wątkiem intelektualnym w podejściu SED jest wcielenie. Zwolennicy ucieleśnionej kognitywistyki wysunęli co najmniej trzy nieco odmienne idee.
E1 Fizyczne ucieleśnienie. Wyjątkowo fizyczne aspekty ciała agenta mają kluczowe znaczenie dla jego zachowania, w tym jego właściwości materiałowych - możliwości działania zapewniane przez układ i cechy jego stopni swobody i efektorów, unikalna perspektywa zapewniona przez szczególny układ i charakterystykę jego czujników oraz tryby interakcji sensomotorycznej, które zbiorczo obsługują czujniki i efektory. Pod pewnymi względami ten aspekt wykonania jest szczególnym przypadkiem umiejscowienia. Podczas gdy umiejscowienie obejmuje wszelkie interakcje ze środowiskiem, ucieleśnienie podkreśla te specyficzne interakcje fizyczne, w których pośredniczy ciało.
E2 Przykład biologiczny. Ważna jest nie tylko fizyczna charakterystyka ciał, ale również biologiczne fakty dotyczące istnienia organizmu, w tym istotna neurobiologia, fizjologia, rozwój i ewolucja.
E3 Koncepcyjne wykonanie. Nawet gdy jesteśmy zaangażowani w czystą ratyfikację, nasze najbardziej abstrakcyjne pojęcia są ostatecznie zakorzenione w naszych doświadczeniach cielesnych i metaforach zorientowanych na ciało
Filozoficzne korzenie ucieleśnienia można także przypisać fenomenologii, szczególnie twórczości Maurice′a Merleau-Ponty′ego, który uczynił zaangażowanie cielesne w świecie centralnym dla swojej fenomenologii przeżywanych doświadczeń. Weźmy tylko jeden przykład: argument Merleau-Ponty&prime'ego, że to, jak postrzegamy przedmiot, jest kształtowany przez rodzaje interakcji z nim, na które pozwala nasze ciało, można postrzegać jako wczesny prekursor koncepcji afordancji Gibsona . Myśl Merleau-Ponty&prime'ego również odegrała ważną rolę w krytycznej przez Dreyfusa krytyce obliczeniowych teorii umysłu. W przypadku AI i kognitywistyki znaczenie fizycznego wcielenia zostało po raz pierwszy podkreślone przez Brooksa. Brooks argumentował, że sztuczna inteligencja musi wyjść poza abstrakcyjne mikroświaty, które były jego główną troską, i zacząć rozwiązywać problemy, z jakimi spotykają się prawdziwe roboty poruszające się w prawdziwych środowiskach. W ten sposób Brooks zasugerował, że zakres, w jakim większość klasycznych technik AI jest po prostu nie do utrzymania w realistycznych sytuacjach, stałby się jasny. W swojej łagodniejszej postaci argument za fizycznym wcieleniem polega po prostu na tym, że właściwości materialne ciała i środowiska odgrywają kluczową rolę w jego zachowaniu, a budując roboty, uzyskujemy tę fizykę "za darmo", bez konieczności starannego modelowania. W najbardziej radykalnej formie twierdzi się, że tylko fizycznie tworzone instancje systemów AI będą wykazywać naprawdę inteligentne zachowanie. W połączeniu ze współczesnymi trendami w poznaniu umiejscowionym omówionym w poprzedniej części, argumenty Brooksa wywołały eksplozję pracy w robotyce opartej na zachowaniu, aktywnej percepcji , ucieleśniona nauka kognitywna, autonomiczni agenci , niektóre aspekty sztucznego życia i filozofia umysłu. Wcielenie biologiczne posuwa o krok dalej argumenty wcielenia fizycznego. Ważna jest nie tylko fizyczna charakterystyka ciał, ale także biologiczne fakty dotyczące istnienia organizmu. Warunki niezbędne do utrzymania naszego stanu życia zasadniczo ograniczają nasze zachowanie i możliwości funkcji poznawczych. Ponadto specyficzne właściwości kości, mięśni i skóry, specyficzne cechy czujników biologicznych oraz sposób, w jaki te zdolności sensoryczne i motoryczne są łączone w ludzkich ciałach, zasadniczo definiują nasz własny szczególny sposób ucieleśnienia. Ponadto fakt, że przeszliśmy przez szczególną historię ewolucyjną i rozwojową, którą mamy, może również mieć ważne konsekwencje dla naszej architektury behawioralnej i poznawczej. Na przykład Esther Thelen i Linda Smith dowodziły jak ważne jest zrozumienie sensomotorycznych źródeł poznania w rozwoju, zarówno w badaniach nad rozwojem chodzenia u niemowląt, a ostatnio w badaniach nad klasyką Jeana Piageta Błąd A-not-B, w którym niemowlę wielokrotnie pokazywało obiekt ukryty pod polem A nadal będzie sięgać po A, nawet po pokazaniu obiektu ukrytego pod drugim polem B. Podobny argument można wysunąć na drodze ewolucji wyjątkowych ludzkich zdolności poznawczych od prostszych prekursorów. Wreszcie nastąpił bardzo silny nacisk na włączenie większego realizmu neurobiologicznego do wcielonych czynników. I odwrotnie, neuronauka zaczęła poważnie traktować rolę ciała i ciała interakcje neuromechaniczne w produkcji zachowań. Zatem konwencjonalne twierdzenie o biologicznym wykonaniu jest takie, że cechy biologiczne organizmów mają znaczenie dla ich zachowania i poznania. Bardziej radykalnym twierdzeniem, które czasami wiąże się z biologicznym wcieleniem, jest to, że sam stan życia ma fundamentalne znaczenie dla poznania. Chodzi tutaj zasadniczo o to, że materiał lub biochemia życia nie jest niezbędna, lecz o to, że organizacja żywych systemów jest niezbędna do ich zdolności poznawczych. Odpowiednie pojęcie organizacji żywej wywodzi się na ogół z koncepcji autopoezy autorstwa Humberto Maturany i Francisco Vareli (z grubsza samowystarczalnej sieci komponentów i procesów, tj. swoistej homeostazy organizacyjnej) . Wreszcie, wcielenie koncepcyjne dotyczy sposobu, w jaki nawet abstrakcyjne pojęcia są często oparte na doświadczeniu cielesnym i metaforze. Na przykład Stevan Harnad zdefiniował problem uziemienia symbolu jako problem tego, w jaki sposób słowa, a ostatecznie stany mentalne, mają znaczenie, i zaproponował, że sposobem rozwiązania tego problemu jest uziemienie ich w sygnałach sensomotorycznych. Co więcej, George Lakoff i Mark Johnson argumentowali, że struktura naszego rozumu jest ugruntowana w szczegółach naszego wykonania i że wiele abstrakcyjnych pojęć to metafory pochodzące z domen sensomotorycznych. Na przykład mówimy o zrozumieniu czegoś jako "uchwyceniu" i mówimy o niezrozumieniu czegoś jako niemożności "uchwycenia" tego lub "przekroczenia naszych głów". Podobnie złe rzeczy "śmierdzą", a "części" teorii "pasują" do siebie.
Dynamika
Ostatnim wątkiem intelektualnym stanowiącym podejście SED jest dynamika, w ramach której musimy rozróżnić co najmniej trzy pomysły.
D1 Teoria układów dynamicznych (DST). Teoria matematyczna, którą można zastosować do dowolnego systemu charakteryzującego się stanem, który zmienia się w czasie w jakiś systematyczny sposób.
D2 Ramy dynamiczne. Zbiór pojęć, intuicji i metafory zaangażowane w dynamiczne spojrzenie na pewien system zainteresowań.
D3 Hipoteza dynamiczna. Konkretna hipoteza wysunięta przez Timothy van Gelder, w jaki sposób można połączyć DST i ramy dynamiczne w rygorystyczną kontrpropozycję tradycyjnej hipotezy obliczeniowej w AI i naukach kognitywnych.
System dynamiczny jest matematyczną abstrakcją, która jednoznacznie opisuje, w jaki sposób stan pewnego systemu ewoluuje w czasie. Składa się z przestrzeni stanów S, uporządkowanego zestawu czasu T i operatora ewolucji φ, który przekształca stan w jednym czasie w inny stan w innym czasie. Układ dynamiczny, którego ewolucja zależy tylko od jego stanu wewnętrznego, nazywany jest autonomicznym, zaś ten, którego ewolucja zależy również od zewnętrznych czynników wejściowych, nazywany jest nieautonomicznym. S może być liczbowy lub symboliczny, ciągły lub dyskretny (lub hybryda dwóch) i dowolnej topologii i wymiaru (w tym nieskończonego wymiaru). T jest zwykle albo zbiorem liczb całkowitych, albo zbiorem liczb rzeczywistych. Operator ewolucji może być podany jawnie lub domyślnie i może być deterministyczny lub stochastyczny. Najczęstszymi przykładami układów dynamicznych są zbiory zwykłych równań różniczkowych i iterowanych map, ale wiele innych rodzajów układów matematycznych można również owocnie opisywać i analizować w kategoriach dynamicznych. Dla każdego systemu matematycznego, który można zastosować w tej formie, DST oferuje szeroką gamę narzędzi do analizy jego zachowania w czasie, z których wiele zostało po raz pierwszy opracowanych przez francuskiego matematyka Henri Poincaré na poparcie jego pracy w mechanice niebieskiej. Narzędzia te obejmują identyfikację zbiorów niezmienniczych (zestawów punktów w przestrzeni stanów, których operator ewolucji nie zmienia, tj. punktów i cykli granicznych), charakterystykę ich lokalnego zachowania (jak reagują na zaburzenia, tj. ich stabilność) i ich globalne zachowanie (jak są ze sobą powiązane, tj. ich rozmaitości siodłowe) i ich zależność od parametrów (jak się zmieniają w miarę zmiany parametrów, tj. ich rozgałęzień). Należy powtórzyć, że podobnie jak formalna teoria obliczeń, DST jest zbiorem matematyki, a nie naukową teorią świata przyrody. Pomimo tego, że DST sama w sobie nie jest teorią naukową, dynamiczne spojrzenie na pewne zjawiska naturalne niesie ze sobą zestaw pojęć, intuicji i metafor - pewien światopogląd - który wpływa na zadawane przez nas pytania, przeprowadzane analizy i jak interpretujemy wyniki. Kiedy podchodzimy do jakiegoś systemu z perspektywy obliczeniowej, zastanawiamy się, jaką funkcję system próbuje obliczyć, w jakim formacie określono dane wejściowe problemu, w jakim formacie wyjściowym jest odpowiedź wymagana w jaki sposób mają być reprezentowane odpowiednie cechy problemu, jakie algorytmy mają być przekształcone te reprezentacje i jak wydajność tych algorytmów skaluje się wraz z rozmiarem problemu. W przeciwieństwie do tego, gdy podchodzi się do jakiegoś systemu z perspektywy dynamicznej, próbuje się zidentyfikować minimalny zestaw zmiennych stanu, których ewolucja może uwzględniać obserwowane zachowanie, prawa dynamiczne, według których wartości tych zmiennych ewoluują w czasie, ogólna struktura czasoprzestrzenna ich możliwej ewolucji i wrażliwości tej struktury na zmiany danych wejściowych, stanów i parametrów. Perspektywa dynamiczna okazała się owocna w wielu obszarach kognitywistyki). Dynamiczną perspektywę na mózg i zachowanie po raz pierwszy wyraźnie wyartykułował W. Ross Ashby. W sieciach neuronowych Stephen Grossberg od dawna podkreśla znaczenie dynamicznych pomysłów. Rzeczywiście, DST jest obecnie niezbędnym narzędziem w neuronauce obliczeniowej (Izhikevich 2007) do analizy nie tylko pojedynczych komórek nerwowych lub małych obwodów, ale także systemy całego mózgu. Dynamiczne pomysły zostały po raz pierwszy wprowadzone do psychologii ekologicznej przez Petera Kuglera. Scott Kelso i współpracownicy od wielu lat dążą do dynamicznego spojrzenia na mózg i zachowanie, szczególnie podkreślając rolę samoorganizacji w tworzeniu wzorców zachowań i przejściach między nimi. Thelen i Smith opowiadali się za dynamicznym podejściem do rozwoju poznawczego, w którym procesy i zmiany są badane przy użyciu tych samych narzędzi w różnych przedziałach czasowych. Jeffrey Elman podkreślił zasadniczo czasowy charakter rozumienia języka, przy czym poprzedzające słowa silnie wpływały na interpretację kolejnych, i rozwinął dynamiczne podejście do języka. Na koniec argumentowałem, że teoria układów dynamicznych zapewnia odpowiedni język teoretyczny i narzędzia do analizy rodzajów czynników autonomicznych opracowywanych w AI i robotyce oraz Timothy Smithers i Gregor Schöner opowiadali się za dynamicznym podejściem do projektowania autonomicznych robotów. Szczególnym sformułowaniem, na które zwrócono dużą uwagę, jest hipoteza dynamiczna wysunięta przez van Geldera. Van Gelder definiuje układ dynamiczny jako system ilościowy, to znaczy system, w którym przestrzeń stanu, zbiór czasu i prawo ewolucji obejmują wielkości liczbowe. Jak widzieliśmy powyżej, jest to znaczące ograniczenie matematycznej definicji układu dynamicznego. Jego hipoteza dynamiczna składa się z dwóch elementów: (1) hipotezy natury i (2) hipotezy wiedzy. Twierdzenie o naturze jest ontologiczne: systemy poznawcze są systemami dynamicznymi. Natomiast hipoteza wiedzy głosi tylko, że systemy poznawcze najlepiej zrozumieć przy użyciu narzędzi teorii systemów dynamicznych. Biorąc pod uwagę, że nawet wielu zwolenników podejścia dynamicznego nie w pełni popiera hipotezę dynamiczną van Geldera, niefortunne jest to, że najbardziej krytyczna dyskusja na temat dynamicznego podejścia do poznania skupiła się na specyficznym sformułowaniu van Geldera. Niemniej jest to historycznie ważna próba sformułowania dynamicznej alternatywy dla hipotezy obliczeniowej.
W kierunku zintegrowanej perspektywy
Do tego momentu potraktowałem położenie, ucieleśnienie i dynamikę jako względnie odrębne wątki intelektualne. Zrobiłem to zarówno dlatego, że historyczny rozwój tych pomysłów nastąpił nieco niezależnie i ponieważ są one logicznie niezależne - to znaczy, ludzie mogą i utrzymują każdy z nich z osobna, niekoniecznie również subskrybując inne. Jednak nie umknie uwadze uważnego czytelnika, że istnieje między nimi znaczna część potencjalnego nakładania się i synergii. Celem tej sekcji jest sformułowanie zintegrowanej ramy teoretycznej, która łączy spostrzeżenia z położenia, ucieleśnienia i dynamiki. Podstawowa, wbudowana, dynamiczna platforma (SED) jest dość prosta i składa się z następujących trzech postulatów:
SED1 Mózgi, ciała i środowiska są układami dynamicznymi. Wszystkie układy nerwowe, ciała i środowiska konceptualizowane jako układy dynamiczne, przez co rozumiem tylko to, że my zakładamy, że każdy z nich może być scharakteryzowany przez zestaw stanów, których ewolucja czasowa rządzi się prawami dynamicznymi.
SED2 Dynamika mózgu, ciała i środowiska jest sprzężona. Układy nerwowe są zawarte w ciałach, które z kolei są położone w otoczeniu, co prowadzi do gęstej interakcji między tymi trzema komponentowymi systemami. Sprzężony podsystem mózg-ciało będzie nazywany "agentem". Sprzężenie, które przepływa ze środowiska do czynnika będzie określane jako "sensoryczne", a sprzężenie, które płynie w przeciwnym kierunku, będzie nazywane "silnikiem". "Zachowanie" agenta zostanie zdefiniowane jako trajektoria działań motorycznych.
SED3 Agent podlega ograniczeniom żywotności. Tam są warunki dotyczące dynamiki czynnika, które określają jego żywotność. W przypadku naruszenia tych ograniczeń żywotności agent przestaje istnieć jako niezależny byt i nie może już angażować się w interakcje behawioralne z otoczeniem.
Rzeczywiście, trudno wyobrazić sobie teoretyczne ramy, które podejmują mniej zobowiązań niż to. Co może wynikać z tak niewielkiego zestawu roszczeń? W rzeczywistości całkiem sporo nietrywialnych konsekwencji następuje niemal natychmiast, jeśli poważnie podchodzimy do tych trzech postulatów. Być może najważniejszym wnioskiem jest to: Ściśle mówiąc, zachowanie jest właściwością całego sprzężonego układu mózg-ciało-środowisko i ogólnie nie może być właściwie przypisane do jednego podsystemu w oderwaniu od innych. Zdefiniowaliśmy zachowanie, które jest jedynie trajektorią działań motorycznych agenta. Ponieważ jednak dynamika mózgu, ciała i środowiska jest sprzężona, tworzą one jeden większy autonomiczny system dynamiczny z własnymi trajektoriami ewolucji czasowej. Trajektorie działań motorycznych agenta są jedynie projekcjami pełnych trajektorii kompletnego systemu mózg-ciało-środowisko i to właśnie te pełne trajektorie są właściwymi obiektami badań w ramach SED. Mimo że zachowanie jest własnością całego połączonego systemu, nadal warto zapytać o względny wkład mózgu, ciała i środowiska w określoną cechę trajektorii zachowania. W tym celu musimy otworzyć sprzężony system mózg-ciało-środowisko, przecinając jedną lub więcej ścieżek sprzęgania w celu wyizolowania składnika, który chcemy badać. Składnik ten staje się następnie nieautonomicznym układem dynamicznym, a nasza analiza obejmuje zbadanie, w jaki sposób jego własna dynamika wchodzi w interakcję z danymi wejściowymi otrzymywanymi z innych składników sprzężonego układu w wytwarzaniu interesującej cechy behawioralnej. Ma to wiele interesujących konsekwencji dla sposobu, w jaki postrzegamy tradycyjne zjawiska behawioralne i poznawcze.
Na przykład postrzeganie jest ogólnie postrzegane jako środek, za pomocą którego agent pobiera informacje o swoim otoczeniu z surowych sygnałów sensorycznych, które odbiera, i wewnętrznie reprezentuje strukturę swojego otoczenia. Ale system dynamiczny podąża trajektorią określoną przez własny stan wewnętrzny i prawa dynamiczne. Wejścia sensoryczne nie mogą na ogół umieszczać nieautonomicznego układu dynamicznego w jakimś stanie wyjątkowo charakterystycznym dla danego obiektu zewnętrznego. Raczej najbardziej, co mogą zrobić, to odchylić wewnętrzne tendencje dynamiki agenta poprzez wybranie określonej trajektorii z zestawu możliwych trajektorii, na które zezwalają prawa dynamiczne agenta z jego obecnego stanu. Sugeruje to bardziej zorientowany na zachowanie pogląd percepcji, który przypomina Gibsona. W tym ujęciu percepcja jest procesem, w którym dynamika czynników, które są odpowiednio wrażliwe na wpływy środowiska, zostaje zakłócona przez trajektorię sygnałów sensorycznych otrzymywanych przez system i przekształca się w zachowanie odpowiednie do okoliczności. Ponadto, ponieważ sprzężenie między agentem a jego środowiskiem jest dwukierunkowe, działanie agenta może kształtować własną percepcję. Agenci nie tylko postrzegają, aby działać, ale także działają, aby postrzegać. Ponieważ agenci w ramach SED są dynamiczni, nie są oni podatni na krytykę skierowaną przeciwko agentom reaktywnym. Środek reaktywny to taki, którego moc wyjściowa silnika zależy tylko od jego czujników; jest to jedynie funkcja od wrażenia do działania. Chociaż taki agent może uczestniczyć w złożonych interakcjach, gdy jest połączony ze środowiskiem dynamicznym, jego zachowanie jest zawsze podporządkowane temu środowisku, ponieważ nie ma własnej dynamiki. Natomiast reakcja czynnika dynamicznego jest determinowana przynajmniej częściowo przez własną wewnętrzną dynamikę. Ponieważ posiada stan wewnętrzny, czynnik dynamiczny może różnie reagować na ten sam bodziec sensoryczny w różnym czasie, może inicjować zachowanie niezależnie od swojego bezpośredniego otoczenia, może modyfikować swoje zachowanie w oparciu o historię interakcji i może wykorzystywać korelacje długoterminowe w otoczeniu w celu uporządkowania zachowania w oczekiwaniu na przyszłe wydarzenia. Jedną znaczącą zaletą struktury SED jest to, że oferuje ona możliwość jednolitego traktowania różnych zjawisk behawioralnych i poznawczych, które często uważano za niemożliwe do pogodzenia. Z jednej strony niektóre podstawowe zachowania sensomotoryczne mogą mieć charakter głównie reaktywny, przy czym stan wewnętrzny odgrywa niewielką rolę w "zabarwianiu" reakcji agenta na otoczenie. Z drugiej strony, niektóre z naszych najbardziej poznawczych zachowań można uznać za niemal oddzielone od okoliczności bezpośredniego otoczenia, napędzane przede wszystkim czasową ewolucją stanu wewnętrznego. Oczywiście większość zachowań jest zwykle mieszanką wpływów zewnętrznych i wewnętrznych, przy czym względne znaczenie tych dwóch czynników zmienia się, czasem znacznie, z chwili na chwilę. Rzeczywiście, interesujące pytania o to, w jaki sposób wyższe procesy poznawcze powstały z bardziej podstawowych kompetencji sensomotorycznych w trakcie ewolucji i rozwoju, wydają się znacznie bardziej przystępne w ramach teoretycznych, które stawiają je obie na wspólnej stopie. W tym ujęciu wyższe poznanie niekoniecznie zmienia nasz fundamentalnie umiejscowiony, ucieleśniony i dynamiczny charakter, ale zamiast tego powiększa go o znacznie zwiększony rezerwuar wewnętrznej dynamiki. Jak mamy zrozumieć naturę i rolę tego stanu wewnętrznego w agencie dynamicznym? Tradycyjna interpretacyjna interpretacja takich stanów byłaby reprezentacją wewnętrzną. Ale posiadanie stanu wewnętrznego jest ogólnie własnością systemów fizycznych i stany te mogą kowariować ze stanami poza układem w dość skomplikowany sposób. O ile nie chcemy nadać statusu reprezentacyjnego wszystkim stanom fizycznym (czy burza z piorunami reprezentuje topografię terenu, przez który przechodzi?), Muszą istnieć dodatkowe warunki, które licencjonują modyfikator "reprezentacyjny". Niestety, pomimo fundamentalnej roli, jaką pojęcie reprezentacji odgrywa w podejściach obliczeniowych, bardzo mało jest zgodności co do tych dodatkowych warunków. Uważam status reprezentacyjny stanu wewnętrznego za kwestię empiryczną, którą należy rozstrzygnąć zgodnie z precyzyjną definicją konkretnego oferowanego pojęcia reprezentacji. Tak więc, nie reprezentując ani nie przyznając, perspektywa dynamiczna oferuje szersze teoretyczne pole gry. Z jednej strony oferuje możliwość zrozumienia, jakie są reprezentacje, kiedy i jak powstają. Z drugiej strony możemy stwierdzić, że przynajmniej w niektórych przypadkach role odgrywane przez stany wewnętrzne agenta dynamicznego nie mogą być po prostu interpretowane jako reprezentatywne. Jaki jest związek między podejściem SED do poznania a bardziej znanymi podejściami obliczeniowymi i łączącymi? Takie porównanie jest pełne trudności. Na przykład musimy rozróżnić ciała matematyki leżące u podstaw każdego z tych podejść od twierdzeń teoretycznych, które wysuwają te podejścia. Ponieważ formalizmy matematyczne, systemy obliczeniowe, łączące i dynamiczne mają z grubsza równoważną moc w tym sensie, że każdy z nich może być wykorzystywany do konstruowania modeli tej samej klasy zjawisk. Tak więc nie ma użytecznego matematycznego rozróżnienia między tymi różnymi podejściami. Myślę, że jest to jeden ze sposobów, w jaki błędna hipoteza van Geldera się nie udaje. Ponadto musimy uznać, że komputacjonalizm, łączność i dynamizm wcale nie są tak naprawdę teoriami naukowymi, ponieważ one same nie przewidują ostrych falsyfikatów. Są raczej tym, co nazwałem ramami teoretycznymi. Dostarczają zestawu przedteoretycznych intuicji, słownictwa teoretycznego, stylu wyjaśniania, światopoglądu, w którym formułowane są i analizowane poszczególne falsyfikowalne teorie konkretnych zjawisk poznawczych. Na przykład struktura obliczeniowa podkreśla strukturę i treść wewnętrznych reprezentacji używanych przez agenta oraz algorytmy, za pomocą których manipuluje się tymi reprezentacjami. W przeciwieństwie do tego, struktura łączników kładzie nacisk na architekturę sieci, algorytm uczenia się, protokół szkolenia i opracowane pośrednie reprezentacje rozproszone. W tym sensie wiele modeli łączących jest nadal bezcielesnych, nienasyconych i obliczeniowych (aczkolwiek rozproszonych) w naturze. Wreszcie, struktura SED kładzie nacisk na strukturę przestrzeni wszystkich możliwych trajektorii układu mózg-ciało-środowisko oraz różnych sił, zarówno wewnętrznych, jak i zewnętrznych względem czynnika, które kształtują te trajektorie, aby ustabilizować pewien szczególny wzór zachowania. Jest prawdopodobne, że wszystkie trzy perspektywy będą ważne w każdej przyszłej teorii zachowania i poznania. Na przykład, ponieważ komponenty neuronowe modelu SED są często powtarzającymi się sieciami podłączeniowymi, a ponieważ rozumowanie celowe jest jednym ze zjawisk poznawczych, którym należy się w końcu zająć, pomysły i narzędzia matematyczne zarówno z połączenia, jak i obliczeń prawdopodobnie odegrają istotną rolę nawet w teorii skoncentrowanej na SED. Dokładna mieszanka spostrzeżeń z tych trzech ram teoretycznych (lub innych ram niewyobrażalnych jeszcze!), Które ostatecznie okażą się najbardziej owocne, pozostaje otwartą kwestią, którą tylko trwające badanie empiryczne może rozwiązać.
Kwestie metodologiczne
Poważne podejście do ram SED rodzi wiele trudnych problemów metodologicznych. Badanie tylko jednego elementu układu mózg-ciało-środowisko jest wystarczająco trudne, ale badanie interakcji wszystkich trzech jednocześnie jest zniechęcającym zadaniem. Eksperymentalnie brakuje nam obecnie instrumentów do monitorowania i manipulowania aktywnością wszystkich istotnych neuronów w układzie nerwowym nietkniętych, zachowujących się zwierząt, nie mówiąc już o odpowiednich właściwościach ciała i środowiska zwierzęcia. Teoretycznie brakuje nam obecnie narzędzi matematycznych niezbędnych do zrozumienia dużych sieci gęsto powiązanych, heterogenicznych, nieliniowych elementów dynamicznych, szczególnie w systemach, które zostały opracowane ze względu na ich skuteczność behawioralną, a nie ze względu na ich zrozumiałość w zakresie tradycyjnych zasad projektowania inżynierskiego o modułowości i hierarchicznym rozkładzie . Z tych powodów wielu badaczy zwróciło się do badań agentów modelowych wykorzystujących dynamiczne sieci neuronowe i algorytmy ewolucyjne. W tym podejściu modelowy "układ nerwowy" jest wcielony w ciało modelowe, które z kolei znajduje się w środowisku modelowym. Cały system ewoluuje, aby wykonywać pewne interesujące zachowania. Powszechnym wyborem modelu układu nerwowego są rekurencyjne sieci neuronowe o ciągłym czasie, o których wiadomo, że są uniwersalnymi aproksymatorami płynnej dynamiki. Zazwyczaj ewoluują tylko parametry neuronowe, ale w niektórych pracach zmienia się również architektura sieci i właściwości ciała. Jedną znaczącą zaletą podejścia ewolucyjnego jest to, że minimalizuje on z góry założenia teoretyczne, a tym samym pozwala zbadać przestrzeń możliwych układów mózg-ciało-środowisko zdolnych do wygenerowania określonego zachowania. Ta metodologia ewolucyjna została już z powodzeniem zastosowana do szerokiego zakresu interesujących zachowań. Wiele pracy koncentrowało się na zachowaniu sensomotorycznym, takim jak orientacja, ruch nóg, unikanie obiektów i nawigacja. Inna linia prac koncentrowała się na ewolucji zachowań związanych z uczeniem się . Ponadto wykonano znaczną pracę nad zachowaniem kierowanym wzrokowo i jego zastosowaniem do kategorycznego postrzegania, selektywnej uwagi i innych interesujących pod względem poznawczym zadań. Wreszcie ewolucja komunikacji była również aktywnym obszarem badań. Tak więc, chociaż istnieją trudne otwarte problemy w skalowaniu ewolucyjnych podejść do coraz bardziej skomplikowanych zachowań, można argumentować, że czynniki, które zostały już wyewoluowane, są na tyle interesujące, że ich dokładna analiza może nauczyć nas wielu rzeczy na temat dynamiki układów mózg-ciało-środowisko . Rzeczywiście, dla mnie, głównym zainteresowaniem nie jest ewolucja takich agentów modelowych per se, ale raczej analiza powstałych układów mózg-ciało-środowisko przy użyciu narzędzia teorii systemów dynamicznych. Podstawowym celem takiej analizy jest zbudowanie intuicji, koncepcji teoretycznych oraz narzędzi matematycznych i obliczeniowych niezbędnych do zrozumienia dynamiki układów mózg-ciało-środowisko. Chociaż DST zapewnia solidne podstawy dla takich dochodzeń, należy rozwiązać wiele dodatkowych problemów. Na przykład istnieją różne poziomy, na których można analizować dynamikę układu mózg-ciało-środowisko, w tym autonomiczna dynamika całego połączonego układu, sposób, w jaki sprzężone zachowanie powstaje z interakcji między środowiskiem nieautonomicznym a dynamiką czynników, jak nieautonomiczna dynamika czynników wynika z interakcji między ciałem nieautonomicznym a dynamiką neuronów, a także z tego, w jaki sposób nieautonomiczna dynamika neuronów powstaje z architektury, wewnętrznych i synaptycznych parametrów elementów neuronalnych. Ostatnim zagadnieniem, którym należy się zająć, jest zrozumienie nieautonomicznej dynamiki. Narzędzia matematyczne DST są najbardziej rozwinięte w przypadku autonomicznych układów dynamicznych, w których analiza może skupiać się na atraktorach i ich bifurkacjach. Jednak, jak wspomniano powyżej, gdy chcemy zrozumieć wkład konkretnego komponentu układu mózg-ciało-środowisko, musimy rozłożyć sprzężony system na oddziaływanie nieautonomicznych podsystemów i zbadać ich przejściowe reakcje na zmienne w czasie dane wejściowe otrzymywane z inne elementy. Niestety narzędzia matematyczne do analizy dynamiki przejściowej wymagają znacznego dalszego rozwoju.
Perspektywy
Podobnie jak obliczenia i łączność, ramy umiejscowione, ucieleśnione i dynamiczne opisane w tej sekcji mają swoje korzenie w pojęciach sformułowanych po raz pierwszy w latach 40. i 50. XX wieku. Ponieważ jednak nowoczesna forma frameworka SED pojawiła się dopiero w latach 1985-1995, miał on znacznie mniej czasu na rozwój niż frameworki obliczeniowe i koneksjonistyczne. Liczba osób pracujących w ramach SED jest obecnie znacznie mniejsza. Pomimo tych wad, umiejscowiony, ucieleśniony i dynamiczne idee mają duży wpływ na myślenie w kognitywistyce, sztucznej inteligencji i robotyce, neuronauce, psychologii rozwojowej i filozofii umysłu. W celu dalszego zbadania zakresu i ograniczeń frameworka SED oraz wyjaśnienia najlepszej kombinacji pomysłów obliczeniowych, łączeniowych i SED niezbędnych do zrozumienia mechanizmów zachowania i poznania, niezbędny jest znaczny dalszy rozwój. Przede wszystkim będzie to wymagało budowy i analizy wielu bardziej konkretnych modeli agentów, szczególnie tych o bardziej interesującym poznawczo charakterze. To z kolei będzie wymagało dalszego rozwoju technik skalowania technik ewolucyjnych i analizy dynamicznej do większych układów oraz dalszego rozwoju technik analizy przejściowej dynamiki nieautonomicznych układów dynamicznych. Wreszcie istnieje potrzeba lepszej edukacji w zakresie koncepcji systemów dynamicznych w społeczności nauk kognitywistycznych oraz oprogramowania do obsługi dynamicznej analizy systemów mózg-ciało-środowisko.