Postawy filozoficzneArtificial Intelligence Experts

XII.Sztuczne emocje i świadomość maszynowa

Wprowadzenie

W ciągu ostatniej dekady zainteresowanie sztucznymi emocjami i świadomością maszyn znacznie wzrosło w sztucznej inteligencji (AI), o czym świadczą liczne specjalistyczne konferencje i warsztaty poświęcone tym zagadnieniom. Zainteresowanie to częściowo opiera się na uznaniu, że emocje i świadomość pełnią pożyteczne role u ludzi i innych zwierząt oraz na zrozumieniu tych ról i wdrożenie ich modeli na komputerach może pomóc w uczynieniu sztucznych agentów mądrzejszymi. Ale czy maszyny mogą nawet wywoływać emocje i być świadome, a jeśli tak, to jak moglibyśmy zaprojektować takie maszyny? Celem tego rozdziału jest przedstawienie przeglądu pracy w AI na temat emocji i świadomości maszynowej, z myślą o udzieleniu odpowiedzi na te pytania. Zaczynając od krótkiego filozoficznego spojrzenia na emocje i świadomość maszynową w celu sformułowania pracy, rozdział najpierw koncentruje się na sztucznych emocjach, a następnie przechodzi do świadomości maszynowej - odzwierciedlając fakt, że emocje i świadomość były traktowane niezależnie i przez różne społeczności w AI. Rozdział kończy dyskusja na temat filozoficznych implikacji badań nad sztuczną inteligencją na emocjach i świadomości.

Perspektywa filozoficzna

Na pierwszy rzut oka wydaje się, że badania nad emocjami i świadomością w AI musiałyby zaczynać się od założenia, że w rzeczywistości możliwe jest wdrożenie emocji i świadomości w artefaktach obliczeniowych. Dlaczego inaczej miałoby się tak niepokoić, próbując osiągnąć ten cel, jeśli nie można go zasadniczo osiągnąć? Okazuje się, że badacze AI zwykle nie byli pod wrażeniem filozoficznych argumentów na temat możliwości lub niemożności maszyn replikujących ludzkie stany psychiczne. Raczej zawsze stosowali teoretycznie nieobciążone podejście do badania możliwych algorytmów i mechanizmów pozwalających osiągnąć inteligentne zachowanie. W AI istnieją zasadniczo dwie główne postawy wobec pytania, czy maszyny rzeczywiście mogą mieć emocje (np. Ludzkie emocje) lub być świadome (np. Jak normalny dorosły człowiek w stanie przebudzenia). Pierwsza to pragmatyczna postawa, która leży u podstaw wielu badań nad AI i łączy się z pokrewnymi postawami w psychologii: warunki emocji i "świadomość" jest używana w pragmatyczny sposób operacyjny, który pozwala badaczom robić postępy bez rozwiązania wszystkich problemów koncepcyjnych, które przemawiają za tymi pojęciami. Badacze AI, którzy przyjmują takie podejście, przyjrzą się wynikom psychologii pod kątem rodzajów procesów, które psychologowie podejmują w celu leżenia u podstaw ludzkiej aktywności umysłowej lub uczestniczą w niej, i podejmą próbę sformalizowania jej aspektów algorytmicznie. Celem nie jest tutaj replikacja ani modelowanie ludzkiej mentalności w biologicznie lub psychologicznie wiarygodny sposób, ale raczej wykorzystanie wszelkich zasad, które można wziąć z procesów emocjonalnych lub teorii świadomości, aby poprawić działanie sztucznych czynników (i być może przewyższyć ludzkie działanie). Drugim podejściem jest dążenie do udoskonalenia, zrewidowania lub zastąpienia koncepcji emocji lub koncepcji świadomości w wyniku próby formalnego określenia procesów, które mogą realizować emocje lub wywoływać świadomość. Takie podejście jest ściśle powiązane z dążeniem do modelowania obliczeniowego w kognitywistyce, gdzie celem modelu obliczeniowego jest replikacja ludzkiej wydajności, a jednocześnie zapewnienie mechanizmów wyjaśniających, w jaki sposób ludzie wykonują dane zadanie. W konsekwencji sposób, w jaki algorytmy są generowane, wdrażane i testowane, ma wpływ na koncepcje emocji i świadomości, co z kolei będzie wymagało filozoficznego opracowania. Oczywiście pierwsze podejście jest wystarczające do osiągnięcia celów badawczych w AI (np. Zbudowanie inteligentnych agentów), ale drugie podejście pozwoli także badaczom AI połączyć się z innymi dziedzinami i otworzyć swoje algorytmy i implementacje na kontrolę filozoficzną i psychologiczną. W ten sposób psychologowie mogą uzyskać nowe eksperymentalne projekty, które mogą przetestować przewidywania dokonane przez modele, a filozofowie mogą wyostrzyć swoje intuicje dotyczące tego, do czego mają się odnosić te pojęcia. Historycznie pytania o to, czy maszyny mogą mieć emocje, czy mogą być świadome, pojawiały się w różnych momentach na różnych polach. W tym miejscu krótko przeanalizujemy filozoficzne perspektywy dwóch pionierów AI i filozofii umysłu - odpowiednio Alana Turinga i Hilary Putnam. Alan Turing, w swoim słynnym artykule z 1950 r. "Maszyny komputerowe i inteligencja" rozważa dziewięć zastrzeżeń do" gry imitacji ", która później stała się znana jako" Test Turinga ". 1 Czwarty z nich," Argument ze świadomości ", próbuje odrzucić inteligencję maszyny, wskazując na brak emocji i uczuć w maszynach. Tutaj Turing cytuje profesora Geoffreya Jeffersona, który stwierdził, że dopóki maszyna nie może napisać sonetu lub skomponować koncertu z powodu odczuwanych myśli i emocji, a nie przypadkowego upadku symboli, czy możemy zgodzić się, że maszyna równa się mózgowi - to znaczy nie pisz tylko, ale wiedz, że to napisał. Żaden mechanizm nie odczuwał (a nie tylko sztucznie sygnalizował, łatwego wymyślenia) przyjemności z powodu swoich sukcesów, żalu, gdy stapiają się zawory, ogrzewa się pochlebstwem, jest nieszczęśliwy z powodu swoich błędów, oczarowany seksem, jest zła lub przygnębiona, gdy nie może dostać tego, czego chce. (Turing 1950, s. 445-6). Turing diagnozuje tę linię argumentów jako ostatecznie promującą perspektywę solipsystyczną, w której "jedynym sposobem, dzięki któremu można być pewnym, że maszyna myśli, jest maszyna i czuć się myślącym" (Turing 1950, s. 446). Wskazuje, że ta sama argumentacja dotyczyłaby również ludzi (tzn. można mieć pewność, że inna osoba ma pewne właściwości psychiczne lub jest w szczególnym stanie psychicznym, gdyby była tą drugą osobą), problem znany w filozofii jako "problem innych umysłów". Innymi słowy, redukuje problem innych umysłów maszyn do problemu innych umysłów ludzi. Ponadto zwraca uwagę, że maszyna do pisania sonetem, która udziela rozsądnego odpowiedzi przesłuchującemu na temat własnego sonetu za pomocą viva voce (i tym samym przypuszczalnie używając intonacji w ludzki możliwy sposób, w tym wyrażania emocji) prawdopodobnie nie byłaby postrzegana jako "Łatwy pomysł". Zakłada się tutaj, że maszyna, która może komunikować się w naturalnym języku mówionym w ludzki sposób, sprawiłaby, że ludzie postrzegaliby ją jako posiadającą przyjemność, ból i tak dalej, w bardzo podobny sposób, w jaki ludzie wywnioskowują stany wewnętrzne innych ludzi na podstawie ich interakcje (np. z tonu w głosie osoby). Pytanie, czy maszyny mogą mieć uczucia i być świadome, zostało szczegółowo omówione przez Hilary Putnam. W swoim artykule z 1964 r. "Roboty: maszyny czy sztucznie stworzone życie?", Putnam chce, abyśmy wyobrazili sobie robota Oscara, który jest psychologicznie izomorficzny dla człowieka - to znaczy, który ma stany wewnętrzne, które odgrywają takie same role przyczynowe, jak nasze stany mentalne. Załóżmy, że Oscar ma w tym sensie "odczucie" czerwieni, powstaje więc pytanie, czy naprawdę ma wrażenie czerwieni, to znaczy, czy Oscar rzeczywiście coś widzi, czy Oscar czuje, czy Oscar jest świadomy. Podobnie jak Turing, Putnam łączy to pytanie z innym problemem umysłów: "To, czy i pod jakimi warunkami robot może być świadomy, jest pytaniem, którego nie można omówić bez od razu poruszania tematów, o których mowa w nagłówkach problemu umysłu - ciało i problem innych umysłów ". Po rozwianiu kilku zastrzeżeń do twierdzenia, że Oscar jest świadomy, dochodzi do wniosku, że pytanie to wymaga decyzji, a nie odkrycia. Jeśli mamy podjąć decyzję, wydaje mi się, że lepiej jest rozszerzyć naszą koncepcję, aby roboty były świadome - "dyskryminacja" na podstawie "miękkości" lub "twardości" części ciała syntetycznego "organizmu" wydaje się równie głupia jako dyskryminujące traktowanie ludzi ze względu na kolor skóry.

Poglądy Turinga i Putnama, że maszyny mogą być w zasadzie świadome, zostały później powtórzone przez różnych filozofów (np. Lycan). We wszystkich przypadkach zakłada się, że maszyny będą musiały mieć odpowiednią strukturę wewnętrzną i organizację poznawczą - odpowiedni typ architektury - aby mogły mieć emocje i być świadome (czy w takim razie faktycznie będą one generować emocje i / lub być świadomym będzie zależeć od dodatkowych czynników, jak w przypadku człowieka). Pytanie o właściwy rodzaj architektury, która może przenosić emocje i świadomość, jest dokładnie tym, czym próbowały się zająć badania nad AI.

Emocje w AI

Różne formy emocji były badane w różnym stopniu od początku AI, pomimo pierwotnego skupienia AI na celowych, nieemocjonalnych mechanizmach. Jednak ostatnio praca nad emocjami i czynnikami emocjonalnymi stała się znacznie bardziej popularna, zwłaszcza dzięki pracy Aarona Slomana nad architekturami emocjonalnymi oraz pracy Rossa Picarda nad "przetwarzaniem afektywnym", w której podkreślono znaczenie wpływu człowieka i zbadanie, w jaki sposób komputery mogą być "świadome wpływu" lub emocjonalne. Dzisiaj jesteśmy świadkami rosnącej liczby społeczności badawczych, które badają aspekty emocji i afektu, od "emocjonalnych" lub "afektywnych" interfejsów użytkownika do "wiarygodnych" syntetycznych postaci i życiowych animowanych agentów z emocjami, do pedagogiki emocjonalnej lub świadomej emocji i instruktorów, do emocjonalnych wirtualnych agentów i robotów . Motywacje dla różnych kierunków badań i ich konkretne cele są oczywiście zupełnie inne. Podczas gdy dla niektórych emocji chodzi o to, aby animowane postacie były bardziej wiarygodne (np. Poprzez obdarowanie ich emocjonalnymi wyrazami twarzy), dla innych rozpoznawanie emocji jest kluczowe, aby system mógł dostosować się do potrzeb użytkownika. Jeszcze inni uważają emocje za integralną część kontroli złożonych czynników, a zatem skupiają się na mechanizmach architektonicznych wymaganych w procesach emocji. Ale wspólne dla wszystkich tych różnych bodźców do odkrywania emocji jest milczące założenie, że emocje w takiej czy innej formie mogą mieć ważne zastosowanie w sztucznych środkach.

Funkcjonalne role emocji

Jedną z głównych trudności związanych z pojęciami takimi jak emocje (a także świadomość) jest to, że nie są one jasno sprecyzowane i prawdopodobnie nawet nie są jasno sprecyzowane w zasadzie. Dlatego w psychologii nie ma wyraźnego sensu, czym dokładnie jest emocja, a relacje psychologiczne różnią się znacznie w zależności od tego, w jaki sposób emocje są zindywidualizowane (np. Na podstawie wyrazu twarzy, wzorców behawioralnych, obszarów mózgu itp.). Trudności koncepcyjne związane z koncepcjami emocji nie zniechęcały jednak do prób wdrożenia procesów, które przynajmniej przypominają procesy emocji, mimo że badacze AI często nie zgadzają się co do tego, czym są "emocje" i co ich zdaniem oznacza wdrożenie emocje w sztucznych środkach . Wiele badań nad rolą emocji w sztucznych czynnikach było motywowanych analizą możliwych funkcjonalnych ról emocji w układach naturalnych. Podstawowe założenia są takie, że (1) emocje pełnią role funkcjonalne w architekturach agentów, a (2) posiadanie stanów o odpowiednich funkcyjnych rolach jest wystarczające do posiadania emocji, niezależnie od konkretnego fizycznego składu agenta. Podczas gdy większość badaczy nauk afektywnych zgodzi się co do (1) (chociaż istnieje wiele przykładów skutków afektu dysfunkcyjnego), ich poglądy różnią się w (2) - czy posiadanie odpowiedniego rodzaju architektury funkcjonalnej jest wszystkim, co jest dostępne mieć określone emocje. Mogą na przykład utrzymywać, że różne stany cielesne są zaangażowane w wiele stanów afektywnych: Jeśli określone procesy biochemiczne, takie jak wydzielanie określonych hormonów lub zmiany w poszczególnych neuroprzekaźnikach, są uważane za niezbędne lub wpływające na, wówczas sztuczne czynniki z definicji nie będą w stanie wywołać tak zbudowanych stanów afektywnych. Sztuczne środki będą jednak nadal zdolne do tworzenia takich samych rodzajów procesów kontrolnych, jak te realizowane w aktywności neuronalnej u zwierząt, ponieważ są one: również z definicji, niezależnie od fizycznego składu agenta, i może to być wystarczające do celów AI (np. aby sztuczny agent mógł wykonać określone zadanie). Z drugiej strony, jeśli dokładna natura stanów i procesów cielesnych nie odgrywa przyczynowej roli w funkcjonowaniu procesów afektywnych, tak że na przykład można zastosować symulowane układy hormonalne do osiągnięcia tych samych efektów, wówczas sztuczne czynniki będą mogły tworzyć instancje wpływające na procesy, jeśli mają odpowiednie warunki architektoniczne. Niezależnie od tego, jaką postawę przyjmuje się jakościowy charakter emocji (tj. W kwestii "jak to jest doświadczyć stanu X"), funkcjonalne aspekty emocji w kontekście systemu kontroli agenta można rozpatrywać niezależnie. W szczególności wydaje się, że dla sztucznych czynników istnieje dwanaście potencjalnych ról emocji

1 Mechanizmy alarmowe - np. szybkie reakcje przypominające odruch w sytuacjach krytycznych, takich jak procesy strachu, które przerywają obecne zachowanie i inicjują reakcję wycofania, odsuwając agenta od strefy niebezpiecznej.
2 Wybór akcji - np. decydowanie o tym, co dalej robić w oparciu o aktualny stan emocjonalny, np. Przejście od eksploracji do zachowań żerujących w zależności od potrzeb agenta.
3 Adaptacja - np. krótko- lub długoterminowe zmiany zachowania spowodowane stanami afektywnymi, takie jak dostosowanie chodu do nierównego terenu w oparciu o negatywny wpływ generowany przez czujniki.
4 Regulacja społeczna - np. używanie sygnałów emocjonalnych do osiągania efektów społecznych, takich jak agresywna prezentacja w celu powstrzymania innego agenta przed zakłócaniem aktywności.
5 Uczenie się - np. stosowanie ocen afektywnych jako oszacowań użyteczności w uczeniu się wzmacniającym, takim jak uczenie się przydatności różnych zachowań do osiągania celów w różnych kontekstach.
6 Motywacja - np. przyjmowanie celów w ramach mechanizmu radzenia sobie z emocjami, na przykład gdy wysoki poziom stresu i frustracji prowadzi do przyjęcia celu, jakim jest proszenie przełożonego o pomoc)
7 Zarządzanie celami - np. Tworzenie nowych celów lub zmiana priorytetów istniejących, takich jak stosowanie pozytywnego i negatywnego wpływu do modyfikowania szacunków kosztów wykorzystywanych w obliczeniach oczekiwanej użyteczności celu.
8 Przetwarzanie strategiczne - np. wybór strategii wyszukiwania w oparciu o ogólny stan afektywny, taki jak zastosowanie pozytywnego i negatywnego wpływu na algorytmy wyszukiwania uprzedzeń w celu wyszukiwania od góry do dołu w porównaniu z wyszukiwaniem od dołu do góry.
9 Kontrola pamięci - np. strategiczne wykorzystanie afektywnego uprzedzenia przy dostępie i odzyskiwaniu pamięci, a także szybkość zanikania elementów pamięci, takie jak wykorzystanie obecnego stanu afektywnego do uszeregowania elementów pamięci z podobnym wpływem na lepsze dopasowania.
10 Integracja informacji - np. emocjonalne filtrowanie danych z różnych kanałów informacyjnych lub blokowanie takiej integracji, takie jak ignorowanie pozytywnie ocenionych informacji z czujników wizyjnych na temat szczęśliwej twarzy, gdy informacja akustyczna sugeruje gniewny głos.
11 Skupienie uwagi - np. wybór danych do przetworzenia na podstawie oceny afektywnej, takich jak promowanie wyszukiwania wizualnego na rzecz obiektów, których agent bardzo pragnie.
12 Model własny - np. użycie afektu jako reprezentacji "jaka jest sytuacja dla agenta", takie jak zastosowanie ogólnej oceny afektywnej różnych elementów systemu kontroli agenta jako miary ogólnego nastroju agenta i tego, jak " czuje ".
Chociaż lista ta nie ma być wyczerpująca, wskazuje na zróżnicowany funkcjonalny charakter emocji, od ról architektonicznych po role w regulacji społecznej. I zapewnia ramy, w których można lokalizować przeszłe osiągnięcia i przyszłe kierunki badań nad architektonicznymi aspektami afektu.

Komunikatywne a architektoniczne aspekty emocji

Prace nad emocjami w AI można z grubsza podzielić na dwie części (z niewielkim nakładaniem się): aspekty komunikacyjne i aspekty architektoniczne. Komunikatywne aspekty emocji dotyczą głównie czwartej roli (regulacja społeczna) i zostały zbadane głównie przez interakcje człowiek-komputer (HCI), a ostatnio społeczności interakcji człowiek-robot (HRI). Wysiłki koncentrują się na rozpoznawaniu emocji, ekspresji emocjonalnej, a czasem na tym, jak połączyć te dwa elementy, aby poprawić wrażenia użytkowników z interaktywnym systemem (np. poprzez interfejs użytkownika na komputerze lub poprzez repertuar sensoryczny i efektorowy robota). Obie społeczności poczyniły znaczące postępy w zrozumieniu rodzajów interakcji emocjonalnych, w które angażują się ludzie (np. Brave i Nass) oraz jak sprawić, by maszyny je rozpoznawały i sygnalizowały (np. Jak badać wzory czasowe w celu wykrycia sfrustrowanych i zachwyconych ludzkich uśmiechów"). Drugi główny aspekt, architektoniczny aspekt emocji, koncentruje się na roli i użyteczności emocji w architekturach agentów (takich jak wykorzystywanie ocen emocjonalnych jako szybkiej heurystyki w podejmowaniu decyzji), a zatem mniej zajmuje się społecznymi komunikacyjnymi aspektami emocji. Ta część próbuje wykorzystać mechanizmy emocji do poprawy zdolności agenta, a większość prac tutaj koncentruje się na pierwszych pięciu rolach. W szczególności zwrócono uwagę na selekcję afektywną lub emocjonalną, zarówno w przypadku czynników symulowanych, jak i czynników robotycznych. Podobnie, sporo pracy badało użyteczność ewaluacji generowanych wewnętrznie i odzwierciedlających pewien aspekt wewnętrznego stanu agenta (a nie zewnętrznych stanów środowiskowych) dla uczenia się wzmacniającego, mimo że większość tych badań nie nazywa tych ocen "afektywnymi". Jednak zaskakująco mało pracy skupiono się na badaniu ról (6) do (12), chociaż istnieją pewne znaczące wyjątki. Zwróć uwagę, że szczególnie cztery ostatnie role mogą okazać się kluczowe dla refleksji, a zatem świadome systemy. Ponieważ jak czytaliśmy na temat świadomości maszyny, mechanizmy uważnej kontroli, integracja informacji, pamięć robocza i kontrola dostępu, a także model własny agenta są uważane za niezbędne składniki dla rozwoju świadomych maszyn. Istnieje kilka istotnych różnic między badaniami nad komunikacyjnymi a architektonicznymi aspektami emocji. Co najważniejsze, ta pierwsza nie wymaga tworzenia stanów emocjonalnych w systemie. Na przykład agent nie musi być emocjonalny (lub zdolny do emocji), aby móc rozpoznać wyrażenia emocjonalne na ludzkich twarzach. Ten drugi natomiast musi twierdzić, że stany emocjonalne określonego rodzaju są tworzone w systemie. Co więcej, badacze komunikatywnych aspektów emocji nie potrzebują zadowalającej teorii emocji (tj. Teorii stanów emocjonalnych), aby móc wytworzyć działające systemy. Zdolność mierzenia zmian w przewodności skóry użytkownika, częstotliwości oddychania itd., A także wykorzystywanie jego informacji do zmiany poziomu szczegółowości graficznego interfejsu użytkownika nie zobowiązuje automatycznie do twierdzenia, że zmierzony był poziom frustracji użytkownika, chociaż w niektórych przypadkach wydaje się to prawdą. W rzeczywistości agent pedagogiczny może dowiedzieć się ważnych faktów na temat swojego użytkownika (np. Skuteczności jego strategii instruktażowych) w oparciu o takie miary bez konieczności przedstawiania procesów emocjonalnych użytkownika ani samych procesów emocjonalnych. Przeciwnie, architektury, które twierdzą, że używają mechanizmów emocjonalnych (np. do ustalania priorytetów celów lub odzyskiwania pamięci) będą musiały wykazać, że zaimplementowane mechanizmy rzeczywiście powodują "stany emocjonalne" w jasno określonym znaczeniu. W przeciwnym razie nie ma sensu ani żadnego powodu, aby je nazywać, mimo że w AI istnieje i zawsze istniała tendencja do prezentowania uproszczonych programów AI i robotów tak, jakby usprawiedliwiały epitety takie jak "emocjonalne", "smutne" "Zaskoczony", "przestraszony", "uczuciowy" i tak dalej, bez głębokiej teorii uzasadniającej te etykiety. W konsekwencji droga architektoniczna stoi przed wyzwaniem, aby powiedzieć dokładnie, co to znaczy "wdrożyć stany emocjonalne" omawianych rodzajów. Naukowcy realizujący wątek architektoniczny dotyczący emocji w sztucznej inteligencji można dalej podzielić na dwie główne kategorie: tych, którzy próbują modelować jawne, obserwowalne skutki zachowania emocji (nazywają te modele emocji wyświetlaniem) oraz tych, którzy dążą do modelowania wewnętrznych procesów, które przynoszą o zachowaniach emocjonalnych (nazwij te procesowe modele emocji). Dotychczasowa większość prac nad architektonicznymi aspektami emocji w sztucznej inteligencji koncentrowała się na modelach wyświetlania, które mają na celu uzyskanie "odwzorowania wejścia-wyjścia" danego opisu behawioralnego (np. odpowiedniego rodzaju reakcji emocjonalnej dla danego kontekstu, takiego jak jako wyraz strachu na twarzy robota, gdy przed nim szybko zbliża się obiekt). W skrajnym przypadku takie odwzorowanie może być tak proste, jak zastosowane w animowanym internetowym agencie handlowym, który wyświetla zdziwioną twarz, jeśli użytkownik spróbuje usunąć element z koszyka. Architektury tego rodzaju znajdują się w wielu tak zwanych "wiarygodnych agentach", gdzie głównym celem jest nakłonienie ludzkiego obserwatora do myślenia, że agent jest w szczególnym stanie emocjonalnym. To, czy agent rzeczywiście znajduje się w danym stanie, nie ma znaczenia. W rzeczywistości emocje są tutaj często przedstawiane jako stany lub wartości "zmiennych emocji", albo jakościowo, jak sugerują terminy emocji (np. "Szczęśliwy", "boi się" itp.), Lub ilościowo, stosując wartości liczbowe (np. agent jest "0,4 szczęśliwy", "boi się 0,1" itd.). I podczas gdy niektórzy pozwalają agentom znajdować się tylko w jednym stanie na raz, inni pozwalają na "mieszanie emocji" (mieszanki jednocześnie obecnych stanów emocjonalnych), w których indywidualne emocje i ich intensywność obejmują wielowymiarową przestrzeń. Należy zauważyć, że nie należy brać pod uwagę tych cech, które sugerują, że projekt architektury pozbawiony jest motywacji biologicznej. Wręcz przeciwnie: większość (jeśli nie wszystkie) modele wyświetlaczy czerpią inspirację z badań w naukach afektywnych. Jednak ich celem nie jest replikacja żadnych konkretnych danych empirycznych z badań na zwierzętach lub ludziach, ale raczej zbadanie możliwych mechanizmów uzyskiwania pożądanych obserwowalnych efektów. Główny problem z wyświetlaniem modeli emocji polega na tym, że ostatecznie milczą na temat roli emocji w architekturach agentów, ponieważ mogą one, ale nie muszą, faktycznie wdrażać procesy emocjonalne w celu osiągnięcia pożądanych jawnych zachowań. A nawet jeśli tak, to mogą nam niewiele powiedzieć o roli emocji. Ponieważ chociaż zaimplementowane stany są często oznaczone znanymi terminami, różnią się one znacznie od tych zwykle oznaczanych tymi terminami. Na przykład stan oznaczony jako "niespodzianka" może być funkcjonalnie zdefiniowany jako uruchamiany przez głośne dźwięki i ma bardzo niewiele wspólnego ze złożonymi procesami leżącymi u podstaw pojęcia "niespodzianka" u ludzi i różnych zwierząt, które wiążą się z naruszeniem przewidywanego wyniku . (W przypadku stanu zdefiniowanego w ten sposób bardziej odpowiednią etykietą byłoby "przestraszyć"). Natomiast modele procesów mają na celu modelowanie i symulację niektórych aspektów procesów emocjonalnych podczas ich rozwoju. Jak zauważyło wielu psychologów i badaczy AI, pojęcia emocji najlepiej scharakteryzować jako oznaczające trwałe procesy kontroli zachowania: działanie i reakcję, dostosowanie i modyfikację, przewidywanie i kompensację zachowania w różnych (często towarzyskie) sytuacje. Często nie jest to pojedynczy stan wewnętrzny architektury agenta, który określa, czy agent doświadcza lub wykazuje jakieś emocje, ale cała sekwencja takich stanów w połączeniu ze stanami środowiska. "Strach" nie odnosi się na przykład do makijażu agenta w danym momencie, ale do rozwoju sekwencji zdarzeń, począwszy od postrzegania potencjalnie groźnych warunków środowiskowych, po reakcję kontroli agenta system, na reakcję ciała agenta, na zmianę percepcji i tak dalej. Modele procesów są zatem znacznie bardziej złożone niż modele wyświetlania, ponieważ koncentrują się na procesach wewnętrznych (i stanach przetwarzania) zaangażowanych w emocje, zwykle opierając się na (psychologicznej, neurologicznej itp.) teorii emocji

Przetwarzaj modele emocji

Modele procesów oparte są na różnych komponentach charakterystycznych dla procesów emocji: komponencie percepcyjnym, który może wywołać proces emocji; składnik trzewny, który wpływa na zmienne homeostatyczne organizmu agenta; komponent poznawczy, który obejmuje stany podobne do przekonań, a także różnego rodzaju procesy deliberatywne (np. przekierowanie mechanizmów uwagi, realokacja zasobów przetwarzania, przywołanie wcześniejszych epizodów naładowanych emocjonalnie itp.); komponent behawioralny będący reakcją na proces afektu (np. w postaci pokazów twarzy, gestów lub ruchów ciała itp.); i towarzyszące mu odczucie jakościowe ("jak to jest być w stanie S lub doświadczać go"). Żaden pojedynczy aspekt nie jest potrzebny do emocji, ani żaden pojedynczy aspekt nie jest sam w sobie wystarczający. Jednak większość z nich uważa się za część wielu ludzkich emocji, które znamy z własnego doświadczenia. Same modele procesów można podzielić na dwie główne klasy, w zależności od tego, czy mają one na celu wyjaśnienie struktur neurologicznych i mechanizmów emocji na niskim poziomie ("modele procesów na niskim poziomie"), czy też mają na celu modelowanie procesów emocji na wyższym poziomie ("Modele procesów wysokiego poziomu"). Większość badań nad niskopoziomowymi modelami procesów dotyczy warunkowania Pawłowa i dotyczy struktur neuronowych i mechanizmów przetwarzania (stąd większość modeli niskiego poziomu to modele "sieci neuronowej"). Modele emocji wyższego poziomu mają na celu uchwycenie większej liczby aspektów poznawczych zaangażowanych w procesy afektywne i zazwyczaj dotyczą szerszego zakresu afektów (stąd większość modeli wyższego poziomu to modele "symboliczne"). Najbardziej szeroko rozwinięte ogólne modele niskiego poziomu to modele CogEM Grossberga, które mają na celu wykazanie interakcji między obszarami emocjonalnymi i nie-emocjonalnymi w mózgu (np. Ciało migdałowate vs. korowe czuciowe lub przedczołowe ). Modele CogEM mogą uwzględniać kilka efektów w warunkowaniu Pawłowa strachu, ale nie zostały bezpośrednio zastosowane do danych empirycznych. Z drugiej strony, specyficzne modele afektywne niskiego poziomu są ukierunkowane na modelowanie ciała migdałowatego, które pełni kilka funkcji w przetwarzaniu emocji. Na przykład wykazano, że boczne ciało migdałowate jest zaangażowane w warunkowanie strachu, a wstępny model obliczeniowy asocjacyjnego uczenia się w ciele migdałowatym został opracowany i przetestowany w trzech zadaniach uczenia asocjacyjnego. Ponadto ostatnie dowody z badań na szczurach sugerują, że ciało migdałowate, w szczególności ciało migdałowate przednio-skroniowe, integruje informacje sensoryczne i koduje oceny afektywne jako część pamięci strachu. LeDoux i współpracownicy postawili hipotezę modelu podwójnej ścieżki przetwarzania emocjonalnego w ciele migdałowatym, którą przetestowali w badaniach uwarunkowania strachu słuchowego. Modele te zastosowano również w symulowanych badaniach zmian chorobowych i skutecznie porównano z danymi z rzeczywistych badań zmian na szczurach. Podczas gdy wszystkie modele niskiego poziomu są modelami sieci neuronowej, modele wyższego poziomu obejmują zarówno podejście łączące, jak i symboliczne. Przykładem wysokiego poziomu podejścia łączącego jest model ITERA, który ma na celu zbadanie, w jaki sposób informacje medialne na temat problemów środowiskowych wpływają na poznanie, emocje i zachowanie. Fakty, typy danych wejściowych, emocje i intencje behawioralne są reprezentowane w kategoriach poszczególnych jednostek neuronowych, które są połączone za pomocą połączeń pobudzających i hamujących i rywalizują o aktywację. Większość prób modelowania emocji na wyższych poziomach opiera się jednak na symbolicznych architekturach, na przykład Soar lub ACT. Zazwyczaj koncentrują się na modelu OCC, który zapewnia "reguły aktualizacji" dla zmian stanów emocjonalnych, które można bezpośrednio zaimplementować w systemach opartych na regułach. Najbardziej zaawansowane obecnie implementacje modeli afektywnych na wysokim poziomie są realizowane w kontekście "wirtualnych ludzi", w których użyteczność emocji w sztucznych środkach można badać w pełnych zanurzeniowych interakcjach z ludźmi. Jeden konkretny model, model EMA, został również wykorzystany do dalszych teorii psychologicznych, w których różne procesy "oceny emocjonalnej i radzenia sobie" są istotnymi częściami ludzkich procesów emocjonalnych. Inne architektury wyższego poziomu próbują wdrożyć różne aspekty psychologicznych teorii emocji; przykłady obejmują model MAMID, którego komponenty emocjonalne "gniew" i "strach" są zgodne z definicją Frijdy oraz model "zaskoczenia" zaproponowany przez Macedo i Cardoso. Istnieje również kilka koncepcyjnych sugestii dotyczących złożonych architektur podobnych do ludzi, które jednoznacznie uwzględniają ludzkie emocje i funkcje poznawcze, ale bez konkretnych implementacji proponowanej architektury. Przykłady obejmują model H-CogAff Slomana, maszynę emocji Minsky′ego oraz model trójwarstwowy Normana, Ortony′ego i Revelle. Większość modeli emocji została wdrożona i przetestowana w oderwaniu od dowolnego modelu ciała. W związku z tym trudno jest, jeśli nie niemożliwe, zbadać kluczowe aspekty przetwarzania emocji, które potrzebują ciała do kontroli, a tym samym wykraczają poza właściwości funkcjonalne (takie jak efekty warunkowania Pawłowa), które można przetestować w niezależnych modelach (np. poprzez zastosowanie bodźca i pomiar wydajności). Podejmowano różne próby włączenia procesów fizycznych w symulowanych i zrobotyzowanych agentach. Niektórzy badali obliczeniowe działanie symulowanych hormonów dla kontroli emocjonalnej, podczas gdy inni wdrożyli modele emocji łączących się z robotami, gdzie różne typy emocji są reprezentowane jako jednostki łączące się konkurujące o aktywację, co z kolei powoduje, że robot wykazuje szczególne zachowanie. Główną różnicą między tymi podejściami a zarówno niskopoziomowymi modelami afektu, a niektórymi modelami opartymi na ocenie wysokiego szczebla jest to, że nie próbują modelować żadnej konkretnej psychologicznej lub neurobiologicznej teorii afektu ( np. w celu weryfikacji lub sfałszowania swoich prognoz). Raczej dotyczą one zastosowania określonego mechanizmu sterowania z perspektywy inżynieryjnej. Główny problem z procesowymi modelami afektu jest bezpośrednim rezultatem problemów nękających koncepcje afektów: Nie jest jasne, jakiego rodzaju stanu afektywnego jest dany model obliczeniowy. W pewnym sensie modele procesów bez funkcjonalnej charakterystyki wdrożonych stanów afektywnych nie są bardziej skuteczne z koncepcyjnego punktu widzenia niż modele wyświetlania, które nie mają na celu przede wszystkim implementacji określonych rodzajów stanów afektywnych. Jednak nawet jeśli od razu nie można uzyskać przebiegu koncepcyjnego z modelu procesu, istotną zaletą podejścia metodologicznego jest próba wdrożenia hipotetycznych mechanizmów wpływu, które zaowocowały już w krótkim okresie. Mechanizmy architektoniczne mające na celu umożliwienie wystąpienia stanów afektywnych mogą być testowane i oceniane jako takie, niezależnie od tego, jakie stany funkcjonalne mogą tworzyć (np. Można je traktować jako "quasi-emocje" i badać ich potencjał do poprawy wydajność agenta; Scheutz 2011). Jest to analogiczne do tego, co wydarzyło się pragmatycznie w sztucznej inteligencji z innymi rodzajami architektur, takimi jak na przykład architektury o przekonaniu pożądania (BDI). W tym przypadku można postawić te same pytania pojęciowe na temat faktycznej natury tworzonych stanów "przekonania", "pożądania" i "intencji", podczas gdy architektoniczne mechanizmy rozwiązywania problemów można oceniać niezależnie w różnych dziedzinach pod względem ich technicznych zalet. Istnieje jednak istotna różnica między podejściami architektonicznymi w dziedzinie rozumowania, rozwiązywania problemów itd. A podejściami architektonicznymi w dziedzinie afektu: ta pierwsza często ma dobrze rozwiniętą teorię potencjału funkcjonalnego mechanizmów architektonicznych, podczas gdy ten drugi nie ma obecnie takiej teorii. Badania nad architektonicznymi aspektami afektu są raczej w fazie przed teoretycznej. Obecny brak dobrze rozwiniętej teorii użyteczności stanów afektywnych w kontroli sztucznych czynników nie odbiera jednak faktu, że próby scharakteryzowania i wdrożenia stanów afektywnych i procesów mogą przynieść mechanizmy architektoniczne, które mogą okazać się przydatne różnorodne domeny i aplikacje

Świadomość maszyny w AI

W przeciwieństwie do badań nad emocjami, które sięgają lat 60. XX wieku, badanie świadomości maszynowej w AI jest znacznie młodszym przedsięwzięciem, które rozpoczęło się w połowie lat 90. i naprawdę dopiero zaczyna nabierać rozpędu (chociaż były pewne wczesne próby określenia wymagań dla świadomych maszyn). Jednym z powodów tego późniejszego rozpoczęcia może być to, że badania świadomych maszyn muszą opierać się na badaniach różnych funkcjonalnych komponentów wymaganych dla świadomości, z których niektóre mogą być emocjami (sugerując, że emocje i świadomość są wewnętrznie powiązane). Nieco zaskakujące jest jednak to, że społeczność świadomości maszynowej nie jest podzbiorem społeczności uczuciowej w AI, ani się z nią nie krzyżuje. I podczas gdy społeczność uczuciowa w AI umacnia bliskie więzi z różnymi psychologami i ich teoriami, społeczność świadomości maszyn wydaje się być bardziej związana z filozofami, którzy są zainteresowani dostarczeniem funkcjonalnego, możliwego do wdrożenia konto świadomości. Podobnie jak w przypadku emocji w AI, gdzie badacze pracujący nad komunikatywnym i innymi wymiarami emocji po prostu ignorują pytania o to, czym są emocje i jak są one realizowane, niektórzy badacze zainteresowani świadomością nie próbują opisywać ludzkiej świadomości. Interesują ich raczej "symulowanie" procesów, które uznają za niezbędne dla świadomości - co Holland nazywa "słabą sztuczną świadomością" - lub stosowanie zasad gwarantujących ludzką świadomość do projektowania lepszych systemów kontroli . Niektórzy jednak są zainteresowani świadomymi maszynami, a zatem, podobnie jak badacze modeli procesów emocji, muszą odpowiedzieć na pytanie, co rozumieją przez "świadomość" i, w końcu, co zajmie jego wdrożenie. Oczywiście jest to bardzo trudny problem, biorąc pod uwagę, że ani filozofowie, ani psychologowie nie zgadzają się co do tego, do czego "świadomość" ma się odnosić lub czym ma być świadomość. (Teorie świadomości rozciągają się od teorii neurologicznych po kognitywne teorie reprezentacyjne, takie jak różne formy teorii myśli wyższego rzędu, które utrzymują, że myśli i percepcje stają się świadome dzięki celowi dalszych myśli lub percepcji.) Podobnie jak w przypadku emocji, AI badacze zainteresowani osiągnięciem świadomości w maszynach zaproponowali różne zasady i mechanizmy architektoniczne, które uważają za niezbędne dla świadomych maszyn. Ogólnie rzecz biorąc, propozycje różnią się w kilku wymiarach: (1) stopień, w jakim łączą się z filozofią, psychologią lub neuronauką; (2) stopień, w jakim określają określoną architekturę, która może być świadoma, lub szczególne zasady dla takiej architektury; oraz (3) stopień, w jakim faktycznie zapewniają implementacje swoich architektur lub modeli. Jednak badacze zgadzają się, że wymagany jest pewien rodzaj "modelu wewnętrznego", który opiera się na reprezentacjach stanów percepcyjnych agenta i pozwala agentowi symulować lub przewidywać przyszłe zdarzenia i wyniki oraz to, jakie byłyby dla niego różne możliwe działania. Naukowcy nie zgadzają się jednak co do dokładnej definicji i rozszerzenia modelu wewnętrznego oraz innych komponentów, z którymi jest on połączony.

Propozycje architektoniczne

Większość propozycji dotyczących świadomości w sztucznych środkach jest obecnie konceptualna i zapewnia zestaw potencjalnie możliwych do wdrożenia zasad (czasami ze wstępnymi implementacjami dla podzbiorów). Pentti Haikonen na przykład podsumowuje wymagania architektoniczne dla świadomego systemu w następujący sposób:

(1) Należy opracować odpowiednią metodę przedstawiania informacji. (2) Należy zaprojektować odpowiednie elementy przetwarzające informacje, które pozwalają na manipulowanie informacjami za pomocą wybranej metody reprezentacji. (3) Należy zaprojektować architekturę maszyny, która może pomieścić czujniki, efektory, procesy percepcji, introspekcji i uziemienia znaczenia, a także przepływ wewnętrznej mowy i wewnętrznych obrazów. (4) Projekt systemu musi także uwzględniać funkcje myślenia i rozumowania, emocji i języka.

Bardziej formalne podejście przyjmuje Alexander i koledzy, którzy wymieniają pięć zasad, określonych jako aksjomaty, które uważa się za wystarczające dla świadomości. Określają pojęcie "świadomy" dla agenta i świata w następujący sposób: Niech A będzie agentem w sensownie dostępnym świecie S. Aby A był świadomy S, konieczne jest, aby:

Aksjomat 1 (przedstawienie): A ma stany percepcyjne, które przedstawiają części S.
Aksjomat 2 (wyobraźnia): A ma wewnętrzne stany wyobrażeniowe, które przypominają części S lub wytwarzają wrażenia podobne do S.
Aksjomat 3 (Uwaga): A jest w stanie wybrać, które części S mają przedstawić lub co wyobrazić.
Aksjomat 4 (Planowanie): A ma środki kontroli nad wyobrażeniowymi sekwencjami stanów do planowania działań.
Aksjomat 5 (Emocja): A ma dodatkowe stany afektywne, które oceniają planowane działania i determinują następującą akcję.

Twierdzenie jest takie, że to połączenie zmysłowych, wyobrażeniowych, uważnych i afektywnych przedstawień ostatecznie prowadzi do perspektywy pierwszoosobowej ("ja" u ludzi). Aksjomaty są motywowane nie przez szczególną teorię świadomości, ale przez duży zbiór indywidualnych odkryć, które wydają się sugerować te zasady jako abstrakcje. Sloman już od dłuższego czasu promuje pojęcie "funkcjonalizmu maszyny wirtualnej" jako sposobu na uwzględnienie bogatych wewnętrznych procesów złożonych, rozważnych i refleksyjnych czynników, które mogą stanowić podstawę introspekcji i rozwoju wewnętrznych kategorii i pojęć, które są niedostępne (nawet poprzez język) do innych agentów, a zatem stanowią podstawę perspektywy pierwszej osoby świadomego agenta. Jest także kilku innych badaczy, którzy próbują przedstawić funkcjonalne architektoniczne opisy wymagań dotyczących świadomości. Proponowane relacje obejmują zarówno neuronowe, jak i robotyczne, teoretyczne kontrolne, oparte na procesach i inne. Wspólne dla wszystkich powyższych badaczy jest to, że zaimplementowali niektóre podstawowe modele, które pokazują części architektury, ale nie kompletny funkcjonalny, a zatem świadomy system.

Świadomi agenci

Godnym uwagi wyjątkiem wśród badaczy świadomości maszyn jest praca Franklina i jego współpracowników (, którzy próbowali wdrożyć całkowicie świadomego agenta, w oparciu o globalną teorię świadomości Baarsa. Jest to "teatralny model" świadomości, który wymaga centralnej przestrzeni roboczej ("sceny"), w której "świadome treści pojawiają się, gdy jasne światło uwagi pada na gracza na scenie pamięci roboczej" . Pierwszy funkcjonalny prototyp, "Świadoma" Mattie, był agentem oprogramowania odpowiedzialnym za pisanie ogłoszeń o seminariach, komunikowanie się e-mailem z organizatorami seminariów i przypominanie im o spóźnieniu. Drugi prototyp, IDA dla "Intelligent Distribution Agent", został opracowany dla amerykańskiej marynarki wojennej, aby ułatwić proces przydzielania marynarzy do nowych misji. Obie architektury obejmują mechanizmy "świadomości" składające się z kontrolera reflektorów, menedżera transmisji oraz zbioru kodeksów uwagi, które rozpoznają nowe lub problematyczne sytuacje, wraz z modułami percepcji, wyboru akcji, skojarzenia pamięci, emocji i metapoznania (patrz Franklin 2000 ). Najnowszy model to kompletna architektura poznawcza o nazwie LIDA (Learning Intelligent Distribution Agent), która dodaje różne rodzaje uczenia się do poprzedniej architektury.

Perspektywy na przyszłość

Badania nad emocjami stały się aktywnym interdyscyplinarnym polem sztucznej inteligencji, a świadomość maszyn jest na skraju ustanowienia społeczności badawczej zajmującej się projektowaniem świadomych maszyn. Opierając się na bieżących trajektoriach, prawdopodobne jest, że obie społeczności będą rosły razem, zwłaszcza że społeczność emocji poszukuje bardziej złożonych emocji, takich jak żal z powodu własnego zachowania lub rozczarowanie postawą kogoś innego, które wymagają wiele cech architektonicznych niezbędnych dla świadomych maszyn, postulowanych przez społeczność świadomości (reprezentacje własnych spostrzeżeń, wewnętrzne skupienie uwagi, wspomnienia o przeszłych działaniach, reprezentacje możliwych przyszłości itp.). Badania w obu obszarach obiecują nie tylko postęp w dziedzinie sztucznej inteligencji, ale także rzucić światło, jeśli nie bezpośrednio na ludzki przypadek, to na przypadek możliwych emocjonalnych i świadomych istot, które powinny pomóc nam dopracować nasze koncepcje. Co więcej, oba obszary prawdopodobnie przyczynią się do lepszego zrozumienia kompromisów między systemami, które są emocjonalne i świadome w porównaniu z systemami, które nie mają jednej lub obu właściwości. Biorąc pod uwagę, że oba przedsięwzięcia są dość młode, nie powinno być zaskoczeniem, że dziedziny te nie wypracowały zadowalających kryteriów sukcesu ani nie zastanawiały się nad implikacjami ich pracy. "Kryteria sukcesu" mają tutaj odnosić się do sposobów, które pozwoliłyby nam stwierdzić, czy dana maszyna ma emocje, czy jest świadoma. prawdopodobnie będzie to wymagało stwierdzeń na temat architektury funkcjonalnej maszyny i typów obsługiwanych stanów. Obejmuje to również algorytmy określające, czy dany system faktycznie implementuje architekturę funkcjonalną, ale niestety obecnie brakuje nam również dobrej teorii implementacji. Idealnie chcielibyśmy mieć kryteria, które mogą ustalić, czy dana maszyna jest w określonym stanie emocjonalnym, czy też jest przytomny. Może to obejmować procedury analogiczne do tych stosowanych przez psychologów w celu ustalenia, czy dana osoba jest w określonym stanie emocjonalnym, czy jest przytomna. Podczas gdy szczególna potrzeba takich kryteriów może nie pojawić się tak często w samej AI, prawdopodobne jest, że w końcu pojawi się silna presja społeczna, aby rozstrzygnąć te i inne fundamentalne pytania dotyczące natury sztucznych umysłów, zwłaszcza gdy pojawiają się twierdzenia dotyczące emocjonalnego i świadome stany maszyny. To był punkt uznany przez Putnama ponad czterdzieści lat temu: biorąc pod uwagę stale przyspieszające zmiany technologiczne i społeczne, jest całkiem możliwe, że roboty kiedyś będą istnieć i będą argumentować: "żyjemy; jesteśmy świadomi!" W takim przypadku, jakie dziś są jedynie filozoficzne uprzedzenia tradycyjnego rodzaju antropocentrycznego i mentalistycznego, nazbyt prawdopodobne przekształciłyby się w konserwatywne postawy polityczne. Ale na szczęście dzisiaj mamy tę zaletę, że możemy z zainteresowaniem omówić ten problem, a zatem mamy jeszcze większą szansę na znalezienie właściwej odpowiedzi.

Chociaż Putnam miał z pewnością rację co do potrzeby wyjaśnienia pytań dotyczących świadomości maszynowej, pilność wypracowania odpowiedzi na problem wyraźnie się zmieniła między tym, kiedy pisał o omawianiu go "bezinteresownie", a dziś, ze wszystkimi ostatnimi sukcesami sztucznej inteligencji i autonomii robotyka, a roboty są już rozpowszechniane w społeczeństwie. Dlatego najwyższy czas, aby badacze i filozofowie AI zastanowili się wspólnie nad potencjałem emocjonalnych i świadomych maszyn. Nie chcemy bowiem budzić się pewnego dnia, aby odkryć, że to, co traktowaliśmy jako pozbawione emocji, nieświadome artefakty, było naprawdę emocjonalne, świadome istoty, zniewolone i źle traktowane przez nas z niewiedzy lub uprzedzeń.