Językoznawstwo

* Jak język odnosi się do myśli?

W 1957 r. B. F. Skinner opublikował „Zachowania werbalne”. Było to wyczerpujące, szczegółowe omówienie behawiorystycznego podejścia do nauki języków, napisane przez czołowego eksperta w tej dziedzinie. Ale co ciekawe, recenzja książki stała się równie znana jak sama książka i prawie unicestwiła zainteresowanie behawioryzmem. Autorem recenzji był językoznawca Noam Chomsky, który właśnie opublikował książkę o swojej teorii Syntactic Structures. Chomsky zwrócił uwagę, że teoria behawiorystów nie odnosi się do pojęcia kreatywności w języku – nie wyjaśnia, w jaki sposób dzieci mogą rozumieć i tworzyć zdania, których nigdy wcześniej nie słyszały. Teoria Chomsky’ego – oparta na modelach składniowych sięgających czasów indyjskiego językoznawcy Paniniego (ok. 350 rpne) – mogłaby to wyjaśnić i, w przeciwieństwie do poprzednich teorii, była na tyle formalna, że ​​można ją było w zasadzie zaprogramować. Współczesne językoznawstwo i sztuczna inteligencja „narodziły się” zatem mniej więcej w tym samym czasie i dorastały razem, przecinając się w hybrydowym polu zwanym lingwistyką obliczeniową lub przetwarzaniem języka naturalnego. Problem rozumienia języka okazał się znacznie bardziej złożony, niż się wydawało w 1957 r. Zrozumienie języka wymaga zrozumienia przedmiotu i kontekstu, a nie tylko zrozumienia struktury zdań. Może się to wydawać oczywiste, ale doceniono to dopiero w latach sześćdziesiątych XX wieku. Znaczna część wczesnych prac nad reprezentacją wiedzy (badanie nad tym, jak nadać wiedzy formę, z którą może rozumować komputer) była związana z językiem i oparta na badaniach lingwistycznych, co z kolei było połączone z dziesięcioleciami prac nad analizą filozoficzną języka

Teoria sterowania i cybernetyka

* W jaki sposób artefakty mogą działać pod własną kontrolą?

Ktesibios z Aleksandrii (ok. 250 roku p.n.e.) zbudował pierwszą samokontrolującą się maszynę: zegar wodny z regulatorem utrzymującym stałe natężenie przepływu. Ten wynalazek zmienił definicję tego, co może zrobić artefakt. Wcześniej tylko żywe istoty mogły modyfikować swoje zachowanie w programie , odpowiedź na zmiany w środowisku. Inne przykłady samoregulujących systemów kontroli sprzężenia zwrotnego obejmują regulator silnika parowego, stworzony przez Jamesa Watta (1736–1819) i termostat, wynaleziony przez Cornelisa Drebbela (1572–1633), który również wynalazł łódź podwodną. James Clerk Maxwell (1868) zapoczątkował matematyczną teorię systemów sterowania. Centralną postacią w powojennym rozwoju teorii sterowania był Norbert Wiener (1894–1964). Wiener był genialnym matematykiem, który pracował między innymi z Bertrandem Russellem, zanim zainteresował się biologicznymi i mechanicznymi systemami kontroli oraz ich związkiem z poznaniem. Podobnie jak Craik (który również używał systemów kontroli jako modeli psychologicznych), Wiener i jego koledzy Arturo Rosenblueth i JulianBigelow rzucili wyzwanie behawiorystycznej ortodoksji (Rosenblueth i in., 1943). Postrzegali celowe zachowanie jako wynikające z mechanizmu regulacyjnego próbującego zminimalizować „błąd” – różnicę między stanem bieżącym a stanem celu. Pod koniec lat czterdziestych Wiener wraz z Warrenem McCullochem, Walterem Pittsem i Johnem von Neumannem zorganizowali serię wpływowych konferencji, podczas których badano nowe matematyczne i obliczeniowe modele poznania. Książka Wienera Cybernetics (1948) stała się bestsellerem i obudziła opinię publiczną na temat możliwości sztucznie inteligentnych maszyn. W międzyczasie w Wielkiej Brytanii W.Ross Ashby był pionierem podobnych pomysłów (Ashby, 1940). Ashby, Alan Turing, Gray Walter i inni utworzyli Ratio Club dla „tych, którzy mieli pomysły Wienera przed ukazaniem się książki Wienera”. Ashby’s Design for a Brain 1948, 1952 rozwinął swój pomysł, że inteligencję można stworzyć za pomocą urządzeń homeostatycznych zawierających odpowiednie pętle sprzężenia zwrotnego w celu osiągnięcia stabilnego zachowania adaptacyjnego. Współczesna teoria sterowania, zwłaszcza dziedzina znana jako stochastyczna kontrola optymalna, ma na celu zaprojektowanie systemów, które maksymalizują funkcję kosztu w czasie. To z grubsza pasuje do standardowego modelu sztucznej inteligencji: projektowania systemów, które zachowują się optymalnie. Dlaczego więc sztuczna inteligencja i teoria sterowania są dwoma różnymi dziedzinami, pomimo bliskich powiązań między ich twórcami? Odpowiedź leży w ścisłym powiązaniu między technikami matematycznymi, które były znane uczestnikom, a odpowiadającymi im zestawami problemów, które obejmowały każdy światopogląd. Rachunek różniczkowy i algebra macierzowa, narzędzia teorii sterowania, nadają się do systemów, które można opisać ustalonymi zbiorami zmiennych ciągłych, podczas gdy sztuczna inteligencja została po części stworzona jako sposób na ucieczkę od tych dostrzeganych ograniczeń. Narzędzia wnioskowania logicznego i obliczeń umożliwiły badaczom sztucznej inteligencji rozważenie takich problemów, jak język, wizja i symboliczne planowanie, które całkowicie wykraczało poza zakres kompetencji teoretyka kontroli.

Inżynieria komputerowa

* Jak możemy zbudować wydajny komputer?

Nowoczesny cyfrowy komputer elektroniczny został wynaleziony niezależnie i prawie jednocześnie przez naukowców z trzech krajów objętych II wojną światową. Pierwszym działającym komputerem był elektromechaniczny Heath Robinson, zbudowany w 1943 roku przez zespół Alana Turinga w jednym celu: rozszyfrowaniu niemieckich wiadomości. W 1943 roku ta sama grupa opracowała Colossus, potężną maszynę ogólnego przeznaczenia opartą na lampach próżniowych. Pierwszym operacyjnym komputerem programowalnym był Z-3, wynalazek Konrada Zuse w Niemczech w 1941 roku. Zuse wynalazł także liczby zmiennoprzecinkowe i pierwszy język programowania wysokiego poziomu, Plankalkül. Pierwszy komputer elektroniczny, ABC, został zmontowany przez Johna Atanasoffa i jego ucznia Clifforda Berry’ego w latach 1940-1942 na Iowa State University. Badania Atanasoffa otrzymały niewielkie wsparcie lub uznanie; to właśnie ENIAC, opracowany w ramach tajnego projektu wojskowego na Uniwersytecie Pensylwanii przez zespół składający się z Johna Mauchly’ego i J. Prespera Eckerta, okazał się najbardziej wpływowym prekursorem nowoczesnych komputerów. Od tego czasu każda generacja sprzętu komputerowego przyniosła wzrost szybkości i pojemności oraz spadek ceny – trend ujęty w prawie Moore’a. Wydajność podwajała się co 18 miesięcy mniej więcej do około 2005 roku, kiedy to problemy z rozpraszaniem mocy skłoniły producentów do zwiększenia liczby rdzeni procesora zamiast szybkości zegara. Obecne oczekiwania są takie, że przyszły wzrost funkcjonalności będzie wynikał z masowego równoległości – ciekawej zbieżności z właściwościami mózgu. Widzimy również nowe projekty sprzętu oparte na założeniu, że w obliczu niepewnego świata nie potrzebujemy 64-bitowej precyzji w naszych liczbach; wystarczy 16 bitów (jak w formacie bfloat16) lub nawet 8 bitów, co umożliwi szybsze przetwarzanie. Dopiero zaczynamy widzieć sprzęt dostrojony do zastosowań sztucznej inteligencji, taki jak procesor graficzny (GPU), jednostka przetwarzająca tensor (TPU) i silnik skali waflowej (WSE). Od lat 60. do około 2012 r. Ilość mocy obliczeniowej wykorzystywanej do trenowania najlepszych aplikacji do uczenia maszynowego była zgodna z prawem Moore’a. Od 2012 r. Sytuacja się zmieniła: od 2012 do 2018 nastąpił 300 000-krotny wzrost, co przekłada się na podwojenie mniej więcej co 100 dni. Model uczenia maszynowego, którego trening trwał cały dzień w 2014 r., w 2018 r. zajmuje tylko dwie minuty .Chociaż nie jest to jeszcze praktyczne, obliczenia kwantowe obiecują znacznie większe przyspieszenia dla niektórych ważnych podklas algorytmów sztucznej inteligencji. Oczywiście przed komputerem elektronicznym istniały urządzenia liczące. Najwcześniejsze automaty z XVII wieku. Pierwszą programowalną maszyną było krosno, wynalezione w 1805 roku przez Josepha Marie Jacquarda (1752–1834), które wykorzystywało perforowane karty do przechowywania instrukcji tkania wzoru. W połowie XIX wieku Charles Babbage (1792–1871) zaprojektował dwie maszyny obliczeniowe, z których żadnej nie ukończył. Mechanizm różnic był przeznaczony do obliczania tabel matematycznych dla projektów inżynieryjnych i naukowych. Ostatecznie został zbudowany i pokazany do działania w 1991 roku. Silnik analityczny Babbage’a był znacznie bardziej ambitny: zawierał pamięć adresowalną, programy zapisane w oparciu o karty perforowane Jacquarda i skoki warunkowe. Była to pierwsza maszyna zdolna do uniwersalnych obliczeń. Kolega Babbage’a, Ada Lovelace, córka poety Lorda Byrona, zrozumiała jego potencjał, opisując go jako „maszynę myślącą lub … maszynę rozumującą”, zdolną do rozumowania na „wszystkie tematy we wszechświecie”. Przewidywała również cykle szumu AI, pisząc: „Należy wystrzegać się możliwości przesadnych pomysłów, które mogą się pojawić w odniesieniu do mocy silnika analitycznego”. Niestety maszyny Babbage’a i pomysły Lovelace’a zostały w dużej mierze zapomniane. AI ma również dług wobec informatycznej strony oprogramowania, która dostarczyła systemy operacyjne, języki programowania i narzędzia potrzebne do pisania nowoczesnych programów (i artykułów na ich temat). Ale jest to jeden obszar, w którym dług został spłacony: praca w sztucznej inteligencji zapoczątkowała wiele pomysłów, które powróciły do ​​głównego nurtu informatyki, w tym dzielenie czasu, interaktywne tłumacze, komputery osobiste z oknami i myszami, środowiska szybkiego programowania, połączone -list typ danych, automatyczne zarządzanie pamięcią masową i kluczowe koncepcje programowania symbolicznego, funkcjonalnego, deklaratywnego i zorientowanego obiektowo.

Psychologia

* Jak myślą i zachowują się ludzie i zwierzęta?

Początki psychologii naukowej sięgają zwykle prac niemieckiego fizyka Hermanna von Helmholtza (1821–1894) i jego ucznia Wilhelma Wundta (1832–1920). Helmholtz zastosował metodę naukową do badania ludzkiego wzroku, a jego Podręcznik Optyki Fizjologicznej został opisany jako „najważniejsza rozprawa z fizyki i fizjologii ludzkiego wzroku”. W 1879 roku Wundt otworzył pierwsze laboratorium psychologii eksperymentalnej na Uniwersytecie w Lipsku. Wundt nalegał na starannie kontrolowane eksperymenty, w których jego pracownicy wykonywaliby zadania percepcyjne lub skojarzeniowe, podczas gdy introspekcyjnie przyglądali się swoim procesom myślowym. Dokładne kontrole przeszły długą drogę w kierunku uczynienia psychologii nauką, ale subiektywny charakter danych sprawił, że mało prawdopodobne było, aby eksperymentatorzy kiedykolwiek zaprzeczyli ich własnym teoriom. Z drugiej strony, biologom badającym zachowania zwierząt brakowało danych introspekcyjnych i opracowali obiektywną metodologię, jak opisał H. S. Jennings (1906) w swojej wpływowej pracy Behavior of the Lower Organisms. Stosując ten punkt widzenia do ludzi, ruch behawiorystyczny kierowany przez Johna Watsona (1878-1958) odrzucił każdą teorię dotyczącą procesów umysłowych, argumentując, że introspekcja nie może dostarczyć wiarygodnych dowodów. Behawioryści nalegali na badanie tylko obiektywnych miar percepcji (lub bodźców) przekazywanych zwierzęciu i wynikających z nich działań (lub reakcji). Behawioryzm wiele odkrył na temat szczurów i gołębi, ale miał mniejszy sukces w zrozumieniu ludzi. Psychologię poznawczą, która postrzega mózg jako urządzenie przetwarzające informacje, można przypisać przynajmniej pracom Williama Jamesa (1842–1910). Helmholtz podkreślił również, że percepcja zawiera formę nieświadomego wnioskowania logicznego. Poznawczy punkt widzenia był w dużej mierze przyćmiony przez behawioryzm w Stanach Zjednoczonych, ale w Cambridge’s Applied Psychology Unit, kierowanym przez Frederica Bartletta (1886–1969), modelowanie poznawcze było w stanie rozkwitnąć. The Nature of Explanation, autorstwa ucznia i następcy Bartletta, Kennetha Craika (1943), z mocą przywrócił zasadność takich terminów „umysłowych”, jak przekonania i cele, argumentując, że są one tak samo naukowe, jak, powiedzmy, używanie ciśnienia i temperatury do mówienia o gazach pomimo tego, że gazy są zbudowane z cząsteczek, które ich nie mają. Craik określił trzy kluczowe etapy agenta opartego na wiedzy: (1) bodziec musi zostać przetłumaczony na wewnętrzną reprezentację, (2) reprezentacja jest manipulowana przez procesy poznawcze w celu uzyskania nowych wewnętrznych reprezentacji, a (3) są to z kolei ponownie przetłumaczone z powrotem do działania. Wyjaśnił jasno, dlaczego był to dobry projekt dla agenta: jeśli organizm nosi w głowie „model małej skali” rzeczywistości zewnętrznej i własnych możliwych działań, jest w stanie wypróbować różne alternatywy, a które najlepsi z nich, reagują na przyszłe sytuacje, zanim się pojawią, wykorzystują wiedzę o przeszłych wydarzeniach w radzeniu sobie z teraźniejszością i przyszłością oraz pod każdym względem, aby reagować w znacznie pełniejszy, bezpieczniejszy i bardziej kompetentny sposób na sytuacje awaryjne, które go dotyczą. Po śmierci Craika w wypadku rowerowym w 1945 r. Kontynuował jego pracę Donald Broadbent, którego książka Percepcja i komunikacja (1958) była jedną z pierwszych prac, które modelowały zjawiska psychologiczne jako przetwarzanie informacji. Tymczasem w Stanach Zjednoczonych rozwój modelowania komputerowego doprowadził do powstania dziedziny kognitywistyki. Można powiedzieć, że to pole rozpoczęło się na warsztatach we wrześniu 1956 roku w MIT – zaledwie dwa miesiące po konferencji, na której narodziła się sztuczna inteligencja ”. Na warsztatach George Miller przedstawił Magiczną liczbę siedem, Noam Chomsky przedstawił trzy modele języka, a Allen Newell i Herbert Simon zaprezentowali maszynę teorii logiki. Te trzy wpływowe prace pokazały, w jaki sposób modele komputerowe można wykorzystać do zajęcia się odpowiednio psychologią pamięci, językiem i logicznym myśleniem. Obecnie wśród psychologów panuje powszechny (choć daleki od uniwersalności) pogląd, że „teoria poznawcza powinna być jak program komputerowy”; to znaczy, powinien opisywać działanie funkcji poznawczej w kategoriach przetwarzania informacji.

Na potrzeby tego przeglądu uwzględnimy dziedzinę interakcji człowiek-komputer (HCI) w ramach psychologii. Doug Engelbart, jeden z pionierów HCI, był zwolennikiem idei wzmocnienia inteligencji-IA zamiast AI. Uważał, że komputery powinny raczej wzmacniać ludzkie możliwości niż automatyzować ludzkie czynności. W 1968 roku „matka wszystkich wersji demonstracyjnych” Engelbarta po raz pierwszy pokazała mysz komputerową, system okienkowy, hipertekst i wideokonferencje – wszystko po to, aby zademonstrować, co pracownicy umysłowi mogliby wspólnie osiągnąć dzięki pewnemu zwiększeniu inteligencji. Dzisiaj bardziej prawdopodobne jest, że IA i AI będą postrzegane jako dwie strony tego samego medalu, przy czym pierwsza kładzie nacisk na kontrolę człowieka, a druga na inteligentne zachowanie ze strony maszyny. Oba są potrzebne, aby maszyny były użyteczne dla ludzi.

Neuronauka

Jak mózg przetwarza informacje? Neuronauka to nauka o układzie nerwowym, a zwłaszcza o mózgu. Chociaż dokładny sposób, w jaki mózg umożliwia myślenie, jest jedną z wielkich tajemnic nauki, fakt, że umożliwia on myślenie, był doceniany od tysięcy lat ze względu na dowody na to, że silne uderzenia w głowę mogą prowadzić do umysłowej niezdolności. Od dawna wiadomo również, że ludzkie mózgi są w jakiś sposób inne; około 335 roku p.n.e. Arystoteles napisał: „Ze wszystkich zwierząt człowiek ma największy mózg w stosunku do jego rozmiarów”. Jednak dopiero w połowie XVIII wieku powszechnie uznano mózg za siedlisko świadomości. Wcześniej lokalizacje kandydatów obejmowały serce i śledzionę. Badania Paula Broki (1824–1880) dotyczące afazji (deficytu mowy) u pacjentów z uszkodzeniem mózgu w 1861 r. Zapoczątkowały badanie organizacji funkcjonalnej mózgu poprzez zidentyfikowanie zlokalizowanego obszaru na lewej półkuli – obecnie nazywanego obszarem Broki – który jest odpowiedzialny za wytwarzanie mowy . W tamtym czasie było wiadomo, że mózg składa się głównie z komórek nerwowych lub neuronów, ale dopiero w 1873 roku Camillo Golgi (1843–1926) opracował technikę barwienia umożliwiającą obserwację pojedynczych neuronów (patrz rysunek 1.1). Technikę tę wykorzystał Santiago Ramon y Cajal (1852–1934) w swoich pionierskich badaniach organizacji neuronów. Obecnie powszechnie przyjmuje się, że funkcje poznawcze wynikają z elektrochemicznego działania tych struktur. Oznacza to, że zbiór prostych komórek może prowadzić do myśli, działania i świadomości. W zwięzłych słowach Johna Searle’a, mózgi są przyczyną umysłów. Części komórki nerwowej lub neuronu. Każdy neuron składa się z ciała komórkowego lub somy, które zawiera jądro komórkowe. Z ciała komórki rozgałęzia się szereg włókien zwanych dendrytami i jedno długie włókno zwane aksonem. Akson rozciąga się na dużą odległość, znacznie dłuższą niż wskazuje skala na tym schemacie. Zwykle akson ma 1 cm długości (100-krotność średnicy ciała komórki), ale może osiągnąć nawet 1 metr. Neuron tworzy połączenia z 10 do 100 000 innych neuronów w połączeniach zwanych synapsami. Sygnały są przekazywane z neuronu do neuronu w wyniku skomplikowanej reakcji elektrochemicznej. Sygnały kontrolują aktywność mózgu w krótkim okresie, a także umożliwiają długoterminowe zmiany w łączności neuronów. Uważa się, że te mechanizmy stanowią podstawę uczenia się mózgu. Większość przetwarzania informacji zachodzi w korze mózgowej, zewnętrznej warstwie mózgu. Podstawową jednostką organizacyjną wydaje się kolumna tkanki o średnicy około 0,5 mm, zawierająca około 20 000 neuronów i rozciągająca się na całą głębokość kory (około 4 mm u ludzi). Mamy teraz pewne dane na temat mapowania między obszarami mózgu i częściami ciała, które kontrolują lub z których otrzymują bodźce sensoryczne. Takie odwzorowania mogą się radykalnie zmienić w ciągu kilku tygodni, a niektóre zwierzęta wydają się mieć wiele map. Co więcej, nie do końca rozumiemy, jak inne obszary mogą przejąć funkcje, gdy jeden obszar zostanie uszkodzony. Nie ma prawie żadnej teorii na temat tego, jak przechowywana jest indywidualna pamięć lub jak działają funkcje poznawcze wyższego poziomu. Pomiar aktywności mózgu w stanie nienaruszonym rozpoczął się w 1929 roku wraz z wynalezieniem przez Hansa Bergera elektroencefalografu (EEG). Rozwój funkcjonalnego obrazowania metodą rezonansu magnetycznego (fMRI) dostarcza neuronaukowcom bezprecedensowo szczegółowe obrazy aktywności mózgu, umożliwiając pomiary, które w interesujący sposób odpowiadają zachodzącym procesom poznawczym. Są one wspierane przez postęp w jednokomórkowej rejestracji elektrycznej aktywności neuronów oraz przez metody optogenetyki , które umożliwiają zarówno pomiar, jak i kontrolę poszczególnych zmodyfikowanych neuronów. być wrażliwym na światło. Rozwój interfejsów mózg-maszyna zarówno do wykrywania, jak i sterowania motorycznego nie tylko obiecuje przywrócenie funkcji osobom niepełnosprawnym, ale rzuca również światło na wiele aspektów systemów neuronowych. Niezwykłym odkryciem z tej pracy jest to, że mózg jest w stanie przystosować się do pomyślnego połączenia z zewnętrznym urządzeniem, traktując je w efekcie jak inny narząd zmysłów lub kończynę.  Mózgi i komputery cyfrowe mają nieco inne właściwości. Rysunek 1.2 pokazuje, że cykle komputerów są milion razy szybsze niż mózg. Mózg nadrabia to znacznie większą ilością pamięci masowej i połączeniami niż nawet komputer osobisty z wyższej półki, chociaż największe superkomputery pasują do mózgu w niektórych metrykach. Futuryści robią wiele z tych liczb, wskazując na zbliżającą się osobliwość, w której komputery osiągają nadludzki poziom wydajności, a następnie szybko poprawiają się jeszcze bardziej. Ale porównania surowych liczb nie są szczególnie pouczające. Nawet mając komputer o praktycznie nieograniczonej pojemności, nadal potrzebujemy dalszych przełomów koncepcyjnych w naszym rozumieniu inteligencji. Mówiąc prymitywnie, bez właściwej teorii, szybsze maszyny po prostu dają szybko złą odpowiedź

Ekonomia

Jak powinniśmy podejmować decyzje zgodnie z naszymi preferencjami? Jak powinniśmy to robić, kiedy inni mogą się nie zgodzić? Jak powinniśmy to zrobić, skoro wypłata może nastąpić w odległej przyszłości? Nauka ekonomii powstała w 1776 r., kiedy Adam Smith (1723–1790) opublikował „Badanie natury i przyczyn bogactwa narodów”. Smith zaproponował analizę gospodarek jako składających się z wielu indywidualnych agentów zajmujących się własnymi interesami. Smith nie opowiadał się jednak za chciwością finansową jako postawą moralną: jego wcześniejsza książka (1759) The Theory of Moral Sentiments zaczyna od wskazania, że ​​troska o dobro innych jest istotnym składnikiem interesów każdej jednostki.

Większość ludzi myśli o ekonomii jako o pieniądzach, a pierwsza matematyczna analiza decyzji w warunkach niepewności, formuła Arnaulda (1662) na maksymalną wartość oczekiwaną, dotyczyła wartości pieniężnej zakładów. Daniel Bernoulli (1738) zauważył, że ta formuła wydaje się nie działać dobrze w przypadku większych kwot pieniędzy, takich jak inwestycje w ekspedycje handlowe na morzu. Zamiast tego zaproponował zasadę opartą na maksymalizacji oczekiwanej użyteczności i wyjaśnił wybory inwestycyjne ludzi, proponując, że krańcowa użyteczność dodatkowej ilości pieniądza maleje w miarę zdobywania większej ilości pieniędzy. Léon Walras (wymawiane „Valrasse”) (1834–1910) dał teorii użyteczności bardziej ogólną podstawę pod względem preferencji między hazardami w odniesieniu do dowolnych wyników (nie tylko pieniężnych). Teoria została udoskonalona przez Ramseya (1931), a później przez Johna von Neumanna i Oskara Morgensterna w ich książce The Theory of Games and Economic Behaviour (1944). Ekonomia nie jest już nauką o pieniądzach; jest to raczej badanie pragnień i preferencji. Teoria decyzji, która łączy teorię prawdopodobieństwa z teorią użyteczności, zapewnia formalne i kompletne ramy dla indywidualnych decyzji (ekonomicznych lub innych) podejmowanych w warunkach niepewności – to znaczy w przypadkach, gdy opisy probabilistyczne odpowiednio ujmują środowisko decydenta. Jest to odpowiednie dla „dużych” gospodarek, w których każdy agent nie musi zwracać uwagi na działania innych agentów jako jednostek. W przypadku „małych” gospodarek sytuacja bardziej przypomina grę: działania jednego gracza mogą znacząco wpłynąć na użyteczność innego (pozytywnie lub negatywnie). Rozwój teorii gier von Neumanna i Morgensterna obejmował zaskakujący wynik, że w przypadku niektórych gier racjonalny agent powinien przyjąć politykę, która jest (lub przynajmniej wydaje się być) losowa. W przeciwieństwie do teorii decyzji, teoria gier nie daje jednoznacznej recepty na wybór działań. W przypadku sztucznej inteligencji decyzje dotyczące wielu agentów są badane pod kątem systemów wieloagentowych. Ekonomiści, z pewnymi wyjątkami, nie odnieśli się do trzeciego pytania wymienionego powyżej: jak podejmować racjonalne decyzje, gdy korzyści z działań nie są natychmiastowe, ale wynikają z kilku działań podjętych po kolei. Temat ten był podejmowany w dziedzinie badań operacyjnych, które pojawiły się podczas II wojny światowej w wyniku wysiłków Wielkiej Brytanii w celu optymalizacji instalacji radarowych, a później znalazły niezliczone zastosowania cywilne. Praca w ekonomii i badaniach operacyjnych w znacznym stopniu przyczyniła się do powstania naszego pojęcia o racjonalnych czynnikach, jednak przez wiele lat badania nad sztuczną inteligencją rozwijały się całkowicie odrębnymi ścieżkami. Jednym z powodów była pozorna złożoność podejmowania racjonalnych decyzji. Pionierski badacz sztucznej inteligencji Herbert Simon (1916–2001) zdobył Nagrodę Nobla w dziedzinie ekonomii w 1978 r. za swoją wczesną pracę pokazującą, że modele oparte na zadowalających decyzjach podejmowania decyzji, które są „wystarczająco dobre”, a nie żmudne obliczanie optymalnej decyzji – dawały lepsze opis rzeczywistego zachowania ludzkiego (Simon, 1947). Od lat 90. odradza się zainteresowanie technikami decyzyjno-teoretycznymi dla sztucznej inteligencji.

Matematyka

Jakie są formalne zasady wyciągania ważnych wniosków? Co można obliczyć? Jak uzasadniamy niepewne informacje? Filozofowie wytyczyli niektóre z podstawowych idei sztucznej inteligencji, ale przejście do nauki formalnej wymagało matematyzacji logiki i prawdopodobieństwa oraz wprowadzenia nowej gałęzi matematyki: obliczeń. Idea logiki formalnej wywodzi się z filozofów starożytnej Grecji, Indii i Chin, ale jej rozwój matematyczny tak naprawdę rozpoczął się w pracy George’a Boole’a (1815–1864), który opracował szczegóły teorii zdaniowej, czyli logicznej, logika. W 1879 roku Gottlob Frege (1848–1925) rozszerzył logikę Boole’a o obiekty i relacje, tworząc logikę pierwszego rzędu, która jest używana dzisiaj. Oprócz swojej centralnej roli we wczesnym okresie badań nad sztuczną inteligencją, logika pierwszego rzędu motywowała prace Gödla i Turinga, które leżały u podstaw samych obliczeń, jak wyjaśnimy poniżej. Teorię prawdopodobieństwa można postrzegać jako uogólniającą logikę na sytuacje z niepewnymi informacjami, co ma ogromne znaczenie dla sztucznej inteligencji. Gerolamo Cardano (1501–1576) najpierw sformułował pojęcie prawdopodobieństwa, opisując je w kategoriach możliwych skutków wydarzeń hazardowych. W 1654 r. Blaise Pascal (1623–1662) w liście do Pierre’a Fermata (1601–1665) pokazał, jak przewidzieć przyszłość niedokończonej gry hazardowej i przypisać graczom średnie wygrane. Prawdopodobieństwo szybko stało się nieocenioną częścią nauk ilościowych, pomagając radzić sobie z niepewnymi pomiarami i niekompletnymi teoriami. Jacob Bernoulli (1654–1705, wujek Daniela), Pierre Laplace (1749–1827) i inni rozwinęli teorię i wprowadzili nowe metody statystyczne. Thomas Bayes (1702–1761) zaproponował regułę aktualizowania prawdopodobieństw w świetle nowych dowodów; Reguła Bayesa jest kluczowym narzędziem dla systemów sztucznej inteligencji. Formalizacja prawdopodobieństwa w połączeniu z dostępnością danych doprowadziła do pojawienia się statystyki jako dziedziny. Jednym z pierwszych zastosowań była analiza danych spisowych Londynu przeprowadzona przez Johna Graunta w 1662 roku. Ronald Fisher jest uważany za pierwszego współczesnego statystykę. Połączył idee prawdopodobieństwa, projektu eksperymentu, analizy danych i obliczeń – w 1919 r. Twierdził, że nie może wykonywać swojej pracy bez mechanicznego kalkulatora o nazwie MILLIONAIRE (pierwszy kalkulator, który potrafi pomnożyć), mimo że koszt kalkulatora przewyższał jego roczną pensję. Historia obliczeń jest tak stara jak historia liczb, ale uważa się, że pierwszym nietrywialnym algorytmem jest algorytm Euklidesa służący do obliczania największych wspólnych dzielników. Algorytm słów pochodzi od Muhammada ibn Musa al-Khwarizmi, matematyka z IX wieku, którego pisma wprowadziły także cyfry arabskie i algebrę do Europy. Boole i inni omawiali algorytmy dedukcji logicznej, a pod koniec XIX wieku podejmowano próby sformalizowania ogólnego rozumowania matematycznego jako dedukcji logicznej. Kurt Gödel (1906–1978) wykazał, że istnieje skuteczna procedura, aby udowodnić jakiekolwiek prawdziwe stwierdzenie w logice pierwszego rzędu Fregego i Russella, ale ta logika pierwszego rzędu nie może uchwycić zasady indukcji matematycznej potrzebnej do scharakteryzowania liczb naturalnych . W 1931 roku Gödel wykazał, że istnieją ograniczenia dedukcji. Jego twierdzenie o niezupełności wykazało, że w każdej formalnej teorii tak silnej jak arytmetyka Peano (elementarna teoria liczb naturalnych) z konieczności istnieją prawdziwe twierdzenia, które nie mają dowodu w teorii. Ten podstawowy wynik można również zinterpretować jako wskazujący, że niektóre funkcje na liczbach całkowitych nie mogą być reprezentowane przez algorytm – to znaczy, że nie można ich obliczyć. To zmotywowało Alana Turinga (1912–1954) do podjęcia próby dokładnego scharakteryzowania funkcji, które można obliczyć za pomocą skutecznej procedury. Teza Church-Turinga proponuje utożsamianie ogólnego pojęcia obliczalności z funkcjami obliczanymi przez maszynę Turinga (Turing, 1936). Turing pokazał również, że istnieją pewne funkcje, których żadna maszyna Turinga nie może obliczyć. Na przykład żadna maszyna nie jest w stanie ogólnie stwierdzić, czy dany program zwróci odpowiedź na dane wejście, czy będzie działał w nieskończoność. Chociaż obliczalność jest ważna dla zrozumienia obliczeń, pojęcie wykonalności miało jeszcze większy wpływ na sztuczną inteligencję. Z grubsza mówiąc, problem nazywany jest nie do rozwiązania, jeśli czas potrzebny do rozwiązania wystąpienia problemu rośnie wykładniczo wraz z rozmiarem wystąpienia. Rozróżnienie między wielomianem a wykładniczym wzrostem złożoności zostało po raz pierwszy podkreślone w połowie lat sześćdziesiątych XX wieku. Jest to ważne, ponieważ wykładniczy wzrost oznacza, że ​​nawet umiarkowanie duże przypadki nie mogą być rozwiązane w rozsądnym czasie. Teoria NP-zupełności, zapoczątkowana przez Cooka (1971) i Karpa (1972), stanowi podstawę do analizy wykonalności problemów: każda klasa problemów, do której można zredukować klasę NPkompletnych problemów, jest prawdopodobnie nie do rozwiązania. (Chociaż nie zostało udowodnione, że problemy NP-zupełne są z konieczności nie do rozwiązania, większość teoretyków w to wierzy). Wyniki te kontrastują z optymizmem, z jakim popularna prasa witała pierwsze komputery – „Elektroniczne super-mózgi”, które były „szybsze niż Einstein ! ” Pomimo rosnącej szybkości komputerów inteligentne systemy będą charakteryzować się ostrożnym wykorzystaniem zasobów i niezbędną niedoskonałością. Mówiąc prymitywnie, świat jest wyjątkowo dużym problemem!

Filozofia

Czy można skorzystać z formalnych reguł, aby wyciągnąć prawidłowe wnioski? W jaki sposób umysł powstaje z fizycznego mózgu? Skąd się bierze wiedza? W jaki sposób wiedza prowadzi do działania? Arystoteles (384-322 p.n.e.) jako pierwszy sformułował precyzyjny zbiór praw rządzących racjonalną częścią umysłu. Opracował nieformalny system sylogizmów dla prawidłowego rozumowania, który w zasadzie pozwalał na mechaniczne generowanie wniosków, przy założeniach wyjściowych. Ramon Llull (ok. 1232-1315) opracował system rozumowania opublikowany jako Ars Magna lub The Great Art (1305). Llull próbował wdrożyć swój system przy użyciu rzeczywistego urządzenia mechanicznego: zestawu papierowych kółek, które można było obracać w różne permutacje. Około 1500 roku Leonardo da Vinci (1452-1519) zaprojektował kalkulator mechaniczny, ale go nie zbudował; ostatnie rekonstrukcje pokazały, że projekt jest funkcjonalny. Pierwsza znana maszyna licząca została skonstruowana około 1623 r. przez niemieckiego uczonego Wilhelma Schickarda (1592-1635). Blaise Pascal (1623-1662) zbudował Pascaline w 1642 roku i napisał, że „wywołuje ona skutki, które wydają się bliższe myśli niż wszystkie działania zwierząt”. Gottfried Wilhelm Leibniz (1646-1716) zbudował urządzenie mechaniczne przeznaczone do wykonywania operacji na pojęciach, a nie na liczbach, ale jego zakres był raczej ograniczony. W swojej książce Lewiatan z 1651 roku Thomas Hobbes (1588-1679) zasugerował ideę myślącej maszyny, „sztucznego zwierzęcia” w swoich słowach, argumentując: „Bo czym jest serce, ale źródłem; i nerwy, ale tak wiele strun; i przegubów, ale tak wiele kół ”. Zasugerował również, że rozumowanie jest jak obliczenia numeryczne: „Ponieważ„ rozum ”… to nic innego jak„ liczenie ”, czyli dodawanie i odejmowanie”. Jedną rzeczą jest powiedzenie, że umysł, przynajmniej częściowo, działa zgodnie z regułami logicznymi lub numerycznymi i buduje systemy fizyczne, które naśladują niektóre z tych reguł. Inaczej można powiedzieć, że sam umysł jest takim fizycznym systemem. René Descartes (1596-1650) przedstawił pierwszą jasną dyskusję na temat rozróżnienia między umysłem a materią. Zauważył, że czysto fizyczna koncepcja umysłu wydaje się pozostawiać niewiele miejsca na wolną wolę. Jeśli umysł rządzi się całkowicie prawami fizycznymi, to nie ma więcej wolnej woli niż skała, która „decyduje się” spaść w dół. Kartezjusz był zwolennikiem dualizmu. Utrzymywał, że istnieje część ludzkiego umysłu (lub duszy lub ducha), która jest poza naturą, wolna od praw fizycznych. Z drugiej strony zwierzęta nie posiadały tej podwójnej jakości; można je było traktować jak maszyny. Alternatywą dla dualizmu jest materializm, który utrzymuje, że działanie mózgu zgodnie z prawami fizyki stanowi umysł. Wolna wola to po prostu sposób, w jaki postrzeganie dostępnych wyborów jawi się podmiotowi dokonującemu wyboru. Terminy fizykalizm i naturalizm są również używane do opisania tego poglądu, który jest przeciwieństwem tego, co nadprzyrodzone. Mając fizyczny umysł, który manipuluje wiedzą, następnym problemem jest ustalenie źródła wiedzy. Ruch empiryzmu, poczynając od Francisa Bacona (1561–1626) Novum Organum, charakteryzuje się powiedzeniem Johna Locke’a (1632-1704): „Nic nie jest w zrozumieniu, co nie było pierwsze w zmysłach”. David Hume (1711-1776) A Treatise of Human Nature zaproponował to, co jest obecnie znane jako zasada indukcji: że ogólne reguły są nabywane przez wystawienie na powtarzające się skojarzenia między ich elementami. Opierając się na pracach Ludwiga Wittgensteina (1889-1951) i Bertranda Russella (1872-1970), słynny Krąg Wiedeński, grupa filozofów i matematyków spotykających się w Wiedniu w latach dwudziestych i trzydziestych XX wieku, opracowała doktrynę pozytywizmu logicznego. . Zgodnie z tą doktryną wszelką wiedzę można scharakteryzować za pomocą teorii logicznych, ostatecznie połączonych ze zdaniami obserwacyjnymi, które odpowiadają bodźcom zmysłowym; zatem pozytywizm logiczny łączy racjonalizm i empiryzm. Teoria konfirmacji Rudolfa Carnapa (1891–1970) i ​​Carla Hempela (1905–1997) podjęła próbę analizy zdobywania wiedzy z doświadczenia poprzez ilościowe określenie stopnia przekonania, jakie należy przypisać zdaniom logicznym na podstawie ich związku z obserwacjami potwierdzającymi lub potwierdź je. Książka Carnapa The Logical Structure of the World (1928) była prawdopodobnie pierwszą teorią umysłu jako procesu obliczeniowego. Ostatnim elementem filozoficznego obrazu umysłu jest związek między wiedzą a działaniem. To pytanie ma kluczowe znaczenie dla sztucznej inteligencji, ponieważ inteligencja wymaga zarówno działania, jak i rozumowania. Co więcej, tylko rozumiejąc, jak uzasadnione są czyny, możemy zrozumieć, jak zbudować agenta, którego działania są uzasadnione (lub racjonalne). Arystoteles argumentował (w De Motu Animalium), że działania są uzasadnione logicznym związkiem między celami a wiedzą o wyniku działania:

Ale jak to się dzieje, że myśleniu czasami towarzyszy działanie, a czasem nie, czasem ruch, a czasem nie? Wygląda na to, że dzieje się prawie to samo, co w przypadku rozumowania i wnioskowania o niezmiennych przedmiotach. Ale w tym przypadku koniec jest propozycją spekulatywną… podczas gdy tutaj konkluzją wynikającą z dwóch przesłanek jest działanie. … Potrzebuję okrycia; płaszcz jest przykryciem. Potrzebuję peleryny. To, czego potrzebuję, muszę zrobić; Potrzebuję peleryny. Muszę zrobić płaszcz. A konkluzja, „Muszę uszyć płaszcz”, jest działaniem

W Etyce nikomachejskiej (Księga III. 3, 1112b) Arystoteles dalej rozwija ten temat, sugerując algorytm:

Nie myślimy o celach, ale o środkach. Bo lekarz nie zastanawia się, czy wyleczyć, ani mówca, czy przekona,… Zakładają cel i zastanawiają się, jak i za pomocą jakich środków można go osiągnąć i czy wydaje się to łatwe i najlepsze; podczas gdy jeśli jest to osiągnięte jednym środkiem, tylko oni rozważają, jak to zostanie osiągnięte przez to i za pomocą jakich środków to zostanie osiągnięte, aż dojdą do pierwszej przyczyny… a to, co jest ostatnie w kolejności analizy, wydaje się być pierwsze w kolejność stawania się. A jeśli napotykamy na niemożliwość, rezygnujemy z poszukiwań, np. Jeśli potrzebujemy pieniędzy, a tego nie można zdobyć; ale jeśli coś wydaje się możliwe, staramy się to zrobić.

Algorytm Arystotelesa został zaimplementowany 2300 lat później przez Newella i Simona w ich programie General Problem Solver. Nazwalibyśmy to teraz chciwym systemem planowania regresji. Metody oparte na logicznym planowaniu w celu osiągnięcia określonych celów zdominowały pierwsze kilkadziesiąt lat teoretycznych badań nad sztuczną inteligencją. Myślenie wyłącznie w kategoriach działań służących osiągnięciu celów jest często przydatne, ale czasami nie ma zastosowania. Na przykład, jeśli istnieje kilka różnych sposobów osiągnięcia celu, musi być jakiś sposób, aby wybrać spośród nich. Co ważniejsze, osiągnięcie celu może nie być możliwe z pewnością, ale nadal należy podjąć pewne działania. Jak więc należy zdecydować? Antoine Arnauld (1662), analizując pojęcie racjonalnych decyzji w grach hazardowych, zaproponował ilościową formułę maksymalizacji oczekiwanej wartości pieniężnej wyniku. Później Daniel Bernoulli (1738) wprowadził bardziej ogólne pojęcie użyteczności, aby uchwycić wewnętrzną, subiektywną wartość wyniku. Współczesne pojęcie racjonalnego podejmowania decyzji w warunkach niepewności obejmuje maksymalizację oczekiwanej użyteczności, jak wyjaśniono później. W kwestiach etyki i porządku publicznego decydent musi wziąć pod uwagę interesy wielu osób. Jeremy Bentham (1823) i John Stuart Mill (1863) promowali ideę utylitaryzmu: racjonalne podejmowanie decyzji oparte na maksymalizacji użyteczności powinno mieć zastosowanie do wszystkich sfer ludzkiej działalności, w tym do decyzji polityki publicznej podejmowanych w imieniu wielu jednostek. Utylitaryzm to specyficzny rodzaj konsekwencjalizmu: idea, że ​​to, co jest dobre, a co złe, jest określane przez oczekiwane rezultaty działania. W przeciwieństwie do tego Immanuel Kant w 1875 r. zaproponował teorię etyki opartej na regułach lub deontologicznej, w której o „właściwym postępowaniu” decydują nie wyniki, ale uniwersalne prawa społeczne, które rządzą dopuszczalnymi działaniami, takie jak „nie kłam”. lub „nie zabijaj”. W ten sposób utylitarysta mógłby wypowiedzieć białe kłamstwo, gdyby oczekiwane dobro przeważyło nad złem, ale Kantianin byłby zobowiązany tego nie robić, ponieważ kłamstwo jest z natury złe. Mill uznawał wartość reguł, ale rozumiał je jako skuteczne procedury decyzyjne opracowane na podstawie wnioskowania o konsekwencjach na podstawie podstawowych zasad. Wiele nowoczesnych systemów sztucznej inteligencji stosuje dokładnie to podejście.

Podstawy sztucznej inteligencji

W tej sekcji przedstawiamy krótką historię dyscyplin, które wniosły pomysły, punkty widzenia i techniki do sztucznej inteligencji. Jak każda historia, ta koncentruje się na niewielkiej liczbie osób, wydarzeń i idei, a ignoruje inne, które również były ważne. Organizujemy historię wokół serii pytań. Z pewnością nie chcielibyśmy sprawiać wrażenia, że te pytania są jedynymi, do których odnoszą się dyscypliny, lub że wszystkie dyscypliny dążyły do sztucznej inteligencji jako ostatecznej realizacji.

Korzystne maszyny

Model standardowy był użytecznym przewodnikiem dla badań nad sztuczną inteligencją od samego początku, ale prawdopodobnie nie jest to właściwy model na dłuższą metę. Powodem jest to, że model standardowy zakłada, że ​​dostarczymy w pełni określony cel do maszyny. W przypadku sztucznie zdefiniowanego zadania, takiego jak szachy lub obliczenia najkrótszej ścieżki, zadanie ma wbudowany cel, więc można zastosować model standardowy. Jednak w miarę jak przenosimy się do prawdziwego świata, pełne i prawidłowe określenie celu staje się coraz trudniejsze. Na przykład, projektując autonomiczny samochód, można by pomyśleć, że celem jest bezpieczne dotarcie do celu. Jednak jazda po dowolnej drodze wiąże się z ryzykiem odniesienia obrażeń przez innych błędnych kierowców, awarię sprzętu i tak dalej; dlatego ścisły cel bezpieczeństwa wymaga przebywania w garażu. Istnieje kompromis między postępem w kierunku celu a ponoszeniem ryzyka kontuzji. Jak należy dokonać tego kompromisu? Ponadto, w jakim stopniu możemy pozwolić samochodowi na działania, które drażniłyby innych kierowców? W jakim stopniu samochód powinien łagodzić przyspieszanie, kierowanie i hamowanie, aby nie wstrząsnąć pasażerem? Na tego rodzaju pytania trudno odpowiedzieć a priori. Są szczególnie problematyczne w ogólnym obszarze interakcji człowieka z robotem, czego przykładem jest autonomiczny samochód. Problem osiągnięcia zgodności między naszymi prawdziwymi preferencjami a celem, który stawiamy maszynie, nazywa się problemem wyrównania wartości: wartości lub cele wprowadzone do maszyny muszą być zrównane z ludzkimi. Jeśli opracowujemy system sztucznej inteligencji w laboratorium lub w symulatorze – jak miało to miejsce w przypadku większości historii pola – istnieje łatwa naprawa nieprawidłowo określonego celu: zresetuj system, napraw cel i spróbuj ponownie. W miarę postępów w dziedzinie rozwoju inteligentnych systemów o coraz większych możliwościach, które są wdrażane w świecie rzeczywistym, podejście to nie jest już opłacalne. System wdrożony z nieprawidłowym celem będzie miał negatywne konsekwencje. Co więcej, im bardziej inteligentny system, tym bardziej negatywne konsekwencje. Wracając do pozornie bezproblemowego przykładu szachów, zastanów się, co się stanie, jeśli maszyna jest wystarczająco inteligentna, aby rozumować i działać poza granicami szachownicy. W takim przypadku może próbować zwiększyć swoje szanse na wygraną za pomocą takich podstępów, jak hipnotyzowanie lub szantażowanie przeciwnika lub przekupywanie publiczności, aby wydawała szeleszczące dźwięki w czasie myślenia przeciwnika. Może również próbować przejąć dla siebie dodatkową moc obliczeniową. Te zachowania nie są „nieinteligentne” ani „szalone”; są logiczną konsekwencją zdefiniowania wygranej jako jedynego celu dla maszyny. W jednej z pierwszych książek o szachach Ruy Lopez (1561) napisał: „Zawsze kładź szachownicę tak, aby słońce było w oczach przeciwnika”. Niemożliwe jest przewidzenie wszystkich sposobów, w jakie maszyna dążąca do określonego celu może się źle zachowywać. Jest więc dobry powód, by sądzić, że model standardowy jest nieodpowiedni. Nie chcemy maszyn, które są inteligentne w tym sensie, że realizują swoje cele; chcemy, aby realizowali nasze cele. Jeśli nie możemy idealnie przenieść tych celów na maszynę, potrzebujemy nowego sformułowania – takiego, w którym maszyna dąży do naszych celów, ale z konieczności jest niepewna, czym one są. Kiedy maszyna wie, że nie zna pełnego celu, ma motywację, by działać ostrożnie, prosić o pozwolenie, dowiedzieć się więcej o naszych preferencjach poprzez obserwację i poddać się kontroli człowieka. Ostatecznie chcemy środków, które są korzystne dla ludzi.