Według nieoficjalnego konsensusu narodziny sztucznej inteligencji jako niezależnego projektu badawczego można datować na lato 1956 roku, kiedy to Johnowi McCarthy’emu z Dartmouth College, gdzie należał do wydziału matematyki, udało się przekonać Fundację Rockefellera do sfinansowania dochodzenie „Badanie ma być prowadzone w oparciu o przypuszczenie, że każdy aspekt uczenia się lub jakakolwiek inna cecha inteligencji może być w zasadzie tak dokładnie opisana, że można zmusić maszynę do jej symulacji”. Oprócz McCarthy’ego (który do 2000 roku był profesorem na Uniwersytecie Stanforda i jest odpowiedzialny za stworzenie terminu „sztuczna inteligencja”), w warsztatach historycznych w Dartmouth wzięło udział kilku innych uczestników: Marvin Minsky (były profesor Uniwersytetu Stanforda) , Claude Shannon (wynalazca teorii informacji); Herbert Simon (laureat Nagrody Nobla w dziedzinie ekonomii); Arthur Samuel (twórca pierwszego szachowego programu komputerowego na poziomie mistrza świata); ponadto pół tuzina ekspertów z nauki i przemysłu, którzy marzyli o tym, żeby udało się wyprodukować maszynę do radzenia sobie z ludzkimi zadaniami, które według wcześniejszej opinii wymagają inteligencji. Manifest z Dartmouth (napisany u zarania ery sztucznej inteligencji) jest zarówno irytujący, jak i niejasny. Nie jest jasne, czy uczestnicy konferencji wierzyli, że pewnego dnia maszyny będą myśleć lub zachowywać się tak, jakby potrafiły to sobie wyobrazić. Obie możliwe interpretacje dopuszczają słowo „symulować”. Pisemne i ustne sprawozdania ze spotkania potwierdzają oba stanowiska. Niektórzy uczestnicy byli zainteresowani badaniami sieci sztucznych neuronów, które, jak mieli nadzieję, mogłyby w pewnym sensie odtworzyć biologiczne neurony mózgu. Podczas gdy inni byli bardziej zainteresowani produkcją programów, które powinny zachowywać się inteligentnie, niezależnie od tego, czy zasady leżące u podstaw planów mają jakiekolwiek podobieństwo do funkcjonowania ludzkiego mózgu. Ta przepaść między paradygmatami
Myślenie = sposób, w jaki robi to mózg,
&
Myślenie = wyniki wytwarzane przez mózg.
Społeczność AI dzieli się na tzw. silne i słabe szkoły AI. Aby lepiej zrozumieć, czy maszyny potrafią myśleć, warto nieco rozróżnić dychotomię „silny” i „słaby” i porównać ją ze schematem zaproponowanym przez filozofa Keitha Gundersona. Rozróżnia następujące odmiany AI:
- Słaba sztuczna inteligencja, zadanie, brak symulacji: komputer może wykonywać zadania, które wcześniej wymagały inteligencji, ale inteligencja nie jest wymagana od
maszyna, której stany nie mają nic wspólnego z ludzkim lub innym poznaniem.
- Słaba sztuczna inteligencja, symulacja, inny niż człowiek: komputer może symulować procesy poznawcze w mózgu innym niż człowiek, ale stany maszyny mogą, ale nie muszą, być powiązane z tymi w mózgu innym niż człowiek.
- Słaba sztuczna inteligencja, symulacja, człowiek: komputer może symulować procesy poznawcze człowieka, ale nie ma szczególnej korelacji między stanami komputera a stanami poznawczymi mózgu
- Silna sztuczna inteligencja, inna niż człowiek: stany poznawcze występujące w maszynach nie są funkcjonalnie identyczne z tymi w mózgu i dlatego nie można ich wykorzystać do odtworzenia ludzkich procesów myślowych.
- Silna sztuczna inteligencja, człowiek: stany poznawcze maszyn są funkcjonalne (chociaż nie fizyczne z natury) identyczne z tymi, które znajdują się w ludzkim mózgu.
Musimy wyjaśnić różnicę między funkcjonalnie identycznymi i fizycznie identycznymi parami stanów. Najłatwiejszym sposobem odróżnienia jest wyobrażenie sobie, że mamy do czynienia ze zgodnością między stanami poznawczymi C1, C2, C3 i trzema stanami maszyny, M1, M2 i M3. Te stany nie są fizycznie identyczne, ponieważ stany maszyny są jedynie wzorami liczb 0 i 1 na a
krzemu, podczas gdy stany poznawcze są sprzężone ze stężeniami chemicznymi i wzorcami elektrycznymi w mózgu. Jednak sekwencje dwustanowe byłyby funkcjonalnie równoważne, gdybyśmy na przykład stwierdzili, że wzorzec maszynowy M1->M3->M2 odpowiada wzorcowi poznawczemu C2->C3->C1 za każdym razem. W tym przypadku moglibyśmy powiedzieć, że stany M3 i C3 są funkcjonalnie identyczne, ponieważ odgrywają tę samą rolę funkcjonalną w odpowiednich sekwencjach; tj. są one zawsze stanem średnim serii trzyczęściowej. Jeśli chodzi o prawdziwe myślenie maszynowe, pierwsza kategoria w powyższym przeglądzie jest jedyną ważną: silna sztuczna inteligencja, człowiek. Chociaż z pewnością technicznie atrakcyjne i opłacalne ekonomicznie, wszystko inne pozbawione jest jakiejkolwiek prawdziwej pokusy intelektualnej lub filozoficznej, przynajmniej jeśli chodzi o kwestię maszyn myślących. Może to niektórych zaskoczyć, biorąc pod uwagę ogromny szum, jaki ostatnio organizują media (i różni samoobsługowi przedstawiciele AI Guild). Chwalą cuda tak zwanych systemów eksperckich
opracowane w laboratoriach sztucznej inteligencji w Massachusetts, Londynie i Tokio, entuzjastycznie opisują roboty i programy czekające za rogiem, aby spełnić wszystkie nasze życzenia (lub odebrać nam pracę) i domagają się wyrzucania większej ilości pieniędzy przez okno. Nie wspominając już o spekulacjach kapitalistów/przedsiębiorców i ich sojuszników z komputerami, którzy szaleją wszędzie, próbując wykorzystać łatwowierność ludzi w sposobie myślenia maszyn. Ta opłakana sytuacja może prześledzić wstecz do kilku programów, które wykazują pewien postęp w ostatniej i intelektualnie niezbyt produktywnej kategorii: słaba sztuczna inteligencja, porzucenie, brak symulacji. Postęp w tej dziedzinie tyle mówi o myśleniu, co mechanizm lotu ptaków o rozwoju samolotu. Więc od teraz, kiedy mówimy o stanach poznawczych w maszynach, odnosimy się do typów reguł opisanych w naszej pierwszej kategorii: silna AI, człowiek. Oczywiście nikt jeszcze nie przedstawił niepodważalnego argumentu, że stany wewnętrzne odpowiednio zaprogramowanego komputera cyfrowego są funkcjonalnie tożsame z regułami świadomości, gdy pożądliwie przyglądają się luksusowemu samochodowi, badają pozornie niekończące się menu w chińskiej restauracji , sprawdzić stan konta, pobawić się fugą Bacha lub oddać się jednej z niezliczonych innych czynności, które w pewnym sensie nazywamy myśleniem. W krótkim okresie sztuczna inteligencja będzie nadal zdominowana przez punkt 2. Najnowszym przykładem jest zwycięstwo systemu eksperckiego nad jednym z najlepszych graczy w Go na świecie. (Weźmy pod uwagę niewiarygodnie wysoką liczbę 2,08 x 10 do potęgi 170 różnych pozycji na planszy Go 19×19. Dla porównania, szachy mają „tylko” 10 do potęgi 43 różnych pozycji. Liczba atomów we wszechświecie jest około 10 do potęgi 80!). Kolejne lata (3-10) będą mocno zdominowane przez punkty 3 i 4. Zajdzie to tak daleko, że nie zawsze możemy z całą pewnością stwierdzić, czy mamy do czynienia z prawdziwą świadomością, czy też jest to tylko genialna symulacja rozgrywająca się tuż przed z nas. Reszty dokona postępujący rozwój robotyki. Sztuczna inteligencja osadzona w quasi-ludzkim ciele niewątpliwie wpłynie na nas bardziej niż tekst wyświetlany na ekranie czy mowa ze smartfona.