Dawka rzeczywistości (1966–1973)

Od samego początku badacze AI nie wstydzili się przewidywać swoich przyszłych sukcesów. Często cytuje się następującą wypowiedź Herberta Simona z 1957 roku: Nie jest moim celem zaskoczenie lub szokowanie – ale najprostszym sposobem, w jaki mogę podsumować, jest stwierdzenie, że są teraz na świecie maszyny, które myślą, uczą się i tworzą. Co więcej, ich zdolność do robienia tych rzeczy będzie gwałtownie wzrastać, aż – w widzialnej przyszłości – zakres problemów, z którymi mogą sobie poradzić, będzie równy zakresowi, do którego został zastosowany ludzki umysł. Termin „widzialna przyszłość” jest niejasny, ale Simon sformułował również bardziej konkretne przewidywania: w ciągu 10 lat komputer zostanie mistrzem w szachach, a maszyna udowodni ważne twierdzenie matematyczne. Te przewidywania spełniły się (lub w przybliżeniu prawdziwe) w ciągu 40 lat, a nie 10. Zbytnia pewność siebie Simona wynikała z obiecujących wyników wczesnych systemów sztucznej inteligencji na prostych przykładach. Jednak prawie we wszystkich przypadkach te wczesne systemy zawiodły przy trudniejszych problemach. Były dwa główne powody tego niepowodzenia. Po pierwsze, wiele wczesnych systemów sztucznej inteligencji opierało się głównie na „świadomej introspekcji” dotyczącej tego, jak ludzie wykonują zadanie, a nie na dokładnej analizie zadania, co to znaczy być rozwiązaniem i co algorytm musiałby zrobić. rzetelnie wytwarzać takie rozwiązania. Drugim powodem niepowodzenia był brak uznania dla wielu problemów, które sztuczna inteligencja próbowała rozwiązać. Większość wczesnych systemów rozwiązywania problemów działała, próbując różnych kombinacji kroków, aż do znalezienia rozwiązania. Ta strategia działała początkowo, ponieważ mikroświaty zawierały bardzo niewiele obiektów, a zatem bardzo mało możliwych działań i bardzo krótkie sekwencje rozwiązań. Zanim opracowano teorię złożoności obliczeniowej, powszechnie uważano, że „skalowanie” do większych problemów jest po prostu kwestią szybszego sprzętu i większych pamięci. Optymizm, który towarzyszył na przykład rozwojowi dowodzenia twierdzeń o rozdzielczości, szybko osłabł, gdy naukowcom nie udało się udowodnić twierdzeń obejmujących kilkadziesiąt faktów. Fakt, że program może w zasadzie znaleźć rozwiązanie, nie oznacza, że ​​program zawiera którykolwiek z mechanizmów potrzebnych do znalezienia go w praktyce. Iluzja nieograniczonej mocy obliczeniowej nie ograniczała się do programów rozwiązywania problemów. Wczesne eksperymenty z ewolucją maszyn (obecnie zwane programowaniem genetycznym) opierały się na niewątpliwie słusznym przekonaniu, że dokonując odpowiedniej serii małych mutacji w programie kodu maszynowego, może wygenerować program z dobrą wydajnością dla każdego konkretnego zadania. Pomysł polegał więc na wypróbowaniu losowych mutacji z procesem selekcji, aby zachować mutacje, które wydawały się przydatne. Pomimo tysięcy godzin czasu pracy procesora nie wykazano prawie żadnego postępu. Brak zmierzenia się z „eksplozją kombinatoryczną” był jednym z głównych zarzutów dotyczących sztucznej inteligencji zawartym w raporcie Lighthill , który stał się podstawą decyzji rządu brytyjskiego o zaprzestaniu wspierania badań nad sztuczną inteligencją we wszystkich dwie uczelnie. (Tradycja ustna przedstawia nieco inny i bardziej kolorowy obraz, z ambicjami politycznymi i osobistymi animozami, których opis nie ma znaczenia). Trzecia trudność pojawiła się z powodu pewnych fundamentalnych ograniczeń dotyczących podstawowych struktur używanych do generowania inteligentnych zachowań. Na przykład książka Minsky’ego i Paperta Perceptrons (1969) dowiodła, że ​​chociaż można wykazać, że perceptrony (prosta forma sieci neuronowej) uczą się wszystkiego, co są w stanie przedstawić, mogą reprezentować bardzo niewiele. W szczególności nie można było nauczyć perceptronu z dwoma wejściami, aby rozpoznawał, kiedy jego dwa wejścia są różne. Chociaż ich wyniki nie odnosiły się do bardziej złożonych, wielowarstwowych sieci, finansowanie badań nad sieciami neuronowymi wkrótce spadło prawie do zera. Jak na ironię, nowe algorytmy uczenia się z propagacją wsteczną, które miały spowodować ogromny odrodzenie w badaniach nad sieciami neuronowymi pod koniec lat 80. i ponownie w 2010 r., Zostały już opracowane w innych kontekstach na początku lat 60.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *