Systemy eksperckie (1969–1986)

Obraz rozwiązywania problemów, który pojawił się w pierwszej dekadzie badań nad sztuczną inteligencją, przedstawiał mechanizm wyszukiwania ogólnego przeznaczenia, który próbuje połączyć ze sobą elementarne kroki rozumowania w celu znalezienia kompletnych rozwiązań. Takie podejścia nazwano metodami słabymi, ponieważ, chociaż ogólnie, nie obejmują one dużych lub trudnych przypadków problemów. Alternatywą dla słabych metod jest użycie potężniejszej, specyficznej dla danej dziedziny wiedzy, która pozwala na szersze kroki rozumowania i może łatwiej radzić sobie z typowo występującymi przypadkami w wąskich obszarach specjalizacji. Można powiedzieć, że aby rozwiązać trudny problem, trzeba już prawie znać odpowiedź. Program DENDRAL był wczesnym przykładem tego podejścia. Został opracowany w Stanford, gdzie Ed Feigenbaum (były student Herberta Simona), Bruce Buchanan (filozof, który został informatykiem) i Joshua Lederberg (genetyk laureat Nagrody Nobla) połączyli siły, aby rozwiązać problem wnioskowania o strukturze molekularnej na podstawie informacji dostarczane przez spektrometr mas. Wejście do programu składa się z elementarnego wzoru cząsteczki (np. C6H13NO2) i widmo masowe określające masy różnych fragmentów cząsteczki powstających podczas bombardowania wiązką elektronów. Na przykład widmo masowe może zawierać pik przy lub odpowiadający masie fragmentu metylowego (CH3). Naiwna wersja programu generowała wszystkie możliwe struktury zgodne ze wzorem, a następnie przewidywała, jakie widmo mas będzie obserwowane dla każdego z nich, porównując to z rzeczywistym widmem. Jak można się spodziewać, jest to trudne do opanowania nawet w przypadku cząsteczek o umiarkowanym nasileniu. Naukowcy DENDRAL skonsultowali się z chemikami analitycznymi i odkryli, że pracowali, szukając dobrze znanych wzorów pików w widmie, które sugerowały wspólne podstruktury w cząsteczce. Na przykład, do rozpoznania podgrupy ketonów (C = 0) (która waży 28) stosuje się następującą regułę:

jeśli M jest masą całej cząsteczki i są dwa piki przy x1 i x2 takie, że (a) x1 + x2 = M +28; (b) x1-28 jest wysokim pikiem; (c) x2 – 28 to wysoki pik; i (d) co najmniej jeden z x1 i x2 jest wysoki, to istnieje podgrupa ketonowa.

Uznanie, że cząsteczka zawiera określoną podstrukturę, ogromnie zmniejsza liczbę możliwych kandydatów. Według jego autorów DENDRAL był potężny, ponieważ zawierał odpowiednią wiedzę o spektroskopii mas nie w postaci podstawowych zasad, ale w skutecznych „przepisach z książek kucharskich” . Znaczenie DENDRAL polegało na tym, że był to pierwszy udany system intensywnie wykorzystujący wiedzę: jego wiedza wywodziła się z dużej liczby reguł specjalnego przeznaczenia. W 1971 roku Feigenbaum i inni w Stanford rozpoczęli Heuristic Programming Project (HPP) w celu zbadania zakresu, w jakim nowa metodologia systemów eksperkichh może być zastosowana w innych obszarach. Następnym ważnym przedsięwzięciem był system MYCIN do diagnozowania infekcji krwi. Z około 450 zasadami, MYCIN był w stanie działać równie dobrze jak niektórzy eksperci i znacznie lepiej niż młodsi lekarze. Zawierał również dwie główne różnice w stosunku do DENDRAL. Po pierwsze, w przeciwieństwie do reguł DENDRAL, nie istniał żaden ogólny model teoretyczny, z którego można by wydedukować reguły MYCIN. Należało je zdobyć na podstawie obszernych wywiadów z ekspertami. Po drugie, zasady musiały odzwierciedlać niepewność związaną z wiedzą medyczną. MYCIN wprowadził rachunek niepewności zwany czynnikami pewności (patrz rozdział 13), który wydawał się (w tamtym czasie) dobrze pasować do tego, jak lekarze oceniali wpływ dowodów na diagnozę. Digital Equipment Corporation. Program pomógł w konfiguracji zamówień na nowe systemy komputerowe; do 1986 roku oszczędzał firmie około 40 milionów dolarów rocznie. Do 1988 roku grupa AI DEC miała wdrożonych 40 systemów eksperckich, a kolejne są w przygotowaniu. DuPont miał 100 w użyciu i 500 w fazie rozwoju. Prawie każda duża korporacja w USA miała własną grupę AI i albo korzystała z systemów eksperckich, albo je badała. Znaczenie wiedzy dziedzinowej było również widoczne w obszarze rozumienia języka naturalnego. Pomimo sukcesu systemu SHRDLU  Winograda, jego metody nie obejmowały bardziej ogólnych zadań: w przypadku problemów, takich jak rozwiązywanie niejednoznaczności, stosował proste zasady, które opierały się na niewielkim zasięgu świata bloków. Kilku badaczy, w tym Eugene Charniak z MIT i Roger Schank z Yale, zasugerowali, że solidne zrozumienie języka wymagałoby ogólnej wiedzy o świecie i ogólnej metody wykorzystania tej wiedzy. (Schank poszedł dalej, twierdząc: „Nie ma czegoś takiego jak składnia”, co zdenerwowało wielu lingwistów, ale posłużyło do rozpoczęcia pożytecznej dyskusji). Schank i jego uczniowie stworzyli serię programów, takich że wszyscy mieli za zadanie rozumieć język naturalny. Jednak mniejszy nacisk położono na język jako taki, a większy na problemy reprezentowania i rozumowania z wiedzą wymaganą do zrozumienia języka. Powszechny rozwój aplikacji zajmujących się rzeczywistymi problemami doprowadził do opracowania szerokiej gamy narzędzi do reprezentacji i rozumowania. Niektóre były oparte na logice – na przykład język Prologu stał się popularny w Europie i Japonii, a rodzina PLANNER w Stanach Zjednoczonych. Inni, idąc za koncepcją ramek Minsky’ego (1975), przyjęli bardziej ustrukturyzowane podejście, gromadząc fakty dotyczące poszczególnych typów obiektów i zdarzeń oraz układając je w dużą hierarchię taksonomiczną, analogiczną do taksonomii biologicznej. W 1981 r. Japoński rząd ogłosił 10-letni plan „piątej generacji” aby budować równoległe, inteligentne komputery z Prologiem. Budżet miał przekroczyć 1,3 miliarda dolarów dzisiejszych pieniędzy. W odpowiedzi Stany Zjednoczone utworzyły Microelectronics and Computer Technology Corporation (MCC), konsorcjum mające na celu zapewnienie krajowej konkurencyjności. W obu przypadkach sztuczna inteligencja była częścią szeroko zakrojonych działań, w tym projektowania chipów i badań nad interfejsem człowieka. W Wielkiej Brytanii raport Alvey przywrócił fundusze usunięte przez raport Lighthilla. Jednak żaden z tych projektów nigdy nie osiągnął swoich ambitnych celów w zakresie nowych możliwości sztucznej inteligencji lub wpływu gospodarczego. Ogólnie branża sztucznej inteligencji rozkwitła od kilku milionów dolarów w 1980 roku do miliardów dolarów w 1988 roku, w tym setki firm budujących systemy ekspertowe, systemy wizyjne, roboty oraz oprogramowanie i sprzęt wyspecjalizowane do tych celów. Niedługo potem nadszedł okres zwany „zimą AI”, w którym wiele firm upadło, ponieważ nie dotrzymały ekstrawaganckich obietnic. Okazało się, że trudno jest zbudować i utrzymać systemy ekspertowe dla złożonych dziedzin, po części dlatego, że metody rozumowania stosowane przez te systemy załamały się w obliczu niepewności, a po części dlatego, że systemy nie mogły uczyć się na doświadczeniu.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *