Niezwykłe osiągnięcia
Niektóre z ostatnich osiągnięć AI są niezwykłymi kamieniami milowymi jej postępu, a inne wkraczają prawie niewidocznie w naszą codzienną rutynę. Pomiędzy tymi skrajnościami programy AI stały się ważnymi narzędziami w nauce i handlu. Te trzy kategorie stanowią użyteczny sposób na uporządkowanie stanu sztucznej inteligencji dzisiaj. Najpierw przyjrzę się niektórym z najważniejszych systemów pojawiających się tuż przed i po początku XXI wieku, zaczynając od programów do gier AI.
Gry
Chociaż przekonanie niektórych komputerów do gier, takich jak szachy i warcaby, jest nieco niepoważnym odejściem od poważniejszej pracy, gra komputerowa służyła jako laboratorium do odkrywania nowych technik sztucznej inteligencji {szczególnie w wyszukiwaniu heurystycznym i w uczenie się.) Od najwcześniejszych dni sztucznej inteligencji ludzie pracowali nad programami do gry w szachy i warcaby, a teraz, głównie dzięki wykorzystaniu ogromnej ilości obliczeń sterowanych heurystycznie, komputery są w stanie grać w te i inne gry lepiej niż ludzie.
Szachy
Najważniejszą wiadomością w 1997 roku była porażka mistrza świata w szachach Garry′ego Kasparowa z komputerem szachowym IBM \ Deep Blue. Kasparov po raz pierwszy grał z Deep Blue, w lutym 1996 roku wygrał Deep Blue pierwszą grę, ale przegrał mecz. Ale 11 maja 1997 r. ulepszona sprzętowo wersja z 1997 r. (nieoficjalnie nazywana "Deeper Blue") wygrała mecz w sześciu grach (pod kontrolą regularnego czasu gry w szachach) dwoma zwycięstwami do jednego z trzech . Deep Blue 1997 było kombinacją specjalnego sprzętu i oprogramowania działającego na superkomputerze IBM RS / 6000 SP2. Niektóre z jego funkcji obejmowały ulepszenia \ w odpowiedzi na określone problemy zaobserwowane w grach Kasparowa z 1996 roku. Po porażce Kasparow był cytowany w "New York Timesie" jako "W ogóle nie miałem nastroju do grania". Artykuł w "Timesie" mówi dalej: "po meczu w sobotę tak się zdenerwowałem, że poczuł, że mecz się już skończył. Zapytany dlaczego, powiedział:" Jestem człowiekiem. Kiedy widzę coś, co jest dobre obawiam się, że nawet nie rozumiem. "" Niektóre strony internetowe wspominają, że po swojej przegranej Kasparow powiedział, że czasami widział głęboką inteligencję i kreatywność w ruchach maszyny. Ale jego oświadczenie miało sugerować, że ludzcy szachowi gracze musieli interweniować podczas drugiej gry w meczu. Kasparow chciał rewanżu, ale IBM zdemontował maszynę i nie było żadnej. Kasparow miał jednak swoich obrońców. Wspomniany właśnie artykuł w Times cytuje Lev Alberta, byłego mistrza USA, mówiąc: "To był program. Jeśli [IBM] chcą udowodnić, że to coś więcej niż program, pozwól im zagrać kimkolwiek poza Garrym. Jeśli grałaby przeciwko, powiedzmy, arcymistrzowi Borisowi Gulko, który nie jest nawet w pierwszej 50, jestem gotów postawić 10 000 $, że komputer przegra."
Historia Deep Blue rozpoczęła się od programu szachowego "Deep Thought" opracowanego przez doktora Feng-Hsiung Hsu na Carnegie Mellon University. Według strony internetowej IBM na temat Deep Blue , projekt IBM Deep Blue rozpoczął się, gdy Hsu i Murray Campbell [kolega Hsu z Carnegie Mellon] dołączyli do IBM Research w 1989 r. i rozpoczęli prace nad systemami przetwarzania równoległego. Wersja Deep Blue, która wygrała mecz z Kasparowem, była komputerem zawierającym 256 "procesorów szachowych", które łącznie mogły badać około 200 milionów pozycji szachowych na sekundę. (Dla porównania zauważmy, że w latach 70. CHESS 3.0 Uniwersytetu Północno-Zachodniego mogły ocenić tylko około 100 pozycji na sekundę.) Deep Blue oceniał pozycję szachową za pomocą zarówno funkcji "szybkiej", jak i "wolnej". Wartości około 8 000 funkcji wykorzystywanych w tych funkcjach obliczono za pomocą specjalnego sprzętu. Według Deep Blue , to [użycie zarówno funkcji szybkiej, jak i wolnej] jest standardową techniką pomijania obliczania kosztownej pełnej oceny, gdy przybliżenie jest wystarczająco dobre. Szybka ocena, która oblicza wynik dla pozycji szachowej w jednym cyklu zegara, zawiera wszystkie łatwe do obliczenia główne warunki oceny o wysokich wartościach. Najważniejszą częścią szybkiej oceny jest wartość "umieszczenia kawałka", tj. suma podstawowych wartości kawałka z kwadratowymi korektami położenia. Funkcje pozycjonowania, które można szybko obliczyć, takie jak "pionek może biec", są również częścią szybkiej oceny. Powolna ocena skanuje szachownicę po jednej kolumnie na raz, obliczając wartości dla koncepcji szachowych, takich jak kontrola kwadratu, szpilki, prześwietlenia, bezpieczeństwo króla, struktura pionka, przekazane pionki, kontrola promienia, posterunki, większość pionków, gawron na siódmym , blokada, powściągliwość, kompleks kolorów, uwięzione elementy, rozwój itd. Funkcje rozpoznawane zarówno w funkcjach oceny powolnej, jak i szybkiej mają programowalne wagi, co pozwala na łatwą regulację ich względnego znaczenia. Wyszukiwanie heurystyczne (kierowane przez funkcje oceny Deep Blue) pozwalało na wyszukiwanie do głębokości od sześciu do szesnastu warstw do maksymalnie czterdziestu warstw w niektórych sytuacjach. Oprócz wyszukiwania, Deep Blue może przetwarzać standardowe "ruchy książek" zawierające ponad 4000 pozycji. Na jego grę może mieć również wpływ baza 700 000 gier arcymistrzowskich. Wykorzystano także bazy danych gier końcowych, które zawierały "wszystkie pozycje szachowe z pięcioma lub mniejszymi pionkami na planszy, a także wybrane pozycje z sześcioma pionkami, które zawierały parę zablokowanych pionków". Ponieważ Deep Blue wygrał za pomocą metod, które niektórzy ludzie informatyki nazywają metodami "brutalnej siły", czy można powiedzieć, że jego zwycięstwo było "osiągnięciem sztucznej inteligencji"? Oto opinia IBM na ten temat: Czy Deep Blue używa sztucznej inteligencji? Krótka odpowiedź brzmi "nie". Wcześniejsze projekty komputerowe, które próbowały naśladować ludzkie myślenie, nie były w tym zbyt dobre. Nie istnieje wzór na intuicję…Deep Blue polega bardziej na sile obliczeniowej i prostszej funkcji wyszukiwania i oceny. Długa odpowiedź brzmi [także] "nie" . "Inteligencja artystyczna" odnosi większe sukcesy w nauce niż tutaj, na ziemi, i nie musisz być Izaakiem Asimovem, aby wiedzieć, dlaczego trudno zaprojektować maszynę do naśladowania proces, od którego nie rozumiemy zbyt dobrze na początku. Nasze myślenie jest pytaniem bez odpowiedzi. Deep Blue nigdy nie mógłby być HAL-9000, gdyby spróbował. Deep Blue nie pomyślałby też o "próbowaniu". Wśród różnic, które IBM wymienia między podejściem Kasparowa i Deep Blue do problemu gry w szachy, są:
• Deep Blue może badać i oceniać do 200 000 000 pozycji szachowych na sekundę; Garry Kasparow może badać i oceniać do trzech pozycji szachowych na sekundę.
• Deep Blue ma niewielką wiedzę szachową i ogromną zdolność obliczeniową; Garry Kasparov ma dużą wiedzę na temat szachów i nieco mniejszą zdolność obliczeniową.
• Garry Kasparow wykorzystuje swoje niezwykłe wyczucie i intuicję do gry w szachy mistrzowskie; Deep Blue to maszyna niezdolna do odczuwania ani intuicji.
• Garry Kasparow jest w stanie uczyć się i dostosowywać bardzo szybko na podstawie własnych sukcesów i błędów; Deep Blue, w obecnym kształcie, nie jest "systemem uczenia się". Dlatego nie jest w stanie wykorzystać sztucznej inteligencji, aby uczyć się od przeciwnika lub "myśleć" o aktualnej pozycji szachownicy.
• Wszelkie zmiany w sposobie grania w szachy Deep Blue muszą być dokonywane przez członków zespołu programistów między grami; Garry Kasparov może zmienić sposób gry w dowolnym momencie przed, w trakcie i / lub po każdej grze.
Ale mam szersze spojrzenie na AI. Chociaż Deep Blue polegało głównie na metodzie brutalnej siły zamiast na podstawie rozumowania opartego na regułach (na przykład), wykorzystywał wyszukiwanie heurystyczne, jedną z podstawowych technik sztucznej inteligencji. Różnice między Kasparowem a Deep Blue po prostu wskazują, o ile lepsze byłyby programy szachowe, gdyby korzystały z wiedzy i umiejętności gry w szachy ludzkie (gdy tylko stały się one wystarczająco znane do programowania) oraz metod uczenia maszynowego oprócz brutalnej siły. John McCarthy wyraził podobne poglądy. W pewnym artykule napisał. "Jednak miarą naszego ograniczonego rozumienia zasad sztucznej inteligencji (AI) jest to, że ten poziom gry [mistrzowskiej] wymaga wielu milionów razy więcej obliczeń niż ludzki szachista. … Gra na poziomie mistrzów jest możliwa przy znacznie mniejszej liczbie obliczeń niż gra Deep Blue i jej niedawni konkurenci. McCarthy dalej zaleca, aby turnieje szachów komputerowych "dopuszczały programy tylko z poważnymi ograniczeniami obliczeniowymi skoncentrować uwagę na osiągnięciach naukowych."
Nadal rozgrywane są mecze między komputerami a ludźmi, a także między komputerami. W meczu, który odbył się w dniach 25 listopada - 5 grudnia 2006 r. w Bonn, w Niemczecg, mistrz świata Vladimir Kramnik rozegrał mecz z Deep Fritz, programem szachowym opracowanym przez Fransa Morscha i Mathiasa Feista w Niemczech. Z sześciu gier w meczu Deep Fritz wygrał dwa mecze, a cztery zakończyły się remisem. Kramnik jest cytowany jako "Deep Fritz 8 [niedroga wersja] jest silniejszy niż Deep Blue". Najnowsza wersja to Deep Fritz 11.
Warcaby
We wrześniu 2007 r. Profesor Jonathan Schaeffer i jego zespół z University of Alberta w Edmonton w Kanadzie opublikowali artykuł zatytułowany "Checkers is Solved " -informując, że "Doskonała gra obu stron prowadzi do losowania". Schaeffer i współpracownicy pracowali nad rozwiązaniem warcabów od 1989 roku. Twierdzą, że obliczenia w tym celu działały prawie nieprzerwanie od tego czasu. W końcu wypełniony dowód, że warcaby prowadzą do remisu "składa się z wyraźnej strategii, która nigdy nie przegrywa -program może osiągnąć przynajmniej remis z dowolnym przeciwnikiem, grając czarnymi lub białymi pionkami". Zespół warcabów przypisuje swój wynik "zaawansowanym algorytmom sztucznej inteligencji i ulepszonemu sprzętowi (szybsze procesory, większe pamięci i większe dyski)…" Nie jest zaskakujące, że wysiłek wymagał osiemnastoletniego wysiłku wymaganego przez specjalistów i ogromnej ilości obliczeń: jest 500 995,484,682,338,672,639 różne pozycje w grze w warcaby!
W drodze do dowodu zespół opracował stale udoskonalany, doskonały program do gry w warcaby o nazwie "CHINOOK" .(Chinook to nazwa ciepłego zimowego wiatru z zachodu opadającego z kanadyjskich Gór Skalistych na Wielkie Równiny). W 1992 roku pierwsze mistrzostwa świata w szachach maszynowych, mistrz warcabów Marion Tinsley pokonała CHINOOK cztery wygrane na dwa, z trzydziestoma trzema remisami. Ponowny rewanż z CHINOOK o znacznie ulepszonym charakterze odbyła się w Computer Museum w Bostonie w 1994 roku. Według zespołu CHINOOK, "CHINOOK 1994" szukał lepiej i głębiej [niż CHINOOK 1992], lepiej oceniał pozycje, miał dostęp do baz danych gier końcowych o lepszej jakości i miał dostęp do czasów o takiej samej (i lepszej jakości) wiedzy otwierającej." Pierwsze sześć gier rewanżu zostały wylosowane. Zanim można było rozegrać mecz siódmy, Tinsley zrezygnował z walki, powołując się na względy zdrowotne. Zgodnie z przepisami CHINOOK został ogłoszony mistrzem świata w świecie maszyn (wkrótce po zdiagnozowaniu u Tinsley raka trzustki). ) Organizatorzy meczu zorganizowali kontynuację gry w Bostonie, mając wielkiego mistrza Dona Lafferty i wyzwanie z CHINOOK. CHINOOK zachował swój tytuł, ponieważ mecz zakończył się jedną grą na każde i osiemnaście losowań. Zdrowie Tinsleya poprawiło się dostatecznie, by poprosić o rewanż, aby odzyskać tytuł, ale zmarł w 1995 roku, zanim to miało miejsce. Dowód na to, że zawsze można zagwarantować przynajmniej ściąganie kontrolerów, wymaga ogromnej ilości obliczeń i bardzo dużych baz danych. Zespół dowodowy napisał, że "warcaby to najtrudniejsza pod względem obliczeniowym gra rozwiązana do tej pory". Rysunek poniższy jest schematem pokazującym związek między liczbą elementów wciąż znajdujących się na planszy oraz liczbę sposobów, w jakie elementy te można skonfigurować w pozycjach warcabów.
(Oś pionowa to liczba elementów; oś pozioma jest logarytmem liczby pozycji). Zacieniony obszar na dole schematu reprezentuje wszystkie sposoby konfiguracji dziesięciu lub mniejszej liczby elementów. Istnieje 39 271 258 831 439 takich pozycji, a Schaeffer i jego zespół obliczyli i zapisali w bazie danych gier końcowych, czy te pozycje powodują wygraną, przegraną lub remis dla każdego gracza. Małe otwarte kółka na schemacie przedstawiają pozycje (z więcej niż dziesięcioma elementami), dla których ustalono wartość (wygrana, przegrana lub remis). Optymalna gra polega na użyciu wyszukiwania heurystycznego w celu znalezienia linii gry, która gwarantuje przejście od pozycji początkowej do pozycji w zacienionym obszarze, z której można zagwarantować co najmniej remis. Przykładowa ścieżka jest pokazana ciągłą linią oznaczoną na schemacie jako "rozstawiona". (Inne cechy tego diagramu są wyjaśnione w artykule ogłaszającym dowód.) Wierzę, że wynik warcabów jest znakomitym osiągnięciem AI. Jak napisali to autorzy na zakończenie swojej pracy, obliczenia warcabów przesuwają granicę tego, co można osiągnąć dzięki algorytmom intensywnie wyszukującym. Dostarcza przekonujących dowodów potęgi podejść o ograniczonej wiedzy do sztucznej inteligencji. Głębokie wyszukiwanie niejawnie odkrywa przewagę. Co więcej, algorytmy wyszukiwania są dobrze przygotowane do wykorzystania wzrostu równoległości na chipie, który wkrótce zaoferuje przetwarzanie wielordzeniowe. Podejścia wymagające intensywnego wyszukiwania do sztucznej inteligencji będą odgrywać coraz ważniejszą rolę w ewolucji pola. Wygląda więc na to, że metody intensywnego poszukiwania powróciły, by zakwestionować doktrynę "wiedzy, która jest mocą". Należy jednak zauważyć, ile wysiłku wymagało również osobiste osiągnięcie . Cytowana jest żona Jonathana Schaeffera, Stephanie : "Minęło 18 lat!
Obsesyjno-kompulsywne zachowanie
nie jest normalne
Zdobądź życie, Jonathan".
Ale co z szachami o znacznie większej przestrzeni wyszukiwania - co najmniej 10 40 pozycji. Warcaby mają tylko 500 x 10 18 pozycji, co odpowiada pierwiastkowi kwadratowemu z szachów. Autorzy uważają, że rozwiązanie szachów w najbliższym czasie jest mało prawdopodobne. Napisali: "Biorąc pod uwagę wysiłek związany z rozwiązywaniem warcabów, szachy pozostaną nierozwiązane przez długi czas, z wyjątkiem wynalezienia nowej technologii
Inne gry
Istnieje kilka innych gier, w których komputery są teraz bardzo dobre. Jednym z przykładów, który przyciągnął wiele uwagi, jest gra w pokera. Matt Ginsberg opracował program GIB, akronim Goren in a Box (lub Ginsberg's Intelligent Bridgeplayer), służący do gry w brydża. Na każdym etapie gry GIB zna karty we własnej ręce, w ręku manekina i karty zagrane do tej pory. Następnie losowo przydziela pozostałe karty przeciwnikom i oblicza najlepszą kartę do gry na podstawie tego losowego przydziału. Przechodzi ten proces tysiące razy, zanim zagra kartę. Na podstawie statystyk zebranych w ramach podejścia "Monte Carlo" wybiera najlepszą kartę do zagrania. W artykule z New York Times z 14 marca 2008 roku felietonista brydżowy Phillip Alder przeanalizował grę, w której dwóch ludzi (każdy z partnerem GIB) grało przeciwko sobie. Podsumowując grę GIB, Alder powiedział: "Roboty te, jak się czasem nazywa takie programy, są dziwaczne. Czasami licytują i grają dobrze, ale często podejmują dziwne decyzje." Ginsberg zaprzestał pracy nad GIB i prawdopodobnie istnieją silniejsze programy. Komentując brydż, Jonathan Schaeffer napisał, że "wąskim gardłem w osiąganiu silnej gry wciąż jest licytacja. Konwencje licytacji są konwencjami zaprojektowanymi przez ludzi i trudno jest uchwycić wszystkie zasady, które gracze opracowali, aby grać przy użyciu tego "języka licytacji". Prawdopodobnie jedną z najtrudniejszych gier komputerowych jest gra Go. W 2008 roku program o nazwie MoGo Titan, opracowany przez INRIA France i Maastricht University w Holandii, pokonał profesjonalnego gracza Go w grze, w której komputer, holenderski superkomputer Huygens, otrzymał handicap z dziewięciu kamieni. Programy Computer Go wciąż się poprawiają. Najlepsi z nich używają teraz metod Monte Carlo do dokonywania selekcji ruchów. Wreszcie oczywiście jest Scrabble , gra szczególnie odpowiednia dla komputerów, które mają dostęp do dużych słowników i przeprowadzają masowe wyszukiwania. Programy Scrabble teraz rutynowo biją ekspertów. O grze komputerowej można by napisać znacznie więcej. Wiele programów można kupić lub pobrać. Możesz wybrać swoje ulubione gry i dopasować własne umiejętności do osiągnięć AI! Międzynarodowe Stowarzyszenie Gier Komputerowych (ICGA) prowadzi stronę internetową, która zawiera informacje o wszelkiego rodzaju turniejach gier komputerowych. Ale odwróćmy się teraz od tego, co niektórzy uważają za niepoważne (choć trudne) dążenie do rozmowy na temat prawdopodobnie bardziej ekscytującego tematu robotów.
Systemy robotów
Roboty są wszędzie! Udały się na Marsa, w głębiny oceanów, a nawet do wulkanów. Istnieją roboty rolnicze, roboty fabryczne, roboty chirurgiczne i roboty magazynowe. Biznes budowania robotów kwitnie, szczególnie w Pittsburghu w Pensylwanii, w którymnajduje Carnegie Mellon University i jego Robotics Institute. Zgodnie z artykułem z The Christian Science Monitor z 16 lipca 2008 r.
"Dziś w Pittsburghu działa ponad 30 firm z branży robotyki". Niektóre z dzisiejszych "robotów" są w rzeczywistości tylko zdalnie sterowanymi urządzeniami mechanicznymi obsługiwanymi przez ludzi, ale coraz więcej z nich stało się autonomicznych i zdolnych do inteligentnego działania.
Zdalny agent w Deep Space 1
24 października 1998 r. NASA wypuściła Deep Space 1 (DS1), statek kosmiczny, którego misją była ocena zdolności kosmicznej dwunastu zaawansowanych technologii. Jedną z tych technologii był "Remote Agent" (RA), robotyczny system do planowania i wykonywanie akcji statku kosmicznego. Chociaż nie do końca wszystkie możliwości HAL 9000 (inteligentny system sterujący statkiem kosmicznym w powieści i filmie "2001: A Space Odyssey"), Zdalny agent był dużym osiągnięciem AI. Został tak nazwany, ponieważ służył jako inteligentny agent w DS1, pośredniczący między operatorami z powrotem na ziemi a czujnikami i efektorami na pokładzie. Jeden z raportów NASA na temat stanów projektu mówił że:
"…jedna z najbardziej unikalnych cech RA i główna Różnica w stosunku do tradycyjnego dowodzenia statkami kosmicznymi polega na tym, że ziemia operatorzy mogą komunikować się z RA przy użyciu celów (np. "Podczas gdy w przyszłym tygodniu sfotografuj następujące asteroidy i pchnij 90% z nich naczas "), a nie szczegółowe sekwencje poleceń czasowych."
RA określa plan działania, który osiąga te cele i realizuje ten plan poprzez wydawanie poleceń statkowi kosmicznemu. RA zostało opracowane przez inżynierów z Jet Propulsion Laboratory w Pasadenie i Ames Research Center w Mountain View w Kalifornii. Składa się z trzech głównych ściśle zintegrowanych podsystemów. Planista i planista wykorzystuje wyszukiwanie heurystyczne do tworzenia planów realizacji celów misji; system wykonawczy wykonuje działania określone w tych planach; a System Identyfikacji i Odzyskiwania Trybu monitoruje stan statku kosmicznego i próbuje wykryć, zdiagnozować i naprawić usterki. Smart Executive (EXEC) RA wydaje polecenia w czasie rzeczywistym systemowi wykonania, który kontroluje statek kosmiczny i jego komponenty. Te polecenia obejmują włączanie i wyłączanie układu napędowego jonów, ustawianie statku kosmicznego, pozycjonowanie kamery i tak dalej. System ID trybu RA otrzymuje informacje o statusie statku kosmicznego za pośrednictwem zestawu czujników sensorycznych. Na podstawie celów misji i przewidywanego stanu statku kosmicznego dostarczonych przez EXEC, Mission Manager (MM) formułuje problem planowania Planner / Scheduler (PS). PS z kolei konstruuje plan składający się z harmonogramu działań do wykonania przez EXEC. Eksperci ds. Planowania uczestniczą w procesie planowania w zakresie specjalistycznych zadań, takich jak nawigacja. EXEC rozkłada harmonogram działań wysokiego poziomu skomponowanych przez PS na polecenia do silników, zaworów i innych efektorów oraz monitoruje wykonanie tych poleceń. Jeśli pewne zadanie nie może zostać zrealizowane, EXEC może podjąć próbę wykonania alternatywnego polecenia lub poprosić system ID i system odzyskiwania o analizę i naprawę problemu. Jeśli żaden z tych sposobów działania się nie powiedzie, EXEC przerwie obecny plan, ustawi statek kosmiczny w "bezpieczny stan" i poprosi MM o nowy plan. Cały czas system identyfikacji trybów obserwuje polecenia EXEC, otrzymuje dane o zdarzeniach pobierających koronki z monitorów sensorycznych i wykorzystuje swoje modele elementów statku kosmicznego do wywnioskowania ich stanów, które są przekazywane do EXEC przez poddane dokładnym testom i ocenie przed NASA i zezwolił na to na DS1. Wersję przetestowana w przestrzeni nazwano RAX (dodane eksperymenty oznaczające "X"). RAX otrzymał kontrolę nad statkiem kosmicznym na okresy od 17 maja do 21 maja 1999 r. Możliwość ścisłej kontroli aktywności RAX przez menedżera RAX była ważnym czynnikiem przekonującym projekt DS1, że kontrolery naziemne mogły łatwo odzyskać kontrolę nad statkiem kosmicznym z RAX. "Gdy RAX był pod kontrolą, mógł wydawać polecenia do Systemu Napędu Jonowego (IPS), który był również testowany podczas misji DS1, do miniaturowej zintegrowanej kamery i spektrometru, do autonomicznego systemu nawigacji, do systemu kontroli postawy statku kosmicznego i szeregu przełączników zasilania. Jak opisano w raporcie końcowym: "Głównym celem scenariusza było wykonanie łuku ciągu IPS, uzyskanie optycznych obrazów nawigacyjnych zgodnie z żądaniem autonomii nawigator i reaguj na kilka symulowanych błędów. Wady dotyczyły drobnych, na które można było zareagować bez zakłócania obecnego planu, oraz poważniejszych, które wymagały wygenerowania nowego planu, aby osiągnąć pozostałe cele. "Raport podsumowuje:" Pomimo kilku błędów, które wystąpiły podczas eksperymentu w locie, RA z powodzeniem wykazało 100% swoich celów walidacji w locie. Został on przechwycony z interaktywnego apletu internetowego, do którego można uzyskać dostęp i uruchomić go z http://ti.arc.nasa.gov/project/remote-agent/. (Strona internetowa zawiera również szczegółowe informacje na temat RA i RAX, wraz ze wskazówkami do artykułów, komunikatów prasowych i innych materiałów.)
Co ciekawe, oprogramowanie RA zostało zaprogramowane w LISP Works, produkcie LISP pierwotnie sprzedawanym przez The Harlequin Group, Ltd. O ile mi wiadomo, RAX był pierwszą instancją programów LISP działających w przestrzeni kosmicznej. Profesor MIT, Brian C. Williams, jeden z programistów RA podczas pracy w NASA, kontynuuje powiązane prace nad planowaniem, wykonaniem i wnioskami opartymi na modelach w swojej grupie "Modelowe systemy wbudowane i robotyzacyjne" w MIT. Napisał mi, że "architektura zdalnego agenta została szeroko emulowana i wdrożona w szerokiej gamie systemów robotycznych, w tym na ziemi
Samochody bez kierowcy
Być może prowadzenie samochodu w różnych warunkach jest jeszcze trudniejsze niż kontrolowanie statku kosmicznego. Tempo radzenia sobie z wieloma kontrolami na statku kosmicznym jest spokojnie porównywane z szybkim planowaniem i reakcją wymaganą do umiejętnego negocjowania ruchu. Dlatego możemy się spodziewać, że obliczenia percepcji i działania potrzebne do jazdy będą się zupełnie różnić od obliczeń zdalnego agenta. Ludzie jeżdżą samochodami, mniej lub bardziej dobrze, w słoneczne i burzowe dni, w nocy, na ulicach miasta, na szybkich autostradach i na pustynnych drogach. Tak, są awarie. W Stanach Zjednoczonych zginęło 28 933 osób i 2 211 000 osób zostało rannych w wypadkach samochodowych w 2007 r. Ale to tylko nieco ponad jedna osoba zabita na 100 milionów przebytych mile. Od dawna istnieje próba zmuszenia systemów AI do kierowania pojazdami tak jak ludzie. DARPA rozpoczęła prace nad tym problemem w połowie lat osiemdziesiątych wraz ze swoim projektem ALV w ramach strategicznego programu komputerowego). Uniwersytet Carnegie Mellon kontynuował programy dotyczące pojazdów bez kierowcy, w szczególności systemów ALVINN, RALPH i Navlab. Najbardziej imponująca wczesna praca była prawdopodobnie dziełem Ernsta Dickmannsa i jego zespouł na Universit at der Bundeswehr w Monachium. Częściowo wspierany przez europejski projekt EUREKA Prometheus bez kierowcy, pojazd VaMP Dickmannsa (Mercedes-Benz 500 SEL) pojechał z Monachium do Odense w Danii i z powrotem w 1995 r. (95% drogi autonomicznie), korzystając z widzeniai komputerowego i radaru . Inne projekty pojazdów bez kierowcy podjęto w Japonii (Tsukuba Mechanical Engineering Lab), w Holandii (2getthere) i we Włoszech (Projekt ARGO). DARPA powrócił, aby rozwiązać problem z samochodem bez kierowcy, ogłaszając 30 lipca 2002 r. "Grand Challenge". Wyzwaniem (rywalizacja tylko dla drużyn z USA) było zademonstrowanie pojazdu, który mógłby autonomicznie jeździć po drogach na pustyni i poza nią z Barstow, Kalifornia, do Primm, Nevada, 13 marca 2004 r. Zespół, który najszybciej ukończył kurs o długości 142 mil w czasie krótszym niż dziesięć godzin, otrzymał nagrodę pieniężną w wysokości 1 000 000 $. Jak wspomina pamiątkowa strona internetowa DARPA zawierająca informacje o konkursie: "Zgłoszenia zawodników muszą być bezzałogowymi, autonomicznymi pojazdami naziemnymi i nie mogą być prowadzone zdalnie. Granice trasy i pojazdy wychodzące z nich zostaną zdyskwalifikowane. Każdy pojazd zostanie zdyskwalifikowany jeśli będzie prowadzony na trasie przez załogowy pojazd kontrolny wyposażony w system zatrzymania awaryjnego, aby zapobiec kolizjom i innym niebezpiecznym sytuacjom. " Motywacją do podjęcia wyzwania był mandat Ustawy o zezwoleniach na obronę FY2001 (HR 4205 / PL 106-398 z 30 października 2001 r.), W której stwierdzono, że "celem sił zbrojnych będzie osiągnięcie pozycji bezzałogowej, zdalnie sterowanej technologii tak, że - (1) do 2010 r. jedna trzecia samolotów operacyjnych z głębokim uderzeniem jest bezzałogowa; oraz (2) do 2015 r. jedna trzecia operacyjnych naziemnych pojazdów bojowych jest bezzałogowa. " Spośród 106 zespołów, które pierwotnie zgłosiły się do konkursu, piętnaście pojazdów bez kierowcy opuściło linię startową w Barstow w Kalifornii. Tam były zespoły dużych i małych firm, uniwersytetów i specjalnie zgromadzonych grup indywidualnych innowatorów. Każda drużyna otrzymała płytę CD ze współrzędnymi około 2000 "waypointów", aby pomóc im wytyczyć trasę na trasie przy użyciu systemów GPS. Poruszanie się po przeszkodach, pozostawanie na drogach i unikanie wypadków zależało od mechanizmów sensorycznych i planowania na pokładzie. Żaden z pojazdów nie ukończył trasy Osiem nie zdążyło przed przejechaniem mili, a inne uległy awarii wkrótce po starcie. Najdalszy przejechany pojazd miał niecałe siedem i pół mili. Według ostatecznych danych DARPA, podanych przez CNN,
"Vehicle 22 Red Team (Carnegie Mellon): Na mili 7,4, na zakrętach w górzystym odcinku, pojazd [o nazwie" Burza piaskowa "] zjechał z kursu, został złapany na zaczep a złapane gumy na przednich kołach szybko zgasiło Pojazd i został wyłączony z poleceń "
Komentując wyniki, Tom Strat, zastępca kierownika programu Grand Challenge, powiedział:
"Niektóre pojazdy były w stanie bardzo dokładnie śledzić punkty GPS; ale nie byliśmy w stanie wyczuć przeszkód przed nami i mieliśmy pewne kolizje podczas rund kwalifikacyjnych. . . Inne pojazdy były bardzo dobrze wyczuwali przeszkody, ale mieli trudności z podążaniem za punktami orientacyjnymi lub bali się własnego cienia, halucynacyjnych przeszkód, gdy ich nie było, orbitery, pojazdy powietrzne, łodzie, okręty podwodne i pojazdy naziemne. "
Chociaż Grand Challenge w 2004 r. nie wykazał żadnych "niezwykłych osiągnięć", być może był koniecznym prekursorem kontynuacji. Trzy miesiące po wydarzeniu w 2004 r. DARPA ogłosiło "drugie wielkie wyzwanie dla autonomicznych robotycznych pojazdów naziemnych", które odbędzie się 8 października 2005 r., A nagrodą tym razem będzie 2 miliony dolarów. W konkursie w 2005 r. wzięło udział dwudziestu trzech finalistów. wszyscy oprócz jednego poszli dalej niż Sandstorm w 2004 roku. Pięć pojazdów ukończyło kurs - pustynię o długości 132 mil, początek i koniec trasy w Primm, Nevada:
1. Stanley (zmodyfikowany Volkswagen Touareg R5 TDI 2004) zgłoszony przez "The Stanford Racing Team" z Uniwersytetu Stanforda. Stanley przyszedł pierwszy po sześciu godzinach i pięćdziesięciu czterech minutach
.
2. Sandstorm (zmodyfikowany w 1986 r. AM General M998 HMMWV) zgłoszony przez "The Red Team" z Carnegie Mellon University. "Burza piaskowa" (zaktualizowana z wersji 2004) zajęła drugie miejsce w ciągu siedmiu godzin i pięciu minut.
3. H1ghlander (zmodyfikowany General H1 Hummer Sport Utility Truck z 1999 AM) zgłoszony przez "The Red Team Too" również z Carnegie Mellon University. H1ghlander zajął trzecie miejsce w siedem godzin i czternaście minut. (Jako "uwaga kulturalna" na stronie internetowej lm Deja Vu stwierdza: "Wehikuł czasu Humvee to prawdziwy robot H1ghlander zbudowany przez Czerwony Zespół Carnegie Mellon na Grand Challenge DARPA w 2005 r.")
4. Kat-5 (zmodyfikowany 2005 Ford Escape Hybrid) zgłoszony przez "Team Gray "z Gray Insurance Company z Metairie w Luizjanie (przedmieście Nowego Orleanu). Kat-5 przybył na czwartym miejscu w ciągu siedmiu godzin i trzydziestu minut. (Rozwój Kat-5 został zahamowany przez dwa huragany, zwłaszcza Katrina - które uderzyły w Nowy Orlean pod koniec sierpnia 2005 roku. Paul Trepagnier, jeden z członków zespołu, napisał, że "Większość z nas straciła nasze domy tuż przed Grand Challenge. [Nazwa, Kat-5], nie została stworzona na cześć Katriny, jak niektórzy ludzie błędnie stwierdzili, ale raczej była to aktem prowokacji. Dałeś z siebie wszystko, a my wciąż stoimy. Możesz nas powalić, ale wytrwamy i wrócimy silniejsi niż wcześniej. To także gra słów w okablowaniu Cat-5. ")
5. TerraMax (zmodyfikowany taktyczny wagon towarowy) zgłoszony przez "Team TerraMax" z Oshkosh Truck Corporation. TerraMax zajął piąte miejsce (po zatrzymaniu na noc) w łącznym czasie dwunastu godziny i pięćdziesiąt jeden minut, co przekroczyło limit dziesięciu godzin.
Pod pewnymi względami kurs w 2005 roku był łatwiejszy niż ten w 2004 roku. Drogi były nieco szersze i miały mniej zakrętów. Najbardziej wstrząsający odcinek, ze stromymi spadkami, miał miejsce po przejściu Beer Bottle Pass. Fałszywy ruch sprawiłby, że pojazd spadł ze zbocza góry. H1ghlander miał najlepszy czas na dobrą część wyścigu, ale problem pojawił się tuż po znaku 100 mil, a Stanley wyprzedził go, aby uzyskać prowadzenie, zwycięstwo i 2 miliony dolarów. Uczestnicy Grand Challenge w 2005 r. zastosowali czujniki odległości i czujniki optyczne, które wraz z komputerową technologią wizyjną umożliwiły im unikanie przeszkód i odróżnianie jazdy od trudnego terenu. Mogli również konstruować plany kontrolowania prędkości i kierunku jazdy, nawet jeśli informacje percepcyjne, na których oparte były te plany, były niepewne. Miejsce nie pozwala na opisanie wszystkich pojazdów, ale opiszę niektóre technologie zastosowane przez Stanleya, zwycięzcę. Stanley został wyposażony w sześcioprocesorową platformę obliczeniową dostarczoną przez firmę Intel, zestaw czujników i system sterowania drive-by-wire podłączony do komputerów. Czujniki zawierały pięć dalmierzy laserowych, kamerę wideo, system GPS oraz żyroskopy i akcelerometry. Profesor Stanford Sebastian Thrun był ogólnym nadzorcą projektu, a starszy inżynier badań Stanford Michael Montemerlo kierował grupą projektową oprogramowania. Na początku zdecydowali, że autonomiczna nawigacja stanowi przede wszystkim problem z oprogramowaniem, a zaprojektowanie oprogramowania i jego architektury miało kluczowe znaczenie dla sukcesu. Metody zostały opracowane, a istniejące metody rozszerzone, aby poradzić sobie z problemami percepcji terenu na dalekie odległości, unikania kolizji w czasie rzeczywistym oraz stabilnej kontroli pojazdu na śliskim i trudnym terenie. W szczególności trzy ważne innowacje oprogramowania odegrały ważną rolę w wydajności Stanleya. Jedną z tych innowacji było opracowanie algorytmu probabilistycznej analizy terenu (PTA). Wykorzystał techniki probabilistyczne do zintegrowania pomiarów odległości w czasie z lasera z pojedynczym skanem. Następnie zastosował wydajne testy statystyczne, aby odróżnić teren możliwy do przejechania od trudnego terenu. Podczas Grand Challenge algorytm PTA był w stanie uwzględnić poważne błędy w wykrywaniu i zidentyfikować przeszkody z prawie 100% dokładnością przy prędkościach zwiększających się do 35 km / h. Kolejną innowacją było widzenie komputerowe. Po pierwsze, w polu wizualnym zlokalizowano pobliską łatę powierzchni, która ma być obsługiwana przez algorytm PTA. Ta poprawka została następnie wykorzystana jako próbka tego, jak wyglądają powierzchnie sterowane i wykorzystana jako dane treningowe dla algorytmu widzenia komputerowego. W artykule opisującym technikę stwierdza: "Algorytm widzenia klasyfikuje następnie cały obszar widzenia kamery [wykraczający poza pole widzenia skanera laserowego] i wyodrębnia mapę właściwości jezdnych o zasięgu do 70 m. Połączone czujniki [laser plus widzenie komputerowe] są zintegrowane ze strategią jazdy, która pozwala na bardzo solidne wykrywanie dalekiego zasięgu ". Warto zauważyć, że system widzenia Stanleya nie był takim (jak na przykład Davida Marra), który dokładnie przeanalizował scenę, aby określić rodzaje i umiejscowienie obiektów w niej. Zamiast tego zastosował specjalne procedury, których jedynym zadaniem było pomóc Stanleyowi zdecydować, gdzie bezpiecznie jechać. Wreszcie opracowano nadzorowany system uczenia się dla prędkości online. Kontrola prędkości była kluczowa w osiągnięciu przez Stanleya najszybszego czasu przejazdu. Pojazd musiał powoli jechać po ryzykownym terenie, a następnie przyspieszyć na bezpiecznym terenie. Korzystając z nadzorowanego uczenia dopasowanego do prowadzenia przez ludzi zarówno na ryzykownym, jak i bezpiecznym terenie, system był w stanie nauczyć się wybierać prędkości jazdy, które stanowiły ograniczenie ryzyka i prędkości. W styczniu 2006 r. Stanley został uznany przez Wired za "Najlepszego robota wszechczasów". (Shakey został uznany za piątego najlepszego robota, za robotami marsjańskimi Spirit and Opportunity i dwoma innymi). Stanley obecnie mieszka w Smithsonian National Museum of American History. DARPA sponsorowała inne autonomiczne wydarzenie związane z prowadzeniem samochodu 3 listopada 2007 r., nazwane "Urban Challenge" odbyło się w pobliżu Victorville w Kalifornii, w miejscu, gdzie kiedyś znajdowała się baza sił powietrznych George. Uczestnicy musieli mieć możliwość odwiedzenia zestawu \ punktów kontrolnych "w ciągu sześciu godzin na długości sześćdziesięciu mil przez pozorowane miasto. Pomyślne zakończenie wymagało wykonania skomplikowanych manewrów, takich jak łączenie, mijanie, parkowanie i negocjowanie skrzyżowań, w obecności innego ruchu i przestrzeganie wszystkich przepisów ruchu drogowego w Kalifornii. W sumie ponad pięćdziesiąt pojazdów, zarówno załogowych, jak i autonomicznych, jednocześnie nawigowało ulicami miasta podczas ostatniego wydarzenia.Poprzez serię procedur kwalifikacyjnych i faktyczne testy pojazdów, DARPA zawęził pierwszą pozycję spośród 89 oryginalnych kandydatów do trzydziestu drużyn z dwudziestu dwóch stanów, a ostatecznie do jedenastu drużyn. Sześć z nich z powodzeniem ukończyło trasę w dniu wyścigu. DARPA ogłosiła następujących morderców i terminy ukończenia:
1. Boss (Chevy Tahoe 2007) zgłoszony przez Tartan Racing z Carnegie Mellon University. Boss zajął pierwsze miejsce, a nagroda wyniosła 2 miliony dolarów, z czasem 4:10:20 (przy średniej prędkości około 14 mil na godzinę).
2. Junior (2006 Volkswagen Passat Wagon) zgłoszony przez Zespół Wyścigowy Stanforda z Uniwersytetu Stanforda. Junior zajął drugie miejsce i nagrodę w wysokości 1 miliona dolarów, z czasem 4:29:28.
3. Odin (2005 Ford Hybrid Escape) zgłoszony przez Team Victor Tango z Virginia Tech. Odin zajął trzecie miejsce i nagrodę w wysokości 500 000 $, z czasem 4:36:38.
4. Talos (Land Rover LR3) zgłoszony przez Team MIT z Massachusetts Institute of Technology. Talos zajął czwarte miejsce z czasem około sześciu godzin.
(Należy pamiętać, że czasy wymienione tutaj zostały dostosowane, aby uwzględnić okresy podczas imprezy, kiedy pojazdy zostały zatrzymane z własnej winy.) Dwa inne zespoły również ukończyły kurs, jeden z połączenia University of Pennsylvania i Lehigh University i jeden z Cornell University. Urban Challenge postawiło nowe i silne wymagania w zakresie technologii percepcji i planowania. Rozważmy na przykład niektóre rzeczy, które musiały zrobić pojazdy: przestrzegaj przepisów ruchu drogowego, wykrywaj i śledź inne pojazdy na dużych odległościach, znajdź miejsce i zaparkuj na parkingu, przestrzegaj zasad pierwszeństwa skrzyżowań, przestrzegaj pojazdów na bezpieczną odległość i reagować na warunki dynamiczne, takie jak zablokowane drogi lub uszkodzone pojazdy. Wszyscy finaliści dokonali tych wyczynów. Oto krótki opis ze strony internetowej szefa:
"Boss wykorzystuje oprogramowanie percepcyjne, planistyczne i behawioralne do uzasadnienia ruchu i podjęcia odpowiednich działań, jednocześnie bezpiecznie idąc do celu. Boss jest wyposażony w kilkanaście laserów, kamer i radarów, które pozwalają oglądać świat. Planowanie trasy na wysokim poziomie określa najlepszą ścieżkę przez sieć dróg. Planowanie ruchu wymaga uwzględnienia wykrytych przez percepcję przeszkód statycznych i dynamicznych, a także informacji na temat pasa i drogi, granic parkingu, linii zatrzymania, ograniczeń prędkości i podobnych wymagań. Boss radzi sobie z niespodziankami, takimi jak inne pojazdy, które mają znak stopu lub gwałtownie się zatrzymują lub skręcają. Defensywne umiejętności prowadzenia pozwalają Bossowi aby uniknąć awarii."
W oparciu o sukcesy pojazdów w różnych wyzwaniach DARPA przemysł motoryzacyjny rozszerza zainteresowanie pojazdami bez kierowcy. (Przynajmniej było to przed problemami finansowymi z 2008 r. {2009). W listopadzie 2007 r. Volkswagen of America ogłosił, że przekazuje 2 miliony dolarów na Uniwersytet Stanforda w celu budowy budynku, w którym mieści się Volkswagen Automotive Innovation Lab (VAIL) i 750 000 USD rocznie na pięć lat na badania nad technologią motoryzacyjną. Dr Burkhard Huhnke, dyrektor wykonawczy Electronics Research Laboratory, Volkswagen of America, powiedział: "VAIL będzie solidnym fundamentem, na którym będą badacze Volkswagen i naukowcy ze Stanford są w stanie znaleźć nowe sposoby odkrywania technologii motoryzacyjnej. Prace wykonane w VAIL pomogą w dalszym rozwoju przyszłości mobilności i autonomicznej jazdy, które rozpoczęliśmy od współpracy z pojazdami DARPA Grand Challenge, Stanley i Junior. "W czerwcu 2008 r. General Motors ogłosiło program zapewniający Uniwersytet Carnegie Mellon za 1 USD milion rocznie przez pięć lat (i być może nawet więcej) na badania nad technologią jazdy autonomicznej. Alan Taub, dyrektor ds. badań i rozwoju GM, powiedział na konferencji prasowej: "W General Motors wierzymy, że autonomiczne prowadzenie pojazdu jest możliwe, aby zacząć wchodzić na rynek w następnej dekadzie i wyraźnie do 2020 r." Można się zastanawiać, jaki wpływ miała niedawna upadłość GM na tę obietnicę. William H. Swisher, dyrektor ds. relacji korporacyjnych w CMU, powiedział, że w rzeczywistości przyznano 1 milion dolarów, ale że \ nie wiadomo, czy ukończą umowę roczną. "Sebastian Thrun mówi że spodziewa się, że jego pojazdy badawcze "będś rutynowo jeździły [autonomicznie] z San Francisco do Los Angeles… [do] około czerwca 2010 r. "Przewiduje również, że "do 2030 r. połowa naszych autostrad zostanie przejechana autonomicznie bez udziału człowieka". Wątpi jednak, że samochody bez kierowców pojawią się w salonach w najbliższym czasie. Przytacza różne społeczne i problemy prawne, takie jak aktualizacja kodów pojazdów, ustalanie odpowiedzialności za wypadki i ludzkie pragnienie kontroli. Zamiast tego uważa, że przez kilka następnych lat głównymi korzyściami płynącymi z badań pojazdów bez kierowcy będą automatyczne pomoce dla kierowców. Umożliwi to bardziej efektywne korzystanie z autostrad i znacznie zmniejszy liczbę wypadków drogowych i ofiar śmiertelnych. Przykładami niektórych z tych pomocy są wszechstronne systemy ostrzegania przed kolizją, radarowy tempomat, urządzenia ostrzegające o zmianie pasa, elektroniczna kontrola stabilności, globalne satelitarne systemy pozycjonowania oraz mapy cyfrowe. Tak jak technologia AI wkrótce pomoże nam prowadzić samochody, części AI są już w codziennym użyciu wokół nas, co prowadzi mnie do następnego tematu.