AI : Technologie, Aplikacje i Wyzwania : Algorytmy i dane

https://aie24.pl/

Sztuczna inteligencja to dane i algorytmy. Projektowanie algorytmów jest główną cechą techniczną systemów AI, szczególnie tych opartych na ML. Nie jest możliwe oddzielenie danych od algorytmów, a algorytmy ML uczą się wszystkiego z danych. Największą wadą skutecznego wdrożenia algorytmu są albo nieodpowiednie, albo słabej jakości, albo nieoznakowane dane. Wiele algorytmów ML nie jest przejrzystych lub łatwych do zrozumienia dla ludzi, w szczególności algorytmy DL, które mogą mieć dużą liczbę zmiennych. Brak przejrzystości algorytmu może powodować niskie zaufanie użytkowników, kadry kierowniczej, organów regulacyjnych, konsumentów i innych interesariuszy.

Uczenie nadzorowane i nienadzorowane w percepcji robota

https://aie24.pl/

Uczenie maszynowe odgrywa ważną rolę w percepcji robota. Dzieje się tak zwłaszcza wtedy, gdy nie jest znana najlepsza reprezentacja wewnętrzna. Jednym z powszechnych podejść jest mapowanie wysokowymiarowych strumieni czujników na przestrzenie o niższych wymiarach przy użyciu nienadzorowanych metod uczenia maszynowego (patrz rozdział 19). Takie podejście nazywamy osadzaniem niskowymiarowym. Uczenie maszynowe umożliwia naukę modeli czujników i ruchu na podstawie danych, jednocześnie odkrywając odpowiednią wewnętrzną reprezentację. Inna technika uczenia maszynowego umożliwia robotom ciągłe dostosowywanie się do dużych zmian w pomiarach czujników. Wyobraź sobie, że idziesz z nasłonecznionego miejsca do ciemnego pokoju z neonowymi światłami. Oczywiście w środku jest ciemniej. Ale zmiana źródła światła wpływa również na wszystkie kolory: światło neonowe ma silniejszy składnik światła zielonego niż światło słoneczne. Jednak jakoś wydaje się, że nie zauważamy zmiany. Jeśli wchodzimy razem z ludźmi do pokoju oświetlonego neonami, nie myślimy, że ich twarze nagle zrobiły się zielone. Nasza percepcja szybko dostosowuje się do nowych warunków oświetleniowych, a nasz mózg ignoruje różnice. Adaptacyjne techniki percepcji umożliwiają robotom przystosowanie się do takich zmian. Jeden przykład pokazano na rysunku 26.10, zaczerpniętym z domeny jazdy autonomicznej. Tutaj bezzałogowy pojazd naziemny dostosowuje swój klasyfikator pojęcia „powierzchnia nadająca się do jazdy”. Jak to działa? Robot wykorzystuje laser do klasyfikacji niewielkiego obszaru bezpośrednio przed robotem. Gdy obszar ten okaże się płaski w skanie laserowym, jest on używany jako pozytywny przykład szkoleniowy dla koncepcji „powierzchni, w której można jeździć”. Technika mieszanki Gaussa podobna do algorytmu EM omówionego w rozdziale 21 jest następnie trenowana do rozpoznawania określonych współczynników koloru i tekstury małej próbki próbki. Obrazy na rysunku 26.10 są wynikiem zastosowania tego klasyfikatora do pełnego obrazu. Metody, które sprawiają, że roboty zbierają własne dane treningowe (z etykietami!) nazywane są samonadzorowanymi. W tym przypadku robot wykorzystuje uczenie maszynowe, aby wykorzystać czujnik bliskiego zasięgu, który dobrze sprawdza się przy klasyfikacji terenu, w czujnik, który widzi znacznie dalej. Dzięki temu robot może jechać szybciej, spowalniając tylko wtedy, gdy model czujnika mówi, że nastąpiła zmiana w terenie, którą należy dokładniej zbadać za pomocą czujników bliskiego zasięgu.

AI : Technologie, Aplikacje i Wyzwania : Prywatność i bezpieczeństwo danych

https://aie24.pl/

Głównym wyzwaniem dla wykorzystania AI w biznesie jest prywatność danych. Zdolność podejmowania decyzji przez sztuczną inteligencję opiera się na dużej ilości danych; często drażliwe i mogą mieć charakter osobisty . Systemy te mogą uczyć się na podstawie danych i stale się doskonalić. Ze względu na ciągłe uczenie się, te systemy ML mogą być narażone na naruszenie i kradzież danych. Głównie firmy i rządy, ogólnie globalna sieć oparta na sztucznej inteligencji, a zatem może utrudnić intruzom wtargnięcie do nich. Sztuczna inteligencja może przynieść społeczeństwu ogromne korzyści, jeśli zostanie odpowiednio wdrożona. Istnieje jednak duże ryzyko, że komercyjne wykorzystanie AI może mieć negatywny wpływ na prawa człowieka. Zastosowania tych technologii wymagają generowania, gromadzenia, przetwarzania i udostępniania dużych ilości danych, zarówno dotyczących jednostek, jak i grup. Niektóre informacje, takie jak spam czy sugestia towaru do zakupów online, mogą być dopuszczalne, inne mogą mieć poważniejsze konsekwencje, a nawet stanowić zagrożenie dla prawa do prywatności i prawa do wolności słowa i informacji. Jego stosowanie może mieć również wpływ na szereg innych praw, w tym prawo do skutecznego środka odwoławczego oraz wolność od dyskryminacji). Technologie ML, DL, przetwarzania języka naturalnego (NLP), rozpoznawania twarzy i wykrywania emocji wymagają, aby dane wejściowe dostarczały wyników, które mogą sugerować działania. Technologie te wyodrębniają wymagane dane z dużej ilości danych i pomagają w podejmowaniu krytycznych decyzji. Ochrona danych i informacji stanowi wyzwanie dla firm, ponieważ ich klienci obawiają się, że ich dane osobowe (takie jak lokalizacja, numer telefonu i trendy marketingowe) będą gromadzone i wykorzystywane przez sztuczną inteligencję. Wiele krajów przestrzega przepisów, aby chronić prywatność swoich obywateli i unikać niewłaściwego wykorzystania danych. Aby utrzymać nienaruszone zaufanie publiczne i etyczne wykorzystanie danych przez sztuczną inteligencję, konieczne jest opracowanie solidnych ram opartych na sztucznej inteligencji. Na przykład Unia Europejska (UE) wdrożyła już Ogólne Rozporządzenia o Ochronie Danych Osobowych (RODO), które zapewniają pełną ochronę danych osobowych, ponieważ obywatele mają coraz większą świadomość dotyczącą dużej liczby decyzji podejmowanych maszynowo.

Inne rodzaje percepcji

https://aie24.pl/

Nie cała percepcja robota dotyczy lokalizacji lub mapowania. Roboty postrzegają również temperaturę, zapachy, dźwięk i tak dalej. Wiele z tych wielkości można oszacować za pomocą wariantów dynamicznych sieci Bayesa. Do takich estymatorów potrzebne są jedynie warunkowe rozkłady prawdopodobieństwa, które charakteryzują ewolucję zmiennych stanu w czasie, oraz modele czujników opisujące związek pomiarów ze zmiennymi stanu. Możliwe jest również zaprogramowanie robota jako agenta reaktywnego, bez wyraźnego rozumowania na temat rozkładów prawdopodobieństwa w stanach. Trend w robotyce wyraźnie zmierza w kierunku reprezentacji o dobrze zdefiniowanej semantyce. Techniki probabilistyczne przewyższają inne podejścia w wielu trudnych problemach percepcyjnych, takich jak lokalizacja i mapowanie. Jednak techniki statystyczne są czasami zbyt uciążliwe, a prostsze rozwiązania mogą być równie skuteczne w praktyce. Aby pomóc w podjęciu decyzji, które podejście wybrać, najlepszym nauczycielem jest doświadczenie w pracy z prawdziwymi robotami fizycznymi.

AI : Technologie, Aplikacje i Wyzwania : Integracja danych

https://aie24.pl/

Dane mogą być gromadzone w różnych formach, takich jak tekst, dźwięk, obrazy i wideo do różnych zastosowań. Kilka platform wykorzystywanych do gromadzenia tych danych zwiększa wyzwania związane ze sztuczną inteligencją. Aby pomyślnie wdrożyć sztuczną inteligencję, wszystkie te dane są integrowane i przekształcane w użyteczne wyniki. Integracja AI z istniejącymi systemami jest procesem bardziej skomplikowanym niż dodanie wtyczki do istniejącej przeglądarki. Należy skonfigurować interfejs i elementy odpowiadające potrzebom przemysłu, takie jak potrzeby w zakresie infrastruktury danych, przechowywanie danych, etykietowanie i wprowadzanie danych do systemu. Ponadto model jest wymagany do uczenia i testowania niezawodności opracowanego systemu AI, a tym samym tworzenia pętli sprzężenia zwrotnego w celu ciągłego doskonalenia opracowanego modelu w oparciu o działania i próbkowanie danych, głównie w celu zmniejszenia ilości danych i uruchomienia modelowania w szybszy sposób, jednocześnie uzyskując dokładne wyniki. Gdy wdrażanie AI odbywa się krok po kroku, ryzyko niepowodzenia jest zminimalizowane, dzięki czemu więcej osób można przeszkolić w zakresie korzystania z modelu.

Lokalizacja i mapowanie

https://aie24.pl/

Lokalizacja to problem z ustaleniem, gdzie znajdują się rzeczy — w tym sam robot. Aby lokalizacja była prosta, rozważmy robota mobilnego, który porusza się powoli w płaskim, dwuwymiarowym świecie. Załóżmy też, że robot otrzymuje dokładną mapę otoczenia. Pozę takiego robota mobilnego określają jego dwie współrzędne kartezjańskie o wartościach x i y oraz jego nagłówek o wartości θ , jak pokazano na rysunku (a).

Jeśli ułożymy te trzy wartości w wektorze, to każdy konkretny stan jest określony przez Xt =(xt , yt , θt)T. Na razie w porządku. W przybliżeniu kinematycznym każde działanie składa się z „chwilowej” specyfikacji dwóch prędkości – prędkości translacyjnej vt i prędkości obrotowej ωt . Dla małych przedziałów czasu Δt, zgrubny deterministyczny model ruchu takich robotów jest podany przez

Notacja odnosi się do deterministycznego przewidywania stanu. Oczywiście roboty fizyczne są nieco nieprzewidywalne. Jest to powszechnie modelowane przez rozkład Gaussa ze średnią f(Xt ,vtt) i kowariancją Σx

Ten rozkład prawdopodobieństwa to model ruchu robota. Modeluje wpływ ruchu na lokalizację at robota. Następnie potrzebujemy modelu czujnika. Rozważymy dwa rodzaje modeli czujników. Pierwsza zakłada, że czujniki wykrywają stabilne, rozpoznawalne cechy otoczenia zwane punktami orientacyjnymi. Dla każdego punktu orientacyjnego raportowany jest zasięg i namiar. Załóżmy, że stan robota to xt =(xt ,yt , θt)T i wykrywa on punkt orientacyjny, którego położenie jest znane jako (xi ,yi)T. Bez hałasu prognozę zasięgu i namiaru można obliczyć za pomocą prostej geometrii (patrz Rysunek (a)):

Znowu szum zniekształca nasze pomiary. Aby uprościć sprawę, załóżmy szum Gaussa z kowariancją Σz, dając nam model czujnika

Nieco inny model czujnika jest używany do układu czujników zasięgu, z których każdy ma stałe łożysko względem robota. Takie czujniki wytwarzają wektor wartości zakresu

zt = (z1,…,zM)T.

Przy danej pozycji xt , niech

będzie obliczonym zasięgiem wzdłuż j-tego kierunku wiązki od xt do najbliższej przeszkody. Tak jak poprzednio, zostanie to zepsute przez szum Gaussa. Zazwyczaj zakładamy, że błędy dla różnych kierunków wiązki są niezależne i identycznie rozłożone, więc mamy

Rysunek (b) pokazuje przykład skanu czterowiązkowego i dwóch możliwych pozycji robota, z których jedna z dużym prawdopodobieństwem wygenerowała obserwowany skan, a druga nie.

Porównując model ze skanowaniem odległości z modelem punktu orientacyjnego, widzimy, że model ze skanowaniem odległości ma tę zaletę, że nie ma potrzeby identyfikowania punktu orientacyjnego przed interpretacją skanowania odległości; w rzeczywistości na rysunku (b) robot stoi przed ścianą pozbawioną cech charakterystycznych. Z drugiej strony, jeśli istnieją widoczne, możliwe do zidentyfikowania punkty orientacyjne, mogą zapewnić natychmiastową lokalizację. Filtr Kalmana, reprezentuje stan przekonań jako pojedynczą wielowymiarową Gaussa, oraz filtr cząstek, który reprezentuje stan przekonań przez zbiór cząstek, które odpowiadają stanom. Większość współczesnych algorytmów lokalizacji wykorzystuje jedną z tych dwóch reprezentacji przekonań robota P(Xt | z1:t , a1:t-1). Lokalizacja za pomocą filtrowania cząstek nazywana jest lokalizacją Monte Carlo lub MCL. Rysunek przedstawia jedną wersję wykorzystującą model czujnika ze skanowaniem zakresu.

Działanie algorytmu ilustruje rysunek , gdy robot dowiaduje się, gdzie się znajduje w biurowcu.

Na pierwszym zdjęciu cząstki są równomiernie rozłożone na podstawie wcześniejszego, co wskazuje na globalną niepewność co do pozycji robota. Na drugim obrazie pojawia się pierwszy zestaw pomiarów, a cząstki tworzą skupiska w obszarach wysokiego przekonania a posteriori. Po trzecie, dostępne są wystarczające pomiary, aby zepchnąć wszystkie cząstki w jedno miejsce. Filtr Kalmana to inny główny sposób lokalizacji. Filtr Kalmana reprezentuje tylne P(Xt | z1:t ,a1:t-1) przez Gaussa. Średnia tego Gaussa będzie oznaczona μt, a jej kowariancja Σt . Główny problem z wierzeniami Gaussa polega na tym, że są one zamknięte tylko dla modeli ruchu liniowego f i modeli pomiaru liniowego h. W przypadku nieliniowych f lub h wynik aktualizacji filtra na ogół nie jest gaussowski. W ten sposób algorytmy lokalizacji wykorzystujące filtr Kalmana linearyzują modele ruchu i czujników. Linearyzacja to lokalne przybliżenie funkcji nieliniowej przez funkcję liniową. Rysunek  ilustruje koncepcję linearyzacji (jednowymiarowego) modelu ruchu robota.

Po lewej stronie przedstawia nieliniowy model ruchu f(xt ,at) (kontrola at jest pominięta na tym wykresie, ponieważ nie odgrywa żadnej roli w linearyzacji). Po prawej stronie funkcja ta jest aproksymowana funkcją liniową

Ta funkcja liniowa jest styczna do f w punkcie μt , czyli średniej naszego oszacowania stanu w czasie t. Taka linearyzacja nazywana jest rozwinięciem Taylora pierwszego stopnia. Filtr Kalmana, który linearyzuje f i h poprzez rozwinięcie Taylora, nazywany jest rozszerzonym filtrem Kalmana (lub EKF). Rysunek przedstawia sekwencję oszacowań robota obsługującego rozszerzony algorytm lokalizacji filtru Kalmana.

Gdy robot się porusza, niepewność oszacowania jego lokalizacji wzrasta, co pokazują wielokropki błędów. Jego błąd zmniejsza się, gdy wyczuwa zasięg i namiar na punkt orientacyjny o znanej lokalizacji, i ponownie wzrasta, gdy robot traci z oczu punkt orientacyjny. Algorytmy EKF działają dobrze, jeśli punkty orientacyjne są łatwo identyfikowane. W przeciwnym razie rozkład a posteriori może być multimodalny, jak na rycinie (b). Problem konieczności poznania tożsamości punktów orientacyjnych jest przykładem problemu asocjacji danych. W niektórych sytuacjach nie jest dostępna mapa otoczenia. Wtedy robot będzie musiał zdobyć mapę. To trochę problem z kurczakiem i jajkiem: nawigujący robot będzie musiał określić swoje położenie względem mapy, której nie do końca zna, jednocześnie budując tę ​​mapę, nie znając do końca swojej rzeczywistej lokalizacji . Problem ten jest ważny dla wielu zastosowań robotów i był szeroko badany pod nazwą równoczesna lokalizacja i mapowanie, w skrócie SLAM. Problemy SLAM są rozwiązywane przy użyciu wielu różnych technik probabilistycznych, w tym rozszerzonego filtru Kalmana omówionego powyżej. Korzystanie z EKF jest proste: wystarczy rozszerzyć wektor stanu, aby uwzględnić lokalizacje punktów orientacyjnych w środowisku. Na szczęście aktualizacja EKF skaluje się kwadratowo, więc dla małych map (np. kilkuset punktów orientacyjnych) obliczenia są całkiem wykonalne. Bogatsze mapy są często otrzymywane przy użyciu metod relaksacji grafów, podobnych do technik wnioskowania sieci bayesowskich . Oczekiwanie – maksymalizacja jest również stosowana dla SLAM.

Robotyczna Percepcja

https://aie24.pl/

Percepcja to proces, w którym roboty mapują pomiary czujników na wewnętrzne reprezentacje środowiska. Wiele z nich wykorzystuje techniki widzenia komputerowego z poprzedniego rozdziału. Ale percepcja w robotyce musi zajmować się dodatkowymi czujnikami, takimi jak czujniki lidarowe i dotykowe. Percepcja jest trudna, ponieważ czujniki są hałaśliwe, a otoczenie częściowo obserwowalne, nieprzewidywalne i często dynamiczne. Innymi słowy, roboty mają wszystkie problemy z estymacją stanu (lub filtrowaniem), które omówiliśmy w rozdziale 14.2. Z reguły dobre reprezentacje wewnętrzne robotów mają trzy właściwości:

  1. Zawierają wystarczającą ilość informacji, aby robot mógł podejmować dobre decyzje.
  2. Są tak skonstruowane, aby można je było sprawnie aktualizować.
  3. Są naturalne w tym sensie, że zmienne wewnętrzne odpowiadają naturalnym zmiennym stanu w świecie fizycznym.

Wcześniej zobaczyliśmy, że filtry Kalmana, HMM i dynamiczne sieci Bayesa mogą reprezentować modele przejścia i czujniki częściowo obserwowalnego środowiska, i opisaliśmy zarówno dokładne, jak i przybliżone algorytmy aktualizacji stanu przekonania – rozkład prawdopodobieństwa a posteriori w środowisku. zmienne stanu. Przedstawiono kilka dynamicznych modeli sieci Bayesa dla tego procesu. W przypadku problemów z robotyką uwzględniamy w modelu własne przeszłe działania robota jako obserwowane zmienne.

Rysunek pokazuje notację użytą w tym rozdziale: Xt to stan środowiska (w tym robota) w czasie t, Zt to obserwacja otrzymana w czasie t, a At to czynność podjęta po otrzymaniu obserwacji. Chcielibyśmy obliczyć nowy stan przekonań, P(Xt+1 | z1:t+1,a1:t), na podstawie obecnego stanu przekonań, P(Xt | z1:t ,a1:t-1) oraz nowa obserwacja zt+1. Są tu dwie różnice: warunkujemy zarówno działania, jak i obserwacje oraz mamy do czynienia ze zmiennymi ciągłymi, a nie dyskretnymi. W związku z tym modyfikujemy równanie filtrowania rekurencyjnego , aby używać całkowania zamiast sumowania:

Równanie to stwierdza, że a posteriori zmiennych stanu X w czasie t+1 jest obliczana rekurencyjnie z odpowiedniego oszacowania o jeden krok wcześniej. Obliczenie to obejmuje poprzednią czynność przy i bieżący pomiar czujnika zt+1. Na przykład, jeśli naszym celem jest opracowanie robota do gry w piłkę nożną, Xt+1 może zawierać położenie piłki futbolowej względem robota. A posteriori P(Xt |z1:t , a1:t-1) to rozkład prawdopodobieństwa we wszystkich stanach, który wychwytuje to, co wiemy z poprzednich pomiarów i kontroli czujników. Równanie mówi nam, jak rekurencyjnie oszacować tę lokalizację, stopniowo składając pomiary czujników (np. obrazy z kamery) i polecenia ruchu robota. Prawdopodobieństwo P(Xt+1 | xt,at) nazywane jest modelem przejścia lub modelem ruchu, a P(zt+1 | Xt+1) jest modelem czujnika.

AI : Technologie, Aplikacje i Wyzwania : Jakość i ilość danych

https://aie24.pl/

System sztucznej inteligencji wymaga dużych zbiorów danych szkoleniowych i będzie się uczył na podstawie dostępnych informacji w podobny sposób, jak robią to ludzie. Ogólnie obserwuje się, że firmy nadal napotykają trudności w pozyskiwaniu dużych zbiorów danych, które są wprowadzane do analizy dużych zbiorów danych sztucznej inteligencji. Typy danych wymagane przez algorytm mogą normalnie nie być dostępne; niektórych może brakować, niektóre trzeba zebrać lub zdobyć, a uzyskanie niektórych danych może być nadal dość uciążliwe, np. dane kliniczne. W takich przypadkach można tworzyć dane syntetyczne w celu trenowania modelu opartego na sztucznej inteligencji lub wykorzystywać otwarte dane lub zestaw danych Google do trenowania modelu pod kątem prognoz. Jakość wyników z dowolnego systemu AI zależy od ilości i jakości danych, które są do niego wprowadzane. Potrzebuje jednak znacznie więcej danych niż ludzie mogą potrzebować do interpretacji, a także do identyfikacji dokładnych wzorców. Im więcej wysokiej jakości danych jest dostępnych dla systemu AI, tym lepsze wyniki może on zapewnić. Aby wyszkolić algorytmy ML, wymagane są duże i wysokiej jakości zestawy danych z minimalnymi odchyleniami. Większość tych danych może nie być łatwo dostępna do natychmiastowego użycia, ponieważ są albo dostępne w nieustrukturyzowanej formie, albo w niewystarczającej ilości, albo są przechowywane w innym formacie. W rezultacie wiele firm musi więcej inwestować w tworzenie infrastruktury umożliwiającej skuteczne gromadzenie i przechowywanie ogromnych ilości danych oraz rekrutację wyszkolonej siły roboczej do przetwarzania danych i uczynienia ich użytecznymi i produktywnymi. Możliwości sztucznej inteligencji i jej niezawodność dla konkretnego zastosowania zależałyby bezpośrednio od dokładności nadzorowanych i oznakowanych danych wejściowych wykorzystywanych do szkolenia i uczenia się algorytmu . Oznaczone dane, choć ich brakuje, są uporządkowane w taki sposób, aby były zrozumiałe dla maszyn do uczenia się. Opracowywane są podejścia, dzięki którym modele sztucznej inteligencji uczą się same, pomimo niedoboru danych o wysokiej jakości, wykorzystując uczenie transferowe, uczenie aktywne, uczenie głębokie i uczenie bez nadzoru.

Jaki problem rozwiązuje robotyka?

https://aie24.pl/

Teraz, gdy wiemy, jaki może być sprzęt robota, jesteśmy gotowi rozważyć oprogramowanie agenta, które napędza sprzęt, aby osiągnąć nasze cele. Najpierw musimy określić ramy obliczeniowe dla tego agenta. Mówiliśmy o wyszukiwaniu w środowiskach deterministycznych, MDP dla środowisk stochastycznych, ale w pełni obserwowalnych, POMDP dla częściowej obserwowalności oraz grach dla sytuacji, w których agent nie działa w odosobnieniu. Biorąc pod uwagę ramy obliczeniowe, musimy skonkretyzować jego składniki: funkcje nagrody lub użyteczności, stany, działania, przestrzenie obserwacji itp. Zauważyliśmy już, że problemy robotyki są niedeterministyczne, częściowo obserwowalne i wieloagentowe. Korzystając z pojęć teorii gier , widzimy, że czasami agenci współpracują, a czasami rywalizują. W wąskim korytarzu, gdzie tylko jeden agent może przejść pierwszy, robot i osoba współpracują ze sobą, ponieważ oboje chcą mieć pewność, że nie wpadną na siebie. Ale w niektórych przypadkach mogą trochę konkurować, aby szybko dotrzeć do celu. Jeśli robot jest zbyt uprzejmy i zawsze robi miejsce, może utknąć w zatłoczonych sytuacjach i nigdy nie osiągnąć swojego celu. Dlatego, gdy roboty działają w izolacji i znają swoje środowisko, problem, który rozwiązują, można sformułować jako MDP; gdy brakuje im informacji, staje się POMDP; a kiedy działają wokół ludzi, często można to sformułować jako grę. Jaka jest funkcja nagrody robota w tym sformułowaniu? Zwykle robot działa w służbie człowiekowi – na przykład dostarcza posiłek pacjentowi szpitala za nagrodę dla pacjenta, a nie własną. W przypadku większości ustawień robotyki, nawet jeśli projektanci robotów mogą próbować określić wystarczająco dobrą funkcję nagrody proxy, prawdziwa funkcja nagrody należy do użytkownika, któremu robot ma pomóc. Robot będzie musiał albo rozszyfrować pragnienia użytkownika, albo polegać na inżynierze, który określi przybliżone pragnienia użytkownika. Jeśli chodzi o przestrzeń działania, stan i obserwację robota, najbardziej ogólną formą jest to, że obserwacje są nieprzetworzonymi sygnałami z czujników (np. obrazy pochodzące z kamer lub trafienia lasera pochodzące z lidaru); działania to surowe prądy elektryczne przesyłane do silników; i stan jest tym, co robot musi wiedzieć, aby podejmować decyzje. Oznacza to, że istnieje ogromna luka między postrzeganiem niskiego poziomu i sterowaniem silnika, a planami wysokiego poziomu, które robot musi wykonać. Aby wypełnić tę lukę, robotycy oddzielają aspekty problemu, aby go uprościć. Na przykład wiemy, że kiedy prawidłowo rozwiązujemy POMDP, percepcja i działanie wchodzą w interakcję: percepcja informuje, które działania mają sens, ale działanie również informuje o percepcji, a agenci podejmują działania w celu zebrania informacji, gdy ta informacja ma wartość w późniejszych krokach czasowych. Jednak roboty często oddzielają percepcję od działania, konsumując wyniki percepcji i udając, że nie otrzymają więcej informacji w przyszłości. Co więcej, potrzebne jest planowanie hierarchiczne, ponieważ cel wysokiego poziomu, taki jak „dostać się do stołówki”, jest daleko od nakazu motorycznego, takiego jak „obróć główną oś 1 ”. W robotyce często posługujemy się trójpoziomową hierarchią. Poziom planowania zadań decyduje o planie lub polityce dla działań wysokiego poziomu, czasami nazywanych prymitywami działań lub celami podrzędnymi: przejdź do drzwi, otwórz je, idź do windy, naciśnij przycisk itp. Następnie planowanie ruchu odpowiada za znalezienie ścieżka, która prowadzi robota z jednego punktu do drugiego, osiągając każdy podcel. Wreszcie sterowanie służy do osiągnięcia zaplanowanego ruchu za pomocą siłowników robota. Ponieważ poziom planowania zadań jest zwykle definiowany na podstawie dyskretnych stanów i działań, w tym rozdziale skupimy się przede wszystkim na planowaniu i sterowaniu ruchem. Osobno uczenie preferencji odpowiada za szacowanie celu użytkownika końcowego, a przewidywanie ludzi służy do prognozowania działań innych osób w środowisku robota. Wszystko to łączy się, aby określić zachowanie robota. Ilekroć dzielimy problem na oddzielne części, zmniejszamy złożoność, ale rezygnujemy z możliwości wzajemnej pomocy. Działanie może pomóc poprawić percepcję, a także określić, jaki rodzaj percepcji jest przydatny. Podobnie decyzje na poziomie ruchu mogą nie być najlepsze, jeśli chodzi o uwzględnianie sposobu śledzenia ruchu; lub decyzje na poziomie zadania mogą sprawić, że plan zadania na poziomie ruchu stanie się niemożliwy do zrealizowania. Tak więc wraz z postępem w tych oddzielnych obszarach pojawia się nacisk na ich reintegrację: wspólne planowanie i sterowanie ruchem, wspólne planowanie zadań i ruchu oraz reintegrację percepcji, przewidywania i działania – zamknięcie pętli sprzężenia zwrotnego. Dzisiejsza robotyka polega na ciągłym postępie w każdej dziedzinie, a jednocześnie opiera się na tym postępie w celu osiągnięcia lepszej integracji.

AI : Technologie, Aplikacje i Wyzwania : Reinżynieria

https://aie24.pl/

Procesy biznesowe i zadania z udziałem sztucznej inteligencji muszą zostać przeprojektowane, biorąc pod uwagę procesy i zadania, które maszyny będą wykonywać najlepiej i które najlepiej pasują do ludzi. Branża musi sprostać wyzwaniom związanym z mocą obliczeniową niezbędną do przetwarzania dużych zbiorów danych w celu zbudowania systemu sztucznej inteligencji i wykorzystania technik, takich jak ML i głębokie uczenie się (DL).