Planowanie wieloagentowe

Na razie będziemy traktować ustawienia multiefektorowe, wieloobiektowe i wieloagentowe w ten sam sposób, oznaczając je ogólnie jako ustawienia wieloaktorowe, używając ogólnego terminu aktor na określenie efektorów, ciał i agentów. Celem tej sekcji jest wypracowanie sposobu definiowania modeli przejścia, poprawnych planów i wydajnych algorytmów planowania dla ustawienia wieloaktorowego. Prawidłowy plan to taki, który, wykonany przez aktorów, osiąga cel. (W prawdziwym środowisku wieloagentowym agenci mogą oczywiście nie zgodzić się na wykonanie konkretnego planu, ale przynajmniej będą wiedzieć, jakie plany zadziałałyby, gdyby zgodzili się na ich wykonanie). satysfakcjonującym modelem działania wieloagentowego jest to, że musimy jakoś poradzić sobie z drażliwą kwestią współbieżności, przez co rozumiemy po prostu, że plany każdego agenta mogą być realizowane jednocześnie. Jeśli mamy myśleć o realizacji planów wielopodmiotowych, to najpierw potrzebujemy modelu planów wielopodmiotowych, który zawiera zadowalający model współbieżnego działania. Ponadto działanie wielopodmiotowe wiąże się z całym zestawem problemów, które nie są przedmiotem planowania z jednym agentem. W szczególności agenci muszą brać pod uwagę sposób, w jaki ich własne działania J oddziałują z działaniami innych agentów. Na przykład agent będzie musiał rozważyć, czy działania wykonywane przez innych agentów mogą zakłócić warunki wstępne jego własnych działań, czy zasoby, z których korzysta podczas wykonywania jego zasad, mogą być współdzielone, czy też mogą zostać wyczerpane przez innych agentów; czy działania wzajemnie się wykluczają; a pomocniczo nastawiony agent może zastanowić się, w jaki sposób jego działania mogą ułatwić działania innych. Aby odpowiedzieć na te pytania, potrzebujemy modelu współbieżnego działania, w ramach którego możemy je właściwie sformułować. Modele współbieżnego działania były głównym przedmiotem badań w głównym nurcie społeczności informatycznej od dziesięcioleci, ale żaden ostateczny, powszechnie akceptowany model nie przetrwał. Niemniej jednak następujące trzy podejścia stały się szeroko rozpowszechnione.

Pierwsze podejście polega na rozważeniu wykonania działań z przeplotem w odpowiednich. Pierwsze podejście polega na rozważeniu wykonania działań z przeplotem w odpowiednich planach. Załóżmy na przykład, że mamy dwóch agentów, A i B, z następującymi planami:

Kluczową ideą modelu realizacji z przeplotem jest to, że jedyną rzeczą, której możemy być pewni w realizacji planów dwóch agentów, jest zachowanie kolejności działań w poszczególnych planach. Jeśli dalej założymy, że akcje są niepodzielne, to istnieje sześć różnych sposobów, w jakie dwa powyższe plany mogą być wykonywane jednocześnie:

Aby plan był poprawny w modelu wykonania z przeplotem, musi być poprawny w odniesieniu do wszystkich możliwych przeplatań planów. Model wykonywania z przeplotem został powszechnie przyjęty w społeczności zajmującej się współbieżnością, ponieważ jest to rozsądny model sposobu, w jaki wiele wątków na zmianę działa na jednym procesorze. Nie modeluje jednak przypadku, w którym dwie czynności mają miejsce w tym samym czasie. Co więcej, liczba sekwencji z przeplotem będzie rosła wykładniczo wraz z liczbą agentów i akcji: w konsekwencji sprawdzenie poprawności planu, co jest proste obliczeniowo w ustawieniach z jednym agentem, jest trudne obliczeniowo w modelu wykonania z przeplotem.

Drugie podejście to prawdziwa współbieżność, w której nie próbujemy tworzyć pełnej zserializowanej kolejności akcji, ale pozostawiamy je częściowo uporządkowane: wiemy, że a1 wystąpi przed a2, ale w odniesieniu do kolejności a1 i b1, ponieważ na przykład nie możemy nic powiedzieć; jedno może wystąpić przed drugim lub może wystąpić jednocześnie. Zawsze możemy „spłaszczyć” model częściowego rzędu współbieżnych planów do modelu z przeplotem, ale w ten sposób tracimy informacje o częściowym porządku. Chociaż modele częściowego rzędu są prawdopodobnie bardziej satysfakcjonujące niż modele z przeplotem jako teoretyczne ujęcie współbieżnego działania, nie zostały one tak powszechnie przyjęte w praktyce.

Trzecie podejście polega na założeniu idealnej synchronizacji: istnieje zegar globalny, do którego każdy agent ma dostęp, każde działanie zajmuje tyle samo czasu, a działania w każdym punkcie wspólnego planu są równoczesne. W ten sposób akcje każdego agenta są wykonywane synchronicznie, we wzajemnej blokadzie (może być tak, że niektórzy agenci wykonują akcję no-op, gdy czekają na zakończenie innych akcji). Wykonywanie synchroniczne nie jest bardzo kompletnym modelem współbieżności w świecie rzeczywistym, ale ma prostą semantykę i z tego powodu jest to model, z którym będziemy tutaj pracować.

Zaczynamy od modelu przejścia; dla przypadku deterministycznego jednoagentowego jest to funkcja RESULT(i, a), która podaje stan wynikający z wykonania akcji a, gdy środowisko znajduje się w stanie s. W ustawieniu z jednym agentem mogą istnieć b różne opcje działania; b może być dość duży, szczególnie w przypadku reprezentacji pierwszego rzędu z wieloma obiektami, na których można działać, ale schematy działań zapewniają jednak zwięzłą reprezentację. W układzie wielopodmiotowym z n aktorami pojedyncze działanie a zostaje zastąpione wspólnym działaniem <a1,…, an>, gdzie ai jest akcją podjętą przez i-tego aktora. Od razu widzimy dwa problemy: po pierwsze, musimy opisać model przejścia dla bn różnych wspólnych działań; po drugie, mamy wspólny problem z planowaniem o współczynniku rozgałęzienia bn. Po umieszczeniu aktorów w systemie wielopodmiotowym z ogromnym czynnikiem rozgałęzienia, głównym celem badań nad planowaniem wielopodmiotowym było oddzielenie aktorów w możliwie największym stopniu, tak aby (idealnie) złożoność problemu rosła liniowo wraz z n, a nie wykładniczo z bn. Jeśli aktorzy nie wchodzą ze sobą w interakcje – na przykład n aktorów gra w pasjansa – wtedy możemy po prostu rozwiązać n oddzielnych problemów. Jeśli aktorzy są luźno powiązani, czy możemy osiągnąć coś zbliżonego do tej wykładniczej poprawy? Jest to oczywiście centralne pytanie w wielu obszarach sztucznej inteligencji. Widzieliśmy skuteczne metody rozwiązywania luźno sprzężonych systemów w kontekście CSP, gdzie „drzewopodobne” grafy ograniczeń dawały wydajne metody rozwiązywania, a także w kontekście rozłącznych baz danych wzorców i heurystyk addytywnych do planowania. Standardowym podejściem do luźno powiązanych problemów jest udawanie, że problemy są całkowicie oddzielone, a następnie naprawienie interakcji. Dla modelu przejścia oznacza to pisanie schematów działania tak, jakby aktorzy działali niezależnie. Zobaczmy, jak to działa w przypadku gry w tenisa podwójnego. Tutaj mamy dwóch ludzkich tenisistów, którzy tworzą drużynę deblową, której wspólnym celem jest wygranie meczu z przeciwną drużyną. Załóżmy, że w pewnym momencie gry drużyna ma na celu oddanie do niej trafionej piłki i upewnienie się, że przynajmniej jeden z nich kryje siatkę. Rysunek przedstawia warunki początkowe, cele i schematy działania dla tego problemu.

Łatwo zauważyć, że możemy przejść od warunków początkowych do celu dzięki dwuetapowemu wspólnemu planowi, który określa, co każdy gracz ma zrobić: A powinien przesunąć się na prawą linię bazową i uderzyć piłkę, podczas gdy B powinien po prostu zostać umieścić w sieci:

Problemy pojawiają się jednak, gdy plan nakazuje, aby obaj agenci uderzali piłkę w tym samym czasie. W prawdziwym świecie to nie zadziała, ale schemat działania Hit mówi, że piłka zostanie pomyślnie zwrócona. Trudność polega na tym, że warunki wstępne ograniczają stan, w którym działanie samo w sobie może być pomyślnie wykonane, ale nie ograniczają innych współbieżnych działań, które mogą je zepsuć. Rozwiązujemy ten problem, rozszerzając schematy akcji o jedną nową cechę: ograniczenie współbieżnej akcji, określające, które akcje muszą lub nie mogą być wykonywane jednocześnie. Na przykład akcję Hit można opisać w następujący sposób:

Innymi słowy, akcja trafienia ma określony efekt tylko wtedy, gdy żadna inna akcja trafienia innego agenta nie występuje w tym samym czasie. (W podejściu SATPLAN byłoby to obsługiwane przez aksjomat wykluczenia działania częściowego). W przypadku niektórych działań pożądany efekt jest osiągany tylko wtedy, gdy inne działanie występuje jednocześnie. Np. dwóch agentów jest potrzebnych do wniesienia lodówki z napojami na kort tenisowy:

W przypadku tego rodzaju schematów działania każdy z algorytmów planowania można zaadaptować z niewielkimi modyfikacjami w celu wygenerowania planów wielopodmiotowych. W zakresie, w jakim sprzężenie między planami podrzędnymi jest luźne – co oznacza, że ograniczenia współbieżności wchodzą w grę tylko rzadko podczas wyszukiwania planów – można by oczekiwać, że różne heurystyki opracowane dla planowania z jednym agentem będą również skuteczne w kontekście wielopodmiotowym.

100 Pytań o A.I. : Kiedy sztuczna inteligencja będzie w stanie wykonywać zadania lepiej niż ludzie?

Nawet przy wszystkich informacjach dotyczących wzrostu AI technologii, nadal trudno jest przewidzieć, jak będzie się rozwijać w przyszłości. Omawialiśmy szereg niesamowitych udoskonaleń sztucznej inteligencji, które są wdrażane teraz lub w ciągu najbliższych kilku lat. Jednak jednym z często zadawanych pytań wśród badaczy jest to, czy nadejdzie czas, w którym technologie AI będą w stanie wykonywać WSZYSTKIE zadania lepiej niż ludzie, a jeśli tak, to kiedy. Najbardziej wszechstronne badanie postępów AI wykonane do tej pory zostało przeprowadzone przez Future of Humanity Institute na Oxford University. Wyniki tego badania, w którym przeprowadzono wywiad z 352 badaczami sztucznej inteligencji, wyjaśniono w raporcie zatytułowanym Kiedy AI przekroczy wydajność ludzką? Dowody od ekspertów AI. Oto krótkie podsumowanie niektórych z najciekawszych badań

Wyniki: Sztuczna inteligencja będzie prawdopodobnie postępować zgodnie z szacunkową linią czasu poniżej, stając się w stanie przewyższyć ludzi w następujących przypadkach zadania według odpowiednich lat:

•  Tłumaczenie języków: 2024

•  Pisanie esejów szkolnych: 2026

•  Prowadzenie ciężarówek: 2027

•  Praca w sprzedaży detalicznej: 2031

•  Pisanie najlepiej sprzedających się książek: 2049

•  Przeprowadzanie operacji: 2053

Badanie wykazało również, że istnieje nawet 50-procentowa szansa, że narzędzia sztucznej inteligencji przewyższą ludzi we wszystkich zadaniach w ciągu 45 lat i zautomatyzują wszystkie ludzkie prace w ciągu 120 lat. Jeśli po raz pierwszy dowiadujesz się o takich prognozach, może to być trochę szokujące. Łatwo jest puścić wodze fantazji, myśląc, że sztuczna inteligencja jest trochę szokująca. Łatwo jest puścić wodze fantazji, myśląc, że AI przejmie świat lub że nie pozostanie nic do zrobienia w świetle tak zaawansowanych technologii. Jestem jednak głęboko przekonany, że AI będzie wykonywać przede wszystkim powtarzalne zadania, co da nam więcej czasu na skupienie się na twórczej i innowacyjnej pracy, którą ludzie wykonują najlepiej, oraz na uczestniczeniu w zabawnych i interesujących czynnościach, które najbardziej nam się podobają. Wreszcie, większość badaczy, z którymi przeprowadzono wywiady, uważa, że skoro AI zaczyna przewyższać ludzi w podstawowych zadaniach, najprawdopodobniej będzie to miało pozytywny wpływ na ludzkość. Aby dowiedzieć się więcej na ten temat, bardzo polecam książkę Maxa Tegmarka zatytułowaną Życie 3.0: Bycie człowiekiem w erze sztucznej inteligencji, która daje wnikliwe spojrzenie na sztuczną inteligencję w przyszłości.

Wielu decydentów

Druga możliwość jest taka, że ​​inni aktorzy w środowisku są również decydentami: każdy z nich ma preferencje i wybiera i realizuje swój własny plan. Nazywamy je odpowiednikami. W tym przypadku możemy wyróżnić dwie dalsze możliwości.

  • Po pierwsze, chociaż jest wielu decydentów, wszyscy oni dążą do wspólnego celu. Jest to z grubsza sytuacja pracowników w firmie, w której różni decydenci dążą, miejmy nadzieję, do tych samych celów w imieniu firmy. Głównym problemem, z jakim borykają się decydenci w tej sytuacji, jest problem z koordynacją: problem, który muszą zapewnić, aby wszyscy podążali w tym samym kierunku i aby przypadkowo nie pokrzyżować swoich planów.
  • Druga możliwość polega na tym, że każdy z decydentów ma swoje osobiste preferencje, do których każdy będzie dążył najlepiej, jak potrafi. Możliwe, że preferencje są diametralnie przeciwstawne, jak ma to miejsce w grach o sumie zerowej, takich jak szachy. Ale większość spotkań wieloagentowych jest bardziej skomplikowana, z bardziej złożonymi preferencjami.

Gdy istnieje wielu decydentów, z których każdy dąży do własnych preferencji, agent musi brać pod uwagę preferencje innych podmiotów, a także fakt, że ci inni agenci biorą również pod uwagę preferencje innych podmiotów i tak dalej. To przenosi nas w sferę teorii gier: teorii podejmowania strategicznych decyzji. To właśnie ten strategiczny aspekt rozumowania – każdy z graczy bierze pod uwagę sposób, w jaki mogą działać inni gracze – odróżnia teorię gier od teorii decyzji. W ten sam sposób, w jaki teoria decyzji zapewnia teoretyczną podstawę podejmowania decyzji w SI z jednym agentem, teoria gier zapewnia teoretyczną podstawę podejmowania decyzji w systemach wieloagentowych. Użycie tutaj słowa „gra” również nie jest idealne: naturalny wniosek jest taki, że teoria gier dotyczy głównie zajęć rekreacyjnych lub sztucznych scenariuszy. Nic nie może być dalej od prawdy. Teoria gier to teoria podejmowania strategicznych decyzji. Jest on używany w sytuacjach decyzyjnych, w tym przy licytacji praw do odwiertów ropy naftowej i praw do bezprzewodowego widma częstotliwości, postępowaniach upadłościowych, opracowywaniu produktów i decyzjach cenowych oraz w obronie narodowej – sytuacjach, w których płaci się miliardy dolarów i wiele istnień ludzkich. Teorię gier w AI można wykorzystać na dwa główne sposoby:

  1. Projektowanie agentów: Teoria gier może być wykorzystywana przez agenta do analizowania możliwych decyzji i obliczania oczekiwanej użyteczności dla każdej z nich (przy założeniu, że inni agenci działają racjonalnie, zgodnie z teorią gier). W ten sposób techniki teorii gier mogą określić najlepszą strategię przeciwko racjonalnemu graczowi i oczekiwany zwrot dla każdego gracza.
  2. Projektowanie mechanizmu: gdy środowisko jest zamieszkane przez wielu agentów, może być możliwe zdefiniowanie reguł środowiska (tj. gry, w którą muszą grać agenci), tak aby wspólne dobro wszystkich agentów było maksymalizowane, gdy każdy agent przyjmuje rozwiązanie oparte na teorii gier, które maksymalizuje swoją użyteczność. Na przykład teoria gier może pomóc zaprojektować protokoły dla zbioru routerów ruchu internetowego, tak aby każdy router miał motywację do działania w taki sposób, aby zmaksymalizować globalną przepustowość. Konstrukcja mechanizmu może być również wykorzystana do budowy inteligentnych systemów wieloagentowych, które rozwiązują złożone problemy w sposób rozproszony.

Teoria gier dostarcza szeregu różnych modeli, z których każdy ma własny zestaw podstawowych założeń; ważne jest, aby dobrać odpowiedni model do każdego ustawienia. Najważniejszym rozróżnieniem jest to, czy powinniśmy uważać to za grę kooperacyjną, czy nie:

  • W grze kooperacyjnej możliwe jest zawarcie wiążącej umowy między agentami, co umożliwia solidną współpracę. W ludzkim świecie umowy prawne i normy społeczne pomagają w ustanawianiu takich wiążących umów. W świecie programów komputerowych możliwe jest sprawdzenie kodu źródłowego, aby upewnić się, że będzie on zgodny z umową. My wykorzystamy teorię gier kooperacyjnych do analizy tej sytuacji.
  • Jeżeli wiążące umowy nie są możliwe, prowadzimy grę niekooperacyjną. Chociaż termin ten sugeruje, że gra jest z natury konkurencyjna i że współpraca nie jest możliwa, nie musi tak być: brak współpracy oznacza po prostu, że nie ma centralnego porozumienia wiążącego wszystkich agentów i gwarantującego współpracę. Ale równie dobrze może się zdarzyć, że agenci niezależnie zdecydują się na współpracę, ponieważ leży to w ich własnym interesie. Do analizy tej sytuacji używamy teorii gier niekooperacyjnych.

Niektóre środowiska będą łączyć wiele różnych wymiarów. Na przykład firma kurierska może codziennie planować scentralizowane, offline trasy swoich ciężarówek i samolotów, ale pozostawiać pewne aspekty otwarte dla autonomicznych decyzji kierowców i pilotów, którzy mogą indywidualnie reagować na sytuacje drogowe i pogodowe. Również cele firmy i jej pracowników są do pewnego stopnia uzgadniane przez wypłatę premii (pensje i premie) – pewny znak, że jest to prawdziwy system wieloagentowy.

100 Pytań o A.I. : Jak zastosować sztuczną inteligencję w swojej firmie?

Wiele największych firm technologicznych ma wysoki priorytet na temat wdrażania narzędzi sztucznej inteligencji we wszystkich swoich organizacjach. Niezależnie od tego, czy prowadzisz dużą korporację, czy pracujesz w małej firmie, dobrze jest zrobić to samo, ponieważ ci, którzy jako pierwsi wdrażają i dostosowują się do tych technologii, będą czerpać największe korzyści. Poświęć chwilę, aby zapoznać się z rozdziałem o tym, jak sztuczna inteligencja zmienia procesy biznesowe i określić, które dwa z dziesięciu wymienionych procesów są najbardziej odpowiednie dla Twojej firmy. Jakie kroki możesz teraz podjąć, aby zastosować do nich narzędzia AI? W przypadku większości firm najprostszym sposobem na rozpoczęcie jest utworzenie prostego chatbota dla Facebook Messenger, który może rozpocząć obsługę prostych zapytań obsługi klienta i może zostać opracowany później, aby poradzić sobie z bardziej złożonymi zadaniami. Ale nie zatrzymuj się. Aktywnie szukaj sposobów na zastosowanie rozwiązań AI w swojej firmie. Zbadaj, w jaki sposób konkurenci i inni w podobnych sektorach wykorzystują te narzędzia. Następnie wykorzystaj wyniki swoich badań jako inspirację do pomysłów na temat jak najlepiej wykorzystać narzędzia sztucznej inteligencji do własnych celów biznes. Możesz także skontaktować się z największymi dostawcami narzędzi AI, takimi jak zespół IBM Watson, aby sprawdzić, czy oferują one odpowiednie rozwiązania AI dla Twojej branży. Możesz dowiedzieć się więcej o zespole IBM Watson na stronie: www.ibm.com/watson.

Ekonomiści Erik Brynjolfsson i Andrew Mcafee twierdzą, że w przypadku firm pragnących zastosować narzędzia AI największe przeszkody występują w zarządzaniu, wdrażaniu i wyobraźni. Niektórym firmom trudno jest liderom wyobrazić sobie wszystkie rzeczy, które może im pomóc AI, takie jak tworzenie bardziej innowacyjnych produktów i usług lub usprawnianie ich pracy. Mając to na uwadze, gdy kontynuujemy naszą przyszłość, jedną z najcenniejszych umiejętności dla właścicieli firm będzie prawdopodobnie wyobraźnia, coś, co jest dobre dla każdego z nas, aby starać się regularnie aplikować do naszych firm.

Jeden decydent

Pierwsza możliwość polega na tym, że chociaż środowisko zawiera wielu aktorów, zawiera tylko jednego decydenta. W takim przypadku decydent opracowuje plany dla pozostałych agentów i mówi im, co mają robić. Założenie, że agenci po prostu zrobią to, co im się powie, nazywa się założeniem o dobroczynnym pośredniku. Jednak nawet w tym ustawieniu plany obejmujące wielu aktorów będą wymagały od aktorów zsynchronizowania swoich działań. Aktorzy A i B będą musieli działać w tym samym czasie w przypadku wspólnych działań (takich jak śpiewanie duetu), w różnym czasie w przypadku działań wzajemnie wykluczających się (takich jak ładowanie baterii, gdy jest tylko jedna wtyczka) i sekwencyjnie, gdy zostanie ustalony warunek wstępny dla drugiego (np. zmywanie naczyń, a następnie suszenie ich). W szczególnym przypadku mamy jednego decydenta z wieloma efektorami, które mogą działać jednocześnie – na przykład człowieka, który może jednocześnie chodzić i mówić. Taki agent musi wykonać planowanie wieloefektowe, aby zarządzać każdym efektorem, jednocześnie obsługując pozytywne i negatywne interakcje między efektorami. Kiedy efektory są fizycznie rozdzielone na oddzielne jednostki – jak we flocie robotów dostawczych w fabryce – planowanie wieloefektowe staje się planowaniem wieloczłonowym. Problem wieloobiektowy jest nadal „standardowym” problemem dotyczącym jednego agenta, o ile odpowiednie informacje z czujników zebrane przez każde ciało mogą być gromadzone – centralnie lub w każdym ciele – w celu utworzenia wspólnego oszacowania stanu świata, który następnie informuje o wykonaniu ogólny plan; w tym przypadku wiele ciał można traktować jako jedno ciało. Kiedy ograniczenia komunikacyjne sprawiają, że jest to niemożliwe, mamy do czynienia z problemem, który czasami nazywa się zdecentralizowanym planowaniem; jest to być może myląca nazwa, ponieważ faza planowania jest scentralizowana, ale faza realizacji jest przynajmniej częściowo oddzielona. W takim przypadku plan podrzędny skonstruowany dla każdego organu może wymagać uwzględnienia wyraźnych działań komunikacyjnych z innymi organami. Na przykład wiele robotów rozpoznawczych obejmujących duży obszar może często nie mieć ze sobą kontaktu radiowego i powinno dzielić się swoimi odkryciami w okresach, w których komunikacja jest możliwa.

100 Pytań o A.I. : Jak zastosować sztuczną inteligencję w życiu codziennym?

Czy wiesz, że istnieją sposoby na rozpoczęcie korzystania z narzędzi sztucznej inteligencji w swoim życiu, nawet jeśli nie pracujesz dla firma taka jak Google czy Facebook? Dobrym pomysłem jest zacząć od zastanowienia się, w jaki sposób możemy wykorzystać automatyzację i narzędzia sztucznej inteligencji, aby zwiększyć wydajność naszego życia i lepiej przygotować się na przyszłość. Możesz zacząć od wyobrażenia sobie, jak zmieni się twoje życie i jak na codzienne zadania, które teraz wykonujesz, będą miały wpływ informacje przeczytane w tej książce. Zastanów się nad niektórymi rzeczami, które najbardziej Cię zainteresowały, i poświęć czas na głębsze zagłębienie się w każdą z nich. Oto trzy inne szybkie rzeczy, które możesz zrobić dzisiaj, aby lepiej poznać narzędzia AI:

•  Używaj poleceń głosowych na smartfonie: Zamiast wpisywać prośby do Siri lub Asystenta Google, używaj poleceń głosowych do wykonywania prostych zadań, takich jak ustawianie alarmu lub dodawanie wydarzenia do kalendarza. Możesz także używać poleceń głosowych za pośrednictwem Microsoft Cortana na komputerach, a nawet wyszukiwać w Google za pomocą prostych ustnych żądań. Zapoznanie się z takimi narzędziami pomoże ci być gotowym, ponieważ ci asystenci stają się silniejsi i biegli w wykonywaniu złożonych zadań.

•  Wymień rzeczy, które chcesz zautomatyzować: nawet zakupy spożywcze można zrobić za pomocą aplikacji i dostarczyć je do domu w niektórych obszarach. Osobiście zacząłem to robić kilka miesięcy temu i odkryłem, że naprawdę pomaga to zaoszczędzić czas w moim dniu.

•  Eksperymentuj z botami: wyszukaj różne chatboty i zacznij je testować, aby zobaczyć, w czym mogą ci pomóc. Katalog na https://botlist.co/ to świetne miejsce na rozpoczęcie.

Dla firm jednym z moich ulubionych botów jest GrowthBot, który oferuje wiele interesujących informacji na temat sprzedaży i marketingu. To narzędzie zostało stworzone przez HubSpot i działa na Facebooku Messenger oraz narzędziu do współpracy zespołu Slack. To tylko kilka przykładów sposobów na zautomatyzowanie swojego życia za pomocą technologii AI. Jeśli chcesz zagłębić się w inne tematy związane ze sztuczną inteligencją, możesz przejrzeć sekcje zalecanych zasobów, które znajdują się na końcu rozdziałów na temat jazdy samochodem i robotyki.

WIELOAGENTOWE PODEJMOWANIE DECYZJI

Właściwości środowisk wieloagentowych

Do tej pory w dużej mierze zakładaliśmy, że tylko jeden agent zajmuje się wykrywaniem, planowaniem i działaniem. Jest to jednak ogromne założenie upraszczające, które nie jest w stanie uchwycić wielu ustawień sztucznej inteligencji w świecie rzeczywistym. Dlatego w tym rozdziale rozważymy problemy, które pojawiają się, gdy agent musi podejmować decyzje w środowiskach zawierających wielu aktorów. Takie środowiska nazywane są systemami wieloagentowymi, a agenci w takim systemie mają problem z planowaniem wieloagentowym. Jednak, jak zobaczymy, dokładna natura problemu planowania wieloagentowego – problemu planowania wieloagentowego i techniki, które są odpowiednie do jego rozwiązania – będzie zależeć od relacji między agentami w środowisku.

100 Pytań o A.I. : Jaką rolę powinna odgrywać etyka w sztucznej inteligencji?

Tak długo, jak ludzie zamieszkują planetę Ziemię, etyka tak została wykorzystane, aby pomóc nam zdefiniować, co jest dobre, a co złe, a jakie rzeczy powinny być dozwolone lub zakazane. W pewien sposób etyka zapewnia społeczeństwu ramy niezbędne do wspólnego działania i współistnienia ze wspólnym zestawem przyjętych zasad. W dziedzinie sztucznej inteligencji jednym z najbardziej zagorzałych zwolenników ustanawiania etyki w stosunku do powstających technologii jest Gerd Leonhard, autor książki Technology vs. Humanity: The Coming Clash Between Man and Machine. Leonhard twierdzi, że wszyscy są odpowiedzialni za rzeczy, które tworzą, mówiąc:

“Wiele firm jest tanich z etycznego punktu widzenia. Muszą się samoregulować. Muszą przyjąć odpowiedzialność. A jeśli tego nie zrobią, to myślę, że musimy to zrobić dla nich “.

Z całego serca się z tym zgadzam. Po śledzeniu pracy Leonharda ja stały się bardziej przekonane o znaczeniu etyki na świecie AI i wierzę, że tej koncepcji należy uczyć na uniwersytetach i inne instytucje edukacyjne. Polecam również, aby każdy przeczytał swoją najnowszą książkę na ten temat, aby dowiedzieć się więcej na temat interakcji między etyką a technologią. Szwedzki filozof Nick Bostrom, który założył Future of Life Institute i napisał książkę Superintelligence: Paths, Danger, Strategies, był kolejnym zwolennikiem ustanawiania etycznych wytycznych dotyczących rozwoju technologii AI. Instytut Future of Life wraz z kilkoma najlepszymi ekspertami AI opracował zestaw zasad AI, które są podzielone na trzy sekcje: Zagadnienia badawcze, etyka i wartości oraz problemy długoterminowe. W tym zestawie zasad sekcja Etyka i wartości obejmuje:

•  Bezpieczeństwo: systemy AI powinny być bezpieczne przez cały okres ich eksploatacji oraz weryfikowalne, o ile ma to zastosowanie i jest wykonalne.

•  Brak przejrzystości: Jeśli system AI powoduje szkodę, powinno być możliwe ustalenie przyczyny.

•  Przejrzystość sądowa: Każde zaangażowanie autonomicznego systemu w proces podejmowania decyzji przez sąd powinno dostarczyć satysfakcjonujących wyjaśnień kontrolowanych przez właściwy organ ludzki.

•  Odpowiedzialność: Projektanci i twórcy zaawansowanych systemów AI są interesariuszami w moralnych implikacjach ich użycia, niewłaściwego użycia i działań, z odpowiedzialnością i możliwością kształtowania tych implikacji.

•  Dostosowanie wartości: wysoce autonomiczne systemy sztucznej inteligencji powinny być zaprojektowane tak, aby ich cele i zachowania mogły być zgodne z wartościami ludzkimi podczas ich działania.

•  Wartości ludzkie: systemy AI powinny być zaprojektowane i obsługiwane w taki sposób, aby były zgodne z ideałami ludzkiej godności, praw, wolności i różnorodności kulturowej.

•  Prywatność osobista: ludzie powinni mieć prawo dostępu do generowanych przez siebie danych, zarządzania nimi i kontrolowania ich, biorąc pod uwagę uprawnienia systemów AI do analizowania i wykorzystywania tych danych.

•  Wolność i prywatność: zastosowanie sztucznej inteligencji do danych osobowych nie może nadmiernie ograniczać rzeczywistej lub rzekomej wolności ludzi.

•  Wspólna korzyść: technologie AI powinny przynieść korzyści i dać jak największej liczbie osób.

•  Wspólny dobrobyt: dobrobyt gospodarczy stworzony przez sztuczną inteligencję powinien być szeroko rozpowszechniony, z korzyścią dla całej ludzkości.

•  Kontrola ludzi: ludzie powinni decydować, w jaki sposób i czy przekazać decyzje systemom AI, aby osiągnąć cele wybrane przez człowieka.

•  Brak wywrotu: moc przyznawana przez kontrolę wysoce zaawansowanych systemów AI powinna szanować i ulepszać, a nie podważać procesy społeczne i obywatelskie, od których zależy zdrowie społeczeństwa.

•  Wyścig zbrojeń AI: Należy unikać wyścigu zbrojeń śmiertelną bronią autonomiczną.

Uważam, że te wytyczne powinny być przestrzegane przy opracowywaniu wszystkich projektów związanych z AI, a także nauczane w instytucjach edukacyjnych.

Streszczenie

Pokazaliśmy, jak wykorzystać wiedzę o świecie do podejmowania decyzji, nawet jeśli wyniki działania są niepewne, a nagrody za działanie mogą nie zostać zebrane, dopóki nie minie wiele działań. Główne punkty są następujące:

  • Sekwencyjne problemy decyzyjne w środowiskach stochastycznych, zwane również procesami decyzyjnymi Markowa lub MDP, są definiowane przez model przejściowy określający probabilistyczne wyniki działań oraz funkcję nagrody określającą nagrodę w każdym stanie.
  • Użyteczność sekwencji stanów to suma wszystkich nagród w sekwencji, prawdopodobnie zdyskontowana w czasie. Rozwiązaniem MDP jest polityka, która wiąże decyzję z każdym stanem, do którego może dotrzeć agent. Optymalna polityka maksymalizuje użyteczność sekwencji stanów napotkanych podczas jej wykonywania.
  • Użyteczność stanu to oczekiwana suma nagród, gdy optymalna polityka jest wykonywana z tego stanu. Algorytm iteracji wartości iteracyjnie rozwiązuje zestaw równań odnoszących użyteczność każdego stanu do użyteczności jego sąsiadów.
  • Iteracja polityki naprzemiennie polega na obliczaniu mediów stanów w ramach obecnej polityki i ulepszaniu obecnej polityki w odniesieniu do obecnych mediów.
  • Częściowo obserwowalne MDP lub POMDP są znacznie trudniejsze do rozwiązania niż MDP. Można je rozwiązać poprzez konwersję do MDP w ciągłej przestrzeni stanów przekonań; Opracowano zarówno algorytmy iteracji wartości, jak i iteracji polityki. Optymalne zachowanie w POMDP obejmuje gromadzenie informacji w celu zmniejszenia niepewności, a tym samym podejmowania lepszych decyzji w przyszłości.
  • Dla środowisk POMDP można skonstruować agenta decyzyjno-teoretycznego. Agent wykorzystuje dynamiczną sieć decyzyjną do reprezentowania modeli przejścia i czujników, aktualizowania swojego stanu przekonań i przewidywania możliwych sekwencji działań.

100 Pytań o A.I.: Czy wokół sztucznej inteligencji panuje szum?

Prawie wszystko, co nowe i ekscytujące, generuje pewien stopień szumu i to samo dotyczy sztucznej inteligencji. W najczęstszej definicji szum odnosi się do przesady korzyści i możliwości czegoś i zwykle jest związany z działaniami marketingowymi i promocyjnymi. Jest to najprawdopodobniej spowodowane ekspansją technologii AI w różnych branżach i aplikacjach, a także faktem, że narzędzia te zyskują coraz większą uwagę w mediach. Z powodu ogromnego wzrostu wyszukiwań tych słów kluczowych w Internecie niektóre firmy promują fałszywe informacje dotyczące sztucznej inteligencji, aby uzyskać więcej wyświetleń swoich reklam. Każdy nowy startup technologiczny lub produkt może z łatwością twierdzić, że jest “oparty na sztucznej inteligencji”, bez względu na to, czy jest to prawda, czy nie, po prostu w celu zwiększenia liczby osób, które mogą zobaczyć lub kliknąć posty marketingowe. W poście na stronie internetowej Quora dr Zeeshan Zia poczynił kilka wnikliwych spostrzeżeń dotyczących praktyki hipingowania technologii AI. Na przykład, według Zii, podczas gdy AI zwykle nie jest przesadzone w dyskusjach między naukowcami akademickimi, tego samo nie można powiedzieć o wielu przedsięwzięciach komercyjnych związanych z AI. Z tego powodu zawsze warto sprawdzić źródła wszelkich roszczeń dotyczących narzędzi AI i ich możliwości.