AI : Technologie, Aplikacje i Wyzwania : Wady

  1. Wysoki koszt: system AI składający się ze sprzętu i oprogramowania jest bardzo kosztowny, a także wymaga powtarzających się wydatków na konserwację i aktualizacje w celu zaspokojenia codziennych potrzeb. Ponadto przetwarzanie obszernych informacji wymaganych przez programowanie AI może być kosztowne.
  2. Brak oryginalnej kreatywności: ludzie są zawsze kreatywni i pełni nowych pomysłów, ale maszyny AI nie są kreatywne i pomysłowe, aby pokonać ludzką inteligencję.
  3. Brak nieszablonowego myślenia: nawet inteligentniejsze maszyny oparte na sztucznej inteligencji nie mogą myśleć ani pracować poza kontekstem, ale wykonają zadanie, w którym zostały przeszkolone.
  4. Brak uczuć i emocji: Nawet najlepiej działające maszyny AI nie mają uczuć, więc nie nawiązują żadnego emocjonalnego związku z ludźmi. W rzeczywistości te maszyny mogą być szkodliwe dla użytkowników, jeśli nie są one prawidłowo używane.
  5. Zależność od maszyn: Wraz z postępem technologicznym ludzie stają się zależni od gadżetów/urządzeń/maszyn/oprogramowania, przez co mogą nie wykorzystywać zbyt wiele swoich zdolności umysłowych.

Alokowanie ograniczonych zasobów na aukcjach

Jednym z najważniejszych problemów w systemach wieloagentowych jest alokacja ograniczonych zasobów; ale równie dobrze możemy powiedzieć po prostu „alokacja zasobów”, ponieważ w praktyce najbardziej użyteczne zasoby są w pewnym sensie ograniczone. Aukcja jest najważniejszy mechanizm alokacji zasobów. Najprostszym ustawieniem aukcji jest jeden zasób i wielu możliwych licytujących. Każdy oferent i ma wartość użytkową vi dla przedmiotu.

W niektórych przypadkach każdy licytant ma prywatną wartość przedmiotu. Na przykład tandetny sweter może być atrakcyjny dla jednego licytującego i bezwartościowy dla drugiego. W innych przypadkach, takich jak licytacja praw do odwiertu dla traktu naftowego, przedmiot ma wspólną wartość — trakt przyniesie pewną sumę pieniędzy, X, a wszyscy licytujący wyceniają dolara jednakowo – ale nie ma pewności, jaka jest rzeczywista wartość X. Różni licytujący mają różne informacje, a co za tym idzie różne szacunki prawdziwej wartości przedmiotu. W obu przypadkach licytujący otrzymują własne vi. Biorąc pod uwagę vi, każdy licytujący ma szansę, w odpowiednim czasie lub momentach aukcji, na złożenie oferty bi. Najwyższa oferta, bmax, wygrywa przedmiot, ale zapłacona cena nie musi być bmax; to część konstrukcji mechanizmu.

Najbardziej znanym mechanizmem aukcji jest aukcja z ceną rosnącą, czyli aukcja angielska, w której centrum rozpoczyna od zapytania o minimalną (lub rezerwową) stawkę bmin. Jeśli jakiś oferent jest gotów zapłacić tę kwotę, centrum prosi o bmin + d, o pewną podwyżkę d i kontynuuje od tego momentu. Aukcja kończy się, gdy nikt już nie chce licytować; następnie ostatni licytant wygrywa przedmiot, płacąc cenę. Skąd wiemy, czy to dobry mechanizm? Jednym z celów jest maksymalizacja oczekiwanych przychodów sprzedawcy. Kolejnym celem jest maksymalizacja pojęcia użyteczności globalnej. Cele te do pewnego stopnia się pokrywają, ponieważ jednym z aspektów maksymalizacji globalnej użyteczności jest zapewnienie, że zwycięzcą aukcji jest agent, który najbardziej ceni przedmiot (a tym samym jest gotów zapłacić najwięcej). Mówimy, że aukcja jest skuteczna, jeśli towar trafia do agenta, który najbardziej je ceni. Aukcja z rosnącą ofertą rosnącą jest zwykle zarówno skuteczna, jak i maksymalizuje przychody, ale jeśli cena minimalna jest ustawiona zbyt wysoko, licytant, który ceni ją najbardziej, może nie licytować, a jeśli rezerwa jest ustawiona zbyt nisko, sprzedawca może uzyskać mniejsze przychody. Prawdopodobnie najważniejszą rzeczą, jaką może zrobić mechanizm aukcji, jest zachęcenie odpowiedniej liczby licytujących do wejścia do gry i zniechęcenie ich do angażowania się w zmowę. Zmowa to nieuczciwe lub nielegalne porozumienie pomiędzy dwoma lub więcej oferentami mające na celu manipulowanie cenami. Może się to zdarzyć w tajnych transakcjach na zapleczu lub milcząco, zgodnie z zasadami mechanizmu. Na przykład w 1999 r. Niemcy zlicytowały dziesięć bloków widma telefonii komórkowej z jednoczesną aukcją (oferty zostały złożone na wszystkich dziesięciu blokach jednocześnie), stosując zasadę, że każda oferta musi być co najmniej 10% podwyżką w stosunku do poprzedniej oferty na bloku. Było tylko dwóch wiarygodnych oferentów, a pierwszy, Mannesman, złożył ofertę 20 mln marek niemieckich na bloki 1-5 i 18,18 mln na bloki 6-10. Dlaczego 18,18 mln? Jeden z menedżerów T-Mobile powiedział, że „zinterpretował pierwszą ofertę Mannesmana jako ofertę”. Obie strony mogą obliczyć, że 10% podwyżka 18,18 mln to 19,99 mln; w ten sposób oferta Mannesmana została zinterpretowana jako mówiąca: „każdy z nas może dostać połowę bloków za 20M; nie psujmy tego, podbijając ceny. I faktycznie T-Mobile licytował 20M na bloki 6-10 i to był koniec licytacji.

Niemiecki rząd otrzymał mniej, niż się spodziewał, ponieważ dwaj konkurenci byli w stanie wykorzystać mechanizm przetargowy, aby dojść do milczącego porozumienia, jak nie konkurować. Z punktu widzenia rządu lepszy wynik mogłaby osiągnąć każda z tych zmian w mechanizmie: wyższa cena rezerwowa; aukcja pierwszej ceny z zapieczętowaną ofertą, tak aby konkurenci nie mogli komunikować się poprzez swoje oferty; lub zachęty do sprowadzenia trzeciego oferenta. Być może zasada 10% była błędem w konstrukcji mechanizmu, ponieważ ułatwiała precyzyjną sygnalizację z Mannesmana do T-Mobile. Ogólnie rzecz biorąc, zarówno sprzedający, jak i funkcja globalnej użyteczności zyskują, jeśli jest więcej oferentów, chociaż globalna użyteczność może ucierpieć, jeśli policzymy koszt straconego czasu licytujących, którzy nie mają szans na wygraną. Jednym ze sposobów zachęcenia większej liczby oferentów jest ułatwienie im mechanizmu. W końcu, jeśli wymaga to zbyt wielu badań lub obliczeń ze strony oferentów, mogą zdecydować się na przeniesienie swoich pieniędzy gdzie indziej. Pożądane jest więc, aby oferenci mieli dominującą strategię. Przypomnijmy, że „dominujący” oznacza, że ​​strategia działa przeciwko wszystkim innym strategiom, co z kolei oznacza, że ​​agent może ją przyjąć bez względu na inne strategie. Agent z dominującą strategią może po prostu licytować, nie tracąc czasu na rozważanie możliwych strategii innych agentów. Mechanizm, dzięki któremu agenci mają dominującą strategię, nazywa się mechanizmem odpornym na strategię. Jeśli, jak to zwykle bywa, strategia ta polega na ujawnieniu przez licytujących ich prawdziwej wartości, vi, wówczas nazywa się to aukcją ujawniającą prawdę lub uczciwą; używany jest również termin zgodny z zachętą. Zasada objawienia mówi, że każdy mechanizm może zostać przekształcony w równoważny mechanizm ujawniający prawdę, więc częścią projektowania mechanizmu jest znalezienie tych równoważnych mechanizmów.

Okazuje się, że aukcja z rosnącą licytacją ma większość pożądanych właściwości. Licytant z najwyższą wartością vi otrzymuje towar po cenie bo+d, gdzie bo to najwyższa oferta spośród wszystkich pozostałych agentów, a d to przyrost aukcjonera. Licytanci mają prostą strategię dominującą: kontynuuj licytację, dopóki bieżący koszt jest niższy niż twój vi. Mechanizm nie do końca ujawnia prawdę, ponieważ wygrywający licytujący ujawnia tylko, że jego vi ≥ bo+d; mamy dolną granicę vi, ale nie dokładną wartość. Wadą (z punktu widzenia sprzedającego) aukcji z rosnącą ceną jest to, że może zniechęcić konkurencję. Załóżmy, że w przetargu na widmo telefonów komórkowych jest jedna firma, która ma przewagę, co do której wszyscy zgadzają się, że byłaby w stanie wykorzystać istniejących klientów i infrastrukturę, a tym samym osiągnąć większy zysk niż ktokolwiek inny. Potencjalni konkurenci widzą, że nie mają szans w aukcji z rosnącą ofertą, ponieważ firma, która ma przewagę, zawsze może licytować wyżej. W ten sposób konkurenci mogą w ogóle nie wejść, a uprzywilejowana firma wygrywa po cenie minimalnej. Kolejną negatywną właściwością angielskiej aukcji są jej wysokie koszty komunikacji. Albo aukcja odbywa się w jednym pomieszczeniu, albo wszyscy licytujący muszą mieć szybkie i bezpieczne linie komunikacyjne; w obu przypadkach muszą mieć czas na przejście przez kilka rund licytacji. Alternatywnym mechanizmem, który wymaga znacznie mniej komunikacji, jest aukcja zapieczętowana. Każdy licytujący składa jedną ofertę i przekazuje ją licytatorowi, tak aby inni licytanci nie widzieli jej. Dzięki temu mechanizmowi nie ma już prostej strategii dominującej. Jeśli twoja wartość to vi i uważasz, że maksymalna stawka wszystkich pozostałych agentów wyniesie bo, powinieneś zalicytować bo+ ε , dla niektórych małych ε , jeśli jest to mniej niż vi. W związku z tym Twoja oferta zależy od Twojej oceny ofert innych agentów, co wymaga więcej pracy. Pamiętaj też, że agent z najwyższą wartością vi może nie wygrać aukcji. Jest to równoważone przez fakt, że aukcja jest bardziej konkurencyjna, co zmniejsza nastawienie na uprzywilejowanego licytanta. Mała zmiana w mechanizmie aukcji z zapieczętowaną ofertą prowadzi do aukcji drugiej ceny z zapieczętowaną ofertą, znanej również jako aukcja Vickreya. W takich aukcjach zwycięzca płaci cenę drugiej najwyższej oferty, bo, zamiast płacić własną ofertę. Ta prosta modyfikacja całkowicie eliminuje złożone rozważania wymagane w przypadku standardowych (lub pierwszej ceny) aukcji z zapieczętowaną ofertą, ponieważ obecnie dominującą strategią jest po prostu licytowanie vi; mechanizm ujawnia prawdę. Należy zauważyć, że użyteczność agenta i pod względem jego oferty bi, jego wartości vi i najlepszej oferty spośród innych agentów, bo, wynosi

 

Aby zobaczyć, że bi =vi jest strategią dominującą, zauważ, że gdy (vi-bo) jest dodatnie, każda oferta, która wygrywa aukcję, jest optymalna, a w szczególności licytacja vi wygrywa aukcję. Z drugiej strony, gdy (vi-bo) jest ujemne, każda oferta, która przegrywa aukcję, jest optymalna, a w szczególności licytacja vi przegrywa aukcję. Zatem licytacja vi jest optymalna dla wszystkich możliwych wartości bo iw rzeczywistości vi jest jedyną ofertą, która ma tę właściwość. Ze względu na swoją prostotę i minimalne wymagania obliczeniowe zarówno dla sprzedającego, jak i oferentów, aukcja Vickreya jest szeroko stosowana w rozproszonych systemach sztucznej inteligencji. Wyszukiwarki internetowe przeprowadzają co roku kilka bilionów aukcji, aby sprzedawać reklamy wraz z wynikami wyszukiwania, a witryny aukcyjne online obsługują towary o wartości 100 miliardów dolarów rocznie, korzystając z różnych wariantów aukcji Vickrey. Zwróć uwagę, że oczekiwana wartość dla sprzedającego to bo, co jest tym samym oczekiwanym zwrotem, co limit aukcji angielskiej, gdy przyrost d dochodzi do zera. W rzeczywistości jest to bardzo ogólny wynik: twierdzenie o równoważności przychodów mówi, że z kilkoma drobnymi zastrzeżeniami każdy mechanizm aukcji, w którym oferenci mają wartości vi znane tylko sobie (ale znają rozkład prawdopodobieństwa, z którego te wartości są próbkowane), przyniesie te same oczekiwane przychody. Zasada ta oznacza, że ​​różne mechanizmy konkurują ze sobą nie na zasadzie generowania przychodów, ale raczej na innych cechach. Chociaż aukcja drugiej ceny jest odsłanianiem prawdy, okazuje się, że licytacja n towarów przy cenie n+1 nie jest odsłanianiem prawdy. Wiele wyszukiwarek internetowych korzysta z mechanizmu, w ramach którego wystawiają na aukcje n boksów reklamowych na stronie. Osoba, która zaoferuje najwyższą cenę, wygrywa pierwsze miejsce, druga osoba z najwyższą ofertą otrzymuje drugie miejsce i tak dalej. Każdy zwycięzca płaci cenę oferowaną przez następną niższą ofertę, przy założeniu, że płatność jest dokonywana tylko wtedy, gdy osoba wyszukująca faktycznie kliknie reklamę. Najwyższe sloty są uważane za bardziej wartościowe, ponieważ są bardziej prawdopodobne, że zostaną zauważone i kliknięte. Wyobraź sobie, że trzech licytujących, b1;b2 i b3, ma wycenę kliknięcia na v1=200;v2=180; i v3=100, oraz że n = 2 sloty są dostępne; i wiadomo, że górne miejsce jest klikane w 5% przypadków, a dolne w 2%. Jeśli wszyscy licytujący licytują zgodnie z prawdą, b1 wygrywa najwyższe miejsce i płaci 180, a oczekiwany zwrot (200-180) 0:05=1. Drugi slot trafia na b2. Ale b1 widzi, że gdyby zalicytował cokolwiek z zakresu 101–179, przyznałby pierwsze miejsce na b2, wygrałby drugie miejsce i przyniósłby oczekiwany zwrot (200􀀀100) :02=2. W ten sposób b1 może podwoić swój oczekiwany zwrot, licytując w tym przypadku mniej niż jej prawdziwa wartość. Ogólnie rzecz biorąc, oferenci w tej aukcji cenowej n+1 muszą poświęcić dużo energii na analizę ofert innych osób, aby określić swoją najlepszą strategię; nie ma prostej strategii dominującej. Aggarwal i inni pokazują, że istnieje unikalny, prawdziwy mechanizm aukcji dla tego problemu z wieloma slotami, w którym zwycięzca slotu j płaci cenę za slot j tylko za te dodatkowe kliknięcia, które są dostępne na slocie j, a nie na gnieździe j+1. Zwycięzca płaci cenę za dolny slot za pozostałe kliknięcia. W naszym przykładzie b1 zalicytowałby zgodnie z prawdą 200 i zapłaciłby 180 za dodatkowe :05-:02=:03 kliknięcia w górnym slocie, ale zapłaciłby tylko koszt dolnego gniazda, czyli 100, za pozostałe 0,02 kliknięcia . Zatem całkowity zwrot z b1 wyniósłby (200-180) :03+(200􀀀100) :02=2:6. Innym przykładem sytuacji, w której aukcje mogą wchodzić w grę w ramach sztucznej inteligencji, jest sytuacja, w której grupa agentów decyduje, czy współpracować nad wspólnym planem. Hunsberger i Grosz pokazują, że można to skutecznie osiągnąć dzięki aukcji, w której agenci ubiegają się o role we wspólnym planie.

AI : Technologie, Aplikacje i Wyzwania : Zalety

  1. Większa dokładność: maszyny oparte na sztucznej inteligencji pomagają analizować wzorce i trendy, dokładnie oceniając potrzeby użytkowników. Maszyna obsługująca sztuczną inteligencję jest odpowiedzialna za wybór danych wejściowych i wartości zgodnie z przeszłymi doświadczeniami lub informacjami, redukując błędy ludzkie i zapewniając wysoką dokładność. Na przykład, jeśli firma jest bardziej uzależniona od danych wprowadzanych do systemu ręcznie, szanse na 100% poprawność danych wprowadzanych do systemu są mniejsze, niż gdyby wprowadzanie danych było zautomatyzowane. Natomiast maszyna, która może analizować otoczenie w celu automatycznego przechwycenia danych do systemu, jest uważana za bardziej dokładną, co eliminuje możliwość ręcznego błędu.
  2. Większa prędkość: systemy sztucznej inteligencji są bardzo szybkie i mogą dokonywać prognoz z większą dokładnością niż jest to możliwe dla ludzi.
  3. Lepsze podejmowanie decyzji: Ludzka percepcja, zrozumienie i podejmowanie decyzji są często pod wpływem osobistych uprzedzeń i aktualnego stanu emocjonalnego. Ponieważ maszyny nie podlegają uprzedzeniom ani emocjom, systemy obsługujące sztuczną inteligencję mogą zapewniać najbardziej optymalne decyzje i rozwiązania bez żadnych osobistych uprzedzeń. Jednym z pierwszych przykładów tego jest utrata Garry’ego Kasparowa – wielkiego mistrza szachowego, ale wciąż podatnego na ludzkie błędy – na rzecz Deep Blue IBM w latach 90. XX wieku.
  4. Wysoka niezawodność: maszyny wyposażone w sztuczną inteligencję są w stanie wykonywać powtarzające się czynności z niezmiennie wysokim stopniem dokładności.
  5. Praca dzień-noc: Systemy AI mogą pracować nieprzerwanie przez długi czas, bez potrzeby przerwy na sen, jedzenia, eliminacji lub rekreacji, a wszystko to jest potrzebne ludziom.
  6. Radzenie sobie ze złożonością: Podczas gdy wiele osób chwali się swoją zdolnością do „wielozadaniowości” w swoim CV, w rzeczywistości niemożliwe jest, aby ludzie wykonywali kilka zadań jednocześnie z takim samym stopniem skupienia na nich wszystkich. Z drugiej strony maszyny mogą przetwarzać duże ilości danych wymaganych do jednoczesnego wykonywania kilku zadań, bez pomyłek i wynikających z tego błędów.
  7. Praca w niebezpiecznych obszarach: Maszyny wyposażone w sztuczną inteligencję są bardzo przydatne w działaniach niebezpiecznych dla ludzi, takich jak rozbrajanie bomby, eksploracja miejsc nuklearnych, usuwanie toksycznego wycieku i tym podobne.
  8. Optymalizacja zasobów: Systemy AI mają możliwość jednoczesnej oceny i interpretacji wielu strumieni danych, od obsługi baz danych produktów i klientów po analizę wzorców zakupów. Ludzie nie są fizycznie w stanie wykonać tych wielu zadań jednocześnie. Tym samym maszyny te pomogłyby w optymalizacji zasobów.
  9. Asystent cyfrowy: Na przykład technologia AI jest wykorzystywana przez różne firmy e-commerce do wyświetlania produktów zgodnie z potrzebami klienta.
  10. Praca jako użyteczności publicznej: AI jest pomocna w użyteczności publicznej, autonomicznych samochodach, regulacji ruchu, rozpoznawaniu twarzy, przetwarzaniu języka naturalnego itp.

Przydzielanie zadań za pomocą sieci kontraktowej

Protokół sieci kontraktowej jest prawdopodobnie najstarszą i najważniejszą techniką wieloagentowego rozwiązywania problemów badaną w AI. Jest to protokół wysokiego poziomu do współdzielenia zadań. Jak sama nazwa wskazuje, sieć kontraktów została zainspirowana sposobem, w jaki firmy korzystają z kontraktów. Ogólny protokół sieci kontraktowej składa się z czterech głównych faz.

Proces rozpoczyna się od agenta identyfikującego potrzebę wspólnego działania w odniesieniu do jakiegoś zadania. Potrzeba może powstać, ponieważ agent nie ma możliwości samodzielnego wykonania zadania lub rozwiązanie oparte na współpracy może być w jakiś sposób lepsze (szybsze, wydajniejsze, dokładniejsze). Agent anonsuje zadanie innym agentom w sieci za pomocą komunikatu o zadaniu zadania, a następnie pełni funkcję menedżera tego zadania przez czas jego trwania. Wiadomość z ogłoszeniem zadania musi zawierać wystarczającą ilość informacji, aby odbiorca mógł ocenić, czy chcą i mogą licytować o to zadanie. Dokładne informacje zawarte w ogłoszeniu zadania będą zależeć od obszaru zastosowania. Może to być jakiś kod, który należy wykonać; lub może być logiczną specyfikacją celu do osiągnięcia. Ogłoszenie zadania może również zawierać inne informacje, które mogą być wymagane przez odbiorców, takie jak terminy, wymagania dotyczące jakości usług i tak dalej. Gdy agent otrzymuje ogłoszenie o zadaniu, musi je ocenić pod kątem własnych możliwości i preferencji. W szczególności każdy agent musi określić, czy ma zdolność do wykonania zadania, a po drugie, czy tego chce. Na tej podstawie może następnie złożyć ofertę na wykonanie zadania. Oferta zazwyczaj wskazuje możliwości oferenta, które są istotne dla ogłaszanego zadania, oraz wszelkie warunki, na jakich zadanie zostanie wykonane. Ogólnie rzecz biorąc, menedżer może otrzymać wiele ofert w odpowiedzi na ogłoszenie o pojedynczym zadaniu. Na podstawie informacji zawartych w ofertach kierownik wybiera najbardziej odpowiedniego agenta (lub agentów) do wykonania zadania. Wybrani agenci są powiadamiani za pomocą wiadomości o nagrodzie i stają się wykonawcami zadania, biorąc odpowiedzialność za zadanie do czasu jego ukończenia. Główne zadania obliczeniowe wymagane do wdrożenia protokołu sieci kontraktowej można podsumować w następujący sposób:

  • Przetwarzanie ogłoszeń o zadaniach. Po otrzymaniu ogłoszenia o zadaniu agent decyduje, czy chce licytować ogłoszone zadanie.
  • Przetwarzanie ofert. Po otrzymaniu wielu ofert menedżer musi zdecydować, któremu agentowi przydzielić zadanie, a następnie przyznać zadanie.
  • Przetwarzanie nagród. Wybrani oferenci (wykonawcy) muszą podjąć próbę realizacji zadania, co może oznaczać wygenerowanie nowych podzadań, które są ogłaszane w kolejnych ogłoszeniach o zadaniach.

Pomimo (a może właśnie ze względu na) swojej prostoty, sieć kontraktów jest prawdopodobnie najszerzej wdrażanym i najlepiej przebadanym szkieletem kooperacyjnego rozwiązywania problemów. Ma naturalne zastosowanie w wielu ustawieniach – na przykład za każdym razem, gdy zamawiasz samochód z Uberem, wprowadzana jest pewna jego odmiana.

AI : Technologie, Aplikacje i Wyzwania : Rodzaje AI

AI można podzielić na siedem typów w zależności od wydajności maszyn: maszyny reaktywne, maszyny z ograniczoną pamięcią, teoria umysłu, samoświadomość, ANI, AGI i ASI, jak krótko wyjaśniono poniżej.

  1. Maszyny reaktywne: Maszyny reaktywne to konwencjonalne typy sztucznej inteligencji, które mają ograniczone możliwości symulowania zdolności ludzkiego umysłu. Maszyny reaktywne działają bez funkcji opartych na pamięci, a więc nie są w stanie skorygować swoich obecnych działań na podstawie swoich przeszłych doświadczeń. Dlatego te maszyny nie są zdolne do „uczenia się”. Studiują otoczenie i wybierają najlepsze rozwiązanie spośród możliwych. Dobrze znanym przykładem jest Deep Blue, program szachowy IBM, który pokonał Garry’ego Kasparowa w latach 90. (Joshi, 2020). Deep Blue potrafi rozpoznać pionka na szachownicy, aby wykonać ruch, ale nie może zachować żadnej pamięci ani włączyć przeszłych doświadczeń do podejmowania obecnych decyzji.
  2. Ograniczona pamięć: Jak wynika z nazwy, te systemy sztucznej inteligencji mają niewielką ilość pamięci, a tym samym bardzo ograniczoną zdolność do zastosowania przeszłych doświadczeń do nowych decyzji. W tej grupie znajdują się m.in. chatboty, wirtualni asystenci oraz pojazdy autonomiczne. Wiele istniejących aplikacji należy do tej kategorii sztucznej inteligencji. Maszyny te mogą przechowywać dane przez krótki czas, ograniczony pojemnością ich pamięci. Oprócz możliwości maszyn reaktywnych, maszyny z ograniczoną pamięcią są w stanie uczyć się na podstawie danych historycznych, aby podejmować określone decyzje. Systemy AI wykorzystujące DL wymagają do treningu dużych ilości danych, które mogą przechowywać w swojej pamięci w celu rozwiązania bieżących/przyszłych problemów. Na przykład sztuczna inteligencja rozpoznawania obrazów może być wyszkolona na dużej liczbie obrazów i ich cechach, aby zidentyfikować zeskanowane obiekty. Każdy nowy obraz będzie wykorzystywał obrazy treningowe i, w oparciu o jego „doświadczenie uczenia się”, oznaczy nowy obraz lepszymi wynikami. Pojazd autonomiczny stale wykrywa ruchy wszystkich innych pojazdów wokół niego i dodaje je do swojej pamięci. Może przechowywać prędkość i schemat zmian pasów itp. pojazdów wokół niego i może bezpiecznie nawigować na podstawie tych danych.
  3. Teoria umysłu: to termin psychologiczny. Teoria umysłu to przyszłe systemy AI, które są obecnie planowane do opracowania. W zastosowaniu do sztucznej inteligencji oczekuje się, że systemy te będą miały inteligencję społeczną, aby zrozumieć emocje. Wspomniane wcześniej dwa rodzaje sztucznej inteligencji stanowią większość nowoczesnych systemów, przy czym tego typu i samoświadome rodzaje sztucznej inteligencji są opracowywane jako koncepcja, a prace wciąż trwają. Głównym celem budowania takiej sztucznej inteligencji jest symulowanie ludzkich emocji i przekonań za pomocą komputerów, które mogą wpływać na przyszłe decyzje. Na przykład, jeśli dwie osoby planują współpracę, powinny współdziałać, aby pracować efektywnie. Aby zrozumieć ludzkie zachowanie, wykorzystuje się różne modele, ale taki, który ma własny umysł, nie został jeszcze stworzony. Systemy te mogą rozumieć ludzkie wymagania i przewidywać zachowanie. Takie systemy mogą pomóc w przyszłości w oparciu o ludzkie oczekiwania. Taka sztuczna inteligencja będzie miała zdolność rozumienia ludzi poprzez interakcję z nimi i identyfikowanie ich potrzeb, emocji i wymagań. Na przykład, Bellhop Robot jest opracowywany dla hoteli, z możliwością oceny potrzeb osób, które chcą zatrzymać się w hotelu.
  4. Samoświadomość: te systemy sztucznej inteligencji mają poczucie jaźni i posiadają ludzką świadomość i reakcje. Maszyny z samoświadomością będą w stanie zrozumieć swój aktualny stan, a tym samym będą świadome siebie i będą wykorzystywać informacje do wnioskowania o emocjach innych. To oczekiwany kolejny etap rozwoju AI. Uważa się, że ten rodzaj sztucznej inteligencji osiągnie ostateczny cel rozwoju sztucznej inteligencji. Będzie miał własne emocje, potrzeby, przekonania i potencjalnie pragnienia. Taka sztuczna inteligencja będzie działać jak człowiek i zacznie przewidywać własne potrzeby i wymagania. Oczekuje się, że samoświadoma sztuczna inteligencja wielokrotnie zwiększy wydajność, ale może również prowadzić do katastrofy. Taka sztuczna inteligencja miałaby niebezpieczne pomysły, takie jak samozachowawczość, które nie zawsze mogą pokrywać się z życzeniami, a nawet z faktycznym fizycznym samopoczuciem ludzi. Takie maszyny będą jednak miały zdolność do rozwijania samoistnych działań. Jest to rodzaj sztucznej inteligencji związany z każdą apokaliptyczną przepowiednią końca ludzkiej cywilizacji.
  5. Sztuczna wąska inteligencja (ANI): ANI jest również znana jako słaba sztuczna inteligencja, to znaczy ta zaprojektowana i wyszkolona do wykonywania tylko jednego określonego rodzaju pracy (Rouse, 2020). Ta definicja obejmuje wszystkie istniejące AI, w tym te najbardziej skomplikowane. Każdą sztuczną inteligencję, która wykorzystuje ML i DL do samodzielnego uczenia się, można nazwać ANI. Ponieważ ANI wykonuje samodzielnie tylko określone zadanie ze względu na ograniczenia programistyczne, ma bardzo ograniczony lub wąski zestaw kompetencji. Systemy te odpowiadają wszystkim AI reaktywnej i ograniczonej pamięci. Przykładami są roboty przemysłowe i wirtualni asystenci osobiści, którzy wykorzystują słabą sztuczną inteligencję. Sztuczna inteligencja rozpoznawania mowy to kolejny przykład słabej sztucznej inteligencji, która identyfikuje wypowiadane słowa i konwertuje je na format do odczytu maszynowego.
  6. Sztuczna ogólna inteligencja (AGI): AGI jest również znana jako silna sztuczna inteligencja. Jego program może replikować zdolności poznawcze ludzkiego mózgu. Może wykonywać różnorodne zadania, a także uczyć się i poprawić się. Jest to system samouczący się, który może przewyższać ludzi w wielu dyscyplinach. Zapewnia zdolność postrzegania, rozumienia, uczenia się i funkcjonowania, tak jak robią to ludzie. Systemy AGI wykorzystują logikę rozmytą do zastosowania wiedzy dziedzinowej i automatycznego znalezienia rozwiązania nieznanego zadania. Takie systemy są w stanie znacznie skrócić czas potrzebny na szkolenie. Przykładami są robot Pillo, który może odpowiadać na pytania związane ze zdrowiem, czy AlphaGo, program komputerowy do gry planszowej Go, który pokonał Lee Sedola, profesjonalnego gracza z Korei Południowej.
  7. Sztuczna super inteligencja (ASI): ASI będzie prawdopodobnie przyszłym obszarem badań nad sztuczną inteligencją, ponieważ byłaby najbardziej wydajną inteligencją na świecie. ASI nie tylko będzie replikować inteligencję ludzi, ale także będzie dysponować znacznie większą pamięcią (tj. pamięcią), szybszą analizą danych i lepszymi uprawnieniami do podejmowania decyzji. Oczekuje się, że możliwości ASI przewyższą możliwości ludzi. Oczekuje się, że AGI i ASI doprowadzą w przyszłości do wielkiej rewolucji, ale mogą również zagrozić naszemu stylowi życia. Przykładem ASI jest Alpha 2, który jest pierwszym humanoidalnym robotem ASI.

Podejmowanie decyzji zbiorowych

Przejdziemy teraz od projektowania agentów do projektowania mechanizmów – problem zaprojektowania odpowiedniej gry dla zbioru agentów, w które można grać. Formalnie mechanizm składa się z

  1. Język opisu zestawu dopuszczalnych strategii, które mogą przyjąć agenci.
  2. Wybitny agent, zwany centrum, który zbiera raporty dotyczące wyborów strategicznych od agentów w grze. (Na przykład licytator jest centrum aukcji.)
  3. Reguła wyniku, znana wszystkim agentom, której centrum używa do określenia wypłat dla każdego agenta, biorąc pod uwagę ich wybór strategii.

AI : Technologie, Aplikacje i Wyzwania : AI jako narzędzie interdyscyplinarne

AI to technologia obejmująca wiele dziedzin, w tym informatykę, biologię, psychologię, socjologię, filozofię, matematykę i naukę o neuronach. Do utworzenia systemu AI może być wymagany jeden lub więcej obszarów. Z interdyscyplinarnego punktu widzenia domeny AI obejmują wiedzę jawną, język uzdolnień, rozumowania werbalnego i liczbowego, kreatywnego i krytycznego myślenia, a także pamięci roboczej.

Sztuczna inteligencja jest dziś jedną z rozwijających się technologii w informatyce lub nauce o danych, która stworzyła globalną rewolucję, rozwijając inteligentne maszyny i narzędzia. Sztuczna inteligencja rozwija się w sposób podobny do działania ludzkiego mózgu, a konkretnie sposobu, w jaki człowiek uczy się, decyduje i działa, próbując rozwiązać problem, a następnie wykorzystując ten wynik do opracowania inteligentnych maszyn i oprogramowania. AI obejmuje wykorzystanie systemów eksperckich, uczenia maszynowego (ML), uczenia głębokiego (DL), przetwarzania języka naturalnego (NLP), sieci neuronowej i logiki rozmytej.

ML polega na instruowaniu komputera poprzez dostarczanie mu danych, aby sam nauczył się kilku rzeczy, nawet jeśli nie został wyraźnie zaprogramowany. Jest częścią rosnącej kolekcji narzędzi AI, które pomagają ludziom podejmować mądrzejsze, bardziej logiczne decyzje. Ostatecznym celem ML jest umożliwienie niezależnego podejmowania decyzji przez maszyny. Sztuczna inteligencja oparta na ML ma kilka zastosowań w edukacji, medycynie, wynikach wyszukiwania, marketingu cyfrowym i nie tylko. Takie AI mają duże zapotrzebowanie w firmach, ponieważ wykorzystują ML, aby poprawić wrażenia użytkowników, tak jak w przypadku Amazon i Flipkart. Techniki ML poczyniły znaczne postępy w przeszłości, a powszechnie stosowane są: (i) uczenie nadzorowane, (ii) uczenie się nienadzorowane oraz (iii) uczenie się ze wzmocnieniem. Robotyka, podzbiór sztucznej inteligencji, obejmuje różne dziedziny inżynierii i nauki, które obejmują projektowanie i produkcję robotów oraz ich zastosowania. Często wykorzystywane są do podejmowania trudnych zadań, które nie są możliwe dla człowieka, czy do wykonywania powtarzalnej pracy. Roboty oparte na sztucznej inteligencji pracują, badając obiekty w ich otoczeniu i podejmując odpowiednie działania. Narzędzia automatyzacji z technologiami AI mogą być wykorzystywane do powtarzalnej pracy, a także do zadań przetwarzania danych opartych na regułach, które zwykle wykonują ludzie. Na przykład roboty mogą być używane do produkcji towarów lub do przenoszenia, natryskiwania, malowania, kontroli precyzyjnej, wiercenia, czyszczenia, powlekania, rzeźbienia, chirurgii, pielęgnacji itp. Aplikacje AI oparte na ML mogą szybko i szybko pobierać duże ilości danych przekształcić je w przydatne informacje. Roboty w połączeniu z ML mogą zautomatyzować większe zadania i reagować na proces dotyczący zmian. ML jest również używany do opracowywania robotów używanych do interakcji w sytuacjach społecznych. Popularność zyskują również sztuczne sieci neuronowe (ANN) i technologie DL, ponieważ sztuczna inteligencja może szybciej przetwarzać ogromne ilości danych i dokonywać dokładniejszych prognoz niż ludzie. Niektóre aplikacje oparte na sieciach neuronowych obejmują rozpoznawanie wzorów, twarzy, znaków i pisma ręcznego. Mogą być używane do zarządzania rzeczywistymi problemami i szybkiego opracowywania ich rozwiązań. System ekspercki może naśladować zdolność podejmowania decyzji przez ludzi. Systemy eksperckie integrują oprogramowanie, maszynę, wnioskowanie, wyjaśnienia i działania z użytkownikami. Tabela przedstawia scenariusz porównujący programowanie bez AI i programowanie z AI.

Nr. : Programowanie bez AI : Programowanie za pomocą AI

1: Bez sztucznej inteligencji każdy program komputerowy może odpowiadać tylko na konkretne pytania. : Dzięki sztucznej inteligencji każdy program komputerowy może być w stanie odpowiedzieć na ogólne pytania.

2: Modyfikacje w programie wymagałyby zmian w jego podstawowej strukturze. : Programy AI mogą łatwo dostosowywać nowe zmiany, posiadając niezależne moduły razem, dzięki czemu każdy moduł może być modyfikowany bez zmiany jego podstawowej struktury.

3: Zmiany w programie są czasochłonne i mogą całkowicie wpłynąć na program. : Modyfikacja w programie jest szybka i łatwa.

Przykłady systemów eksperckich obejmują systemy śledzenia lotu, systemy prognozowania, systemy kliniczne itp. Podejście oparte na logice rozmytej może być stosowane do obliczeń opartych na „stopniach prawdy” zamiast „prawda czy fałsz” (1 lub 0) logika logiczna, na których oparte są współczesne komputery. Logika binarna nie jest w stanie rozwiązać złożonych problemów. Większość procesów ma charakter nieliniowy i żaden konkretny model nie byłby odpowiedni dla każdej sytuacji. Kontrolery logiki rozmytej są popularne na całym świecie, zwłaszcza w przypadku informacji nieustrukturyzowanych. Przykłady obejmują m.in. elektronikę użytkową i samochody. NLP wymaga metod sztucznej inteligencji, które analizują naturalne języki ludzkie, aby uzyskać przydatne spostrzeżenia do rozwiązywania problemów. Istniejące podejścia do NLP wykorzystują ML. NLP może obejmować analizę sentymentu, rozpoznawanie mowy i tłumaczenie tekst. Dobrze znanym przykładem NLP jest wykrywanie spamu, które może interpretować tytuł i treść wiadomości e-mail w celu określenia obecności „śmieciowej” zawartości. Wirtualni asystenci, tacy jak Alexa i Siri, są dobrymi przykładami aplikacji komputerowych pomagających ludziom w codziennych zadaniach. Tacy asystenci mogą zadać użytkownikowi kilka pytań, aby wiedzieć, czego chce, zamiast analizować ogromne ilości danych w celu zrozumienia żądania, co drastycznie skraca czas na uzyskanie żądanej odpowiedzi.

Szerokie różnice podano w tabeli.

Główna różnica między AI, ML, ANN i DL

AI : ML : ANN : DL

Powstał około lat pięćdziesiątych : około sześćdziesiątych : około pięćdziesiątych : około siedemdziesiątych

Jest to podzbiór nauki o danych: Jest to podzbiór nauki o danych i sztucznej inteligencji: Jest to podzbiór nauki o danych, AI i ML: Jest to podzbiór nauki o danych, AI i ML

Reprezentuje symulowaną inteligencję w maszynach, a jej celem jest budowanie maszyn, które potrafią myśleć jak ludzie. : – Komputer może działać/działać bez programowania. Jego celem jest sprawienie, aby maszyny uczyły się za pomocą danych, aby mogły rozwiązywać problemy

– Wyszukiwarka Google służy do rozpoznawania mowy, wyszukiwania obrazów, tłumaczenia itp. Na przykład Amazon i Flipkart zapewniają spersonalizowane usługi dla osób fizycznych na podstawie ich upodobań i niechęci. : Jest to zestaw algorytmów, modelowanych tak jak ludzki mózg Ich celem jest rozwiązywać złożone problemy: – Jest to proces automatyzacji analityki predykcyjnej. Wykorzystuje sieci neuronowe do automatycznej identyfikacji wzorców wyodrębniania cech.

– Niektóre przykłady uczenia głębokiego obejmują pojazdy autonomiczne, rozpoznawanie twarzy w telefonie, widzenie komputerowe i tagowanie na Facebooku.

Struktury koalicyjne na rzecz maksymalnego dobrobytu społecznego

Inaczej patrzymy na gry kooperacyjne, jeśli założymy, że agenci mają wspólny cel. Na przykład, jeśli myślimy o agentach jako o pracownikach firmy, wówczas strategiczne względy związane z tworzeniem koalicji, którymi zajmuje się na przykład rdzeń, nie mają znaczenia. Zamiast tego możemy chcieć zorganizować siłę roboczą (agentów) w zespoły, aby zmaksymalizować ich ogólną produktywność. Mówiąc bardziej ogólnie, zadaniem jest znalezienie koalicji, która maksymalizuje dobrobyt społeczny systemu, definiowany jako suma wartości poszczególnych koalicji. Dobrobyt społeczny struktury koalicyjnej CS piszemy jako sw(CS), z następującą definicją:

Wtedy optymalna społecznie struktura koalicyjna CS względem G maksymalizuje tę wielkość. Znalezienie społecznie optymalnej struktury koalicji jest bardzo naturalnym problemem obliczeniowym, który był badany poza społecznością systemów wieloagentowych: jest czasami nazywany problemem zbioru partycjonowania. Niestety problem jest NP-trudny, ponieważ liczba możliwych struktur koalicyjnych rośnie wykładniczo w liczbie graczy. Znalezienie optymalnej struktury koalicji poprzez naiwne, wyczerpujące poszukiwania jest zatem generalnie niewykonalne. Wpływowe podejście do optymalnego kształtowania struktury koalicji opiera się na idei poszukiwania podprzestrzeni grafu struktury koalicji. Pomysł najlepiej wyjaśnić na przykładzie. Załóżmy, że mamy grę z czterema agentami, N = {1,2,3,4}. Istnieje piętnaście możliwych struktur koalicyjnych dla tego zestawu agentów. Możemy zorganizować je w wykres struktury koalicji, jak pokazano na rysunku, gdzie węzły na poziomie ` wykresu odpowiadają wszystkim strukturom koalicji z dokładnie l koalicjami.

Górna krawędź na wykresie reprezentuje podział koalicji w dolnym węźle na dwie oddzielne koalicje w górnym węźle.

Na przykład istnieje przewaga od {{1},{2,3,4}} do {{1},{2},{3,4}}, ponieważ ta ostatnia struktura koalicji jest uzyskiwana z pierwszej poprzez podział koalicji {2,3,4} na koalicje {2} i {3,4} . Optymalna struktura koalicji CS leży gdzieś w grafie struktury koalicji, więc aby ją znaleźć, wydaje się, że musielibyśmy ocenić każdy węzeł na wykresie. Rozważmy jednak dwa dolne rzędy wykresu – poziomy 1 i 2. Każda możliwa koalicja (oprócz koalicji pustej) pojawia się na tych dwóch poziomach. (Oczywiście nie każda możliwa struktura koalicji pojawia się na tych dwóch poziomach.) Załóżmy teraz, że ograniczamy nasze poszukiwania możliwej struktury koalicji tylko do tych dwóch poziomów – nie idziemy wyżej na wykresie. Niech CS* będzie najlepszą strukturą koalicyjną, jaką znajdziemy na tych dwóch poziomach, a CS będzie najlepszą strukturą koalicyjną w ogóle. Niech C* będzie koalicją o największej wartości spośród wszystkich możliwych koalicji:

Wartość najlepszej struktury koalicji, którą znajdujemy na pierwszych dwóch poziomach wykresu struktury koalicji, musi być co najmniej równa wartości najlepszej możliwej koalicji: sw(CSl) ≥ v(C*). Dzieje się tak dlatego, że każda możliwa koalicja pojawia się w co najmniej jednej strukturze koalicyjnej na pierwszych dwóch poziomach wykresu. Załóżmy więc najgorszy przypadek, czyli sw(CS’) = v(C*). Porównaj wartość sw(CS’) z sw(CS*). Ponieważ sw(CS’) jest najwyższą możliwą wartością dowolnej struktury koalicyjnej, a istnieje n agentów (n = 4 w przypadku rysunku powyżej), to najwyższa możliwa wartość sw(CS*) będzie wynosić nv(C*) = n · sw(CS’). Innymi słowy, w najgorszym możliwym przypadku wartość najlepszej struktury koalicyjnej, jaką znajdziemy na pierwszych dwóch poziomach wykresu, wynosiłaby 1/n wartości najlepszej, gdzie n to liczba agentów. Tak więc, chociaż przeszukiwanie pierwszych dwóch poziomów wykresu nie gwarantuje uzyskania optymalnej struktury koalicji, gwarantuje uzyskanie takiej, która nie jest gorsza niż 1/n optymalnej. W praktyce często będzie znacznie lepiej.

AI : Technologie, Aplikacje i Wyzwania :Procesy związane ze sztuczną inteligencją

Programy AI będą miały umiejętności poznawcze: rozumowanie, rozwiązywanie problemów, uczenie się, percepcję i autokorektę, jak podano poniżej :

  1. Proces rozumowania: Program AI koncentruje się tutaj na wyborze najbardziej odpowiedniego algorytmu do osiągnięcia wymaganych wyników. Jest to proces używany do osądów, decyzji i przewidywań. Procesy rozumowania są głównie klasyfikowane jako rozumowanie indukcyjne i rozumowanie dedukcyjne.
  2. Proces uczenia się: Jego funkcją jest pozyskiwanie danych i tworzenie reguł w celu opracowania praktycznych informacji z danych. Nauka poprawia zrozumienie badanych przedmiotów. Reguły, zwane również algorytmami, pomagają zapewnić sekwencje instrukcji do wykonania zadania przy użyciu urządzeń komputerowych. Polega na zdobywaniu wiedzy poprzez naukę, praktykę i zdobywanie doświadczenia. Ludzie, niektóre zwierzęta i systemy oparte na sztucznej inteligencji mają zdolność uczenia się.
  3. Proces rozwiązywania problemów: służy do uzyskania wymaganego rozwiązania z obecnej sytuacji poprzez przyjęcie innego podejścia. Rozwiązywanie problemów może obejmować podejmowanie decyzji, tj. wybieranie najlepszych z kilku możliwych alternatyw, aby uzyskać cele.
  4. Proces percepcji: obejmuje selekcję, pozyskiwanie, interpretację i ostatecznie analizę informacji. W przypadku człowieka percepcję wspierają narządy zmysłów. Mechanizmy percepcji w AI umieść dane z czujników razem w użyteczny sposób.
  5. Proces autokorekty: ma na celu ciągłe udoskonalanie algorytmu, tak aby określał najdokładniejsze wyniki.

Siatki na składki krańcowe

Opiszemy teraz jeden schemat reprezentacji, zwany sieciami wkładu marginalnego (MC-nets). Posłużymy się nieco uproszczoną wersją, aby ułatwić prezentację, a uproszczenie sprawia, że jest niekompletna – pełna wersja MC-netów jest pełną reprezentacją. Ideą sieci wkładów krańcowych jest przedstawienie funkcji charakterystycznej gry (N,v) jako zbioru reguł koalicji wartości w postaci: (Ci,xi), gdzie Ci ⊆  N jest koalicją, a xi jest liczbą. Aby obliczyć wartość koalicji C, po prostu sumujemy wartości wszystkich reguł (Ci,xi) takich, że Ci ⊆ C. Zatem, mając dany zbiór reguł R = {(C1,x1),…,(Ck,xk}, odpowiadającą funkcją charakterystyczną jest:

Załóżmy, że mamy zestaw reguł R zawierający następujące trzy reguły:

{({1,2}.5), ({2},2) , ({3},3)}:

Wtedy na przykład mamy:

  • v({1}) = 0 (ponieważ nie obowiązują żadne reguły),
  • v({3}) = 4 (trzecia zasada),
  • v({1.3}) = 4 (trzecia zasada),
  • v({2.3}) = 6 (druga i trzecia zasada), oraz
  • v({1,2,3}) = 11 (pierwsza, druga i trzecia zasada).

Dzięki tej reprezentacji możemy obliczyć wartość Shapleya w czasie wielomianowym. Kluczowym spostrzeżeniem jest to, że każdą regułę można rozumieć jako samodzielną definicję gry, w której gracze są symetryczni. Odwołując się do aksjomatów addytywności i symetrii Shapleya, wartość Shapleya φi(R) gracza i w grze związanej ze zbiorem reguł R jest zatem po prostu:

Przedstawiona przez nas wersja sieci wkładów krańcowych nie jest pełnym schematem reprezentacji: istnieją gry, których funkcji charakterystycznej nie można przedstawić za pomocą zestawów reguł o opisanej powyżej formie. Bogatszy typ sieci wkładów krańcowych dopuszcza reguły postaci (φ,x), gdzie φ jest formułą logiki zdań nad graczami N: koalicja C spełnia warunek φ, jeśli odpowiada satysfakcjonującemu przypisaniu dla φ . Ten schemat jest pełną reprezentacją – w najgorszym przypadku potrzebujemy reguły dla każdej możliwej koalicji. Co więcej, wartość Shapleya można obliczyć w czasie wielomianowym za pomocą tego schematu; szczegóły są bardziej skomplikowane niż w przypadku prostych zasad opisanych powyżej, chociaż podstawowa zasada jest taka sama.