Depresja AI

https://aie24.pl/

Nie będzie trzeciej Zimy AI, ale myślę, że prawdopodobnie wkrótce wpadniemy w Depresję AI.

Pozwólcie, że podam kilka możliwych przyczyn nadchodzącej depresji:

Problem AI-Control (wciąż niewystarczająco rozwiązany)

Nadal duże obawy dotyczące prywatności, kwestii etycznych i bezpieczeństwa

Brak jednolitych / powolnych regulacji i ustaw.

Rzeczywistość i oczekiwania związane ze sztuczną inteligencją znacznie się różnią.

AI jest przereklamowane.

Implikacje etyczne/psychologiczne nie są jeszcze jasne; wiele jest nadal teorią i nie zostało udowodnione w praktyce.

Studia/podejścia filozoficzne, socjologiczne i psychologiczne wciąż nie są wystarczająco doceniane.

Po szumie następuje trzeźwość (AI to wciąż system ekspercki). Wiele systemów AI jest nadal nieefektywnych i wymaga dużo energii lub musi być wdrażane w skomplikowany sposób. Potrzebujemy innego, bardziej efektywnego podejścia.

Świadomość danych nie rozwinęła się jeszcze wystarczająco w całej Europie i świecie.

Wciąż generowanych jest zbyt mało użytecznych danych (w czasie rzeczywistym). Znacząca ekspansja urządzeń i infrastruktury Edge/IoT/5G będzie trwała przez jakiś czas.

AI jest zdominowane przez kilka Big-Techów (AI staje się coraz bardziej narzędziem władzy). Może to mieć bardzo negatywny wpływ na AI.

Dziedzina sztucznej inteligencji jest wysoce interdyscyplinarna i ewolucyjna. Im bardziej sztuczna inteligencja przenika nasze życie i środowisko, tym bardziej wszechstronne punkty musimy rozważyć i dostosować. Rozwój technologiczny wyprzedza interpretacje etyczne i filozoficzne. Ten fakt jest niepokojący. Musimy jak najszybciej wypełnić tę lukę.

Wyścig AI

https://aie24.pl/

Pytanie o to, kto wygra wyścig i zdominuje sztuczną inteligencję w przyszłości, nie dotyczy przede wszystkim tego, kto ma wiodące firmy lub produkuje najnowocześniejsze innowacyjne technologie w tym sektorze. Chodzi raczej o to, kto ma firmy, które mogą szybko przejąć przełomowe algorytmy/technologie i dostosować je do procesów tworzących rzeczywistą ekonomiczną (i miejmy nadzieję trwałą) wartość.

Przyjęcie sztucznej inteligencji musi odbywać się całościowo, a nie w ramach fragmentarycznych komponentów, które nie są w pełni zintegrowane z organizacjami.

Odporność systemów sztucznej inteligencji

https://aie24.pl/

Stale rosnące postępy technologiczne w zakresie sztucznej inteligencji zachęcają coraz więcej firm i rządów do wdrażania sztucznej inteligencji w środowiskach o wysokich stawkach, w tym w autonomicznej jeździe, diagnostyce w medycynie, zarządzaniu siecią energetyczną i kontrolowaniu autonomicznych systemów uzbrojenia. W przypadku takich zastosowań metody sztucznej inteligencji muszą być odporne zarówno na znane niewiadome (niepewne aspekty świata, o których komputer może jawnie wnioskować), jak i nieznane niewiadome (elementy świata, których modele systemowe nie wychwytują). Dlatego musimy zwracać większą uwagę na wyzwania związane zarówno ze znanymi, jak i przede wszystkim nieznanymi niewiadomymi. Kwestie te są istotne, ponieważ dotyczą fundamentalnej kwestii, w jaki sposób skończone systemy mogą przetrwać w złożonym i niebezpiecznym świecie, a przede wszystkim rozwijać się z korzyścią dla ludzkości i natury. Od istniejących uprzedzeń do stronniczych zestawów danych do pojawienia się nieprzewidywalnych korelacji; Przyczyny są wielorakie. Zanim sztuczna inteligencja osiągnie pewien poziom dojrzałości, minie jeszcze trochę czasu.

Wielodyscyplinarność

https://aie24.pl/

Brak wiedzy specyficznej dla domeny podczas projektowania modeli AI: Jednym z głównych powodów, dla których wiele osób polega na modelach czarnoskrzynkowych, nie jest dokładność i wydajność modelu, ale jedynie brak wiedzy specyficznej dla domeny. Problem można rozwiązać, szkoląc więcej ekspertów w określonej dziedzinie, takiej jak medycyna, biologia, psychologia, farmacja, marketing itp., do Data-Scientists lub ML-Engineers. Przynajmniej na tyle, aby mogli ocenić całość i w razie potrzeby dostosować. Jest ich już trochę, ale należy je kwestionować i promować o wiele bardziej. Największe korzyści z AI możemy odnieść tylko wtedy, gdy podejdziemy do niej w sposób multidyscyplinarny.

Postęp

https://aie24.pl/

Martwi mnie trochę to, że nie znamy aktualnego stanu rozwoju sztucznej inteligencji. Nowe wysokości i podejścia są zgłaszane i publikowane prawie codziennie ze wszystkich części świata. Prawie żaden obszar nie wydaje się być nietknięty. Jasne, wszyscy chcemy postępu, ale czy za wszelką cenę? Myślę, że trochę więcej pokory w rozwoju sztucznej inteligencji dobrze by zrobiło; w przeciwnym razie grozi nam, że pewnego dnia wszystko nas przytłoczy i nie będziemy już w stanie tego naprawić, nie mówiąc już o kontrolowaniu.

Krzepkość

Najważniejsze pytanie, które zawsze powinniśmy sobie zadać, gdy poważnie myślimy o sztucznej inteligencji: „Jak możemy tworzyć systemy sztucznej inteligencji, które są odporne na brak wiedzy o świecie?”

Sztuczna inteligencja jest wysoce interdyscyplinarna. Dlatego podejdźmy do tego w sposób multidyscyplinarny i holistyczny.

Sztuczna inteligencja

https://aie24.pl/

Zrobiłem straszną rzecz. Zdemaskowałem sztuczną inteligencję.

Uznanie, że dwa punkty danych są ze sobą połączone, nie wystarczy. System musi zapytać, dlaczego jeden punkt wpływa na inny.

Sztuczna inteligencja nie jest nową falą technologii. To o wiele bardziej przypomina tsunami, które grozi powodzią, jeśli nie będziemy uważni.

AI jest gałęzią filozofii, a nie informatyki.

Sztuczna inteligencja nie jest rewolucyjną, ale transformującą technologią.

Widzieliśmy i doświadczyliśmy tylko wierzchołka góry lodowej w zakresie sztucznej inteligencji.

AI jest akceleratorem ewolucji.

Sztuczna inteligencja każe nam poważnie zadać sobie pytanie, co to znaczy być człowiekiem.

Przyszłość

https://aie24.pl/

W którą stronę pójdzie przyszłość? Autorzy science fiction wydają się faworyzować dystopijną przyszłość nad utopijną, prawdopodobnie dlatego, że tworzą one ciekawsze wątki. Jak dotąd sztuczna inteligencja wydaje się pasować do innych potężnych rewolucyjnych technologii, takich jak drukowanie, hydraulika, podróże lotnicze i telefonia. Wszystkie te technologie wywarły pozytywny wpływ, ale mają również pewne niezamierzone skutki uboczne, które nieproporcjonalnie wpływają na klasy w niekorzystnej sytuacji. Dobrze zrobimy, jeśli zainwestujemy w minimalizację negatywnych skutków. AI różni się również od poprzednich rewolucyjnych technologii. Udoskonalenie drukowania, hydrauliki, podróży lotniczych i telefonii do ich logicznych granic nie stworzyłoby niczego, co mogłoby zagrozić ludzkiej supremacji na świecie. Ulepszenie sztucznej inteligencji do jej logicznego limitu z pewnością mogłoby. Podsumowując, sztuczna inteligencja poczyniła ogromne postępy w swojej krótkiej historii, ale ostatnie zdanie eseju Alana Turinga (1950) na temat maszyn komputerowych i inteligencji jest nadal aktualne:

Widzimy tylko niewielką odległość przed nami, ale widzimy, że wiele pozostaje do zrobienia.

Inżynieria AI

https://aie24.pl/

Dziedzina programowania komputerowego rozpoczęła się od kilku niezwykłych pionierów. Ale nie osiągnął statusu dużej branży, dopóki nie rozwinęła się praktyka inżynierii oprogramowania, z potężnym zbiorem szeroko dostępnych narzędzi i kwitnącym ekosystemem nauczycieli, studentów, praktyków, przedsiębiorców, inwestorów i klientów. Branża AI nie osiągnęła jeszcze tego poziomu dojrzałości. Posiadamy wiele potężnych narzędzi i frameworków, takich jak TensorFlow, Keras, PyTorch, CAFFE, Scikit-Learn i SCIPY. Jednak wiele z najbardziej obiecujących podejść, takich jak GAN i głębokie uczenie ze wzmacnianiem, okazało się trudne w obsłudze — wymagają one doświadczenia i pewnego stopnia manipulacji, aby prawidłowo trenować w nowej domenie. Nie mamy wystarczającej liczby ekspertów do zrobienia dotyczy to wszystkich dziedzin, w których tego potrzebujemy, a nie mamy jeszcze narzędzi i ekosystemu, aby pozwolić mniej doświadczonym praktykom odnieść sukces. Jeff Dean z Google widzi przyszłość, w której będziemy chcieli, aby uczenie maszynowe obsługiwało miliony zadań; nie będzie możliwe rozwijanie każdego z nich od podstaw, więc sugeruje, że zamiast budować każdy nowy system od podstaw, powinniśmy zacząć od jednego ogromnego systemu i dla każdego nowego zadania wyodrębnić z niego te części, które są istotne do zadania. Widzieliśmy kilka kroków w tym kierunku, takich jak modele języka transformatorów (np. BERT, GPT-2) z miliardami parametrów i „niezwykle duża” architektura sieci neuronowej, która skaluje do 68 miliardów parametrów w jednym eksperymencie. Wiele pozostaje do zrobienia.

Ogólne AI

https://aie24.pl/

Większość postępów w sztucznej inteligencji w XXI wieku była jak dotąd kierowana przez rywalizację w wąskich zadaniach, takich jak DARPA Grand Challenge dla samochodów autonomicznych, konkurs rozpoznawania obiektów ImageNet lub granie w Go, szachy, pokera lub Jeopardy! przeciwko mistrzowi świata. Dla każdego oddzielnego zadania budujemy osobny system AI, zwykle z osobnym modelem uczenia maszynowego wyszkolonym od podstaw z danymi zebranymi specjalnie dla tego zadania. Ale naprawdę inteligentny agent powinien być w stanie zrobić więcej niż jedną rzecz. Alan Turing (1950) zaproponował swoją listę (strona 1033), a autor science fiction Robert Heinlein (1973) odpowiedział:

Człowiek powinien umieć zmienić pieluchę, zaplanować inwazję, ubić wieprza, oszukać statek, zaprojektować budynek, napisać sonet, zbilansować rachunki, zbudować mur, postawić kość, pocieszyć umierających, przyjmować rozkazy, dawać rozkazuje, współpracuje, działa w pojedynkę, rozwiązuje równania, analizuje nowy problem, rzuca obornik, programuje komputer, gotuje smaczny posiłek, walczy skutecznie, ginie dzielnie. Specjalizacja dotyczy owadów.

Jak dotąd żaden system sztucznej inteligencji nie mierzy do żadnej z tych list, a niektórzy zwolennicy sztucznej inteligencji na poziomie ogólnym lub ludzkim (HLAI) twierdzą, że ciągła praca nad określonymi zadaniami (lub nad poszczególnymi komponentami) nie wystarczy, aby osiągnąć mistrzostwo w szerokim zakresie. różnorodność zadań; że będziemy potrzebować całkowicie nowego podejścia. Wydaje nam się, że rzeczywiście konieczne będą liczne nowe przełomy, ale ogólnie rzecz biorąc, sztuczna inteligencja jako dziedzina dokonała rozsądnego kompromisu między eksploracją a eksploatacją, montując portfolio komponentów, ulepszając poszczególne zadania, jednocześnie badając obiecujące, a czasem bardzo nowe pomysły. Byłoby błędem powiedzieć braciom Wright w 1903 roku, aby przerwali prace nad ich jednozadaniowym samolotem i zaprojektowali maszynę „sztucznego lotu ogólnego”, która może wystartować pionowo, lecieć szybciej niż dźwięk, przewozić setki pasażerów i lądować na Księżyc. Błędem byłoby również kontynuowanie ich pierwszego lotu w corocznym konkursie, aby stopniowo ulepszać dwupłatowce z drewna świerkowego. Widzieliśmy, że praca nad komponentami może pobudzić nowe pomysły; na przykład generatywne sieci adwersarzy (GAN) i modele językowe transformatorów otwierają nowe obszary badań. Widzieliśmy również kroki w kierunku „różnorodności zachowań”. Na przykład systemy tłumaczenia maszynowego w latach 90. były budowane pojedynczo dla każdej pary języków (np. z francuskiego na angielski), ale dziś jeden system może zidentyfikować tekst wejściowy jako jeden ze stu języków i przetłumaczyć go na dowolny 100 języków docelowych. Inny system języka naturalnego może wykonywać pięć różnych zadań za pomocą jednego wspólnego modelu.

Architektury AI

https://aie24.pl/

Naturalne jest pytanie: „Którą z architektur agentów  powinien używać agent?” Odpowiedź brzmi: „Wszystkie!” Reakcje odruchowe są potrzebne w sytuacjach, w których czas jest najważniejszy, podczas gdy deliberacja oparta na wiedzy pozwala agentowi planować z wyprzedzeniem. Nauka jest wygodna, gdy mamy dużo danych i niezbędna, gdy środowisko się zmienia lub gdy projektanci mają niewystarczającą wiedzę w tej dziedzinie. AI od dawna dzieli się na systemy symboliczne (oparte na wnioskowaniu logicznym i probabilistycznym) i systemy koneksjonistyczne (oparte na minimalizacji strat na dużej liczbie niezinterpretowanych parametrów). Nieustannym wyzwaniem dla sztucznej inteligencji jest połączenie tych dwóch elementów, aby uchwycić to, co najlepsze z obu. Systemy symboliczne pozwalają nam łączyć ze sobą długie łańcuchy rozumowania i wykorzystywać ekspresyjną moc ustrukturyzowanych reprezentacji, podczas gdy systemy koneksjonistyczne potrafią rozpoznawać wzorce nawet w obliczu zaszumionych danych. Jeden kierunek badań ma na celu połączenie programowania probabilistycznego z głębokim uczeniem się, chociaż jak dotąd różne propozycje są ograniczone pod względem rzeczywistego połączenia podejść. Agenci potrzebują również sposobów kontrolowania własnych obrad. Muszą umieć dobrze wykorzystać dostępny czas i przestać zastanawiać się, kiedy wymagane jest działanie. Na przykład kierowca taksówki, który widzi przed sobą wypadek, musi w ułamku sekundy zdecydować, czy ma hamować, czy skręcać. Powinien także poświęcić ten ułamek sekundy na zastanowienie się nad najważniejszymi pytaniami, takimi jak to, czy pasy po lewej i prawej stronie są wolne i czy tuż za nimi znajduje się duża ciężarówka, zamiast martwić się, gdzie odebrać następnego pasażera. Zagadnienia te są zwykle badane pod hasłem AI czasu rzeczywistego. Gdy systemy AI przeniosą się do bardziej złożonych dziedzin, wszystkie problemy zaczną się pojawiać w czasie rzeczywistym, ponieważ agent nigdy nie będzie miał wystarczająco dużo czasu, aby dokładnie rozwiązać problem decyzyjny. Wyraźnie widać, że istnieje pilna potrzeba ogólnych metod kontrolowania narady, a nie konkretnych recept na to, o czym należy myśleć w każdej sytuacji. Pierwszym użytecznym pomysłem są algorytmy w dowolnym momencie (Dean i Boddy, 1988; Horvitz, 1987): algorytm, którego jakość wyjściowa poprawia się stopniowo w czasie, dzięki czemu w przypadku przerwania może być gotowy do podjęcia rozsądnej decyzji. Przykłady algorytmów w dowolnym momencie obejmują iteracyjne pogłębianie w przeszukiwaniu drzewa gry i MCMC w sieciach bayesowskich. Drugą techniką kontrolowania deliberacji jest metarozumowanie oparte na teorii decyzji . Metoda ta, stosuje teorię wartości informacyjnej  do wyboru poszczególnych obliczeń . Wartość obliczenia zależy zarówno od jego kosztu (pod względem opóźniania działania), jak i od korzyści (pod względem poprawy jakości decyzji). Techniki metarozumowania można wykorzystać do zaprojektowania lepszych algorytmów wyszukiwania i zagwarantowania, że ​​algorytmy mają właściwość w dowolnym momencie. Jednym z przykładów jest przeszukiwanie drzewa metodą Monte Carlo: wybór węzła liścia, od którego rozpocznie się następna rozgrywka, jest dokonywany na podstawie w przybliżeniu racjonalnej decyzji na metapoziomie wywodzącej się z teorii bandytów. Metarozumowanie jest oczywiście droższe niż działanie odruchowe, ale można zastosować metody kompilacji, dzięki czemu koszty ogólne są niewielkie w porównaniu z kosztami kontrolowanych obliczeń. Uczenie się ze wzmocnieniem metapoziomu może zapewnić inny sposób na uzyskanie skutecznych zasad kontrolowania deliberacji: w istocie obliczenia, które prowadzą do lepszych decyzji, są wzmacniane, podczas gdy te, które okazują się nieskuteczne, są karane. Takie podejście pozwala uniknąć problemów z krótkowzrocznością związanych z prostym obliczaniem wartości informacji. Metarozumowanie jest jednym konkretnym przykładem architektury refleksyjnej — to znaczy architektury, która umożliwia rozważanie jednostek obliczeniowych i działań występujących w samej architekturze. Teoretyczną podstawę architektur refleksyjnych można zbudować, definiując wspólną przestrzeń stanów składającą się ze stanu środowiska i stanu obliczeniowego samego agenta. Można zaprojektować algorytmy podejmowania decyzji i uczenia się, które operują na tej wspólnej przestrzeni stanów, a tym samym służą do implementacji i ulepszania działań obliczeniowych agenta. W końcu spodziewamy się, że algorytmy specyficzne dla zadań, takie jak wyszukiwanie alfa-beta, planowanie regresji i eliminacja zmiennych, znikną z systemów AI i zostaną zastąpione ogólnymi metodami, które kierują obliczenia agenta w kierunku wydajnego generowania wysokiej jakości decyzji. Metarozumowanie i refleksja (oraz wiele innych rozwiązań architektonicznych i algorytmicznych związanych z wydajnością, omówionych w tej książce) są konieczne, ponieważ podejmowanie decyzji jest trudne. Odkąd wynaleziono komputery, ich oślepiająca szybkość doprowadziła ludzi do przeceniania ich zdolności do pokonywania złożoności lub, równoważnie, do niedoceniania tego, co naprawdę oznacza złożoność. Naprawdę gigantyczna moc dzisiejszych maszyn skłania do myślenia, że ​​moglibyśmy ominąć wszystkie sprytne urządzenia i bardziej polegać na brutalnej sile. Spróbujmy więc przeciwdziałać tej tendencji. Zaczynamy od tego, co fizycy uważają za prędkość ostatecznego urządzenia obliczeniowego o wadze 1 kg: około 1051 operacji na sekundę, czyli miliard bilionów bilionów razy szybciej niż najszybszy superkomputer w 2020 r.  Następnie proponujemy proste zadanie : wyliczanie ciągów angielskich słów, podobnie jak Borges zaproponował w Bibliotece Babel. Borges wymagał książek liczących 410 stron. Czy byłoby to wykonalne? Nie do końca. W rzeczywistości komputer działający przez rok mógł wyliczyć tylko ciągi 11 słów. Rozważmy teraz fakt, że szczegółowy plan ludzkiego życia składa się z (w przybliżeniu) dwudziestu bilionów potencjalnych pobudzeń mięśni  i zaczynamy dostrzegać skalę problemu. Komputer, który jest miliard bilionów bilionów razy potężniejszy niż ludzki mózg, jest o wiele bardziej racjonalny niż ślimak od wyprzedzenia statku kosmicznego Enterprise lecącego z prędkością dziewiątą. Mając na uwadze powyższe rozważania, wydaje się, że cel budowania racjonalnych agentów jest być może nieco zbyt ambitny. Zamiast dążyć do czegoś, co nie może istnieć, powinniśmy rozważyć inny cel normatywny — taki, który koniecznie istnieje. Przypomnij sobie następujący prosty pomysł:

agent = architektura+program:

Teraz napraw architekturę agenta (podstawowe możliwości maszyny, być może ze stałą warstwą oprogramowania na wierzchu) i zezwól programowi agenta na różnicowanie wszystkich możliwych programów, które może obsługiwać architektura. W dowolnym środowisku zadaniowym jeden z tych programów (lub ich równoważna klasa) zapewnia najlepszą możliwą wydajność — być może nie zbliżoną do idealnej racjonalności, ale wciąż lepszą niż jakikolwiek inny program agenta. Mówimy, że program ten spełnia kryterium ograniczonej optymalności. Oczywiście istnieje i wyraźnie stanowi pożądany cel. Cała sztuka polega na znalezieniu go lub czegoś bliskiego. W przypadku niektórych elementarnych klas programów agentowych w prostych środowiskach czasu rzeczywistego można zidentyfikować ograniczone-optymalne programy agentowe . Sukces przeszukiwania drzewa metodą Monte Carlo ożywił zainteresowanie podejmowaniem decyzji na metapoziomach i istnieje powód, by mieć nadzieję, że ograniczoną optymalność w bardziej złożonych rodzinach programów agentowych można osiągnąć za pomocą technik, takich jak uczenie się ze wzmocnieniem na metapoziomie. Powinno być również możliwe opracowanie konstruktywnej teorii architektury, poczynając od twierdzeń o ograniczonej optymalności odpowiednich metod łączenia różnych ograniczonych optymalnych elementów, takich jak systemy odruchowe i działanie-wartość.