Wyścig AI

https://aie24.pl/

Pytanie o to, kto wygra wyścig i zdominuje sztuczną inteligencję w przyszłości, nie dotyczy przede wszystkim tego, kto ma wiodące firmy lub produkuje najnowocześniejsze innowacyjne technologie w tym sektorze. Chodzi raczej o to, kto ma firmy, które mogą szybko przejąć przełomowe algorytmy/technologie i dostosować je do procesów tworzących rzeczywistą ekonomiczną (i miejmy nadzieję trwałą) wartość.

Przyjęcie sztucznej inteligencji musi odbywać się całościowo, a nie w ramach fragmentarycznych komponentów, które nie są w pełni zintegrowane z organizacjami.

Odporność systemów sztucznej inteligencji

https://aie24.pl/

Stale rosnące postępy technologiczne w zakresie sztucznej inteligencji zachęcają coraz więcej firm i rządów do wdrażania sztucznej inteligencji w środowiskach o wysokich stawkach, w tym w autonomicznej jeździe, diagnostyce w medycynie, zarządzaniu siecią energetyczną i kontrolowaniu autonomicznych systemów uzbrojenia. W przypadku takich zastosowań metody sztucznej inteligencji muszą być odporne zarówno na znane niewiadome (niepewne aspekty świata, o których komputer może jawnie wnioskować), jak i nieznane niewiadome (elementy świata, których modele systemowe nie wychwytują). Dlatego musimy zwracać większą uwagę na wyzwania związane zarówno ze znanymi, jak i przede wszystkim nieznanymi niewiadomymi. Kwestie te są istotne, ponieważ dotyczą fundamentalnej kwestii, w jaki sposób skończone systemy mogą przetrwać w złożonym i niebezpiecznym świecie, a przede wszystkim rozwijać się z korzyścią dla ludzkości i natury. Od istniejących uprzedzeń do stronniczych zestawów danych do pojawienia się nieprzewidywalnych korelacji; Przyczyny są wielorakie. Zanim sztuczna inteligencja osiągnie pewien poziom dojrzałości, minie jeszcze trochę czasu.

Wielodyscyplinarność

https://aie24.pl/

Brak wiedzy specyficznej dla domeny podczas projektowania modeli AI: Jednym z głównych powodów, dla których wiele osób polega na modelach czarnoskrzynkowych, nie jest dokładność i wydajność modelu, ale jedynie brak wiedzy specyficznej dla domeny. Problem można rozwiązać, szkoląc więcej ekspertów w określonej dziedzinie, takiej jak medycyna, biologia, psychologia, farmacja, marketing itp., do Data-Scientists lub ML-Engineers. Przynajmniej na tyle, aby mogli ocenić całość i w razie potrzeby dostosować. Jest ich już trochę, ale należy je kwestionować i promować o wiele bardziej. Największe korzyści z AI możemy odnieść tylko wtedy, gdy podejdziemy do niej w sposób multidyscyplinarny.

Postęp

https://aie24.pl/

Martwi mnie trochę to, że nie znamy aktualnego stanu rozwoju sztucznej inteligencji. Nowe wysokości i podejścia są zgłaszane i publikowane prawie codziennie ze wszystkich części świata. Prawie żaden obszar nie wydaje się być nietknięty. Jasne, wszyscy chcemy postępu, ale czy za wszelką cenę? Myślę, że trochę więcej pokory w rozwoju sztucznej inteligencji dobrze by zrobiło; w przeciwnym razie grozi nam, że pewnego dnia wszystko nas przytłoczy i nie będziemy już w stanie tego naprawić, nie mówiąc już o kontrolowaniu.

Krzepkość

Najważniejsze pytanie, które zawsze powinniśmy sobie zadać, gdy poważnie myślimy o sztucznej inteligencji: „Jak możemy tworzyć systemy sztucznej inteligencji, które są odporne na brak wiedzy o świecie?”

Sztuczna inteligencja jest wysoce interdyscyplinarna. Dlatego podejdźmy do tego w sposób multidyscyplinarny i holistyczny.

Sztuczna inteligencja

https://aie24.pl/

Zrobiłem straszną rzecz. Zdemaskowałem sztuczną inteligencję.

Uznanie, że dwa punkty danych są ze sobą połączone, nie wystarczy. System musi zapytać, dlaczego jeden punkt wpływa na inny.

Sztuczna inteligencja nie jest nową falą technologii. To o wiele bardziej przypomina tsunami, które grozi powodzią, jeśli nie będziemy uważni.

AI jest gałęzią filozofii, a nie informatyki.

Sztuczna inteligencja nie jest rewolucyjną, ale transformującą technologią.

Widzieliśmy i doświadczyliśmy tylko wierzchołka góry lodowej w zakresie sztucznej inteligencji.

AI jest akceleratorem ewolucji.

Sztuczna inteligencja każe nam poważnie zadać sobie pytanie, co to znaczy być człowiekiem.

Przyszłość

https://aie24.pl/

W którą stronę pójdzie przyszłość? Autorzy science fiction wydają się faworyzować dystopijną przyszłość nad utopijną, prawdopodobnie dlatego, że tworzą one ciekawsze wątki. Jak dotąd sztuczna inteligencja wydaje się pasować do innych potężnych rewolucyjnych technologii, takich jak drukowanie, hydraulika, podróże lotnicze i telefonia. Wszystkie te technologie wywarły pozytywny wpływ, ale mają również pewne niezamierzone skutki uboczne, które nieproporcjonalnie wpływają na klasy w niekorzystnej sytuacji. Dobrze zrobimy, jeśli zainwestujemy w minimalizację negatywnych skutków. AI różni się również od poprzednich rewolucyjnych technologii. Udoskonalenie drukowania, hydrauliki, podróży lotniczych i telefonii do ich logicznych granic nie stworzyłoby niczego, co mogłoby zagrozić ludzkiej supremacji na świecie. Ulepszenie sztucznej inteligencji do jej logicznego limitu z pewnością mogłoby. Podsumowując, sztuczna inteligencja poczyniła ogromne postępy w swojej krótkiej historii, ale ostatnie zdanie eseju Alana Turinga (1950) na temat maszyn komputerowych i inteligencji jest nadal aktualne:

Widzimy tylko niewielką odległość przed nami, ale widzimy, że wiele pozostaje do zrobienia.

Inżynieria AI

https://aie24.pl/

Dziedzina programowania komputerowego rozpoczęła się od kilku niezwykłych pionierów. Ale nie osiągnął statusu dużej branży, dopóki nie rozwinęła się praktyka inżynierii oprogramowania, z potężnym zbiorem szeroko dostępnych narzędzi i kwitnącym ekosystemem nauczycieli, studentów, praktyków, przedsiębiorców, inwestorów i klientów. Branża AI nie osiągnęła jeszcze tego poziomu dojrzałości. Posiadamy wiele potężnych narzędzi i frameworków, takich jak TensorFlow, Keras, PyTorch, CAFFE, Scikit-Learn i SCIPY. Jednak wiele z najbardziej obiecujących podejść, takich jak GAN i głębokie uczenie ze wzmacnianiem, okazało się trudne w obsłudze — wymagają one doświadczenia i pewnego stopnia manipulacji, aby prawidłowo trenować w nowej domenie. Nie mamy wystarczającej liczby ekspertów do zrobienia dotyczy to wszystkich dziedzin, w których tego potrzebujemy, a nie mamy jeszcze narzędzi i ekosystemu, aby pozwolić mniej doświadczonym praktykom odnieść sukces. Jeff Dean z Google widzi przyszłość, w której będziemy chcieli, aby uczenie maszynowe obsługiwało miliony zadań; nie będzie możliwe rozwijanie każdego z nich od podstaw, więc sugeruje, że zamiast budować każdy nowy system od podstaw, powinniśmy zacząć od jednego ogromnego systemu i dla każdego nowego zadania wyodrębnić z niego te części, które są istotne do zadania. Widzieliśmy kilka kroków w tym kierunku, takich jak modele języka transformatorów (np. BERT, GPT-2) z miliardami parametrów i „niezwykle duża” architektura sieci neuronowej, która skaluje do 68 miliardów parametrów w jednym eksperymencie. Wiele pozostaje do zrobienia.

Ogólne AI

https://aie24.pl/

Większość postępów w sztucznej inteligencji w XXI wieku była jak dotąd kierowana przez rywalizację w wąskich zadaniach, takich jak DARPA Grand Challenge dla samochodów autonomicznych, konkurs rozpoznawania obiektów ImageNet lub granie w Go, szachy, pokera lub Jeopardy! przeciwko mistrzowi świata. Dla każdego oddzielnego zadania budujemy osobny system AI, zwykle z osobnym modelem uczenia maszynowego wyszkolonym od podstaw z danymi zebranymi specjalnie dla tego zadania. Ale naprawdę inteligentny agent powinien być w stanie zrobić więcej niż jedną rzecz. Alan Turing (1950) zaproponował swoją listę (strona 1033), a autor science fiction Robert Heinlein (1973) odpowiedział:

Człowiek powinien umieć zmienić pieluchę, zaplanować inwazję, ubić wieprza, oszukać statek, zaprojektować budynek, napisać sonet, zbilansować rachunki, zbudować mur, postawić kość, pocieszyć umierających, przyjmować rozkazy, dawać rozkazuje, współpracuje, działa w pojedynkę, rozwiązuje równania, analizuje nowy problem, rzuca obornik, programuje komputer, gotuje smaczny posiłek, walczy skutecznie, ginie dzielnie. Specjalizacja dotyczy owadów.

Jak dotąd żaden system sztucznej inteligencji nie mierzy do żadnej z tych list, a niektórzy zwolennicy sztucznej inteligencji na poziomie ogólnym lub ludzkim (HLAI) twierdzą, że ciągła praca nad określonymi zadaniami (lub nad poszczególnymi komponentami) nie wystarczy, aby osiągnąć mistrzostwo w szerokim zakresie. różnorodność zadań; że będziemy potrzebować całkowicie nowego podejścia. Wydaje nam się, że rzeczywiście konieczne będą liczne nowe przełomy, ale ogólnie rzecz biorąc, sztuczna inteligencja jako dziedzina dokonała rozsądnego kompromisu między eksploracją a eksploatacją, montując portfolio komponentów, ulepszając poszczególne zadania, jednocześnie badając obiecujące, a czasem bardzo nowe pomysły. Byłoby błędem powiedzieć braciom Wright w 1903 roku, aby przerwali prace nad ich jednozadaniowym samolotem i zaprojektowali maszynę „sztucznego lotu ogólnego”, która może wystartować pionowo, lecieć szybciej niż dźwięk, przewozić setki pasażerów i lądować na Księżyc. Błędem byłoby również kontynuowanie ich pierwszego lotu w corocznym konkursie, aby stopniowo ulepszać dwupłatowce z drewna świerkowego. Widzieliśmy, że praca nad komponentami może pobudzić nowe pomysły; na przykład generatywne sieci adwersarzy (GAN) i modele językowe transformatorów otwierają nowe obszary badań. Widzieliśmy również kroki w kierunku „różnorodności zachowań”. Na przykład systemy tłumaczenia maszynowego w latach 90. były budowane pojedynczo dla każdej pary języków (np. z francuskiego na angielski), ale dziś jeden system może zidentyfikować tekst wejściowy jako jeden ze stu języków i przetłumaczyć go na dowolny 100 języków docelowych. Inny system języka naturalnego może wykonywać pięć różnych zadań za pomocą jednego wspólnego modelu.

Architektury AI

https://aie24.pl/

Naturalne jest pytanie: „Którą z architektur agentów  powinien używać agent?” Odpowiedź brzmi: „Wszystkie!” Reakcje odruchowe są potrzebne w sytuacjach, w których czas jest najważniejszy, podczas gdy deliberacja oparta na wiedzy pozwala agentowi planować z wyprzedzeniem. Nauka jest wygodna, gdy mamy dużo danych i niezbędna, gdy środowisko się zmienia lub gdy projektanci mają niewystarczającą wiedzę w tej dziedzinie. AI od dawna dzieli się na systemy symboliczne (oparte na wnioskowaniu logicznym i probabilistycznym) i systemy koneksjonistyczne (oparte na minimalizacji strat na dużej liczbie niezinterpretowanych parametrów). Nieustannym wyzwaniem dla sztucznej inteligencji jest połączenie tych dwóch elementów, aby uchwycić to, co najlepsze z obu. Systemy symboliczne pozwalają nam łączyć ze sobą długie łańcuchy rozumowania i wykorzystywać ekspresyjną moc ustrukturyzowanych reprezentacji, podczas gdy systemy koneksjonistyczne potrafią rozpoznawać wzorce nawet w obliczu zaszumionych danych. Jeden kierunek badań ma na celu połączenie programowania probabilistycznego z głębokim uczeniem się, chociaż jak dotąd różne propozycje są ograniczone pod względem rzeczywistego połączenia podejść. Agenci potrzebują również sposobów kontrolowania własnych obrad. Muszą umieć dobrze wykorzystać dostępny czas i przestać zastanawiać się, kiedy wymagane jest działanie. Na przykład kierowca taksówki, który widzi przed sobą wypadek, musi w ułamku sekundy zdecydować, czy ma hamować, czy skręcać. Powinien także poświęcić ten ułamek sekundy na zastanowienie się nad najważniejszymi pytaniami, takimi jak to, czy pasy po lewej i prawej stronie są wolne i czy tuż za nimi znajduje się duża ciężarówka, zamiast martwić się, gdzie odebrać następnego pasażera. Zagadnienia te są zwykle badane pod hasłem AI czasu rzeczywistego. Gdy systemy AI przeniosą się do bardziej złożonych dziedzin, wszystkie problemy zaczną się pojawiać w czasie rzeczywistym, ponieważ agent nigdy nie będzie miał wystarczająco dużo czasu, aby dokładnie rozwiązać problem decyzyjny. Wyraźnie widać, że istnieje pilna potrzeba ogólnych metod kontrolowania narady, a nie konkretnych recept na to, o czym należy myśleć w każdej sytuacji. Pierwszym użytecznym pomysłem są algorytmy w dowolnym momencie (Dean i Boddy, 1988; Horvitz, 1987): algorytm, którego jakość wyjściowa poprawia się stopniowo w czasie, dzięki czemu w przypadku przerwania może być gotowy do podjęcia rozsądnej decyzji. Przykłady algorytmów w dowolnym momencie obejmują iteracyjne pogłębianie w przeszukiwaniu drzewa gry i MCMC w sieciach bayesowskich. Drugą techniką kontrolowania deliberacji jest metarozumowanie oparte na teorii decyzji . Metoda ta, stosuje teorię wartości informacyjnej  do wyboru poszczególnych obliczeń . Wartość obliczenia zależy zarówno od jego kosztu (pod względem opóźniania działania), jak i od korzyści (pod względem poprawy jakości decyzji). Techniki metarozumowania można wykorzystać do zaprojektowania lepszych algorytmów wyszukiwania i zagwarantowania, że ​​algorytmy mają właściwość w dowolnym momencie. Jednym z przykładów jest przeszukiwanie drzewa metodą Monte Carlo: wybór węzła liścia, od którego rozpocznie się następna rozgrywka, jest dokonywany na podstawie w przybliżeniu racjonalnej decyzji na metapoziomie wywodzącej się z teorii bandytów. Metarozumowanie jest oczywiście droższe niż działanie odruchowe, ale można zastosować metody kompilacji, dzięki czemu koszty ogólne są niewielkie w porównaniu z kosztami kontrolowanych obliczeń. Uczenie się ze wzmocnieniem metapoziomu może zapewnić inny sposób na uzyskanie skutecznych zasad kontrolowania deliberacji: w istocie obliczenia, które prowadzą do lepszych decyzji, są wzmacniane, podczas gdy te, które okazują się nieskuteczne, są karane. Takie podejście pozwala uniknąć problemów z krótkowzrocznością związanych z prostym obliczaniem wartości informacji. Metarozumowanie jest jednym konkretnym przykładem architektury refleksyjnej — to znaczy architektury, która umożliwia rozważanie jednostek obliczeniowych i działań występujących w samej architekturze. Teoretyczną podstawę architektur refleksyjnych można zbudować, definiując wspólną przestrzeń stanów składającą się ze stanu środowiska i stanu obliczeniowego samego agenta. Można zaprojektować algorytmy podejmowania decyzji i uczenia się, które operują na tej wspólnej przestrzeni stanów, a tym samym służą do implementacji i ulepszania działań obliczeniowych agenta. W końcu spodziewamy się, że algorytmy specyficzne dla zadań, takie jak wyszukiwanie alfa-beta, planowanie regresji i eliminacja zmiennych, znikną z systemów AI i zostaną zastąpione ogólnymi metodami, które kierują obliczenia agenta w kierunku wydajnego generowania wysokiej jakości decyzji. Metarozumowanie i refleksja (oraz wiele innych rozwiązań architektonicznych i algorytmicznych związanych z wydajnością, omówionych w tej książce) są konieczne, ponieważ podejmowanie decyzji jest trudne. Odkąd wynaleziono komputery, ich oślepiająca szybkość doprowadziła ludzi do przeceniania ich zdolności do pokonywania złożoności lub, równoważnie, do niedoceniania tego, co naprawdę oznacza złożoność. Naprawdę gigantyczna moc dzisiejszych maszyn skłania do myślenia, że ​​moglibyśmy ominąć wszystkie sprytne urządzenia i bardziej polegać na brutalnej sile. Spróbujmy więc przeciwdziałać tej tendencji. Zaczynamy od tego, co fizycy uważają za prędkość ostatecznego urządzenia obliczeniowego o wadze 1 kg: około 1051 operacji na sekundę, czyli miliard bilionów bilionów razy szybciej niż najszybszy superkomputer w 2020 r.  Następnie proponujemy proste zadanie : wyliczanie ciągów angielskich słów, podobnie jak Borges zaproponował w Bibliotece Babel. Borges wymagał książek liczących 410 stron. Czy byłoby to wykonalne? Nie do końca. W rzeczywistości komputer działający przez rok mógł wyliczyć tylko ciągi 11 słów. Rozważmy teraz fakt, że szczegółowy plan ludzkiego życia składa się z (w przybliżeniu) dwudziestu bilionów potencjalnych pobudzeń mięśni  i zaczynamy dostrzegać skalę problemu. Komputer, który jest miliard bilionów bilionów razy potężniejszy niż ludzki mózg, jest o wiele bardziej racjonalny niż ślimak od wyprzedzenia statku kosmicznego Enterprise lecącego z prędkością dziewiątą. Mając na uwadze powyższe rozważania, wydaje się, że cel budowania racjonalnych agentów jest być może nieco zbyt ambitny. Zamiast dążyć do czegoś, co nie może istnieć, powinniśmy rozważyć inny cel normatywny — taki, który koniecznie istnieje. Przypomnij sobie następujący prosty pomysł:

agent = architektura+program:

Teraz napraw architekturę agenta (podstawowe możliwości maszyny, być może ze stałą warstwą oprogramowania na wierzchu) i zezwól programowi agenta na różnicowanie wszystkich możliwych programów, które może obsługiwać architektura. W dowolnym środowisku zadaniowym jeden z tych programów (lub ich równoważna klasa) zapewnia najlepszą możliwą wydajność — być może nie zbliżoną do idealnej racjonalności, ale wciąż lepszą niż jakikolwiek inny program agenta. Mówimy, że program ten spełnia kryterium ograniczonej optymalności. Oczywiście istnieje i wyraźnie stanowi pożądany cel. Cała sztuka polega na znalezieniu go lub czegoś bliskiego. W przypadku niektórych elementarnych klas programów agentowych w prostych środowiskach czasu rzeczywistego można zidentyfikować ograniczone-optymalne programy agentowe . Sukces przeszukiwania drzewa metodą Monte Carlo ożywił zainteresowanie podejmowaniem decyzji na metapoziomach i istnieje powód, by mieć nadzieję, że ograniczoną optymalność w bardziej złożonych rodzinach programów agentowych można osiągnąć za pomocą technik, takich jak uczenie się ze wzmocnieniem na metapoziomie. Powinno być również możliwe opracowanie konstruktywnej teorii architektury, poczynając od twierdzeń o ograniczonej optymalności odpowiednich metod łączenia różnych ograniczonych optymalnych elementów, takich jak systemy odruchowe i działanie-wartość.

Zasoby

https://aie24.pl/

Badania i rozwój w zakresie uczenia maszynowego zostały przyspieszone dzięki rosnącej dostępności danych, pamięci masowej, mocy obliczeniowej, oprogramowania, przeszkolonych ekspertów oraz inwestycjom niezbędnym do ich obsługi. Od lat 70. nastąpiło 100 000-krotne przyspieszenie w procesorach ogólnego przeznaczenia i dodatkowe 1000-krotne przyspieszenie dzięki wyspecjalizowanemu sprzętowi do uczenia maszynowego. TheWeb służył jako bogate źródło obrazów, filmów, mowy, tekstu i częściowo ustrukturyzowanych danych, obecnie dodając ponad 1018 bajtów każdego dnia. Dostępne są setki wysokiej jakości zestawów danych dla różnych zadań związanych z widzeniem komputerowym, rozpoznawaniem mowy i przetwarzaniem języka naturalnego. Jeśli potrzebne dane nie są jeszcze dostępne, często można je zebrać z innych źródeł lub zaangażować ludzi do oznaczenia danych za pośrednictwem platformy crowdsourcingowej. Walidacja danych uzyskanych w ten sposób staje się ważną częścią całego przepływu pracy (Hirth i in., 2013). Ważnym ostatnim osiągnięciem jest przejście od wspólnych danych do wspólnych modeli. Główni dostawcy usług w chmurze (np. Amazon, Microsoft, Google, Alibaba, IBM, Salesforce) zaczęli konkurować o oferowanie interfejsów API uczenia maszynowego z gotowymi modelami do określonych zadań, takich jak rozpoznawanie obiektów wizualnych, rozpoznawanie mowy i tłumaczenie maszynowe. Modele te mogą być używane w takiej postaci, w jakiej są, lub mogą służyć jako podstawa do dostosowania do konkretnych danych dla konkretnej aplikacji. Spodziewamy się, że te modele z czasem ulegną poprawie i że nietypowe stanie się rozpoczęcie projektu uczenia maszynowego od zera, podobnie jak obecnie nietypowe jest robienie projektu tworzenia stron internetowych od zera, bez bibliotek. Możliwe, że nastąpi duży skok w jakości modelu, gdy przetwarzanie całego wideo w Internecie stanie się ekonomiczne; na przykład sama platforma YouTube dodaje 300 godzin wideo co minutę. Prawo Moore’a uczyniło przetwarzanie danych bardziej opłacalnym; megabajt pamięci masowej kosztował 1 milion dolarów w 1969 roku i mniej niż 0,02 dolara w 2019 roku, a przepustowość superkomputera wzrosła w tym czasie ponad 1010 razy. Wyspecjalizowane komponenty sprzętowe do uczenia maszynowego, takie jak procesory graficzne (GPU), rdzenie tensorowe, jednostki przetwarzania tensorów (TPU) i programowalne macierze bramek (FPGA) są setki razy szybsze niż konwencjonalne procesory do uczenia maszynowego . W 2014 roku szkolenie modelu ImageNet zajęło cały dzień; w 2018 roku zajmuje to zaledwie 2 minuty (Ying i in., 2018). Instytut OpenAI donosi, że ilość mocy obliczeniowej wykorzystywanej do trenowania największych modeli uczenia maszynowego podwajała się co 3,5 miesiąca od 2012 do 2018 roku, osiągając w przypadku ALPHAZERO ponad eksaflop/drugi dzień (chociaż podają również, że niektóre bardzo wpływowe prace wykorzystały 100 milionów razy mniej mocy obliczeniowej ). Te same trendy ekonomiczne, które sprawiły, że aparaty w telefonach komórkowych stały się tańsze i lepsze, dotyczą również procesorów — będziemy obserwować dalszy postęp w energooszczędnych, wysokowydajnych obliczeniach, które czerpią korzyści z ekonomii skali. Istnieje możliwość, że komputery kwantowe mogą przyspieszyć sztuczną inteligencję. Obecnie istnieje kilka szybkich algorytmów kwantowych dla operacji algebry liniowej stosowanych w uczeniu maszynowym (Harrow i in., 2009; Dervovic i in., 2018), ale nie ma komputera kwantowego, który byłby w stanie je uruchomić. Mamy kilka przykładowych zastosowań zadań, takich jak klasyfikacja obrazów (Mott et al., 2017), gdzie algorytmy kwantowe są tak samo dobre, jak algorytmy klasyczne dla małych problemów. Obecne komputery kwantowe obsługują tylko kilkadziesiąt bitów, podczas gdy algorytmy uczenia maszynowego często obsługują dane wejściowe z milionami bitów i tworzą modele z setkami milionów parametrów. Dlatego potrzebujemy przełomów zarówno w sprzęcie kwantowym, jak i oprogramowaniu, aby obliczenia kwantowe były praktyczne w uczeniu maszynowym na dużą skalę. Ewentualnie może istnieć podział pracy — być może algorytm kwantowy do efektywnego przeszukiwania przestrzeni hiperparametrów, podczas gdy normalny proces uczenia przebiega na konwencjonalnych komputerach — ale nie wiemy jeszcze, jak to zrobić. Badania nad algorytmami kwantowymi mogą czasami inspirować nowe i lepsze algorytmy na klasycznych komputerach (Tang, 2018). Zaobserwowaliśmy również wykładniczy wzrost liczby publikacji, ludzi i dolarów w dziedzinie sztucznej inteligencji/uczenia maszynowego/nauki o danych. Dean i inni (2018) pokazują, że liczba artykułów na temat „uczenia maszynowego” na temat arXiv podwajała się co dwa lata od 2009 do 2017 roku. inwestować, aby ich kraj nie pozostał zbyt daleko w tyle.