Zasoby

https://aie24.pl/

Badania i rozwój w zakresie uczenia maszynowego zostały przyspieszone dzięki rosnącej dostępności danych, pamięci masowej, mocy obliczeniowej, oprogramowania, przeszkolonych ekspertów oraz inwestycjom niezbędnym do ich obsługi. Od lat 70. nastąpiło 100 000-krotne przyspieszenie w procesorach ogólnego przeznaczenia i dodatkowe 1000-krotne przyspieszenie dzięki wyspecjalizowanemu sprzętowi do uczenia maszynowego. TheWeb służył jako bogate źródło obrazów, filmów, mowy, tekstu i częściowo ustrukturyzowanych danych, obecnie dodając ponad 1018 bajtów każdego dnia. Dostępne są setki wysokiej jakości zestawów danych dla różnych zadań związanych z widzeniem komputerowym, rozpoznawaniem mowy i przetwarzaniem języka naturalnego. Jeśli potrzebne dane nie są jeszcze dostępne, często można je zebrać z innych źródeł lub zaangażować ludzi do oznaczenia danych za pośrednictwem platformy crowdsourcingowej. Walidacja danych uzyskanych w ten sposób staje się ważną częścią całego przepływu pracy (Hirth i in., 2013). Ważnym ostatnim osiągnięciem jest przejście od wspólnych danych do wspólnych modeli. Główni dostawcy usług w chmurze (np. Amazon, Microsoft, Google, Alibaba, IBM, Salesforce) zaczęli konkurować o oferowanie interfejsów API uczenia maszynowego z gotowymi modelami do określonych zadań, takich jak rozpoznawanie obiektów wizualnych, rozpoznawanie mowy i tłumaczenie maszynowe. Modele te mogą być używane w takiej postaci, w jakiej są, lub mogą służyć jako podstawa do dostosowania do konkretnych danych dla konkretnej aplikacji. Spodziewamy się, że te modele z czasem ulegną poprawie i że nietypowe stanie się rozpoczęcie projektu uczenia maszynowego od zera, podobnie jak obecnie nietypowe jest robienie projektu tworzenia stron internetowych od zera, bez bibliotek. Możliwe, że nastąpi duży skok w jakości modelu, gdy przetwarzanie całego wideo w Internecie stanie się ekonomiczne; na przykład sama platforma YouTube dodaje 300 godzin wideo co minutę. Prawo Moore’a uczyniło przetwarzanie danych bardziej opłacalnym; megabajt pamięci masowej kosztował 1 milion dolarów w 1969 roku i mniej niż 0,02 dolara w 2019 roku, a przepustowość superkomputera wzrosła w tym czasie ponad 1010 razy. Wyspecjalizowane komponenty sprzętowe do uczenia maszynowego, takie jak procesory graficzne (GPU), rdzenie tensorowe, jednostki przetwarzania tensorów (TPU) i programowalne macierze bramek (FPGA) są setki razy szybsze niż konwencjonalne procesory do uczenia maszynowego . W 2014 roku szkolenie modelu ImageNet zajęło cały dzień; w 2018 roku zajmuje to zaledwie 2 minuty (Ying i in., 2018). Instytut OpenAI donosi, że ilość mocy obliczeniowej wykorzystywanej do trenowania największych modeli uczenia maszynowego podwajała się co 3,5 miesiąca od 2012 do 2018 roku, osiągając w przypadku ALPHAZERO ponad eksaflop/drugi dzień (chociaż podają również, że niektóre bardzo wpływowe prace wykorzystały 100 milionów razy mniej mocy obliczeniowej ). Te same trendy ekonomiczne, które sprawiły, że aparaty w telefonach komórkowych stały się tańsze i lepsze, dotyczą również procesorów — będziemy obserwować dalszy postęp w energooszczędnych, wysokowydajnych obliczeniach, które czerpią korzyści z ekonomii skali. Istnieje możliwość, że komputery kwantowe mogą przyspieszyć sztuczną inteligencję. Obecnie istnieje kilka szybkich algorytmów kwantowych dla operacji algebry liniowej stosowanych w uczeniu maszynowym (Harrow i in., 2009; Dervovic i in., 2018), ale nie ma komputera kwantowego, który byłby w stanie je uruchomić. Mamy kilka przykładowych zastosowań zadań, takich jak klasyfikacja obrazów (Mott et al., 2017), gdzie algorytmy kwantowe są tak samo dobre, jak algorytmy klasyczne dla małych problemów. Obecne komputery kwantowe obsługują tylko kilkadziesiąt bitów, podczas gdy algorytmy uczenia maszynowego często obsługują dane wejściowe z milionami bitów i tworzą modele z setkami milionów parametrów. Dlatego potrzebujemy przełomów zarówno w sprzęcie kwantowym, jak i oprogramowaniu, aby obliczenia kwantowe były praktyczne w uczeniu maszynowym na dużą skalę. Ewentualnie może istnieć podział pracy — być może algorytm kwantowy do efektywnego przeszukiwania przestrzeni hiperparametrów, podczas gdy normalny proces uczenia przebiega na konwencjonalnych komputerach — ale nie wiemy jeszcze, jak to zrobić. Badania nad algorytmami kwantowymi mogą czasami inspirować nowe i lepsze algorytmy na klasycznych komputerach (Tang, 2018). Zaobserwowaliśmy również wykładniczy wzrost liczby publikacji, ludzi i dolarów w dziedzinie sztucznej inteligencji/uczenia maszynowego/nauki o danych. Dean i inni (2018) pokazują, że liczba artykułów na temat „uczenia maszynowego” na temat arXiv podwajała się co dwa lata od 2009 do 2017 roku. inwestować, aby ich kraj nie pozostał zbyt daleko w tyle.

Uczenie się

https://aie24.pl/

Opisaliśmy jak agenci mogą się uczyć. Obecne algorytmy radzą sobie z dość dużymi problemami, sięgając lub przekraczając ludzkie możliwości w wielu zadaniach – o ile mamy wystarczającą ilość przykładów szkoleniowych i mamy do czynienia z predefiniowanym słownikiem cech i pojęć. Jednak nauka może się zatrzymać, gdy dane są rzadkie, nienadzorowane lub gdy mamy do czynienia ze złożonymi reprezentacjami. Wiele z niedawnego odrodzenia się sztucznej inteligencji w prasie popularnej i przemyśle wynika z sukcesu głębokiego uczenia się . Z jednej strony można to postrzegać jako stopniowe dojrzewanie podpola sieci neuronowych. Z drugiej strony możemy to postrzegać jako rewolucyjny skok w możliwościach wywołany splotem czynników: dostępności większej ilości danych treningowych dzięki Internetowi, zwiększonej mocy obliczeniowej ze specjalistycznego sprzętu oraz kilku sztuczek algorytmicznych, takich jak generatywna kontradyktoryjność. sieci (GAN), normalizacja wsadowa, przerwanie i funkcja aktywacji rektyfikowanego liniowego (ReLU). W przyszłości należy kłaść ciągły nacisk na doskonalenie głębokiego uczenia się w zakresie zadań, w których się wyróżnia, a także rozszerzanie go na inne zadania. Nazwa marki „głębokie uczenie się” okazała się tak popularna, że ​​powinniśmy spodziewać się jej kontynuacji, nawet jeśli zestaw technik, które ją napędzają, znacznie się zmieni. Widzieliśmy pojawienie się dziedziny nauki o danych jako zbiegu statystyk, programowania i ekspertyz dziedzinowych. Chociaż możemy spodziewać się ciągłego rozwoju narzędzi i technik niezbędnych do pozyskiwania, zarządzania i utrzymywania dużych zbiorów danych, będziemy również potrzebować postępów w nauce transferu, abyśmy mogli wykorzystać dane w jednej domenie do poprawy wydajności w powiązanej domenie . Zdecydowana większość badań nad uczeniem maszynowym zakłada dziś reprezentację faktorową, uczenie funkcji h : n -> R dla regresji i h : Rn -> {0,1} dla klasyfikacji. Uczenie maszynowe było mniej skuteczne w przypadku problemów, które zawierają tylko niewielką ilość danych, lub problemów, które wymagają skonstruowania nowych uporządkowanych, hierarchicznych reprezentacji. Głębokie uczenie, zwłaszcza z sieciami splotowymi stosowanymi do problemów z widzeniem komputerowym, wykazało pewne sukcesy w przechodzeniu od pikseli niskiego poziomu do pojęć poziomu pośredniego, takich jak oko i usta, następnie twarz, a na końcu osoba lub kot. Wyzwaniem na przyszłość jest płynniejsze łączenie nauki i wcześniejszej wiedzy. Jeśli damy komputerowi problem, którego wcześniej nie napotkał — powiedzmy, rozpoznawanie różnych modeli samochodów — nie chcemy, aby system był bezsilny, dopóki nie zostanie nakarmiony milionami oznaczonych przykładów. Idealny system powinien być w stanie czerpać z tego, co już wie: powinien już mieć model działania wizji oraz ogólnego działania projektowania i brandingu produktów; teraz powinien wykorzystać uczenie transferowe, aby zastosować to do nowego problemu modeli samochodów. Powinna umieć samodzielnie odnajdywać informacje o modelach samochodów, czerpiąc z tekstu, zdjęć i filmów dostępnych w Internecie. Powinna być w stanie nauczyć się czeladnika: prowadzić rozmowę z nauczycielem, a nie tylko pytać „czy mogę mieć tysiąc obrazów korony”, ale raczej być w stanie zrozumieć porady typu „Wgląd jest podobny do Priusa, ale Insight ma większą kratkę.” Warto wiedzieć, że każdy model występuje w niewielkiej gamie możliwych kolorów, ale samochód można przemalować, więc jest szansa, że ​​zobaczy samochód w kolorze, którego nie było w zestawie treningowym. (Gdyby tego nie wiedział, powinien być w stanie się tego nauczyć lub otrzymać o tym informacje.) Wszystko to wymaga języka komunikacji i reprezentacji, którym ludzie i komputery mogą się dzielić; nie możemy oczekiwać, że ludzki analityk bezpośrednio zmodyfikuje model z milionami wag. Modele probabilistyczne (w tym probabilistyczne języki programowania) dają ludziom pewną zdolność opisywania tego, co wiemy, ale modele te nie są jeszcze dobrze zintegrowane z innymi mechanizmami uczenia się. Praca Bengio i LeCun (2007) jest krokiem w kierunku tej integracji. Niedawno Yann LeCun zasugerował, że termin „głębokie uczenie się” należy zastąpić bardziej ogólnym programowaniem różniczkowalnym (Siskind i Pearlmutter, 2016; Li i in., 2018); sugeruje to, że nasze ogólne języki programowania i nasze modele uczenia maszynowego mogłyby zostać połączone. Obecnie często buduje się model głębokiego uczenia, który jest różniczkowy, a zatem można go przeszkolić w celu zminimalizowania strat i przeszkolić ponownie, gdy zmienią się okoliczności. Ale ten model uczenia głębokiego jest tylko częścią większego systemu oprogramowania, który pobiera dane, masuje je, przekazuje je do modelu i zastanawia się, co zrobić z danymi wyjściowymi modelu. Wszystkie te inne części większego systemu zostały napisane ręcznie przez programistę, a zatem są nierozróżnialne, co oznacza, że ​​gdy okoliczności się zmienią, to od programisty zależy, czy rozpozna problemy i naprawi je ręcznie.

Przy programowaniu różniczkowym istnieje nadzieja, że ​​cały system zostanie poddany automatycznej optymalizacji. Ostatecznym celem jest możliwość wyrażenia tego, co wiemy, w dowolnej dogodnej dla nas formie: nieformalne porady udzielone w języku naturalnym, silne prawo matematyczne, takie jak F =ma, model statystyczny wraz z danymi lub program probabilistyczny o nieznanych parametrach które mogą być automatycznie optymalizowane poprzez opadanie gradientu. Nasze modele komputerowe będą uczyć się z rozmów z ludzkimi ekspertami, a także wykorzystując wszystkie dostępne dane. Yann LeCun, Geoffrey Hinton i inni sugerowali, że obecny nacisk na uczenie nadzorowane (i w mniejszym stopniu uczenie ze wzmacnianiem) jest nie do utrzymania – modele komputerowe będą musiały opierać się na uczeniu się słabo nadzorowanym, w którym pewien nadzór jest sprawowany z niewielka liczba oznaczonych przykładów i/lub niewielka liczba nagród, ale większość uczenia się odbywa się bez nadzoru, ponieważ dane bez adnotacji są o wiele bardziej obfite. LeCun używa terminu uczenie predyktywne dla nienadzorowanego systemu uczenia się, który może modelować świat i uczyć się przewidywać aspekty przyszłych stanów świata — nie tylko przewidywać etykiety dla danych wejściowych, które są niezależne i identycznie rozłożone w odniesieniu do danych z przeszłości, a nie tylko przewidywać funkcja wartości nad stanami. Sugeruje, że sieci GAN (generatywne sieci adwersarzy) można wykorzystać do nauki minimalizowania różnicy między przewidywaniami a rzeczywistością. Geoffrey Hinton stwierdził w 2017 r., że „moim zdaniem wyrzuć to wszystko i zacznij od nowa”, co oznacza, że ​​ogólna idea uczenia się poprzez dostosowywanie parametrów w sieci jest trwała, ale specyfika architektury sieci i technika propagację należy przemyśleć na nowo. Smolensky (1988) miał receptę na to, jak myśleć o modelach koneksjonistycznych; jego myśli pozostają aktualne do dziś.

Decydując, czego chcemy

https://aie24.pl/

Przedstawiliśmy algorytmy wyszukiwania służące do znajdowania stanu celu. Ale agenci zorientowani na cel są kruche, gdy otoczenie jest niepewne i gdy należy wziąć pod uwagę wiele czynników. W zasadzie agenci maksymalizujący użyteczność rozwiązują te kwestie w sposób całkowicie ogólny. Dziedziny ekonomii i teorii gier, a także sztuczna inteligencja korzystają z tego spostrzeżenia: po prostu zadeklaruj, co chcesz zoptymalizować i co robi każda akcja, a my możemy obliczyć optymalne działanie. W praktyce jednak teraz zdajemy sobie sprawę, że wybór właściwej funkcji użyteczności jest sam w sobie trudnym problemem. Wyobraźmy sobie na przykład złożoną sieć interakcji preferencji, którą musi zrozumieć agent działający jako asystent biurowy dla człowieka. Problem pogłębia fakt, że każdy człowiek jest inny, więc agent „po wyjęciu z pudełka” nie będzie miał wystarczającego doświadczenia z żadną osobą, aby nauczyć się dokładnego modelu preferencji; z konieczności będzie musiała działać w warunkach niepewności preferencji. Dalsza złożoność pojawia się, jeśli chcemy zapewnić, że nasi agenci działają w sposób sprawiedliwy i sprawiedliwy dla społeczeństwa, a nie tylko jedna osoba. Nie mamy jeszcze dużego doświadczenia w budowaniu złożonych modeli preferencji w świecie rzeczywistym, nie mówiąc już o rozkładach prawdopodobieństwa w takich modelach. Chociaż istnieją czynnikowe formalizmy, podobne do sieci Bayesa, które mają na celu dekompozycję preferencji względem stanów złożonych, ich stosowanie w praktyce okazało się trudne. Jednym z powodów może być to, że preferencje względem stanów są w rzeczywistości kompilowane z preferencji względem historii stanów, które są opisane funkcjami nagrody . Nawet jeśli funkcja nagrody jest prosta, odpowiadająca jej funkcja użyteczności może być bardzo złożona. Sugeruje to, że poważnie traktujemy zadanie inżynierii wiedzy dla funkcji nagrody jako sposobu przekazania naszym agentom tego, co chcemy, aby zrobili. Idea uczenia się przez odwrotne wzmocnienie jest jednym z podejść do tego problemu, gdy mamy eksperta, który może wykonać zadanie, ale nie może go wyjaśnić. Moglibyśmy też używać lepszych języków do wyrażania tego, czego chcemy. Na przykład w robotyce liniowa logika temporalna ułatwia określenie, co chcemy, aby wydarzyło się w najbliższej przyszłości, czego chcemy uniknąć, a czego stwierdza, że ​​chcemy trwać wiecznie . Potrzebujemy lepszych sposobów wyrażania tego, czego chcemy i lepszych sposobów, aby roboty interpretowały dostarczane przez nas informacje. Branża komputerowa jako całość stworzyła potężny ekosystem do agregowania preferencji użytkowników. Gdy klikasz coś w aplikacji, grze online, sieci społecznościowej lub witrynie zakupów, służy to jako zalecenie, że Ty (i Twoi podobni rówieśnicy) chcielibyście zobaczyć podobne rzeczy w przyszłości. (Albo może być tak, że witryna jest zagmatwana i kliknąłeś niewłaściwą rzecz – dane są zawsze zaszumione). Informacje zwrotne nieodłącznie związane z tym systemem sprawiają, że na krótką metę jest on bardzo skuteczny w wybieraniu coraz bardziej uzależniających gier i filmów. Jednak te systemy często nie zapewniają łatwego sposobu rezygnacji – urządzenie automatycznie odtworzy odpowiedni film, ale jest mniej prawdopodobne, że powie Ci „może nadszedł czas, aby odłożyć urządzenia i wybrać się na relaksujący spacer na łonie natury”. Strona z zakupami pomoże Ci znaleźć ubrania pasujące do Twojego stylu, ale nie zajmą się pokojem na świecie ani nie zakończą głodu i ubóstwa. W zakresie, w jakim menu wyborów jest napędzane przez firmy próbujące zyskać na uwadze klienta, menu pozostanie niekompletne. Jednak firmy reagują na zainteresowania klientów, a wielu klientów wyraziło opinię, że są zainteresowani sprawiedliwym i zrównoważonym światem. Tim O’Reilly wyjaśnia, dlaczego zysk nie jest jedynym motywem, posługując się następującą analogią: „Pieniądze są jak benzyna podczas podróży. Nie chcesz, aby podczas podróży zabrakło Ci benzyny, ale nie robisz wycieczki po stacjach benzynowych. Musisz zwracać uwagę na pieniądze, ale nie o pieniądze. Dobrze spędzony czas Tristana Harrisa w Center for Humane Technology jest krokiem w kierunku dawania nam bardziej wszechstronnych wyborów . Ruch porusza problem, który został rozpoznany przez Herberta Simona w 1971 roku: „Bogactwo informacji tworzy ubóstwo uwagi”. Być może w przyszłości będziemy mieli osobistych agentów, którzy będą bronić naszych prawdziwych długoterminowych interesów, a nie interesów korporacji, których aplikacje obecnie wypełniają nasze urządzenia. Zadaniem agenta będzie pośredniczenie w ofertach różnych dostawców, ochrona nas przed uzależniającymi przyciągającymi uwagę i poprowadzenie nas w kierunku celów, które naprawdę są dla nas ważne.

Wybieranie działań

https://aie24.pl/

Główną trudnością w doborze działań w prawdziwym świecie jest radzenie sobie z długoterminowymi planami – takimi jak ukończenie studiów za cztery lata – które składają się z miliardów prymitywnych kroków. Algorytmy wyszukiwania, które uwzględniają sekwencje prymitywnych działań, skalują się tylko do dziesiątek, a może nawet setek kroków. Tylko przez narzucenie hierarchicznej struktury na zachowanie my, ludzie, w ogóle sobie radzimy. Widzieliśmy, jak używać reprezentacji hierarchicznych do rozwiązywania problemów tej skali; co więcej, w pracy nad hierarchicznym uczeniem się ze wzmocnieniem udało się połączyć te idee z formalizmem MDP . Jak dotąd metody te nie zostały rozszerzone na przypadek częściowo obserwowalny (POMDP). Co więcej, algorytmy rozwiązywania POMDP zazwyczaj wykorzystują tę samą reprezentację stanu atomowego, której użyliśmy w algorytmach wyszukiwania z rozdziału 3. Jest tu oczywiście dużo pracy do wykonania, ale w dużej mierze istnieją już podstawy techniczne do robienia postępów. Głównym brakującym elementem jest skuteczna metoda konstruowania hierarchicznych reprezentacji stanu i zachowania, które są niezbędne do podejmowania decyzji w długich skalach czasowych.

Reprezentowanie stanu świata

https://aie24.pl/

Wprowadziliśmy rekurencyjne sieci neuronowe, które są również zdolne do utrzymywania reprezentacji stanu w czasie. Obecne algorytmy filtrowania i percepcji można łączyć, aby rozsądnie rozpoznawać obiekty („to kot”) i zgłaszać predykaty niskiego poziomu („kubek jest na stole”). Rozpoznawanie działań wyższego poziomu, takich jak „Dr. Russell pije herbatę z doktorem Norvigiem podczas omawiania planów na przyszły tydzień” jest trudniejszy. Obecnie można to czasami zrobić , biorąc pod uwagę wystarczającą liczbę przykładów szkoleniowych, ale przyszłe postępy będą wymagały technik, które uogólniają się na nowe sytuacje, nie wymagając wyczerpujących przykładów. Innym problemem jest to, że chociaż przybliżone algorytmy filtrowania radzą sobie z dość dużymi środowiskami, nadal mają do czynienia z reprezentacją faktorową – mają zmienne losowe, ale nie reprezentują jawnie obiektów i relacji. Również ich pojęcie czasu ogranicza się do stopniowej zmiany; biorąc pod uwagę ostatnią trajektorię kuli, możemy przewidzieć, gdzie będzie w czasie t +1, ale trudno jest przedstawić abstrakcyjną ideę, że to, co wznosi się, musi spaść.

Komponenty AI

https://aie24.pl/

W tej sekcji omówiono komponenty systemów SI oraz zakres, w jakim każdy z nich może przyspieszyć lub utrudnić przyszły postęp.

Czujniki i aktuatory

Przez większość historii sztucznej inteligencji bezpośredni dostęp do świata był rażąco nieobecny. Z kilkoma godnymi uwagi wyjątkami systemy sztucznej inteligencji zostały zbudowane w taki sposób, że ludzie musieli dostarczać dane wejściowe i interpretować dane wyjściowe. Tymczasem systemy robotyczne koncentrowały się na zadaniach niskiego poziomu, w których rozumowanie i planowanie wysokiego poziomu były w dużej mierze ignorowane, a potrzeba percepcji została zminimalizowana. Było to częściowo spowodowane dużymi kosztami i wysiłkiem inżynieryjnym wymaganym, aby prawdziwe roboty w ogóle działały, a częściowo z powodu braku wystarczającej mocy obliczeniowej i wystarczająco skutecznych algorytmów do obsługi danych wizualnych o dużej przepustowości. Sytuacja uległa gwałtownej zmianie w ostatnich latach dzięki dostępności gotowych programowalnych robotów. Te z kolei skorzystały na kompaktowych, niezawodnych napędach silnikowych i ulepszonych czujnikach. Koszt lidaru do autonomicznego samochodu spadł z 75 000 USD do 1000 USD, 1064 a wersja jednoukładowa może osiągnąć 10 USD za sztukę . Czujniki radarowe, niegdyś zdolne do wykrywania tylko gruboziarnistego, są teraz wystarczająco czułe, aby zliczyć liczbę arkuszy w stosie papieru . Zapotrzebowanie na lepsze przetwarzanie obrazu w kamerach do telefonów komórkowych dało nam niedrogie kamery o wysokiej rozdzielczości do zastosowania w robotyce. Technologia MEMS (systemy mikroelektromechaniczne) dostarczyła zminiaturyzowane akcelerometry, żyroskopy i siłowniki wystarczająco małe, aby zmieściły się w sztucznych owadach latających. Możliwe jest połączenie milionów urządzeń MEMS w celu wyprodukowania potężnych siłowników makroskopowych. Druk 3D  i biodruk  ułatwiły eksperymentowanie z prototypami. Widzimy zatem, że systemy sztucznej inteligencji znajdują się u progu przejścia od systemów opartych głównie na oprogramowaniu do przydatnych wbudowanych systemów robotycznych. Dzisiejszy stan robotyki jest z grubsza porównywalny ze stanem komputerów osobistych na początku lat 80.: w tamtym czasie komputery osobiste były dostępne, ale upłynie kolejna dekada, zanim staną się powszechne. Jest prawdopodobne, że elastyczne, inteligentne roboty najpierw zrobią postępy w przemyśle (gdzie środowiska są bardziej kontrolowane, zadania są bardziej powtarzalne, a wartość inwestycji łatwiej zmierzyć) przed rynkiem macierzystym (gdzie występuje większa zmienność środowiska i zadania).

PRZYSZŁOŚĆ AI

https://aie24.pl/

Wcześniej postanowiliśmy spojrzeć na sztuczną inteligencję jako zadanie polegające na projektowaniu w przybliżeniu racjonalnych agentów. Rozważano wiele różnych projektów agentów, od agentów odruchowych, przez agentów opartych na teorii decyzji, po agentów głębokiego uczenia wykorzystujących uczenie wzmacniające. Istnieje również różnorodność technologii komponentów, z których składa się te projekty: rozumowanie logiczne, probabilistyczne lub neuronowe; atomowe, czynnikowe lub ustrukturyzowane reprezentacje stanów; różne algorytmy uczenia się z różnych typów danych; czujniki i siłowniki do interakcji ze światem. Wreszcie, widzieliśmy różnorodne zastosowania w medycynie, finansach, transporcie, komunikacji i innych dziedzinach. Na wszystkich tych frontach dokonał się postęp, zarówno w naszym zrozumieniu naukowym, jak i w naszych możliwościach technologicznych. Większość ekspertów z optymizmem patrzy na dalsze postępy; Jak widzieliśmy, mediana oszacowana jest dla AI w przybliżeniu na poziomie człowieka w szerokim zakresie zadań gdzieś w ciągu najbliższych 50 do 100 lat. Przewiduje się, że w ciągu następnej dekady sztuczna inteligencja przyniesie gospodarce biliony dolarów każdego roku. Ale, jak widzieliśmy, są też krytycy, którzy uważają, że ogólna sztuczna inteligencja jest odległa o wieki i istnieje wiele obaw etycznych dotyczących uczciwości, sprawiedliwości i śmiertelności sztucznej inteligencji. W tym rozdziale pytamy: dokąd zmierzamy i co pozostaje do zrobienia? Robimy to, pytając, czy mamy odpowiednie komponenty, architektury i cele, aby sztuczna inteligencja była skuteczną technologią, która przyniesie korzyści światu.

Streszczenie

https://aie24.pl/

  • Filozofowie używają terminu słaba sztuczna inteligencja dla hipotezy, że maszyny mogą zachowywać się inteligentnie, a silna sztuczna inteligencja dla hipotezy, że takie maszyny będą liczone jako posiadające rzeczywiste umysły (w przeciwieństwie do symulowanych umysłów).
  • Alan Turing odrzucił pytanie „Czy maszyny mogą myśleć?” i zastąpiła go testem behawioralnym. Przewidział wiele zastrzeżeń do możliwości myślących maszyn. Niewielu badaczy sztucznej inteligencji zwraca uwagę na test Turinga, woląc skoncentrować się na wydajności swoich systemów na praktycznych zadaniach, niż na umiejętności naśladowania ludzi.
  • Świadomość pozostaje tajemnicą.
  • Sztuczna inteligencja to potężna technologia i jako taka stwarza potencjalne zagrożenia, poprzez śmiercionośną broń autonomiczną, naruszenia bezpieczeństwa i prywatności, niezamierzone skutki uboczne, niezamierzone błędy i złośliwe nadużycia. Osoby pracujące z technologią AI mająetyczny imperatyw, aby odpowiedzialnie zmniejszyć te zagrożenia.
  • Systemy SI muszą być w stanie wykazać, że są uczciwe, godne zaufania i przejrzyste.
  • Istnieje wiele aspektów sprawiedliwości i niemożliwe jest zmaksymalizowanie ich wszystkich naraz. Tak więc pierwszym krokiem jest podjęcie decyzji, co uważa się za sprawiedliwe.

• Automatyzacja już zmienia sposób pracy ludzi. Jako społeczeństwo będziemy musieli poradzić sobie z tymi zmianami.

Bezpieczeństwo AI

https://aie24.pl/

Prawie każda technologia może spowodować szkody w niepowołanych rękach, ale w przypadku sztucznej inteligencji i robotyki ręce mogą działać samodzielnie. Niezliczone historie science fiction ostrzegały przed robotami lub cyborgami wpadającymi w amok. Wczesne przykłady to Frankenstein lub nowoczesny Prometeusz Mary Shelley (1818) i sztuka Karela Cápka R.U.R. (1920), w którym roboty podbijają świat. W filmach mamy Terminatora (1984) i Matrix (1999), które przedstawiają roboty próbujące wyeliminować ludzi — robopokalipsę (Wilson, 2011). Być może roboty są tak często złoczyńcami, ponieważ reprezentują nieznane, podobnie jak czarownice i duchy z wcześniejszych epok. Możemy mieć nadzieję, że robot, który jest wystarczająco inteligentny, aby dowiedzieć się, jak zakończyć rasę ludzką, jest również wystarczająco inteligentny, aby dowiedzieć się, że nie była to zamierzona funkcja użytkowa; ale budując inteligentne systemy, chcemy polegać nie tylko na nadziei, ale na procesie projektowania z gwarancją bezpieczeństwa. Rozprowadzanie niebezpiecznego agenta AI byłoby nieetyczne. Wymagamy, aby nasi agenci unikali wypadków, byli odporni na ataki przeciwnika i złośliwe nadużycia oraz ogólnie powodowali korzyści, a nie szkody. Jest to szczególnie ważne, ponieważ agenci AI są wdrażani w zastosowaniach krytycznych dla bezpieczeństwa, takich jak prowadzenie samochodów, kontrolowanie robotów w niebezpiecznych warunkach fabrycznych lub budowlanych oraz podejmowanie decyzji medycznych dotyczących życia lub śmierci. Inżynieria bezpieczeństwa w tradycyjnych dziedzinach inżynierii ma długą historię. Wiemy, jak budować mosty, samoloty, statki kosmiczne i elektrownie, które są zaprojektowane tak, aby zachowywały się bezpiecznie nawet w przypadku awarii komponentów systemu. Pierwsza technika to analiza trybów i skutków awarii (FMEA): analitycy rozważają każdy element systemu i wyobrażają sobie każdy możliwy sposób, w jaki element może pójść nie tak (na przykład, co by było, gdyby ta śruba padła?), czerpiąc z przeszłych doświadczeń i obliczeń opartych na fizycznych właściwościach elementu. Następnie analitycy pracują do przodu, aby zobaczyć, co wyniknie z niepowodzenia. Jeśli wynik jest poważny (część mostu może się zawalić), analitycy zmieniają projekt, aby złagodzić awarię. (Dzięki temu dodatkowemu elementowi poprzecznemu most może przetrwać awarię dowolnych 5 śrub; z tym serwerem zapasowym usługa online może przetrwać tsunami, usuwając serwer główny). Technika analizy drzewa błędów (FTA) służy do dokonaj następujących ustaleń: analitycy budują drzewo AND/OR możliwych awarii i przypisują prawdopodobieństwa do każdej pierwotnej przyczyny, umożliwiając obliczenie ogólnego prawdopodobieństwa awarii. Techniki te mogą i powinny być stosowane do wszystkich systemów inżynieryjnych o kluczowym znaczeniu dla bezpieczeństwa, w tym systemów sztucznej inteligencji. Dziedzina inżynierii oprogramowania ma na celu wytwarzanie niezawodnego oprogramowania, ale historycznie nacisk kładziono na poprawność, a nie bezpieczeństwo. Poprawność oznacza, że ​​oprogramowanie wiernie realizuje specyfikację. Ale bezpieczeństwo wykracza poza to, aby nalegać, aby specyfikacja uwzględniała wszelkie możliwe tryby awarii i została zaprojektowana tak, aby degradować się z wdziękiem nawet w obliczu nieprzewidzianych awarii. Na przykład oprogramowanie do autonomicznego samochodu nie zostałoby uznane za bezpieczne, chyba że poradziłoby sobie z nietypowymi sytuacjami. Na przykład, co się stanie, jeśli wyłączy się zasilanie głównego komputera? System bezpieczny będzie posiadał komputer zapasowy z osobnym zasilaniem. Co się stanie, jeśli opona zostanie przebita przy dużej prędkości? Bezpieczny system zostanie przetestowany pod kątem tego i będzie posiadał oprogramowanie do korygowania wynikającej z tego utraty kontroli. Agent zaprojektowany jako maksymalizujący użyteczność lub osiągający cele może być niebezpieczny, jeśli ma niewłaściwą funkcję celu. Załóżmy, że dajemy robotowi zadanie przyniesienia kawy z kuchni. Możemy mieć kłopoty z niezamierzonymi skutkami ubocznymi – robot może spieszyć się do celu, przewracając po drodze lampy i stoły. Podczas testów możemy zauważyć tego rodzaju zachowanie i zmodyfikować funkcję użyteczności, aby sankcjonować takie szkody, ale projektantom i testerom trudno jest przewidzieć wszystkie możliwe skutki uboczne z wyprzedzeniem. Jednym ze sposobów radzenia sobie z tym jest zaprojektowanie robota tak, aby miał niewielki wpływ (Armstrong i Levinstein, 2017): zamiast po prostu maksymalizować użyteczność, zmaksymalizuj użyteczność bez ważonego podsumowania wszystkich zmian w stanie świata. W ten sposób, gdy wszystkie inne rzeczy są równe, robot woli nie zmieniać tych rzeczy, których wpływ na użyteczność jest nieznany; więc unika przewrócenia lampy nie dlatego, że konkretnie wie, że przewrócenie lampy spowoduje jej przewrócenie i pęknięcie, ale dlatego, że ogólnie wie, że zakłócenia mogą być złe. Można to postrzegać jako wersję credo lekarza „po pierwsze nie szkodzić” lub jako analogię do regularyzacji w uczeniu maszynowym: chcemy polityki, która osiąga cele, ale wolimy polityki, które podejmują płynne działania o niewielkim wpływie dostać się tam. Sztuczka polega na tym, jak zmierzyć wpływ. Niedopuszczalne jest przewracanie delikatnej lampy, ale zupełnie dobrze, jeśli cząsteczki powietrza w pomieszczeniu zostaną trochę zakłócone lub jeśli niektóre bakterie w pomieszczeniu zostaną nieumyślnie zabite. Z pewnością niedopuszczalne jest krzywdzenie zwierząt domowych i ludzi w pokoju. Musimy upewnić się, że robot zna różnice między tymi przypadkami (i wieloma subtelnymi przypadkami pomiędzy nimi) poprzez połączenie programowania jawnego, uczenia maszynowego w czasie i rygorystycznych testów. Funkcje użyteczności mogą się nie udać z powodu efektów zewnętrznych, słowa używanego przez ekonomistów dla czynników, które są poza tym, co jest mierzone i opłacane. Świat cierpi, gdy gazy cieplarniane są uważane za efekty zewnętrzne – firmy i kraje nie są karane za ich produkcję, w wyniku czego cierpią wszyscy. Ekolog Garrett Hardin (1968) nazwał eksploatację wspólnych zasobów tragedią wspólnego dobra. Możemy złagodzić tę tragedię, internalizując efekty zewnętrzne — czyniąc je częścią funkcji użyteczności, na przykład podatkiem węglowym — lub stosując zasady projektowania, które ekonomistka Elinor Ostrom określiła jako stosowane przez miejscową ludność na całym świecie od wieków (praca, która zdobyła Nagrodę Nobla w dziedzinie ekonomii w 2009 roku):

  • Jasno określ współdzielony zasób i kto ma do niego dostęp.
  • Dostosować się do lokalnych warunków.
  • Pozwól wszystkim stronom uczestniczyć w podejmowaniu decyzji.
  • Monitoruj zasoby za pomocą odpowiedzialnych monitorów.
  • Sankcje proporcjonalne do wagi naruszenia.
  • Proste procedury rozwiązywania konfliktów.
  • Hierarchiczna kontrola dużych zasobów współdzielonych.

Victoria Krakovna (2018) skatalogowała przykłady agentów AI, którzy ograli system, zastanawiając się, jak zmaksymalizować użyteczność bez faktycznego rozwiązywania problemu, który ich projektanci mieli rozwiązać. Dla projektantów wygląda to na oszustwo, ale dla agentów po prostu wykonują swoją pracę. Niektórzy agenci wykorzystali błędy w symulacji (takie jak błędy przepełnienia zmiennoprzecinkowego), aby zaproponować rozwiązania, które nie będą działać po naprawieniu błędu. Kilku agentów w grach wideo odkryło sposoby na zawieszenie lub wstrzymanie gry, gdy mieli przegrać, unikając w ten sposób kary. A w specyfikacji, w której awaria gry była karana, jeden agent nauczył się zużywać tylko tyle pamięci gry, że gdy nadejdzie kolej przeciwnika, zabraknie pamięci i spowoduje awarię gry. Wreszcie, algorytm genetyczny działający w symulowanym świecie miał wyewoluować szybko poruszające się stworzenia, ale w rzeczywistości wytworzył stworzenia, które były niezwykle wysokie i poruszały się szybko, przewracając się. Projektanci agentów powinni być świadomi tego rodzaju błędów specyfikacji i podejmować kroki w celu ich uniknięcia. Aby im w tym pomóc, Krakovna był częścią zespołu, który wydał środowiska AI Safety Gridworlds , które pozwalają projektantom przetestować, jak dobrze działają ich agenci. Morał jest taki, że musimy być bardzo ostrożni w określaniu tego, czego chcemy, ponieważ dzięki maksymalizatorom użyteczności otrzymujemy to, o co faktycznie prosiliśmy. Problem dostosowania wartości polega na upewnieniu się, że to, o co prosimy, jest tym, czego naprawdę chcemy; jest również znany jako problem King Midas. Wpadamy w kłopoty, gdy funkcja narzędzia nie jest w stanie uchwycić podstawowych norm społecznych dotyczących akceptowalnego zachowania. Na przykład człowiek zatrudniony do czyszczenia podłóg, w obliczu bałaganu, który wielokrotnie tropi w błocie, wie, że można grzecznie poprosić tę osobę, aby była bardziej ostrożna, ale niedopuszczalne jest porwanie lub obezwładnienie tej osoby. . Robot sprzątający również musi wiedzieć te rzeczy, albo poprzez programowanie jawne, albo ucząc się na podstawie obserwacji. Próba spisania wszystkich zasad, aby robot zawsze postępował właściwie, jest prawie na pewno beznadziejna. Od kilku tysięcy lat bezskutecznie próbujemy tworzyć wolne od luk przepisy podatkowe. Lepiej sprawić, by robot chciał płacić podatki, że tak powiem, niż próbować tworzyć zasady, które zmusiłyby go do tego, gdy naprawdę chce zrobić coś innego. Wystarczająco inteligentny robot znajdzie sposób na zrobienie czegoś innego. Roboty mogą nauczyć się lepiej dostosowywać do ludzkich preferencji, obserwując ludzkie zachowanie. Wiąże się to wyraźnie z pojęciem nauki zawodu (sekcja 23.6). Robot może nauczyć się polityki, która bezpośrednio sugeruje, jakie działania podjąć w jakich sytuacjach; jest to często prosty problem związany z nauką nadzorowaną, jeśli otoczenie jest obserwowalne. Na przykład robot może oglądać człowieka grającego w szachy: każda para stan-działanie jest przykładem procesu uczenia się. Niestety taka forma uczenia się naśladownictwa powoduje, że robot będzie powtarzał ludzkie błędy. Zamiast tego robot może zastosować odwrotne uczenie ze wzmacnianiem, aby odkryć funkcję użyteczności, pod którą muszą działać ludzie. Obserwowanie nawet okropnych szachistów prawdopodobnie wystarczy, aby robot poznał cel gry. Biorąc pod uwagę tylko te informacje, robot może następnie przewyższyć ludzką wydajność – tak jak na przykład ALPHAZERO w szachach – poprzez obliczanie optymalnych lub prawie optymalnych strategii na podstawie celu. Takie podejście sprawdza się nie tylko w grach planszowych, ale także w rzeczywistych zadaniach fizycznych, takich jak akrobacje śmigłowcowe (Coates i in., 2009). W bardziej złożonych środowiskach obejmujących, na przykład, interakcje społeczne z ludźmi, jest bardzo mało prawdopodobne, że robot będzie zbieżny z dokładną i poprawną wiedzą o indywidualnych preferencjach każdego człowieka. (W końcu wielu ludzi nigdy do końca nie dowiaduje się, co sprawia, że ​​inni ludzie działają, pomimo wieloletniego doświadczenia, a wielu z nas nie jest również pewnych własnych preferencji). o ludzkich preferencjach. W rozdziale 17 wprowadziliśmy gry asystujące, które oddają dokładnie tę sytuację. Rozwiązania gier asystujących obejmują zachowanie ostrożności, aby nie zakłócać aspektów świata, o które człowiek może dbać, oraz zadawanie pytań. Na przykład robot może zapytać, czy przekształcenie oceanów w kwas siarkowy jest akceptowalnym rozwiązaniem globalnego ocieplenia, zanim zrealizuje plan. W kontaktach z ludźmi robot rozwiązujący grę asystującą musi uwzględniać ludzkie niedoskonałości. Jeśli robot poprosi o pozwolenie, człowiek może je udzielić, nie przewidując, że propozycja robota jest w rzeczywistości katastrofalna w dłuższej perspektywie. Co więcej, ludzie nie mają pełnego introspektywnego dostępu do swojej prawdziwej funkcji użyteczności i nie zawsze działają w sposób, który jest z nią zgodny. Ludzie czasami kłamią, oszukują lub robią rzeczy, o których wiedzą, że są złe. Czasami podejmują działania autodestrukcyjne, takie jak przejadanie się lub nadużywanie narkotyków. Systemy AI nie muszą uczyć się przyjmować tych problematycznych tendencji, ale muszą zrozumieć, że one istnieją, interpretując ludzkie zachowanie, aby dotrzeć do podstawowych ludzkich preferencji. Pomimo tego zestawu narzędzi ochronnych, istnieje obawa, wyrażana przez wybitnych technologów, takich jak Bill Gates i Elon Musk oraz naukowców, takich jak Stephen Hawking i Martin Rees, że sztuczna inteligencja może wyewoluować spod kontroli. Ostrzegają, że nie mamy doświadczenia w kontrolowaniu potężnych nieludzkich istot o nadludzkich zdolnościach. Jednak to nie do końca prawda; mamy wielowiekowe doświadczenia z narodami i korporacjami; nieludzkie istoty, które agregują moc tysięcy lub milionów ludzi. Nasza historia kontrolowania tych bytów nie jest zbyt zachęcająca: narody wywołują okresowe konwulsje zwane wojnami, które zabijają dziesiątki milionów ludzi i korporacji są częściowo odpowiedzialne za globalne ocieplenie i naszą niezdolność do stawienia mu czoła. Systemy sztucznej inteligencji mogą stwarzać znacznie większe problemy niż narody i korporacje ze względu na ich potencjał do samodoskonalenia się w szybkim tempie, jak zauważył I. J. Good (1965b):

Niech ultrainteligentną maszynę można zdefiniować jako maszynę, która może znacznie przewyższyć wszelkie intelektualne działania każdego człowieka, choćby najmądrzejszego. Ponieważ projektowanie maszyn jest jedną z tych czynności intelektualnych, ultrainteligentna maszyna mogłaby zaprojektować jeszcze lepsze maszyny; wtedy bez wątpienia nastąpiłby „wybuch inteligencji”, a inteligencja człowieka zostałaby daleko w tyle. Tak więc pierwsza ultrainteligentna maszyna jest ostatnim wynalazkiem, jaki człowiek musi kiedykolwiek stworzyć, pod warunkiem, że maszyna jest na tyle posłuszna, by mówić nam, jak utrzymać ją pod kontrolą.

„Eksplozja inteligencji” Gooda została również nazwana technologiczną osobliwością przez profesora matematyki i autora science fiction Vernor Vinge, który napisał w 1993 roku: „W ciągu trzydziestu lat będziemy dysponować środkami technologicznymi, aby stworzyć nadludzką inteligencję. Wkrótce era człowieka dobiegnie końca”. W 2017 r. wynalazca i futurysta Ray Kurzweil przewidział, że osobliwość pojawi się do 2045 r., co oznacza, że ​​w ciągu 24 lat zbliży się o 2 lata. (W tym tempie zostało już tylko 336 lat!) Vinge i Kurzweil słusznie zauważają, że postęp technologiczny w wielu miarach rośnie obecnie wykładniczo. Ekstrapolacja od gwałtownie malejącego kosztu obliczeń do osobliwości to jednak spory skok. Jak dotąd każda technologia podążała krzywą w kształcie litery S, gdzie wykładniczy wzrost w końcu się zmniejsza. Czasami nowe technologie wkraczają, gdy stare są w fazie plateau, ale czasami nie jest możliwe utrzymanie wzrostu z powodów technicznych, politycznych lub socjologicznych. Na przykład technologia latania rozwinęła się dramatycznie od lotu braci Wright w 1903 roku do lądowania na Księżycu w 1969 roku, ale od tego czasu nie nastąpił przełom o porównywalnej wielkości. Kolejną przeszkodą na drodze do opanowania świata przez ultrainteligentne maszyny jest świat. Mówiąc dokładniej, niektóre rodzaje postępu wymagają nie tylko myślenia, ale działania w świecie fizycznym. (Kevin Kelly nazywa przesadny nacisk na myślenie o czystej inteligencji). Ultrainteligentna maszyna, której zadaniem jest stworzenie wielkiej, zunifikowanej teorii fizyki, może być w stanie sprytnie manipulować równaniami miliard razy szybciej niż Einstein, ale aby osiągnąć jakikolwiek prawdziwy postęp, nadal musiałaby to zrobić. zebrać miliony dolarów, aby zbudować mocniejszy superzderzacz i przeprowadzać eksperymenty fizyczne przez miesiące lub lata. Dopiero wtedy mógł zacząć analizować dane i teoretyzować. W zależności od tego, jak okażą się dane, następny krok może wymagać zebrania dodatkowych miliardów dolarów na międzygwiezdną misję sondy, której ukończenie zajęłoby wieki. Część „ultrainteligentnego myślenia” tego całego procesu może być w rzeczywistości najmniej ważną częścią. Jako inny przykład, ultrainteligentna maszyna, której zadaniem jest zaprowadzenie pokoju na Bliskim Wschodzie, może być 1000 razy bardziej sfrustrowana niż ludzki wysłannik. Jak dotąd nie wiemy, ile wielkich problemów przypomina matematykę, a ile Bliski Wschód. Podczas gdy niektórzy ludzie boją się osobliwości, inni rozkoszują się nią. Ruch społeczny transhumanizmu oczekuje przyszłości, w której ludzie połączą się lub zastąpią wynalazki robotyczne i biotechnologiczne. Ray Kurzweil pisze w The Singularity is Near (2005):

Osobliwość pozwoli nam przekroczyć te ograniczenia naszych biologicznych ciał i mózgu. Zyskamy władzę nad naszym losem. . . .Będziemy mogli żyć tak długo, jak zechcemy. . .W pełni zrozumiemy ludzkie myślenie i znacznie rozszerzymy i poszerzymy jego zasięg. Pod koniec tego stulecia niebiologiczna część naszej inteligencji będzie biliony bilionów razy potężniejsza niż niewspomagana ludzka inteligencja. Podobnie, zapytany o to, czy roboty odziedziczą Ziemię, Marvin Minsky odpowiedział „tak, ale będą naszymi dziećmi”. Możliwości te stanowią wyzwanie dla większości teoretyków moralności, którzy uważają zachowanie ludzkiego życia i gatunku ludzkiego za coś dobrego. Kurzweil również zauważa potencjalne niebezpieczeństwa, pisząc: „Ale Osobliwość zwiększy również zdolność do działania na naszych destrukcyjnych skłonnościach, więc jej pełna historia nie została jeszcze napisana”. My, ludzie, zrobilibyśmy dobrze, gdybyśmy mieli pewność, że każda inteligentna maszyna, którą projektujemy dzisiaj, która może ewoluować w ultrainteligentną maszynę, zrobi to w sposób, który w końcu będzie nas dobrze traktował. Jak ujął to Eric Brynjolfsson: „Przyszłość nie jest z góry dyktowana przez maszyny. Tworzą go ludzie”.

Prawa robota

http://aie24.pl/

Kwestia świadomości robota, omówiona w sekcji 28.2, ma kluczowe znaczenie dla pytania, jakie prawa, jeśli w ogóle, powinny mieć roboty. Jeśli nie mają świadomości, żadnych qualia, to niewielu twierdzi, że zasługują na prawa. Ale jeśli roboty mogą odczuwać ból, jeśli mogą bać się śmierci, jeśli są uważane za „osoby”, to można wysunąć argument (np. Sparrow (2004)), że mają prawa i zasługują na uznanie ich praw, tak jak niewolnicy, kobiety i inne historycznie uciskane grupy walczyły o uznanie ich praw. Kwestia osobowości robota jest często rozważana w fikcji: od Pigmaliona, przez Copp’elię, przez Pinokia, po filmy AI i Stulecia, mamy legendę o ożywionej laleczce/robocie, która stara się być zaakceptowana jako człowiek z prawami człowieka . W prawdziwym życiu Arabia Saudyjska trafiła na nagłówki gazet, przyznając honorowe obywatelstwo Sophii, lalce o ludzkim wyglądzie, zdolnej do wypowiadania zaprogramowanych kwestii. Skoro roboty mają prawa, to nie powinny być zniewolone i pojawia się pytanie, czy ich przeprogramowanie byłoby rodzajem zniewolenia. Kolejna kwestia etyczna dotyczy praw do głosowania: bogata osoba może kupić tysiące robotów i zaprogramować je na oddawanie tysięcy głosów – czy te głosy mają się liczyć? Jeśli robot sklonuje się, czy obaj mogą głosować? Jaka jest granica między upychaniem kart do głosowania a wykonywaniem wolnej woli i kiedy głosowanie w robotach narusza zasadę „jedna osoba, jeden głos”?

Ernie Davis opowiada się za unikaniem dylematów świadomości robotów, nigdy nie budując robotów, które można by uznać za świadome. Ten argument został wcześniej przedstawiony przez Josepha Weizenbauma w książce Computer Power and Human Reason (1976), a wcześniej Julien de La Mettrie w L’Homme Machine (1748). Roboty to narzędzia, które tworzymy, do wykonywania zadań, które im zlecamy, a jeśli nadajemy im osobowość, po prostu odmawiamy wzięcia odpowiedzialności za działania własnej własności: „Nie ponoszę winy za siebie- wypadek samochodowy – samochód zrobił to sam”. Ta kwestia przybiera inny obrót, jeśli opracujemy hybrydy człowieka i robota. Oczywiście mamy już ludzi wzbogaconych technologią, taką jak soczewki kontaktowe, rozruszniki serca i sztuczne biodra. Ale dodanie protez obliczeniowych może zamazać granice między człowiekiem a maszyną.