Techniki sztucznej inteligencji są przydatne w obronie przed cyberatakami, na przykład poprzez wykrywanie nietypowych wzorców zachowań, ale przyczynią się również do zwiększenia siły, przeżywalności i możliwości rozprzestrzeniania się złośliwego oprogramowania. Na przykład, metody uczenia się przez wzmocnienie zostały wykorzystane do stworzenia wysoce skutecznych narzędzi do zautomatyzowanego, spersonalizowanego szantażu i ataków phishingowych. Powrócimy do tych tematów bardziej szczegółowo w rozdziale 27.3. Gdy systemy sztucznej inteligencji staną się bardziej wydajne, przejmą więcej ról społecznych, które wcześniej odgrywali ludzie. Tak jak ludzie wykorzystywali te role w przeszłości do popełniania psot, możemy się spodziewać, że ludzie mogą nadużywać systemów sztucznej inteligencji w tych rolach, aby popełniać jeszcze więcej psot. Wszystkie powyższe przykłady wskazują na znaczenie zarządzania i, ostatecznie, regulacji. Obecnie, społeczność naukowa i główne korporacje zaangażowane w badania nad sztuczną inteligencją opracowały dobrowolne zasady samorządności dla działań związanych z AI. Rządy i organizacje międzynarodowe tworzą organy doradcze w celu opracowania odpowiednich regulacji dla każdego konkretnego przypadku użycia, przygotowania się na skutki gospodarcze i społeczne oraz wykorzystania możliwości sztucznej inteligencji w celu rozwiązania głównych problemów społecznych. A co w dłuższej perspektywie? Czy osiągniemy odwieczny cel: stworzenie inteligencji porównywalnej lub bardziej zdolnej niż inteligencja ludzka? A jeśli tak, to co wtedy? Przez większą część historii sztucznej inteligencji pytania te były przyćmione przez codzienny trud zmuszania systemów sztucznej inteligencji do robienia czegokolwiek, nawet zdalnie inteligentnego. Podobnie jak w przypadku każdej szerokiej dyscypliny, zdecydowana większość badaczy sztucznej inteligencji wyspecjalizowała się w określonej poddziedzinie, takiej jak rozgrywka, reprezentacja wiedzy, wizja lub rozumienie języka naturalnego – często zakładając, że postęp w tych poddziedzinach przyczyniłby się do szerszych celów sztucznej inteligencji. Nils Nilsson (1995), jeden z pierwotnych liderów projektu Shakey’a w SRI, przypomniał te szersze cele i ostrzegł, że poddziedziny mogą stać się celami samymi w sobie. Później niektórzy wpływowi twórcy sztucznej inteligencji, w tym John McCarthy (2007), Marvin Minsky (2007) i Patrick Winsto, zgodzili się z ostrzeżeniami Nilssona, sugerując, że zamiast koncentrować się na mierzalnej wydajności w określonych zastosowaniach, sztuczna inteligencja powinna powrócić do swoich korzeni dążenia do, słowami Herba Simona, „maszyny, które myślą, które uczą się i które tworzą”. Nazwali wysiłek AI na poziomie człowieka lub HLAI – maszyna powinna być w stanie nauczyć się wszystkiego, co może zrobić człowiek. Ich pierwsze sympozjum odbyło się w 2004 roku (Minsky i in., 2004). Inny wysiłek o podobnych celach, ruch sztucznej ogólnej inteligencji (AGI) (Goertzel i Pennachin, 2007), zorganizował swoją pierwszą konferencję i zorganizował Journal of Artificial General Intelligence w 2008 roku. Mniej więcej w tym samym czasie pojawiły się obawy, że tworzenie sztucznej superinteligencji lub inteligencja ASI, która znacznie przewyższa ludzkie możliwości, może być złym pomysłem. Sam Turing (1996) przedstawił to samo w wykładzie wygłoszonym w Manchesterze w 1951, czerpiąc z wcześniejszych pomysłów Samuela Butlera (1863):
Jeszcze wcześniej, w 1847 roku, Richard Thornton, redaktor Primitive Expounder, złorzeczył mechanicznym kalkulatorom: „Umysł… wyprzedza sam siebie i usuwa konieczność własnego istnienia poprzez wynalezienie maszyn do samodzielnego myślenia. … Ale kto wie, że takie maszyny, gdy zostaną doprowadzone do większej doskonałości, mogą nie wymyślić planu naprawienia wszystkich własnych wad, a następnie zmielenia pomysłów poza zasięgiem umysłu śmiertelnika!
Wydaje się prawdopodobne, że po uruchomieniu metody myślenia maszynowego, pokonanie naszych słabych sił nie zajęłoby dużo czasu. … Na pewnym etapie powinniśmy się więc spodziewać, że maszyny przejmą kontrolę, tak jak jest to wspomniane w Erewhonie Samuela Butlera. Obawy te stały się bardziej rozpowszechnione wraz z ostatnimi postępami w nauczaniu głębokim, publikacją książek takich jak Superintelligence Nicka Bostroma (2014) oraz publicznymi oświadczeniami Stephena Hawkinga, Billa Gatesa, Martina Reesa i Elona Muska. Doświadczanie ogólnego poczucia niepokoju z myślą o stworzeniu superinteligentnych maszyn jest całkowicie naturalne. Możemy nazwać to problemem goryli: około siedem milionów lat temu wyewoluował nowy wymarły naczelny, którego jedna gałąź prowadziła do goryli, a druga do ludzi. Dziś goryle nie są zbyt zadowolone z ludzkiej gałęzi; zasadniczo nie mają kontroli nad swoją przyszłością. Jeśli jest to wynikiem sukcesu w tworzeniu nadludzkiej sztucznej inteligencji – że ludzie przekazują kontrolę nad swoją przyszłością – to być może powinniśmy zaprzestać prac nad sztuczną inteligencją i w konsekwencji zrezygnować z korzyści, jakie może ona przynieść. To jest istota ostrzeżenia Turinga: nie jest oczywiste, że możemy kontrolować maszyny, które są bardziej inteligentne od nas.
Jeśli nadludzka sztuczna inteligencja byłaby czarną skrzynką, która przybyła z kosmosu, to rzeczywiście rozsądnie byłoby zachować ostrożność podczas otwierania skrzynki. Ale tak nie jest: projektujemy systemy sztucznej inteligencji, więc jeśli w końcu „przejmą kontrolę”, jak sugeruje Turing, będzie to wynikiem niepowodzenia projektu. Aby uniknąć takiego wyniku, musimy zrozumieć źródło potencjalnej porażki. Norbert Wiener (1960), który był zmotywowany do rozważenia długoterminowej przyszłości sztucznej inteligencji po tym, jak zobaczył, jak program gry w warcaby Arthura Samuela uczy się pokonywać swojego twórcę, miał to do powiedzenia:
Jeśli do realizacji naszych celów używamy mechanicznej agencji, w której działanie nie możemy skutecznie ingerować… lepiej bądźmy całkowicie pewni, że cel włożony w maszynę jest celem, który naprawdę pragniemy.
Wiele kultur ma mity o ludziach, którzy proszą o coś bogów, dżinów, magów lub diabły. Niezmiennie w tych historiach dostają to, o co dosłownie proszą, a potem tego żałują. Trzecim życzeniem, jeśli jest jedno, jest cofnięcie dwóch pierwszych. Nazwiemy to problem Króla Midasa: Midas, legendarny król w mitologii greckiej, poprosił, aby wszystko, czego dotknął, zamieniło się w złoto, ale potem tego pożałował po dotknięciu jego jedzenia, picia i członków rodziny. Rozwiązaniem trudnej sytuacji Wienera nie jest w ogóle posiadanie określonego „celu włożonego w maszynę”. Zamiast tego chcemy maszyn, które dążą do osiągnięcia ludzkich celów, ale wiedzą, że nie wiedzą na pewno, jakie są te cele. Być może niefortunne jest to, że prawie wszystkie dotychczasowe badania nad sztuczną inteligencją zostały przeprowadzone w modelu standardowym, co oznacza, że prawie cały materiał techniczny w tym wydaniu odzwierciedla te ramy intelektualne. Istnieją jednak pewne wczesne wyniki w nowych ramach. W rozdziale 16 pokazujemy, że maszyna ma pozytywny bodziec, by pozwolić sobie na wyłączenie wtedy i tylko wtedy, gdy jest niepewna co do ludzkiego celu. Sformułujemy i badamy gry asystujące, które matematycznie opisują sytuację, w której człowiek ma cel, a maszyna próbuje go osiągnąć, ale początkowo nie jest pewna, co to jest. Potem wyjaśniamy metody uczenia się ze wzmocnieniem odwrotnym które pozwalają maszynom dowiedzieć się więcej o ludzkich preferencjach na podstawie obserwacji wyborów dokonywanych przez ludzi. Potem zbadamy dwie główne trudności: po pierwsze, nasze wybory zależą od naszych preferencji dzięki bardzo złożonej architekturze poznawczej, którą trudno odwrócić; a po drugie, że my, ludzie, możemy nie mieć spójnych preferencji – indywidualnie lub jako grupa – więc może nie być jasne, co systemy sztucznej inteligencji powinny dla nas robić.