Przyszłość pracy

https://aie24.pl/

Od pierwszej rewolucji rolniczej (10 000 p.n.e.) przez rewolucję przemysłową (koniec XVIII wieku) po zieloną rewolucję w produkcji żywności (lata 50. XX wieku), nowe technologie zmieniły sposób funkcjonowania i życia ludzkości. Podstawowym problemem wynikającym z postępu AI jest to, że ludzka praca stanie się przestarzała. Arystoteles w księdze I swojej Polityki dość jasno przedstawia główny punkt: Bo gdyby każdy instrument mógł wykonać swoją pracę, będąc posłusznym lub antycypując wolę innych. . . gdyby w podobny sposób czółenek tkał, a plektron dotykał liry bez ręki, która by ich prowadziła, główni robotnicy nie chcieliby sług, ani panów niewolników.

Wszyscy zgadzają się z obserwacją Arystotelesa, że ​​następuje natychmiastowa redukcja zatrudnienia, gdy pracodawca znajdzie mechaniczną metodę wykonywania pracy wcześniej wykonanej przez osobę. Problem polega na tym, czy tak zwane efekty kompensacyjne, które wynikają – i które mają tendencję do zwiększania zatrudnienia – w końcu zrekompensują tę redukcję. Podstawowym efektem kompensacyjnym jest wzrost ogólnego bogactwa dzięki większej produktywności, co z kolei prowadzi do większego popytu na towary i prowadzi do wzrostu zatrudnienia. Na przykład PwC (Rao i Verweij, 2017) przewiduje, że sztuczna inteligencja wniesie 15 bilionów dolarów rocznie do globalnego PKB do 2030 roku.

W krótkim okresie najwięcej zyskają branża zdrowotna i motoryzacyjna/transportowa. Jednak zalety automatyzacji nie zostały jeszcze przejęte w naszej gospodarce: obecne tempo wzrostu wydajności pracy jest w rzeczywistości poniżej historycznych standardów. Brynjolfsson i inni próbują wyjaśnić ten paradoks sugerując, że opóźnienie między rozwojem podstawowej technologii a jej wdrożeniem w gospodarce jest dłuższe niż się powszechnie przypuszcza. Innowacje technologiczne historycznie pozbawiły niektórych ludzi pracy. Tkacze zostały zastąpione przez automatyczne krosna w 1810, co doprowadziło do protestów luddytów. Luddyci nie byli przeciwko technologii per se; chcieli po prostu, aby maszyny były używane przez wykwalifikowanych robotników płacących dobrą pensję do wytwarzania towarów wysokiej jakości, a nie przez niewykwalifikowanych robotników do wytwarzania towarów niskiej jakości po niskich zarobkach. Globalne zniszczenie miejsc pracy w latach 30. XX wieku skłoniło Johna Maynarda Keynesa do ukucia terminu technologicznego bezrobocia. W obu przypadkach i kilku innych poziom zatrudnienia w końcu się poprawił. Główny nurt ekonomiczny przez większość XX wieku głosił, że zatrudnienie technologiczne jest co najwyżej zjawiskiem krótkoterminowym. Zwiększona produktywność zawsze prowadziłaby do wzrostu bogactwa i zwiększonego popytu, a tym samym do wzrostu liczby miejsc pracy netto. Powszechnie przytaczanym przykładem są kasjerzy bankowi: chociaż bankomaty zastąpiły ludzi w liczeniu gotówki do wypłat, prowadzenie oddziału banku stało się tańsze, więc liczba oddziałów wzrosła, co doprowadziło do większej liczby pracowników banku. Zmienił się również charakter pracy, która stała się mniej rutynowa i wymagająca bardziej zaawansowanych umiejętności biznesowych. Wydaje się, że efektem netto automatyzacji jest eliminowanie zadań, a nie miejsc pracy. Większość komentatorów przewiduje, że to samo dotyczy technologii sztucznej inteligencji, przynajmniej na krótką metę. Gartner, McKinsey, Forbes, Światowe Forum Ekonomiczne i Pew Research Center opublikowały w 2018 r. raporty przewidujące wzrost liczby miejsc pracy netto dzięki automatyzacji opartej na sztucznej inteligencji. Ale niektórzy analitycy uważają, że tym razem będzie inaczej. W 2019 r. IBM przewidział, że 120 mln pracowników będzie wymagało przekwalifikowania z powodu automatyzacji do 2022 r., a Oxford Economics przewidział, że 20 mln miejsc pracy w produkcji może zostać utraconych w wyniku automatyzacji do 2030 r. Frey i Osborne (2017) badają 702 różne zawody i szacują, że 47 % z nich jest zagrożonych automatyzacją, co oznacza, że ​​przynajmniej część zadań w zawodzie może być wykonywana przez maszynę. Na przykład prawie 3% siły roboczej w USA to kierowcy pojazdów, a w niektórych okręgach aż 15% mężczyzn to kierowcy. Jak widzieliśmy w rozdziale 26, zadanie prowadzenia pojazdu prawdopodobnie zostanie wyeliminowane przez samochody bez kierowcy/ciężarówki/autobusy/taksówki. Ważne jest, aby odróżnić zawody od zadań w ramach tych zawodów. McKinsey szacuje, że tylko 5% zawodów jest w pełni zautomatyzowanych, ale w 60% zawodów można zautomatyzować około 30% swoich zadań. Na przykład przyszli kierowcy ciężarówek będą spędzać mniej czasu na trzymaniu kierownicy, a więcej na upewnianiu się, że towary są odbierane i dostarczane prawidłowo; pełnienie funkcji przedstawicieli obsługi klienta i sprzedawców na obu końcach podróży; i być może zarządzanie konwojami, powiedzmy, trzech zautomatyzowanych ciężarówek. Zastąpienie trzech kierowców jednym kierownikiem konwoju oznacza stratę netto w zatrudnieniu, ale jeśli koszty transportu spadną, pojawi się większy popyt, co spowoduje odzyskanie niektórych miejsc pracy, ale być może nie wszystkich. Jako kolejny przykład, pomimo wielu postępów w stosowaniu uczenia maszynowego do problemu obrazowania medycznego, radiologowie jak dotąd byli wspomagani, a nie zastępowani przez te narzędzia. Ostatecznie istnieje wybór, jak wykorzystać automatyzację: czy chcemy skupić się na cięciu kosztów, a tym samym postrzegać utratę pracy jako pozytyw; czy chcemy skupić się na poprawie jakości, poprawie życia pracownika i klienta? Trudno przewidzieć dokładne terminy automatyzacji, ale obecnie i przez kilka najbliższych lat nacisk kładzie się na automatyzację ustrukturyzowanych zadań analitycznych, takich jak odczytywanie zdjęć rentgenowskich, zarządzanie relacjami z klientami (np. boty, które automatycznie sortują skargi klientów i zareaguj za pomocą sugerowanych środków zaradczych) oraz automatyzacji procesów biznesowych, która łączy dokumenty tekstowe i dane strukturalne w celu podejmowania decyzji biznesowych i usprawnienia przepływu pracy. Z biegiem czasu zobaczymy więcej automatyzacji za pomocą robotów fizycznych, najpierw w kontrolowanych środowiskach magazynowych, a następnie w bardziej niepewnych środowiskach, budując znaczną część rynku do około 2030 r. W miarę starzenia się populacji w krajach rozwiniętych stosunek pracowników do emerytów zmiany. W 2015 r. na 100 pracowników przypadało mniej niż 30 emerytów; do 2050 roku może być ponad 60 na 100 pracowników. Opieka nad osobami starszymi będzie coraz ważniejszą rolą, którą może częściowo wypełnić sztuczna inteligencja. Ponadto, jeśli chcemy utrzymać obecny poziom życia, konieczne będzie również zwiększenie produktywności pozostałych pracowników; automatyzacja wydaje się najlepszą okazją do tego. Nawet jeśli automatyzacja ma pozytywny wpływ na miliardy dolarów netto, nadal mogą występować problemy związane z tempem zmian. Zastanówmy się, jak nastąpiły zmiany w branży rolniczej: w 1900 r. ponad 40% siły roboczej w USA pracowało w rolnictwie, ale do 2000 r. spadło do 2%3. okres 100 lat, a więc między pokoleniami, a nie za życia jednego pracownika. Pracownicy, których praca została zautomatyzowana w tej dekadzie, mogą być zmuszeni do przekwalifikowania się do nowego zawodu w ciągu kilku lat – a potem być może zobaczą automatyzację nowego zawodu i staną przed kolejnym okresem przekwalifikowania. Niektórzy mogą być zadowoleni z porzucenia swojego starego zawodu — widzimy, że wraz z poprawą koniunktury firmy przewozowe muszą oferować nowe zachęty do zatrudniania wystarczającej liczby kierowców — ale pracownicy będą się obawiać swoich nowych ról. Aby sobie z tym poradzić, jako społeczeństwo musimy zapewnić edukację przez całe życie, być może częściowo opierając się na edukacji online napędzanej sztuczną inteligencją . Bessen (2015) twierdzi, że pracownicy nie zauważą wzrostu dochodów, dopóki nie zostaną przeszkoleni w zakresie wdrażania nowych technologii, co wymaga czasu. Technologia ma tendencję do zwiększania nierówności dochodów. W gospodarce informacyjnej charakteryzującej się szerokopasmową komunikacją globalną i replikacją własności intelektualnej o zerowych kosztach krańcowych (co Frank i Cook (1996) nazywają „Stowarzyszeniem zwycięzcy, który bierze wszystko”), nagrody mają tendencję do koncentracji. Jeśli rolnik Ali jest o 10% lepszy od rolnika Bo, Ali uzyskuje około 10% większy dochód: Ali może pobierać nieco więcej za towary lepszej jakości, ale istnieje limit tego, ile można wyprodukować na ziemi i jak daleko może to być wysłany. Ale jeśli Cary, twórca aplikacji, jest o 10% lepszy od Dany, może się okazać, że Cary będzie miał 99% światowego rynku. Sztuczna inteligencja zwiększa tempo innowacji technologicznych, a tym samym przyczynia się do tego ogólnego trendu, ale sztuczna inteligencja obiecuje nam również wziąć trochę wolnego czasu i pozwolić naszym zautomatyzowanym agentom zająć się sprawami przez jakiś czas. Tim Ferriss (2007) zaleca korzystanie z automatyzacji i outsourcingu w celu osiągnięcia czterogodzinnego tygodnia pracy. Przed rewolucją przemysłową ludzie pracowali jako rolnicy lub w innym rzemiośle, ale nie zgłaszali się do pracy w miejscu pracy i nie pracowali w godzinach dla pracodawcy. Ale dzisiaj większość dorosłych w krajach rozwiniętych właśnie to robi, a praca służy trzem celom: napędza produkcję dóbr, których społeczeństwo potrzebuje do rozkwitu, zapewnia dochód, którego pracownik potrzebuje do życia, i daje mu poczucie celu, realizacji i integracji społecznej. Wraz ze wzrostem automatyzacji może się zdarzyć, że te trzy cele zostaną zdezagregowane – potrzeby społeczeństwa będą częściowo zaspokajane przez automatyzację, a na dłuższą metę jednostki uzyskają poczucie celu dzięki wkładom innym niż praca. Ich potrzeby dochodowe mogą być zaspokajane przez politykę społeczną, która obejmuje połączenie bezpłatnego lub niedrogiego dostępu do usług socjalnych i edukacji, przenośnej opieki zdrowotnej, kont emerytalnych i edukacyjnych, progresywne stawki podatkowe, ulgi podatkowe, ujemny podatek dochodowy lub uniwersalny podstawowy dochód.

Zaufanie i przejrzystość

https://aie24.pl/

Jednym z wyzwań jest stworzenie dokładnego, sprawiedliwego, bezpiecznego i bezpiecznego systemu sztucznej inteligencji; innym wyzwaniem, aby przekonać wszystkich, że to zrobiłeś. Ludzie muszą być w stanie ufać systemom, z których korzystają. Badanie PwC z 2017 r. wykazało, że 76% firm spowalniało wdrażanie sztucznej inteligencji z powodu obaw o wiarygodność. W sekcji 19.9.4 omówiliśmy niektóre podejścia inżynieryjne do zaufania; tutaj omawiamy kwestie polityki. Aby zdobyć zaufanie, każdy system inżynieryjny musi przejść proces weryfikacji i walidacji (V&V). Weryfikacja oznacza, że ​​produkt spełnia specyfikacje. Walidacja oznacza zapewnienie, że specyfikacje rzeczywiście spełniają potrzeby użytkownika i innych zainteresowanych stron. Mamy skomplikowaną metodologię V&V dla inżynierii w ogóle oraz dla tradycyjnego rozwoju oprogramowania wykonywanego przez ludzkich koderów; większość z nich ma zastosowanie do systemów SI. Ale systemy uczenia maszynowego są różne i wymagają innego procesu V&V, który nie został jeszcze w pełni opracowany. Musimy zweryfikować dane, z których te systemy się uczą; musimy zweryfikować dokładność i rzetelność wyników, nawet w obliczu niepewności, która sprawia, że ​​dokładny wynik jest niepoznawalny; i musimy sprawdzić, czy przeciwnicy nie mogą nadmiernie wpływać na model, ani nie kraść informacji, wysyłając zapytania do wynikowego modelu. Jednym z instrumentów zaufania jest certyfikacja; na przykład Underwriters Laboratories (UL) zostało założone w 1894 roku, kiedy konsumenci obawiali się zagrożeń związanych z energią elektryczną. Certyfikacja urządzeń przez UL zwiększyła zaufanie konsumentów i faktycznie UL rozważa obecnie wejście na rynek testowania produktów i certyfikacji AI. Inne branże od dawna mają normy bezpieczeństwa. Na przykład ISO 26262 to międzynarodowa norma dotycząca bezpieczeństwa samochodów, opisująca sposób bezpiecznego projektowania, produkcji, obsługi i serwisowania pojazdów. Branża AI nie osiągnęła jeszcze tego poziomu jasności, chociaż istnieją pewne ramy w toku, takie jak IEEE P7001, standard definiujący etyczny projekt dla sztucznej inteligencji i systemów autonomicznych . Trwa debata na temat tego, jaki rodzaj certyfikacji jest konieczny i w jakim stopniu powinien być przeprowadzany przez rząd, organizacje zawodowe, takie jak IEEE, niezależne podmioty certyfikujące, takie jak UL, lub poprzez samoregulację przez firmy produkcyjne. Innym aspektem zaufania jest przejrzystość: konsumenci chcą wiedzieć, co dzieje się w systemie i czy system nie działa przeciwko nim, czy to z powodu celowej złośliwości, niezamierzonego błędu, czy wszechobecnych uprzedzeń społecznych, które są rekapitulowane przez system. W niektórych przypadkach ta przejrzystość jest dostarczana bezpośrednio konsumentowi. W innych przypadkach są to kwestie związane z własnością intelektualną, które ukrywają niektóre aspekty systemu przed konsumentami, ale są otwarte dla organów regulacyjnych i agencji certyfikujących. Kiedy system sztucznej inteligencji odmawia Ci pożyczki, zasługujesz na wyjaśnienie. W Europie RODO wymusza to za Ciebie. System sztucznej inteligencji, który potrafi się wyjaśnić, nazywa się wyjaśnialną sztuczną inteligencją (XAI). Dobre wyjaśnienie ma kilka właściwości: powinno być zrozumiałe i przekonujące dla użytkownika, powinno dokładnie odzwierciedlać rozumowanie systemu, powinno być kompletne i powinno być szczegółowe, ponieważ różni użytkownicy z różnymi warunkami lub różnymi wynikami powinni otrzymać różne wyjaśnienia. Dość łatwo dać algorytmowi decyzyjnemu dostęp do jego własnych procesów deliberatywnych, po prostu zapisując je i udostępniając jako struktury danych. Oznacza to, że maszyny mogą w końcu być w stanie lepiej wyjaśnić swoje decyzje niż ludzie. Co więcej, możemy podjąć kroki, aby zaświadczyć, że wyjaśnienia maszyny nie są oszustwami (zamierzonym lub samooszukiwaniem), co jest trudniejsze w przypadku człowieka. Wyjaśnienie jest pomocnym, ale niewystarczającym składnikiem, by ufać. Jedną z kwestii jest to, że wyjaśnienia nie są decyzjami: są opowieściami o decyzjach. Jak omówiono w rozdziale 19.9.4, mówimy, że system jest możliwy do zinterpretowania, jeśli możemy sprawdzić kod źródłowy modelu i zobaczyć, co robi, i mówimy, że można to wyjaśnić, jeśli możemy wymyślić historię o tym, co robi —nawet jeśli sam system jest niemożliwą do zinterpretowania czarną skrzynką. Aby wyjaśnić niemożliwą do interpretacji czarną skrzynkę, musimy zbudować, debugować i przetestować oddzielny system wyjaśniania i upewnić się, że jest zsynchronizowany z oryginalnym systemem. A ponieważ ludzie kochają dobrą historię, wszyscy jesteśmy skłonni dać się zwieść wyjaśnieniu, które brzmi dobrze. Weźmy pod uwagę jakiekolwiek polityczne kontrowersje dnia, a zawsze można znaleźć dwóch tak zwanych ekspertów z diametralnie odmiennymi wyjaśnieniami, z których oba są wewnętrznie spójne. Ostatnią kwestią jest to, że wyjaśnienie jednego przypadku nie daje podsumowania w stosunku do innych przypadków.

Jeśli bank wyjaśni: „Przepraszam, nie dostałeś pożyczki, ponieważ masz historię wcześniejszych problemów finansowych”, nie wiesz, czy to wyjaśnienie jest dokładne, czy też z jakiegoś powodu bank jest potajemnie uprzedzony wobec Ciebie. W tym przypadku potrzebujesz nie tylko wyjaśnienia, ale także audytu wcześniejszych decyzji, z zagregowanymi statystykami z różnych grup demograficznych, aby sprawdzić, czy ich wskaźniki akceptacji są zrównoważone. Częścią przejrzystości jest wiedza, czy wchodzisz w interakcję z systemem AI, czy z człowiekiem. Toby Walsh (2015) zaproponował, że „system autonomiczny powinien być zaprojektowany tak, aby Etyka AI 1049 jest mało prawdopodobna, aby pomyliła się z czymkolwiek poza systemem autonomicznym i powinna identyfikować się na początku jakiejkolwiek interakcji.” Nazwał to prawem „czerwonej flagi”, na cześć brytyjskiej ustawy o lokomotywach z 1865 r., która wymagała, aby każdy pojazd silnikowy miał przed sobą osobę z czerwoną flagą, aby zasygnalizować nadchodzące niebezpieczeństwo. W 2019 roku Kalifornia uchwaliła prawo stwierdzające, że „korzystanie przez jakąkolwiek osobę z bota do komunikowania się lub interakcji z inną osobą w Kalifornii online w celu wprowadzenia w błąd drugiej osoby co do jej sztucznej tożsamości jest niezgodne z prawem”.

Uczciwość i stronniczość

https://aie24.pl/

Uczenie maszynowe wspomaga, a czasem zastępuje ludzkie podejmowanie decyzji w ważnych sytuacjach: czyja pożyczka zostaje zatwierdzona, do jakich dzielnic wysyłani są policjanci, kto dostaje przedprocesowe zwolnienie lub zwolnienie warunkowe. Jednak modele uczenia maszynowego mogą utrwalać uprzedzenia społeczne. Rozważmy przykład algorytmu pozwalającego przewidzieć, czy oskarżeni są skłonni do ponownego popełnienia przestępstwa, a zatem czy powinni zostać zwolnieni przed procesem. Równie dobrze może być tak, że taki system wychwytuje rasowe lub płciowe uprzedzenia ludzkich sędziów z przykładów w zestawie szkoleniowym. Projektanci systemów uczenia maszynowego mają moralną odpowiedzialność za zapewnienie, że ich systemy są rzeczywiście uczciwe. W dziedzinach regulowanych, takich jak kredyty, edukacja, zatrudnienie i mieszkalnictwo, również ponoszą odpowiedzialność prawną. Ale czym jest uczciwość? Istnieje wiele kryteriów; oto sześć najczęściej używanych pojęć:

* Indywidualna uczciwość: wymóg, aby osoby były traktowane podobnie do innych podobnych osób, niezależnie od klasy, w jakiej się znajdują.

* Sprawiedliwość grupowa: wymóg, aby dwie klasy były traktowane podobnie, mierzone za pomocą niektórych statystyk podsumowujących.

* Uczciwość poprzez nieświadomość: jeśli usuniemy atrybuty rasy i płci ze zbioru danych, może się wydawać, że system nie może dyskryminować tych atrybutów. Niestety wiemy, że modele uczenia maszynowego mogą przewidywać zmienne ukryte (takie jak rasa i płeć) na podstawie innych skorelowanych zmiennych (takich jak kod pocztowy i zawód). Ponadto usunięcie tych atrybutów uniemożliwia weryfikację równych szans lub równych wyników. Mimo to niektóre kraje (np. Niemcy) wybrały to podejście do swoich statystyk demograficznych (niezależnie od tego, czy w grę wchodzą modele uczenia maszynowego).

* Równy wynik: idea, że ​​każda klasa demograficzna uzyskuje takie same wyniki; mają parytet demograficzny. Załóżmy na przykład, że musimy zdecydować, czy powinniśmy zatwierdzać wnioski o pożyczkę; celem jest zatwierdzenie tych wnioskodawców, którzy spłacą pożyczkę, a nie tych, którzy nie spłacają pożyczki. Tak mówi parytet demograficzny ,zarówno mężczyźni, jak i kobiety powinni mieć ten sam procent zatwierdzonych pożyczek. Zauważ, że jest to kryterium uczciwości grupy, które nie zapewnia uczciwości indywidualnej; wnioskodawca o wysokich kwalifikacjach może zostać odrzucony, a wnioskodawca o słabych kwalifikacjach może zostać zatwierdzony, o ile ogólne wartości procentowe są równe. Ponadto podejście to faworyzuje naprawienie błędów z przeszłości niż dokładność przewidywania. Jeśli mężczyzna i kobieta są równi pod każdym względem, z wyjątkiem tego, że kobieta otrzymuje niższą pensję za tę samą pracę, czy powinna zostać zatwierdzona, ponieważ byłaby równa, gdyby nie uprzedzenia historyczne, czy też należy jej odmówić, ponieważ niższe wynagrodzenie ma fakt, że jest bardziej podatna na niewypłacalność?

* Równe szanse: Pomysł, że ludzie, którzy naprawdę są w stanie spłacić pożyczkę, powinni mieć równe szanse na prawidłowe zaklasyfikowanie jako takich, niezależnie od płci. To podejście jest również nazywane „równowagą”. Może prowadzić do nierównych wyników i ignoruje efekt stronniczości w procesach społecznych, które wytworzyły dane szkoleniowe.

* Równy wpływ: osoby o podobnym prawdopodobieństwie spłaty pożyczki powinny mieć taką samą oczekiwaną użyteczność, niezależnie od klasy, do której należą. Wykracza to poza równe szanse, ponieważ uwzględnia zarówno korzyści prawdziwej prognozy, jak i koszty fałszywej prognozy.

Przyjrzyjmy się, jak te kwestie rozgrywają się w konkretnym kontekście. COMPAS to komercyjny system punktacji za recydywę (ponowne przestępstwo). Przypisuje oskarżonemu w sprawie karnej ocenę ryzyka, która jest następnie wykorzystywana przez sędziego do podejmowania decyzji: Czy zwolnienie oskarżonego przed rozprawą jest bezpieczne, czy też należy go przetrzymywać w więzieniu? W przypadku skazania, jak długo powinien trwać wyrok? Czy należy przyznać zwolnienie warunkowe? Biorąc pod uwagę znaczenie tych decyzji, system był przedmiotem intensywnej kontroli. COMPAS został zaprojektowany tak, aby był dobrze skalibrowany: wszystkie osoby, które otrzymały ten sam wynik przez algorytm, powinny mieć w przybliżeniu takie samo prawdopodobieństwo ponownego popełnienia przestępstwa, niezależnie od rasy. Na przykład wśród wszystkich osób, którym model przypisuje wynik ryzyka 7 na 10, 60% białych i 61% czarnych popełnia ponownie przestępstwo. Projektanci twierdzą zatem, że spełnia on zamierzony cel uczciwości. Z drugiej strony COMPAS nie osiąga równych szans: odsetek osób, które nie popełniły ponownie przestępstwa, ale zostały błędnie zakwalifikowane jako osoby wysokiego ryzyka, wynosił 45% dla czarnych i 23% dla białych. W sprawie State przeciwko Loomis, w której sędzia oparł się na COMPAS w celu ustalenia wyroku oskarżonego, Loomis argumentował, że skryte wewnętrzne działanie algorytmu naruszało jego prawa do rzetelnego procesu sądowego. Chociaż Sąd Najwyższy Wisconsin uznał, że wyrok nie byłby inny bez COMPAS w tej sprawie, wydał ostrzeżenia o dokładności algorytmu i zagrożeniach dla oskarżonych z mniejszości. Inni badacze kwestionowali czy właściwe jest stosowanie algorytmów w aplikacjach takich jak wydawanie wyroków. Moglibyśmy mieć nadzieję na algorytm, który jest zarówno dobrze skalibrowany, jak i równych szans, ale, jak Kleinberg i in. (2016) pokazują, że to niemożliwe. Jeśli klasy bazowe są różne, to każdy dobrze skalibrowany algorytm niekoniecznie zapewni równe szanse i vice versa. Jak możemy zważyć te dwa kryteria? Jedną z możliwości jest równy wpływ. W przypadku COMPAS oznacza to rozważenie negatywnej użyteczności oskarżonych fałszywie sklasyfikowanych jako osoby o wysokim ryzyku i utraty wolności w porównaniu z kosztami dla społeczeństwa popełnienia dodatkowego przestępstwa oraz znalezienie punktu, który zoptymalizuje kompromis. Jest to skomplikowane, ponieważ należy wziąć pod uwagę wiele kosztów. Istnieją koszty indywidualne – oskarżony bezprawnie przetrzymywany w więzieniu ponosi stratę, podobnie jak ofiara oskarżonego, który został niesłusznie zwolniony i ponownie popełnia przestępstwo. Ale poza tym są koszty grupowe – każdy ma pewną obawę, że zostanie niesłusznie uwięziony lub stanie się ofiarą przestępstwa, a wszyscy podatnicy partycypują w kosztach więzień i sądów. Jeśli przyjmiemy wartość tym obawom i kosztom proporcjonalnie do wielkości grupy, to użyteczność dla większości może nastąpić kosztem mniejszości. Innym problemem związanym z całą ideą punktacji recydywy, niezależnie od zastosowanego modelu, jest to, że nie mamy obiektywnych danych dotyczących prawdy podstawowej. Dane nie mówią nam, kto popełnił przestępstwo – wiemy tylko, kto został skazany za przestępstwo. Jeśli aresztujący funkcjonariusze, sędzia lub ława przysięgłych są stronnicze, dane będą stronnicze. Jeśli więcej funkcjonariuszy patroluje niektóre lokalizacje, dane będą stronnicze w stosunku do osób w tych lokalizacjach. Tylko pozwani, którzy zostali zwolnieni, są kandydatami do ponownego zaangażowania, więc jeśli sędziowie podejmujący decyzje o zwolnieniu są stronniczy, dane mogą być stronnicze. Jeśli założysz, że za tendencyjnym zestawem danych kryje się ukryty, nieznany, bezstronny zestaw danych, który został uszkodzony przez agenta z tendencyjnością, wówczas istnieją techniki umożliwiające odzyskanie aproksymacji do bezstronnych danych. Jiang i Nachum (2019) opisują różne scenariusze i stosowane techniki. Jeszcze jedno ryzyko polega na tym, że uczenie maszynowe może być wykorzystane do uzasadnienia stronniczości. Jeśli decyzje podejmuje stronniczy człowiek po konsultacji z systemem uczenia maszynowego, człowiek może powiedzieć „oto, w jaki sposób moja interpretacja modelu wspiera moją decyzję, więc nie powinieneś kwestionować mojej decyzji”. Ale inne interpretacje mogą prowadzić do odwrotnej decyzji. Czasami uczciwość oznacza, że ​​powinniśmy ponownie rozważyć funkcję celu, a nie dane czy algorytm. Na przykład przy podejmowaniu decyzji o zatrudnieniu, jeśli celem jest zatrudnienie kandydatów z najlepszymi kwalifikacjami, ryzykujemy niesprawiedliwe nagradzanie tych, którzy przez całe życie mieli korzystne możliwości edukacyjne, wymuszając w ten sposób granice klasowe. Ale jeśli celem jest zatrudnienie kandydatów z najlepszymi umiejętnościami uczenia się w pracy, mamy większą szansę na przekroczenie granic klasowych i wybór z szerszej puli. Wiele firm ma programy przeznaczone dla takich kandydatów i stwierdza, że ​​po rocznym szkoleniu pracownicy zatrudnieni w ten sposób radzą sobie równie dobrze jak tradycyjni kandydaci. Podobnie, tylko 18% absolwentów informatyki w USA to kobiety, ale niektóre szkoły, takie jak Harvey Mudd University, osiągnęły 50% równorzędność dzięki podejściu, które koncentruje się na zachęcaniu i zatrzymywaniu tych, którzy rozpoczynają program informatyczny, zwłaszcza tych którzy zaczynają z mniejszym doświadczeniem w programowaniu. Ostatnią komplikacją jest podjęcie decyzji, które klasy zasługują na ochronę. W Stanach Zjednoczonych ustawa o uczciwych warunkach mieszkaniowych uznała siedem klas chronionych: rasę, kolor skóry, religię, pochodzenie narodowe, płeć, niepełnosprawność i status rodzinny. Inne prawa lokalne, stanowe i federalne uznają inne kategorie, w tym orientację seksualną oraz status ciąży, małżeństwa i weterana. Czy to sprawiedliwe, że te klasy liczą się w przypadku niektórych praw, a nie innych? Międzynarodowe prawo dotyczące praw człowieka, które obejmuje szeroki zestaw klas chronionych, stanowi potencjalne ramy harmonizacji ochrony w różnych grupach. Nawet przy braku uprzedzeń społecznych rozbieżność wielkości próby może prowadzić do stronniczych wyników. W większości zbiorów danych będzie mniej przykładów treningowych osób z klasy mniejszości niż osób z klasy większości. Algorytmy uczenia maszynowego zapewniają większą dokładność przy większej ilości danych treningowych, co oznacza, że ​​członkowie klas mniejszościowych będą mieli mniejszą dokładność. Na przykład Buolamwini i Gebru (2018) zbadali usługę komputerowej identyfikacji płci i stwierdzili, że ma ona niemal idealną dokładność w przypadku mężczyzn o jasnej karnacji i 33% wskaźnik błędu w przypadku kobiet o ciemnej karnacji. Model z ograniczeniami może nie być w stanie jednocześnie dopasować zarówno do klasy większości, jak i mniejszości – model regresji liniowej może zminimalizować średni błąd, dopasowując tylko klasę większości, a w modelu SVM wektory wsparcia mogą wszystkie odpowiadać członkom klasy większości. Bias może również wchodzić w grę w procesie tworzenia oprogramowania (niezależnie od tego, czy oprogramowanie obejmuje uczenie maszynowe, czy nie). Inżynierowie, którzy debugują system, z większym prawdopodobieństwem zauważą i naprawią problemy, które dotyczą ich samych. Na przykład trudno jest zauważyć, że projekt interfejsu użytkownika nie będzie działał dla osób z daltonizmem, chyba że w rzeczywistości nie jesteś daltonistą, lub że tłumaczenie na język urdu jest wadliwe, jeśli nie mówisz w urdu. Jak możemy się bronić przed tymi uprzedzeniami? Po pierwsze, zrozum ograniczenia danych, z których korzystasz. Zasugerowano, że zbiory danych (Gebru i in., 2018; Hind i in., 2018) oraz modele (Mitchell i in., 2019) powinny zawierać adnotacje: deklaracje pochodzenia, bezpieczeństwa, zgodności i przydatności do użytku. Jest to podobne do arkuszy danych towarzyszących komponentom elektronicznym, takim jak rezystory; pozwalają projektantom decydować, jakich komponentów użyć. Oprócz arkuszy danych ważne jest przeszkolenie inżynierów, aby byli świadomi kwestii uczciwości i stronniczości, zarówno w szkole, jak i podczas szkolenia w miejscu pracy. Różnorodność inżynierów z różnych środowisk ułatwia im dostrzeżenie problemów w danych lub modelach. Badanie przeprowadzone przez AI Now Institute (West i in., 2019) wykazało, że tylko 18% autorów na czele Konferencji AI i 20% profesorów AI to kobiety. Czarni pracownicy AI stanowią mniej niż 4%. Stawki w branżowych laboratoriach badawczych są podobne. Różnorodność można zwiększyć dzięki programom, które będą przygotowywane na wcześniejszym etapie – w college’u lub szkole średniej – oraz dzięki większej świadomości na poziomie zawodowym. Joy Buolamwini założyła Algorytmiczną Ligę Sprawiedliwości, aby podnieść świadomość tego problemu i opracować praktyki dotyczące odpowiedzialności. Drugim pomysłem jest odchylenie danych (Zemel et al., 2013). Moglibyśmy nadrobić próbkę z klas mniejszościowych, aby bronić się przed dysproporcją wielkości próby. Techniki takie jak SMOTE, technika syntetycznego nadpróbkowania mniejszościowego (Chawla i in., 2002) lub ADASYN, adaptacyjne syntetyczne podejście do próbkowania w przypadku niezrównoważonego uczenia się (He i in., 2008), dostarczają zasadniczych sposobów nadpróbkowania. Moglibyśmy zbadać pochodzenie danych i, na przykład, wyeliminować przykłady sędziów, którzy wykazywali stronniczość w swoich wcześniejszych sprawach sądowych. Niektórzy analitycy sprzeciwiają się pomysłowi odrzucania danych, a zamiast tego zalecają zbudowanie hierarchicznego modelu danych, który zawiera źródła stronniczości, aby można je było modelować i kompensować. Google i NeurIPS podjęły próbę zwiększenia świadomości tego problemu, sponsorując konkurs na obrazy włączające, w ramach którego konkurenci szkolą sieć na zbiorze danych oznaczonych obrazów zebranych w Ameryce Północnej i Europie, a następnie testują ją na obrazach z całego świata . Problem polega na tym, że biorąc pod uwagę ten zestaw danych, łatwo jest przypisać kobiecie etykietkę „panna młoda” w standardowej zachodniej sukni ślubnej, ale trudniej rozpoznać tradycyjną afrykańską i indyjską suknię matrymonialną.

Trzecim pomysłem jest wynalezienie nowych modeli i algorytmów uczenia maszynowego, które są bardziej odporne na stronniczość; a ostatecznym pomysłem jest umożliwienie systemowi formułowania wstępnych zaleceń, które mogą być stronnicze, a następnie wytrenowanie drugiego systemu, aby nie stronniczył w stosunku do zaleceń pierwszego. Bellamy i in. (2018) wprowadzili system IBM AI FAIRNESS 360, który zapewnia ramy dla wszystkich tych pomysłów. Spodziewamy się, że w przyszłości takie narzędzia będą częściej wykorzystywane. W jaki sposób upewniasz się, że budowane przez Ciebie systemy będą sprawiedliwe? Pojawił się zestaw najlepszych praktyk (choć nie zawsze są one przestrzegane):

  • Upewnij się, że inżynierowie oprogramowania rozmawiają z naukowcami społecznymi i ekspertami dziedzinowymi, aby zrozumieć problemy i perspektywy oraz od samego początku wziąć pod uwagę sprawiedliwość.
  • Stwórz środowisko, które sprzyja rozwojowi zróżnicowanej puli inżynierów oprogramowania, którzy są reprezentatywni dla społeczeństwa.
  • Określ, jakie grupy będzie obsługiwał Twój system: osoby posługujące się różnymi językami, różnymi grupami wiekowymi, różnymi zdolnościami wzroku i słuchu itp.
  • Optymalizuj pod kątem funkcji obiektywnej, która uwzględnia uczciwość.
  • Sprawdź swoje dane pod kątem uprzedzeń i korelacji między chronionymi atrybutami a innymi atrybutami.
  • Zrozum, w jaki sposób wykonywane są wszelkie adnotacje ludzkie, zaprojektuj cele pod kątem dokładności adnotacji i sprawdź, czy cele zostały osiągnięte.
  • Nie śledź tylko ogólnych wskaźników swojego systemu; upewnij się, że śledzisz dane dla podgrup, które mogą być ofiarami uprzedzeń.
  • Uwzględnij testy systemowe, które odzwierciedlają doświadczenia użytkowników grup mniejszościowych.

• Miej pętlę informacji zwrotnej, aby rozwiązać problemy ze sprawiedliwością.

Nadzór, bezpieczeństwo i prywatność

https://aie24.pl/

W 1976 roku Joseph Weizenbaum ostrzegł, że technologia automatycznego rozpoznawania mowy może prowadzić do powszechnego podsłuchu, a tym samym do utraty swobód obywatelskich. Dziś zagrożenie to zostało uświadomione, ponieważ większość komunikacji elektronicznej przechodzi przez centralne serwery, które można monitorować, a miasta są wypełnione mikrofonami i kamerami, które mogą identyfikować i śledzić osoby na podstawie ich głosu, twarzy i chodu. Nadzór, który kiedyś wymagał kosztownych i skąpych zasobów ludzkich, może teraz być wykonywany na masową skalę przez maszyny. W 2018 roku w Chinach było aż 350 milionów kamer monitorujących, a w Stanach Zjednoczonych 70 milionów. Chiny i inne kraje rozpoczęły eksport technologii nadzoru do krajów o niskim poziomie technologii, z których niektóre cieszą się reputacją znęcania się nad swoimi obywatelami i nieproporcjonalnie atakują zmarginalizowane społeczności. Inżynierowie AI powinni jasno określić, jakie zastosowania nadzoru są zgodne z prawami człowieka i odmówić pracy nad aplikacjami, które są niezgodne. Ponieważ coraz więcej naszych instytucji działa online, stajemy się bardziej narażeni na cyberprzestępczość (phishing, oszustwa związane z kartami kredytowymi, botnety, oprogramowanie ransomware) i cyberterroryzm (w tym potencjalnie śmiertelne ataki, takie jak zamykanie szpitali i elektrowni lub przejmowanie autonomicznych samochodów). Uczenie maszynowe może być potężnym narzędziem dla obu stron w walce o cyberbezpieczeństwo. Atakujący mogą wykorzystać automatyzację do wykrywania zagrożeń i mogą zastosować uczenie wzmacniające w przypadku prób phishingu i automatycznego szantażu. Obrońcy mogą wykorzystywać nienadzorowane uczenie się do wykrywania nietypowych wzorców ruchu przychodzącego  oraz różne techniki uczenia maszynowego do wykrywania oszustw . W miarę jak ataki stają się coraz bardziej wyrafinowane, wszyscy inżynierowie, nie tylko eksperci ds. bezpieczeństwa, ponoszą większą odpowiedzialność za projektowanie bezpiecznych systemów od samego początku. Jedna z prognoz (Kanal, 2017) szacuje, że do 2021 r. rynek uczenia maszynowego w cyberbezpieczeństwie wyniesie około 100 miliardów dolarów. W miarę jak coraz częściej korzystamy z komputerów w naszym codziennym życiu, rządy i korporacje zbierają coraz więcej danych na nasz temat. Kolekcjonerzy danych mają moralną i prawną odpowiedzialność za dobre zarządzanie przechowywanymi przez siebie danymi. W Stanach Zjednoczonych ustawa o przenośności i odpowiedzialności w ubezpieczeniach zdrowotnych (HIPAA) oraz ustawa o prawach do edukacji rodzinnej i prywatności (FERPA) chronią prywatność dokumentacji medycznej i studenckiej. Ogólne rozporządzenie o ochronie danych (RODO) Unii Europejskiej nakazuje firmom projektowanie swoich systemów z myślą o ochronie danych i wymaga uzyskania zgody użytkownika na zbieranie lub przetwarzanie danych. Zrównoważona z prawem jednostki do prywatności jest wartość, jaką społeczeństwo czerpie z udostępniania danych. Chcemy być w stanie powstrzymać terrorystów bez tłumienia pokojowego sprzeciwu i leczyć choroby bez narażania prawa jakiejkolwiek osoby do zachowania tajemnicy swojej historii zdrowia. Jedną z kluczowych praktyk jest deidentyfikacja: eliminacja informacji umożliwiających identyfikację osób (takich jak imię i nazwisko oraz numer ubezpieczenia społecznego), aby badacze medyczni mogli wykorzystywać dane do promowania wspólnego dobra. Problem polega na tym, że udostępniane dane pozbawione elementów pozwalających na identyfikację mogą podlegać ponownej identyfikacji. Na przykład, jeśli dane nie zawierają nazwiska, numeru ubezpieczenia społecznego i adresu, ale zawierają datę urodzenia, płeć i kod pocztowy, to, jak pokazuje Latanya Sweeney (2000), 87% populacji USA może być jednoznacznie ponownie zidentyfikowane. Sweeney podkreślił ten punkt, ponownie identyfikując kartę zdrowia gubernatora jej stanu, kiedy został przyjęty do szpitala. W konkursie Netflix Prize zdeidentyfikowane rekordy osób fizycznych , opublikowano oceny filmów, a konkurenci zostali poproszeni o opracowanie algorytmu uczenia maszynowego, który mógłby dokładnie przewidzieć, które filmy dana osoba będzie chciała. Jednak badacze byli w stanie ponownie zidentyfikować poszczególnych użytkowników, dopasowując datę oceny w bazie danych Netflix do daty podobnego rankingu w internetowej bazie danych filmów (IMDB), gdzie użytkownicy czasami używają swoich prawdziwych nazwisk (Narayanan i Shmatikov, 2006 ). Ryzyko to można nieco złagodzić, uogólniając pola: na przykład zastępując dokładną datę urodzenia z samym rokiem urodzenia lub szerszy zakres, np. „20-30 lat”. Całkowite usunięcie pola może być postrzegane jako forma uogólniania na „dowolne”. Jednak samo uogólnienie nie gwarantuje, że akta są zabezpieczone przed ponowną identyfikacją; może się zdarzyć, że w kodzie pocztowym 94720 jest tylko jedna osoba, która ma 90–100 lat.  Przydatną właściwością jest k-anonimowość: baza danych jest k-anonimizowana, jeśli każdy rekord w bazie danych jest nie do odróżnienia od co najmniej k-1 innych rekordów. Jeśli istnieją rekordy, które są bardziej unikatowe, musiałyby być dalej uogólniony. Alternatywą dla udostępniania niezidentyfikowanych rekordów jest zachowanie prywatności wszystkich rekordów, ale umożliwienie zagregowanych zapytań. Dostępny jest interfejs API dla zapytań dotyczących bazy danych, a prawidłowe zapytania otrzymują odpowiedź, która podsumowuje dane za pomocą liczby lub średniej. Ale nie udziela się odpowiedzi, jeśli naruszałoby to pewne gwarancje prywatności. Na przykład, moglibyśmy pozwolić epidemiologowi zapytać, dla każdego kodu pocztowego, procent osób z rakiem. Dla kodów pocztowych przy co najmniej n osobach zostanie podany procent (z niewielką ilością losowego szumu), ale nie zostanie udzielona odpowiedź w przypadku kodów pocztowych z mniej niż n osobami. Należy zachować ostrożność, aby zabezpieczyć się przed deidentyfikacją przy użyciu wielu zapytań. Na przykład, jeśli na zapytanie „średnie wynagrodzenie i liczba pracowników w firmie XYZ w wieku 30-40 lat” zostanie udzielona odpowiedź [81 234, 12 USD], a na pytanie „średnie wynagrodzenie i liczba pracowników w firmie XYZ w wieku 30–41 lat” [81 199 USD, 13 USD], a jeśli użyjemy LinkedIn, aby znaleźć tego 41-latka w firmie XYZ, to pomyślnie go zidentyfikowaliśmy i możemy obliczyć ich dokładną pensję, mimo że wszystkie odpowiedzi dotyczyły 12 lub więcej osób. System musi być starannie zaprojektowany, aby chronić się przed tym, z kombinacją limitów zapytań, które można zadawać (być może tylko predefiniowany zestaw nienakładających się przedziałów wiekowych może być zapytany) i precyzją wyników (być może oba zapytania dają odpowiedź „około 81 000 USD”). Silniejszą gwarancją jest prywatność różnicowa, która zapewnia, że ​​atakujący nie może użyć zapytań do ponownej identyfikacji jakiejkolwiek osoby w bazie danych, nawet jeśli atakujący może wykonać wiele zapytań i ma dostęp do oddzielnych łączących się baz danych. Odpowiedź na zapytanie wykorzystuje randomizowany algorytm, który dodaje niewielką ilość szumu do wyniku. Mając bazę danych D, dowolny rekord w bazie danych r, dowolne zapytanie Q i możliwą odpowiedź y na zapytanie, mówimy, że baza danych D ma –różnicową prywatność, jeśli prawdopodobieństwo logarytmu odpowiedzi y różni się o mniej niż gdy dodajemy rekord r:

Innymi słowy, to, czy jakakolwiek osoba zdecyduje się na uczestnictwo w bazie danych, czy nie, nie ma znaczącej różnicy w odpowiedziach, jakie każdy może uzyskać, a zatem nie ma zniechęcającego do uczestnictwa w prywatności. Wiele baz danych zaprojektowano tak, aby zagwarantować prywatność różnicową. Do tej pory rozważaliśmy kwestię udostępniania zdeidentyfikowanych danych z centralnej bazy danych. Podejście zwane uczeniem sfederowanym  nie ma centralnej bazy danych; zamiast tego użytkownicy utrzymują własne lokalne bazy danych, które zapewniają prywatność swoich danych. Mogą jednak udostępniać parametry modelu uczenia maszynowego, który jest wzbogacony o ich dane, bez ryzyka ujawnienia jakichkolwiek danych prywatnych. Wyobraź sobie aplikację rozumiejącą mowę, którą użytkownicy mogą uruchomić lokalnie na swoim telefonie. Aplikacja zawiera bazową sieć neuronową, która jest następnie ulepszana poprzez lokalne szkolenie ze słów słyszanych na telefonie użytkownika. Okresowo właściciele aplikacji odpytują podzbiór użytkowników i proszą ich o wartości parametrów ulepszonej sieci lokalnej, ale nie o żadne z ich surowych danych. Wartości parametrów są łączone ze sobą, tworząc nowy, ulepszony model, który jest następnie udostępniany wszystkim użytkownikom, dzięki czemu wszyscy korzystają ze szkolenia prowadzonego przez innych użytkowników. Aby ten schemat zachował prywatność, musimy być w stanie zagwarantować, że parametry modelu udostępniane przez każdego użytkownika nie mogą być poddane inżynierii wstecznej. Jeśli wysłaliśmy surowe parametry, istnieje szansa, że ​​sprawdzający je przeciwnik mógłby wywnioskować, czy np. dane słowo zostało usłyszane przez telefon użytkownika. Jednym ze sposobów wyeliminowania tego ryzyka jest bezpieczna agregacja. Chodzi o to, że serwer centralny nie musi znać dokładnej wartości parametru od każdego rozproszonego użytkownika; wystarczy znać średnią wartość każdego parametru dla wszystkich ankietowanych użytkowników. Tak więc każdy użytkownik może ukryć swoje wartości parametrów, dodając unikalną maskę do każdej wartości; tak długo, jak suma masek wynosi zero, serwer centralny będzie w stanie obliczyć prawidłową średnią. Szczegóły protokołu zapewniają, że jest wydajny pod względem komunikacji (mniej niż połowa przesyłanych bitów odpowiada maskowaniu), jest odporny na brak odpowiedzi poszczególnych użytkowników i jest bezpieczny w obliczu wrogich użytkowników, podsłuchujących, a nawet przeciwny serwer centralny.

Śmiercionośna broń autonomiczna

https://aie24.pl/

ONZ definiuje śmiertelną broń autonomiczną jako taką, która lokalizuje, wybiera i atakuje (tj. zabija) ludzkie cele bez nadzoru człowieka. Niektóre z tych kryteriów spełniają różne rodzaje broni. Na przykład miny lądowe są używane od XVII wieku: mogą wybierać i atakować cele w ograniczonym zakresie, w zależności od stopnia wywieranego nacisku lub ilości obecnego metalu, ale nie mogą samodzielnie wychodzić i lokalizować celów. (Miny lądowe są zakazane na mocy Traktatu Ottawskiego.) Pociski kierowane, używane od lat 40., mogą ścigać cele, ale muszą być skierowane we właściwym kierunku przez człowieka. Automatyczne strzelanie Sekcja 28.3 Etyka dział sterowanych radarem AI 1039 jest używana do obrony okrętów wojennych od lat siedemdziesiątych; są przeznaczone głównie do niszczenia nadlatujących pocisków, ale mogą również atakować samoloty załogowe. Chociaż słowo „autonomiczny” jest często używane do opisania bezzałogowych statków powietrznych lub dronów, większość takich broni jest zarówno pilotowana zdalnie, jak i wymaga uruchomienia śmiertelnego ładunku przez człowieka. Wydaje się, że w chwili pisania tego tekstu kilka systemów uzbrojenia przekroczyło linię prowadzącą do pełnej autonomii.

Na przykład izraelski pocisk Harop jest „pociskiem krążącym” o rozpiętości skrzydeł wynoszącej dziesięć stóp i pięćdziesięciofuntowej głowicy bojowej. Wyszukuje do sześciu godzin w danym regionie geograficznym, aby znaleźć dowolny cel spełniający dane kryterium, a następnie go niszczy. Kryterium może być „emisja” sygnału radaroweg przypominający radar przeciwlotniczy” lub „wygląda jak czołg”. Turecki producent STM reklamuje swój quadkopter Kargu – który przewozi do 1,5 kg materiałów wybuchowych – jako zdolny do „autonomicznego uderzenia…”. . . cele wybrane na obrazach . . . śledzenie ruchomych celów. . . przeciwpiechotne . . . rozpoznawanie twarzy.” Broń autonomiczną nazwano „trzecią rewolucją w wojnie” po prochu i broni jądrowej. Ich potencjał militarny jest oczywisty. Na przykład niewielu ekspertów wątpi, że autonomiczny myśliwiec pokonałby każdego pilota. Autonomiczne samoloty, czołgi i okręty podwodne mogą być tańsze, szybsze, bardziej zwrotne i mieć większy zasięg niż ich załogowe odpowiedniki. Od 2014 roku Organizacja Narodów Zjednoczonych w Genewie prowadzi regularne dyskusje pod auspicjami Konwencji o niektórych broniach konwencjonalnych (CCW) w kwestii zakazu śmiercionośnej broni autonomicznej. W chwili pisania tego tekstu 30 narodów, od Chin po Stolicę Apostolską, zadeklarowało poparcie dla traktatu międzynarodowego, podczas gdy inne kluczowe kraje – w tym Izrael, Rosja, Korea Południowa i Stany Zjednoczone – są przeciwne zakaz.

Debata na temat broni autonomicznej obejmuje aspekty prawne, etyczne i praktyczne. Kwestie prawne reguluje przede wszystkim CCW, która wymaga możliwości rozróżnienia między walczącymi a niewalczącymi, osądzenia konieczności militarnej ataku oraz oceny proporcjonalności między wartością militarną celu a możliwością wystąpienia szkód ubocznych. . Możliwość spełnienia tych kryteriów to inżynieria, pytanie — takie, na które odpowiedź bez wątpienia zmieni się z biegiem czasu. Obecnie dyskryminacja wydaje się możliwa w pewnych okolicznościach i niewątpliwie szybko się poprawi, ale konieczność i proporcjonalność nie są obecnie możliwe: wymagają, aby maszyny dokonywały subiektywnych i sytuacyjnych ocen, które są znacznie trudniejsze niż stosunkowo proste zadania wyszukiwania i angażowania potencjalnych celów . Z tych powodów użycie broni autonomicznej byłoby legalne tylko w okolicznościach, w których operator może racjonalnie przewidzieć, że wykonanie misji nie spowoduje namierzenia ludności cywilnej lub przeprowadzenia niepotrzebnych lub nieproporcjonalnych ataków z broni. Oznacza to, że na razie broń autonomiczna może wykonywać tylko bardzo ograniczone misje. Od strony etycznej niektórzy uważają, że delegowanie decyzji o zabiciu ludzi do maszyny jest po prostu moralnie nie do przyjęcia. Na przykład ambasador Niemiec w Genewie oświadczył, że „nie zaakceptuje, że decyzja o życiu i śmierci jest podejmowana wyłącznie przez system autonomiczny”, podczas gdy Japonia „nie ma planu opracowywania robotów z ludźmi poza obiegiem, co może popełnienia morderstwa”. Gen. Paul Selva, wówczas drugi rangą oficer wojskowy w Stanach Zjednoczonych, powiedział w 2017 roku: „Nie sądzę, aby rozsądne było, abyśmy stawiali roboty za to, czy odbieramy ludzkie życie”. Wreszcie, Ant´onio Guterres, szef Organizacji Narodów Zjednoczonych, stwierdził w 2019 r., że „maszyny, które mają moc i swobodę odbierania życia bez udziału człowieka, są politycznie nie do przyjęcia, moralnie odrażające i powinny być zakazane przez prawo międzynarodowe”. Ponad 140 organizacji pozarządowych w ponad 60 krajach uczestniczy w Kampanii na rzecz Stop Killer Robots, a list otwarty zorganizowany w 2015 r. przez Future of Life Institute, zorganizowany przez Instytut Przyszłości Życia, został podpisany przez ponad 4 000 badaczy AI2 i 22 000 innych. Wbrew temu można argumentować, że wraz z poprawą technologii powinno być możliwe opracowanie broni, która z mniejszym prawdopodobieństwem niż ludzcy żołnierze lub piloci spowoduje straty wśród ludności cywilnej. (Istotną korzyścią jest również to, że broń autonomiczna zmniejsza zapotrzebowanie na żołnierzy i pilotów, którzy ryzykują śmiercią.) Systemy autonomiczne nie ulegną zmęczeniu, frustracji, histerii, strachowi, złości lub zemście i nie będą musiały „strzelać najpierw, pytać”. pytania później” (Arkin, 2015). Podobnie jak amunicja kierowana zmniejszyła obrażenia uboczne w porównaniu z bombami niekierowanymi, można oczekiwać, że inteligentna broń jeszcze bardziej poprawi precyzję ataków. (Naprzeciw temu zob. Benjamin (2013) w celu analizy ofiar wojny dronów). Takie najwyraźniej jest stanowisko Stanów Zjednoczonych w ostatniej rundzie negocjacji w Genewie. Być może wbrew intuicji Stany Zjednoczone są także jednym z nielicznych krajów, których własna polityka obecnie wyklucza użycie broni autonomicznej. Mapa drogowa Departamentu Obrony USA (DOD) z 2011 r. mówi: „W dającej się przewidzieć przyszłości decyzje dotyczące użycia siły [przez systemy autonomiczne] oraz wybór poszczególnych celów do użycia siły śmiertelnej zostaną zachowane pod kontrolą człowieka”. Główny powód tej polityki jest praktyczny: systemy autonomiczne nie są wystarczająco niezawodne, aby można było powierzyć im decyzje wojskowe. Kwestia niezawodności wysunęła się na pierwszy plan 26 września 1983 r., kiedy na ekranie komputera sowieckiego oficera rakietowego Stanisława Pietrowa pojawił się alarm o zbliżającym się ataku rakietowym. Zgodnie z protokołem Pietrow powinien był zainicjować kontratak nuklearny, ale podejrzewał, że alarm był błędem i tak to traktował. Miał rację, a III wojna światowa została (wąsko) zażegnana. Nie wiemy, co by się stało, gdyby w pętli nie było człowieka. Niezawodność to bardzo poważny problem dowódców wojskowych, którzy dobrze znają złożoność sytuacji na polu bitwy. Systemy uczenia maszynowego, które działają bezbłędnie podczas szkolenia, mogą działać słabo po wdrożeniu. Mogą skutkować cyberatakami na broń autonomiczną w ofiarach sojuszniczych; odłączenie broni od wszelkiej komunikacji może temu zapobiec (zakładając, że nie zostało to już naruszone), ale wtedy broń nie może zostać przywrócona, jeśli działa nieprawidłowo. Nadrzędnym praktycznym problemem związanym z bronią autonomiczną jest to, że jest to skalowalna broń masowego rażenia, w tym sensie, że skala ataku, który można przeprowadzić, jest proporcjonalna do ilości sprzętu, na jaki możemy sobie pozwolić. Quadkopter o średnicy dwóch cali może przenosić śmiertelny ładunek wybuchowy, a w zwykłym kontenerze transportowym zmieści się milion. Właśnie dlatego, że są one autonomiczne, broń ta nie wymagałaby miliona ludzkich nadzorców do wykonywania swojej pracy. Jako broń masowego rażenia skalowalna broń autonomiczna ma przewagę dla atakującego w porównaniu z bronią nuklearną i nalotami dywanowymi: pozostawia nienaruszone mienie i może być stosowana selektywnie w celu wyeliminowania tylko tych, którzy mogą zagrażać siłom okupacyjnym. Z pewnością można by ich użyć do wytępienia całej grupy etnicznej lub wszystkich wyznawców określonej religii. W wielu sytuacjach byłyby również nie do wyśledzenia. Te cechy czynią je szczególnie atrakcyjnymi dla podmiotów niepaństwowych. Te względy – szczególnie te cechy, które przemawiają na korzyść atakującego – sugerują, że autonomiczna broń zmniejszy globalne i narodowe bezpieczeństwo dla wszystkich stron. Wydaje się, że racjonalną odpowiedzią dla rządów jest zaangażowanie się w dyskusje na temat kontroli zbrojeń, a nie wyścig zbrojeń. Proces projektowania traktatu nie jest jednak pozbawiony trudności. AI to technologia podwójnego zastosowania: technologie AI, które mają pokojowe zastosowania, takie jak kontrola lotu, śledzenie wizualne, mapowanie, nawigacja i planowanie wieloagentowe, można łatwo zastosować do celów wojskowych. Łatwo jest zmienić autonomiczny quadkopter w broń, po prostu podłączając ładunek wybuchowy i nakazując mu wyszukanie celu. Radzenie sobie z tym będzie wymagało starannego wdrożenia reżimów zgodności ze współpracą przemysłową, co zostało już wykazane z pewnym sukcesem w Konwencji o zakazie broni chemicznej.

Etyka AI

https://aie24.pl/

Biorąc pod uwagę, że sztuczna inteligencja jest potężną technologią, mamy moralny obowiązek jej dobrego wykorzystania, promowania pozytywnych aspektów i unikania lub łagodzenia negatywnych. Pozytywnych aspektów jest wiele. Na przykład sztuczna inteligencja może ratować życie dzięki ulepszonej diagnostyce medycznej, nowym odkryciom medycznym, lepszemu przewidywaniu ekstremalnych zdarzeń pogodowych i bezpieczniejszej jeździe dzięki wspomaganiu kierowcy i (ewentualnie) technologiom autonomicznym. Istnieje również wiele możliwości poprawy życia. Program AI for Humanitarian Action firmy Microsoft wykorzystuje sztuczną inteligencję do odbudowy po klęskach żywiołowych, zaspokajania potrzeb dzieci, ochrony uchodźców i promowania praw człowieka. Program Google AI for Social Good wspiera prace nad ochroną lasów deszczowych, orzecznictwem w zakresie praw człowieka, monitorowaniem zanieczyszczeń, pomiarami emisji paliw kopalnych, doradztwem kryzysowym, sprawdzaniem wiadomości, zapobieganiem samobójstwom, recyklingiem i innymi kwestiami. Centrum nauki o danych na rzecz dobra społecznego przy Uniwersytecie w Chicago stosuje uczenie maszynowe do rozwiązywania problemów z zakresu wymiaru sprawiedliwości w sprawach karnych, rozwoju gospodarczego, edukacji, zdrowia publicznego, energii i środowiska. Zastosowania sztucznej inteligencji w zarządzaniu uprawami i produkcji żywności pomagają wyżywić świat. Optymalizacja procesów biznesowych wykorzystujących uczenie maszynowe zwiększy produktywność przedsiębiorstw, zwiększy bogactwo i zapewni większe zatrudnienie. Automatyzacja może zastąpić żmudne i niebezpieczne zadania, przed którymi staje wielu pracowników, i pozwolić im skoncentrować się na bardziej interesujących aspektach. Osoby niepełnosprawne skorzystają z pomocy w zakresie widzenia, słyszenia i mobilności opartej na sztucznej inteligencji. Tłumaczenie maszynowe już teraz pozwala komunikować się ludziom z różnych kultur. Rozwiązania sztucznej inteligencji oparte na oprogramowaniu mają prawie zerowy koszt krańcowy produkcji, a zatem mają potencjał demokratyzacji dostępu do zaawansowanej technologii (nawet jeśli inne aspekty oprogramowania mają potencjał do centralizacji władzy). Pomimo tych wielu pozytywnych aspektów nie powinniśmy ignorować negatywów. Wiele nowych technologii miało niezamierzone negatywne skutki uboczne: rozszczepienie jądrowe przyniosło Czarnobyl i groźbę globalnego zniszczenia; silnik spalinowy przyniósł zanieczyszczenie powietrza, globalne ocieplenie i brukowanie raju. Inne technologie mogą mieć negatywne skutki, nawet jeśli są używane zgodnie z przeznaczeniem, takie jak gaz sarin, karabiny AR-15 i nagabywanie telefoniczne. Automatyzacja stworzy bogactwo, ale w obecnych warunkach ekonomicznych znaczna część tego bogactwa popłynie do właścicieli zautomatyzowanych systemów, prowadząc do zwiększenia nierówności dochodów. To może być destrukcyjne dla dobrze funkcjonującego społeczeństwa. W krajach rozwijających się tradycyjna ścieżka wzrostu poprzez tanią produkcję na eksport może zostać odcięta, ponieważ kraje bogate przyjmują w pełni zautomatyzowane zakłady produkcyjne na lądzie. Nasze decyzje dotyczące etyki i zarządzania będą dyktować poziom nierówności, jakie wywoła sztuczna inteligencja.

Wszyscy naukowcy i inżynierowie stają w obliczu etycznych rozważań na temat tego, jakie projekty powinni lub nie powinni podejmować oraz w jaki sposób mogą upewnić się, że realizacja projektu jest bezpieczna i korzystna. W 2010 r. brytyjska Rada ds. Badań Nauk Technicznych i Fizycznych zorganizowała spotkanie w celu opracowania zestawu Zasad robotyki. W kolejnych latach inne agencje rządowe, organizacje non-profit i firmy stworzyły podobne zestawy zasad. Istotą jest to, że każda organizacja, która tworzy technologię AI, i wszyscy w organizacji, mają obowiązek upewnić się, że technologia przyczynia się do dobra, a nie szkody. Najczęściej cytowane zasady to:

Zapewnienie bezpieczeństwa –  Ustanowienie odpowiedzialności

Dbaj o sprawiedliwość – Przestrzegaj praw człowieka i wartości

Szanuj prywatność –  Uwzględniaj różnorodność/integrację

Promuj współpracę – Unikaj koncentracji władzy

Zapewnij przejrzystość – Uwzględnij konsekwencje prawne/polityczne

Ogranicz szkodliwe zastosowania AI – Rozważaj konsekwencje dla zatrudnienia

Zwróć uwagę, że wiele zasad, takich jak „zapewnienie bezpieczeństwa”, ma zastosowanie do wszystkich systemów oprogramowania lub sprzętu, a nie tylko systemów sztucznej inteligencji. Kilka zasad jest sformułowanych w niejasny sposób, co utrudnia ich zmierzenie lub wyegzekwowanie. Dzieje się tak po części dlatego, że sztuczna inteligencja to duża dziedzina z wieloma poddziedzinami, z których każda ma inny zestaw norm historycznych i różne relacje między programistami AI a interesariuszami. Mittelstadt (2019) sugeruje, że w każdym z poddziedzin należy opracować bardziej szczegółowe, praktyczne wytyczne i precedensy przypadków

Świadomość i jakość

https://aie24.pl/

We wszystkich debatach na temat silnej sztucznej inteligencji przewija się kwestia świadomości: świadomości świata zewnętrznego i jaźni oraz subiektywnego doświadczenia życia. Technicznym terminem na wewnętrzną naturę doświadczeń jest qualia (od łacińskiego słowa oznaczającego z grubsza „jaki rodzaj”). Wielkie pytanie brzmi, czy maszyny mogą mieć qualia. W filmie 2001, kiedy astronauta David Bowman odłącza „obwody poznawcze” komputera HAL 9000, mówi: „Obawiam się, Dave. Dave, mój umysł biegnie. Mogę to poczuć.” Czy HAL rzeczywiście ma uczucia (i zasługuje na współczucie)? A może odpowiedź jest tylko odpowiedzią algorytmiczną, nie różniącą się od „Błąd 404: nie znaleziono”? Podobnie jest ze zwierzętami: właściciele zwierząt domowych są pewni, że ich pies lub kot ma świadomość, ale nie wszyscy naukowcy się z tym zgadzają. Świerszcze zmieniają swoje zachowanie w zależności od temperatury, ale niewiele osób powiedziałoby, że świerszcze doświadczają uczucia ciepła lub zimna. Jednym z powodów, dla których problem świadomości jest trudny, jest to, że pozostaje on niezdefiniowany, nawet po wiekach debat. Ale pomoc może być w drodze. Niedawno filozofowie połączyli siły z neurobiologami pod auspicjami Fundacji Templetona, aby rozpocząć serię eksperymentów, które mogą rozwiązać niektóre problemy. Zwolennicy dwóch wiodących teorii świadomości (globalnej teorii przestrzeni roboczej i zintegrowanej teorii informacji) zgodzili się, że eksperymenty mogą potwierdzić jedną teorię nad drugą — co jest rzadkością w filozofii. Alan Turing (1950) przyznaje, że kwestia świadomości jest trudna, ale zaprzecza, że ​​ma ona duże znaczenie dla praktyki sztucznej inteligencji: „Nie chcę sprawiać wrażenia, że ​​myślę, że nie ma żadnej tajemnicy w świadomości: : : Ale nie sądzę, aby te tajemnice koniecznie musiały zostać rozwiązane, zanim będziemy mogli odpowiedzieć na pytanie, którym zajmujemy się w tym artykule”. Zgadzamy się z Turingiem — jesteśmy zainteresowani tworzeniem programów, które zachowują się inteligentnie. Indywidualne aspekty świadomości – świadomość, samoświadomość, uwaga – mogą być zaprogramowane i mogą być częścią inteligentnej maszyny. Dodatkowy projekt uczynienia maszyny świadomą dokładnie taką, jaką są ludzie, nie jest takim, do którego jesteśmy przygotowani. Zgadzamy się, że inteligentne zachowanie będzie wymagało pewnego stopnia świadomości, która będzie się różnić w zależności od zadania, oraz że zadania obejmujące interakcję z ludźmi będą wymagały modelu ludzkiego subiektywnego doświadczenia. W kwestii modelowania doświadczenia ludzie mają wyraźną przewagę nad maszynami, ponieważ mogą używać własnego subiektywnego aparatu do doceniania subiektywnego doświadczenia innych. Na przykład, jeśli chcesz wiedzieć, jak to jest, gdy ktoś uderza kciuk młotkiem, możesz uderzyć kciuk młotkiem. Maszyny nie mają takiej możliwości – chociaż w przeciwieństwie do ludzi mogą uruchamiać swój kod.

Pokój chiński

https://aie24.pl/

Filozof John Searle odrzuca konwencję grzeczności. Jego słynny chiński argument dotyczący pokoju   brzmi następująco: Wyobraź sobie człowieka, który w środku pokoju rozumie tylko angielski, który zawiera księgę zasad napisaną po angielsku i różne stosy papieru. Kawałki papieru zawierające nieczytelne symbole są wsuwane pod drzwi do pokoju. Człowiek postępuje zgodnie z instrukcjami zawartymi w księdze zasad, znajdując symbole w stosach, zapisując symbole na nowych kawałkach papieru, przestawiając stosy i tak dalej. Ostatecznie instrukcje spowodują, że jeden lub więcej symboli zostanie przepisanych na kartkę papieru, która jest przekazywana z powrotem do świata zewnętrznego. Z zewnątrz widzimy system, który przyjmuje dane wejściowe w postaci chińskich zdań i generuje płynne, inteligentne chińskie odpowiedzi. Searle następnie argumentuje: przyjmuje się, że człowiek nie rozumie języka chińskiego. Książka z zasadami i stosy papieru, będące tylko kawałkami papieru, nie rozumieją języka chińskiego. Dlatego nie ma zrozumienia chińskiego. A Searle mówi, że chiński pokój robi to samo, co komputer, więc komputery nie generują zrozumienia. Searle (1980) jest zwolennikiem naturalizmu biologicznego, zgodnie z którym stany psychiczne są wyłaniającymi się cechami wysokiego poziomu, które są wywoływane przez procesy fizyczne niskiego poziomu w neuronach, i to (nieokreślone) właściwości neuronów mają znaczenie: zgodnie z według uprzedzeń Searle’a neurony mają „to”, a tranzystory nie. Było wiele obaleń argumentacji Searle’a, ale nie było konsensusu. Jego argument mógłby równie dobrze zostać wykorzystany (być może przez roboty) do argumentowania, że ​​człowiek nie może mieć prawdziwego zrozumienia; w końcu człowiek składa się z komórek, komórki nie rozumieją, dlatego nie ma zrozumienia. W rzeczywistości jest to fabuła powieści science fiction Terry’ego Bissona (1990) Są zrobione z mięsa, w której obce roboty eksplorują Ziemię i nie mogą uwierzyć, że kawałki mięsa mogą być czujące. Jak mogą być, pozostaje tajemnicą.

Czy maszyny mogą naprawdę myśleć?

https://aie24.pl/

Niektórzy filozofowie twierdzą, że inteligentnie działająca maszyna nie byłaby faktycznie myślącą, a jedynie symulacją myślenia. Jednak większość badaczy sztucznej inteligencji nie przejmuje się tym rozróżnieniem, a informatyk Edsger Dijkstra (1984) powiedział, że „Pytanie, czy maszyny potrafią myśleć . . . jest tak samo istotne, jak pytanie, czy okręty podwodne mogą pływać”. Pierwsza definicja pływania w American Heritage Dictionary brzmi: „poruszać się w wodzie za pomocą kończyn, płetw lub ogona” i większość ludzi zgadza się, że łodzie podwodne, będąc bez kończyn, nie mogą pływać. Słownik definiuje również latanie jako „poruszanie się w powietrzu za pomocą skrzydeł lub części podobnych do skrzydeł” i większość ludzi zgadza się, że samoloty, które mają części podobne do skrzydeł, mogą latać. Jednak ani pytania, ani odpowiedzi nie mają żadnego związku z konstrukcją lub możliwościami samolotów i łodzi podwodnych; dotyczą raczej użycia słów w języku angielskim. (Fakt, że statki pływają („privet”) w języku rosyjskim, wzmacnia ten punkt.) Osoby mówiące po angielsku nie ustaliły jeszcze dokładnej definicji słowa „myśleć” – czy wymaga ono „mózgu”, czy po prostu „części podobne do mózgu?” Ponownie problem został rozwiązany przez Turinga. Zauważa, że ​​nigdy nie mamy żadnych bezpośrednich dowodów na wewnętrzne stany entalne innych ludzi – rodzaj mentalnego solipsyzmu. Niemniej jednak Turing mówi: „Zamiast nieustannie kłócić się o ten punkt, zwykle stosuje się uprzejmą konwencję, o której wszyscy myślą”. Turing twierdzi, że rozszerzylibyśmy konwencję grzecznościową również na maszyny, gdybyśmy tylko mieli doświadczenie z tymi, które działają inteligentnie. Jednak teraz, gdy mamy już pewne doświadczenie, wydaje się, że nasza chęć przypisywania wrażliwości zależy przynajmniej w takim samym stopniu od humanoidalnego wyglądu i głosu, jak od czystej inteligencji.

Pomiar AI

https://aie24.pl/

Alan Turing w swoim słynnym artykule „Computing Machinery and Intelligence” (1950) zasugerował, że zamiast pytać, czy maszyny potrafią myśleć, powinniśmy zapytać, czy maszyny mogą zdać test behawioralny, który później nazwano testem Turinga. Test wymaga, aby program prowadził przez pięć minut rozmowę (za pomocą wpisywanych wiadomości) z przesłuchującym. Przesłuchujący musi następnie odgadnąć, czy rozmowa dotyczy programu, czy osoby; program przechodzi test, jeśli oszuka przesłuchującego w 30% przypadków. Dla Turinga kluczowym punktem nie były dokładne szczegóły testu, ale pomysł mierzenia inteligencji poprzez wykonanie jakiegoś rodzaju otwartego zadania behawioralnego, a nie przez spekulacje filozoficzne. Mimo to Turing przypuszczał, że do roku 2000 komputer z pamięcią miliarda jednostek może przejść test, ale tutaj jesteśmy po drugiej stronie 2000 i nadal nie możemy zgodzić się, czy jakikolwiek program przeszedł. Wiele osób zostało oszukanych, gdy nie wiedzieli, że mogą rozmawiać z komputerem. Program ELIZA i chatboty internetowe, takie jak MGONZ (Humphrys, 2008) i NATACHATA (Jonathan i in., 2009) wielokrotnie oszukują swoich korespondentów, a chatbot CYBERLOVER przyciągnął uwagę organów ścigania ze względu na swoją skłonność do nakłaniania rozmówców do wystarczającą ilość danych osobowych, aby ich tożsamość mogła zostać skradziona. W 2014 roku chatbot o nazwie Eugene Goostman oszukał 33% nieprzeszkolonych sędziów amatorów w teście Turinga. Program twierdził, że był chłopcem z Ukrainy z ograniczoną znajomością języka angielskiego; to pomogło wyjaśnić jego błędy gramatyczne. Być może test Turinga jest naprawdę testem ludzkiej łatwowierności. Jak dotąd żaden dobrze wyszkolony sędzia nie został oszukany (Aaronson, 2014). Konkursy testów Turinga doprowadziły do ​​lepszych chatbotów, ale nie były przedmiotem badań w społeczności AI. Zamiast tego badacze sztucznej inteligencji, którzy pragną rywalizacji, są bardziej skłonni do skoncentrowania się na grze w szachy, Go lub StarCraft II, zdaniu egzaminu naukowego ósmej klasy lub identyfikacji obiektów na obrazach. W wielu z tych konkursów programy osiągnęły lub przewyższyły wydajność na poziomie człowieka, ale to nie znaczy, że programy są podobne do ludzi poza określonym zadaniem. Chodzi o to, aby poprawić podstawową naukę i technologię oraz zapewnić przydatne narzędzia, a nie oszukiwać sędziów.