Podstawy robotyki

https://aie24.pl/

Robotyka jest uważana za wyczerpującą dziedzinę nauki i inżynierii. Robotyka obejmuje różne dziedziny inżynierii, takie jak elektronika, informacja, mechanika, informatyka i wiele więcej! Zwykle wiąże się to z użytkowaniem robotów, sposobem ich wynalezienia, sposobem działania oraz systemem komputerowym używanym do sterowania robotem. Obejmuje także informację zwrotną z czujników oraz przetwarzanie informacji, z których robot musi skorzystać. Technologie robotyczne służą do tworzenia maszyn, które zastąpią ludzi, replikując ludzkie działania. Roboty mogą być wykorzystywane w wielu sytuacjach i do wielu celów. Jednak patrząc na dzisiejsze społeczeństwo, można je stosować w niebezpiecznych środowiskach, w których ludzie nie powinni się znajdować, takich jak wykrywanie bomb, a nawet dezaktywacja bomb. Roboty można również stosować w procesach produkcyjnych, w których ludzie nie będą w stanie przetrwać ze względu na przestrzeń, jakość powietrza lub inną liczbę niebezpiecznych sytuacji, w których ludzie są narażani na niebezpieczeństwo i najprawdopodobniej nie będą w stanie przetrwać. Roboty mogą przybierać niemal każdą formę, a nawet można je upodobnić do wyglądu człowieka. Mówi się, że takie postępowanie pomaga ludziom zaakceptować roboty, ponieważ naśladują zachowania zwykle wykonywane przez ludzi. Niektóre roboty potrafią naśladować podnoszenie, mówienie, chodzenie, percepcję i prawie wszystko, co potrafi człowiek. Wiele z dzisiejszych robotów będzie inspirowanych środowiskiem, w którym będą pracować. Roboty te wniosą swój wkład w przyrodę, ponieważ wnoszą wkład w dziedzinę inspirowaną biologią. Koncepcja tworzenia robotów sięga czasów klasycznych. Jednak badania nad nim i potencjał stworzenia idealnego robota zostały wdrożone dopiero na początku XX wieku. Na przestrzeni dziejów ludzie zakładali, że roboty będą naśladować ludzkie zachowania i wykonywać zadania podobne do tego, co ludzie robią na co dzień. Teraz widać, że robotyka to dziedzina szybko rozwijająca się dzięki postępowi technologicznemu.

Wniosek

https://aie24.pl/

Pisarze science fiction załamują ręce nad sztuczną inteligencją od dziesięcioleci, jeszcze zanim osoby publiczne w ogóle zaczęły omawiać tę koncepcję. Wyobrażali sobie sztuczną inteligencję jako siłę wspomagającą, której będziemy musieli użyć, aby wyruszyć poza Układ Słoneczny, lub po prostu jako asystenta, który pomoże nam naprawić wszystko tutaj na Ziemi, ale mimo to będzie to wpływ nieunikniony. Wszystkie media, które przybliżyły koncepcję sztucznej inteligencji ogółowi społeczeństwa, określiły ją jako tajemniczą i analityczną, robiącą wszystko, co w ich mocy, aby spełnić swój własny plan, zanim nieuchronnie okaże się złoczyńcą. Jak widzieliśmy w tej książce, niewiele wskazuje na to, że coś takiego wydarzy się w tym stuleciu. Dzieje się tak, że przedsiębiorcy bardziej niż kiedykolwiek wcześniej starają się prowadzić swoje przedsięwzięcia biznesowe bezsennie, napędzani środkami pobudzającymi i sfrustrowani brakiem wpływu na polityków. Kiedy więc przedsiębiorcy w końcu udają się na sen, mają gorączkowe sny sztucznej inteligencji, cyfrowego pracownika, który mógłby pozwolić im w końcu uzurpować sobie tron ​​władzy politycznej, a następnie zdrzemnąć się. Sztuczną inteligencję można nawet przedstawić jako bóstwo, które ma wypełnić tę brakującą lukę w życiu całych narodów, zapewniając jednocześnie specjalne przywileje prawne i immunitety. Czy technologiczni giganci rzeczywiście to potrafią? Bardzo wątpliwe. Pojawienie się ogólnej sztucznej inteligencji, tak inteligentnej jak istota ludzka, prawdopodobnie będzie wymagało do funkcjonowania wynalazku technologicznego tak podstawowego jak elektryczność, ale takiego, którego ludzie nie będą w stanie wykorzystać, ponieważ po prostu skorzystamy z wynalazku i ponownie osiągniemy lepsze wyniki w porównaniu dowolną maszynę. Mamy wąską sztuczną inteligencję, która może porównywać obrazy, znajdować obiekt na obrazie lub rozpoznawać określoną twarz w grupie twarzy, ale nawet to jest bezwartościowe, jeśli nie nadzoruje tego człowiek. Samojezdne samochody osobowe i ciężarówki po prostu nie działają bez ludzkiego opiekuna i technika, co oznacza, że z pewnością zwiększą zatrudnienie, a nie pozbawią ludzi pracy. Jak przedstawiono w tej książce, ogólna sztuczna inteligencja jest jedynie mrzonką, pobożnym życzeniem dyrektorów generalnych gigantów technologicznych, którzy uważają, że ich ulubione projekty mogą zostać powszechnie zaakceptowane i okrzyknięci wybawicielami ludzkości, gdy przekazują UBI. Żadna z przewidywań zagłady i mroku, które przedstawili, się nie spełni, ale podsycający strach rzeczywiście zwiększa konsumpcję i czyni ludzi bardziej plastycznymi. I co teraz? Po prostu ciesz się jazdą.

AI jako sędziowie sportowi

https://aie24.pl/

W sporcie wiele rzeczy może zadecydować o jednym centymetrze, a grupa ludzkich sędziów może nie wystarczyć, aby wydać właściwy werdykt. Piłka nożna to starożytna, brutalna gra wywodząca się z masowych bójek w wioskach, podczas których należało nieść przedmiot od jednego końca pola do drugiego konieczne było wprowadzenie technologii, ponieważ ludzie wciąż znajdowali sposoby na przechytrzenie przestarzałych zasad. W jednym szczególnie bolesnym przypadku w 1986 roku Anglia przegrała z Argentyną, ponieważ jeden z zawodników, Diego Maradona, podczas zdobywania gola użył ręki zamiast głowy, co jest zabronionym posunięciem. Incydent stał się znany jako „Ręka Boga”  i z pewnością doprowadził do przyjęcia materiału filmowego w wysokiej rozdzielczości, oglądania go przez wyspecjalizowany zespół ds. każdy cel. Wraz ze wzrostem wydajności zawodników unowocześniono piłkę nożną, tworząc mniejsze, szybsze piłki, które można było kopać mocniej, aby uzyskać bardziej imponujące bramki, ale oznaczało to również, że standardowe kamery telewizyjne pracujące z szybkością 24 klatek na sekundę nie były wystarczająco dobre do analizy wideo. Konfiguracja, zwana sędzią asystentem wideo  (VAR), zapewnia kilka szybkich ujęć kamery na każdym centymetrze boiska i pozwala zespołowi VAR korygować sędziego na boisku lub po prostu pozwolić mu wstrzymać grę na czas sprawdzania powtórki. Dodatkowo szybkie kamery obserwują każdą linię bramkową, tworząc trójwymiarową reprezentację piłki wpadającej do bramki, aby automatycznie zasygnalizować sędziemu za pośrednictwem ekranu bransoletki i brzęczyka, czy bramka powinna zostać uznana. Na wszelki wypadek dostępny jest rezerwowy sędzia, którego jedynym celem jest wpatrywanie się w każdą linię bramkową w celu sprawdzenia VAR. VAR pokazał nam, że samo dodanie większej liczby ludzi do dowolnej sytuacji wymagającej rozsądnej decyzji nie poprawia dokładności, ale samo dodanie większej liczby technologii też nie pomaga. Właściwym rozwiązaniem jest ostrożne skalowanie technologii przy jednoczesnym dodaniu rezerwowych ludzi, ponieważ teraz możemy sobie na to pozwolić. Strach, że „sztuczna inteligencja pozostawi kierowców ciężarówek bez pracy” nie ma sensu, jeśli stać nas na zatrudnienie ludzkiego kierowcy, a ludzie będą wspierać sztuczną inteligencję i odwrotnie, tak jak w sporcie. Piłka nożna to obecnie sport, w którym sławę zdobywa się i traci na podstawie jednego gola, więc lepiej za każdym razem robić to dobrze, podając cholernie dobre wyjaśnienie, jeśli system zawiedzie, co jak dotąd się nie udało. Czy decyzje VAR można kwestionować w taki sam sposób, w jaki kwestionujemy wyniki oceny ryzyka przedprocesowego? Nie, ponieważ VAR: a) pokazuje wszystkie surowe dane, czyli nagranie bramki w zbliżeniu, w wysokiej rozdzielczości i w zwolnionym tempie oraz b) istnieje ekspert, który analizuje surowe dane i podejmuje decyzję. Pomimo starożytnych zasad, które przez długi czas opierały się zmianom, piłka nożna została zmodernizowana, gdy publiczność, gracze i sędziowie z łatwością przyjęli VAR, ponieważ system jest przejrzysty i zbędny. Właśnie takiej technologii sztucznej inteligencji potrzebujemy, takiej, która będzie oparta na maszynach, które będą działać lepiej niż ludzki odpowiednik (aparaty w porównaniu z ludzkim okiem) i będzie można z nią łatwo walczyć, aż w końcu uda nam się zrobić wszystko dobrze, mając jednocześnie możliwość obejścia decyzja maszyny.

Hakowanie sztucznej inteligencji

https://aie24.pl/

Idea hakowania odnosi się do taniego, skalowalnego i niezawodnego sposobu wprowadzenia niepewności do dowolnego systemu komputerowego w celu uzyskania nieoczekiwanego rezultatu. Ze względu na sposób programowania systemy komputerowe zwykle ulegają katastrofalnym awariom w obliczu niedopuszczalnych danych wejściowych. Jednym z przykładów może być przepełnienie bufora, które ma miejsce wtedy, gdy coś w rodzaju pola tekstowego na stronie internetowej pozwala każdemu odwiedzającemu wprowadzić dowolną liczbę jako wiek; haker może majstrować przy wprowadzaniu danych, dopóki nie znajdzie tak dziwnej liczby, że spowoduje to zawieszenie witryny lub umożliwienie całkowitego dostępu do zaplecza. Zwykle w pośpiechu do produkcji strony internetowe i oprogramowanie nie sprawdzają wszystkich możliwych danych wejściowych ani nawet ich nie ograniczają, ponieważ samo uruchomienie wszystkiego zajmuje dużo czasu i wysiłku. Przynajmniej po ataku hakerskim właściciel oprogramowania lub strony internetowej załata dziurę, prawda? W wystarczająco dużych systemach komputerowych właściciel może nie mieć nawet zasobów ani siły woli, aby na bieżąco naprawiać luki w kodzie, pozostawiając klientów samym sobie. W przypadkach, gdy system został po cichu zinfiltrowany w sposób niezauważalny dla klienta, właściciel może nawet chętnie go zignorować i skupić się na problemach, które mogą doprowadzić do pozwu zbiorowego. Jak wspomniano wcześniej, minimalnie opłacalny produkt. Z inżynierskiego punktu widzenia „hakowanie czegoś” odnosi się do zbierania różnych skrawków i ciekawostek w celu stworzenia przydatnego narzędzia lub produktu, co nie powinno być możliwe. Jeśli chodzi o hakowanie, chodzi o pokonanie przeszkody lub rozwiązanie problemu przy mniejszym wysiłku i zasobach, jakich potrzebowałby człowiek, aby stworzyć tę przeszkodę lub problem. W zastosowaniu do dowolnej dziedziny życia hakowanie staje się sposobem myślenia skoncentrowanym na wydajności — jak można to teraz sprawić, aby zadziałało? Nie ma ograniczeń co do tego, co można wykorzystać w hakowaniu. Wszędzie tam, gdzie system komputerowy jest wzmocniony przez człowieka, którego zadaniem jest ponowne sprawdzenie systemu, haker może liczyć na lenistwo lub przestrzeganie zasad. W zależności od czujników stosowanych w urządzeniach IoT osoby o ciemniejszym odcieniu skóry mogą nie być w stanie z nich korzystać. W jednym przypadku [42] łazienkowy dozownik mydła zainstalowany w siedzibie Facebooka nie mógł rozpoznać czarnej osoby machającej pod nim ręką, aby spuścić mydło, ale działał dobrze, gdy zrobiła to biała osoba. Rozwiązaniem jest wzięcie arkusza białego papierowego ręcznika i pomachanie nim pod czujnikiem, po czym zadziała zgodnie z przeznaczeniem. Nie jest to zamierzona wada projektowa, ale zaniedbanie ze strony inżynierów, którzy zbudowali dozownik mydła. Ciemna skóra pochłania więcej światła, podczas gdy jasna skóra je odbija, co dezorientuje czujnik mierzący ilość odbitego do niej światła. Inżynierowie budujący dozownik mydła nie sprawdzili wystarczającej liczby skrajnych przypadków, ponieważ najprawdopodobniej nalegano, aby jak najszybciej wypuścić produkt na rynek, a jednocześnie utrzymać jego koszt na niskim poziomie; zwiększenie zakresu kolorów skóry wykrywanych przez dozownik mydła prawdopodobnie spowodowałoby wzrost kosztów i częstsze błędy. Prawdopodobnie patrzymy w przyszłość wypełnioną eleganckimi, fantazyjnymi i drogimi urządzeniami IoT, które działają tylko w wąskich okolicznościach, ale przynajmniej są to tylko dozowniki mydła, prawda? Czujniki w samochodach autonomicznych mogą działać z tą samą usterką, ponieważ nie wykrywają osób o ciemniejszej karnacji i w ten sposób w nie uderzają. Jedno z badań Uniwersytetu Georgia, przeanalizowane przez Metro.co.uk [43] wykazało, że samochody autonomiczne popełniają o 5% więcej błędów, gdy w teście biorą udział ciemnoskórzy piesi. Mówiąc najprościej, gdy inżynierowie tworzą sieć neuronową do wykrywania obiektów i pieszych, posługują się najbardziej jaskrawymi przykładami, które pomagają im stworzyć działający produkt w jak najkrótszym czasie, co oznacza białych ludzi, ponieważ to oni najbardziej się wyróżniają. Inwestorzy wydali pieniądze i chcą już teraz zobaczyć imponujące wyniki, ale jak wspomniano wcześniej, sieci neuronowe mają charakter probabilistyczny. Obecnie pojazdy wymagają ludzkich kierowców, ponieważ żadne oprogramowanie nie jest w stanie zareagować w szerokiej gamie zróżnicowanych sytuacji, w których proste działanie lub brak działania może mieć fatalne konsekwencje, ale przynajmniej możemy przypisać im winę. Kiedy sieć neuronowa w jednym z takich samochodów znajdzie się w zupełnie nowej sytuacji, nie wiadomo, co może się stać z Trolleyem. Problem, eksperyment myślowy, w którym człowiek musi w ułamku sekundy podjąć decyzję, kogo zabić. Problem wózka zasadniczo pyta, czy człowiek powinien zmienić kierunek jazdy pędzącego wózka, aby zabić jedną osobę zamiast pięciu, czy też nie robić nic, pozwalając na śmierć pięciu osób. W przypadku samochodu autonomicznego być może trzeba będzie podjąć taką samą decyzję, ale ta jedna osoba będzie kierowcą, a tych pięciu to przechodnie na światłach. Kiedy autonomiczny samochód zobaczy, że nie da się uniknąć potencjalnie śmiertelnej kolizji z grupą ludzi, może zdecydować się na staranowanie najbliższej bariery, prawdopodobnie niszcząc siebie i zabijając kierowcę. W połączeniu z chińską oceną wiarygodności społecznej możemy łatwo wyobrazić sobie dystopijną przyszłość, w której obywatele są szeregowani według ich wartości dla ogółu społeczeństwa, a następnie popełniają samobójstwo, gdy ktoś o większej wartości jest w niebezpieczeństwie. Hakerzy mogliby po prostu nosić czarną twarz, aby zmniejszyć ryzyko, że zostaną zauważeni przez oprogramowanie do rozpoznawania twarzy lub wykryci przez pojazdy autonomiczne, stając się niczym duchy lub usterki ignorowane przez system. Prawdziwa odpowiedź jest taka, że działający człowiek w sytuacji problemu z wózkiem powinien zrobić wszystko, co konieczne, aby ocalić wszystkich ludzi, ale nikt nie będzie go obwiniał, jeśli im się to nie uda. Wózki poruszające się z nadmierną prędkością prawie zawsze byłyby spowodowane kaskadową awarią hamulców i innych mechanizmów bezpieczeństwa, co wymagałoby zbadania i modernizacji tych mechanizmów – krótko mówiąc, tragiczne wydarzenie, takie jak to, prawdopodobnie doprowadziłoby do lepszych i silniejszych systemów, a nie tylko mechaniczna, binarna decyzja o zabiciu jednej lub pięciu osób. W 1988 r. na francuskiej stacji Gare de Lyon uciekający pociąg zderzył się z nieruchomym pociągiem, zabijając 56 osób. Jak szczegółowo opisano w odcinku Seconds from Disaster  , połączenie pośpiechu pasażerów, błędów projektowych i błędów maszynisty w pociągu, w którym hamulce można było łatwo wyłączyć w wyniku przypadkowego oparcia się o niewłaściwy uchwyt, doprowadziło do trzeciego najgorszego wypadku kolejowego we Francji w czasie pokoju . Jest to tragedia, która zdarza się raz na sto lat i ostatecznie jest spowodowana błędem człowieka, ale pojazdy autonomiczne miałyby na celu całkowite wyeliminowanie człowieka z procesu decyzyjnego, co potencjalnie prowadziłoby do tego, że tego rodzaju zdarzenia miałyby miejsce raz dziennie bez żadnego wyjścia.

Sztuczna inteligencja i Kredyt Społeczny

https://aie24.pl/

Chociaż Stany Zjednoczone mogą być liderem w badaniach nad sztuczną inteligencją, to Chiny wykonują większość jej wdrożeń na dużą skalę. Chiny mogą wykorzystać swoją ogromną populację zarówno do wytworzenia dużej liczby inżynierów, jak i do szkolenia dowolnego rodzaju sieci neuronowej w ramach różnorodnego zestawu wyzwań. Podobnie jak w przypadku najprostszych produktów, Chińczycy nie mają wstydu, jeśli chodzi o kopiowanie tego, co mądrzejsi ludzie już zrobili i po prostu bawiąc się tym, wykorzystując wyjątkowo tanią siłę roboczą, do stworzenia działającego prototypu i przekształcenia go w zysk. W rzeczywistości duże amerykańskie firmy mogą chcieć wejść na rynek chiński tylko po to, aby napić się z tego źródła danych i wykorzystać siłę roboczą do opracowania produktu, który następnie zostałby zaoferowany na rynek amerykański, oczywiście pod auspicjami chińskiego rządu . Google podbił już Chiny jako preferowana wyszukiwarka w latach 2006–2010, ale zrezygnował z powodu skrajnych żądań cenzury, ataków hakerskich, przesłuchań pracowników i kradzieży własności intelektualnej. W 2018 roku Google zdecydował się spróbować jeszcze raz, co zaskoczyło analityków, którzy stwierdzili, że w każdym razie chiński rząd uczynił środowisko internetowe znacznie bardziej wrogim, więc musi istnieć jakiś naprawdę pilny problem, który skłonił Google do wejścia do Chin. Według dr Kai-Fu Lee, byłego prezesa Google China, wkraczamy w erę sztucznej inteligencji, w której „dane to nowa ropa naftowa, a Chiny będą nową Arabią Saudyjską”, a pracownicy nie będą po prostu przesiedlani przez maszyny w stosunku 1:1 – całe gałęzie przemysłu zostaną zautomatyzowane, a ludzie na nich zależni pozbawieni praw wyborczych. Nawołuje do jakiejś formy redystrybucji dochodów, ponieważ firmy stosujące sztuczną inteligencję z łatwością zarobią miliardy dolarów, więc nałożenie na nie dodatkowego podatku wydaje się najbardziej naturalnym rozwiązaniem, ale sprzeciwia się prezentowanemu w mediach UBI. Dr Lee twierdzi, że rządy na całym świecie będą musiały zapewnić obywatelom „sens życia” coś więcej niż tylko środki do życia i wspomina, że zawody, których wynik ma więcej wspólnego z ludzką satysfakcją niż zerami i jedynkami, np. nianie i nauczyciele, są nadal bezpieczni przed automatyzacją. Twórcy kreatywni, na przykład pisarze i malarze, również przez dłuższy czas nie mają się czego obawiać. Dla wielu ludzi, mówi dr Lee, praca jest znaczeniem życia i spodziewają się, że przez 60 lat swojego życia będą mieli te same rutyny, tak jak ich przodkowie, więc odebranie im tego nie postawi ich w trudnej sytuacji. dobry humor. Rzecz w tym, że już traktujemy naszych pracowników jak roboty: siedź spokojnie, wypełniaj te arkusze kalkulacyjne i wysyłaj im e-maile przez osiem godzin dziennie, więc automatyzacja ich pracy faktycznie zrobi im przysługę. A gdyby tak dać im inteligentne narzędzie do wypełniania arkuszy kalkulacyjnych, a oni po prostu dwukrotnie sprawdziliby wyniki? Zwolniłoby to firmę z wszelkiej odpowiedzialności prawnej, ponieważ nadal istniałby człowiek, ale wydajność pracy mogłaby ogromnie wzrosnąć, choć z pewnym obniżeniem ogólnej jakości. Wymowne jest, że dwa kraje o najsłabszych przepisach dotyczących ochrony konsumentów, Stany Zjednoczone i Chiny, to te, które naciskają na sztuczną inteligencję, ponieważ ich zniewoleni klienci mają bardzo niewiele do powiedzenia na temat tego, co otrzymują. Tę wspólną płaszczyznę można wykorzystać, aby cenzura w stylu chińskim wkroczyła do Stanów Zjednoczonych za pośrednictwem gigantów technologicznych, takich jak Facebook i Google, które już rozrosły się do tego stopnia, że przypominają państwa narodowe, z tą różnicą, że nie można ich pokonać w wojnie. Chiński system kredytów społecznych (SCS) przypomina wielką grę wideo, z tą różnicą, że konsekwencje znalezienia się na niskim miejscu w tabeli wyników oznaczają odcięcie od najważniejszych elementów rządowych, takich jak edukacja i transport publiczny. Co powoduje utratę wyniku społecznościowego? Wypadki drogowe, morderstwa, defraudacje i bycie powiązanym z kimś, kto dopuścił się któregokolwiek z nich. W jednym przypadku w 2015 roku młoda chińska studentka Zhong Pei nie mogła kupić biletu kolejowego ani zapisać się na uniwersytet, ponieważ jej tata zabił dwie osoby i siebie w wypadku samochodowym  . Oficjalna etykieta wprowadzona do systemu głosiła, że Pei była „nieuczciwa”, ale po czterech miesiącach udało jej się oczyścić swoje imię. Zbudowany i przetestowany już przez Tencent i Alibaba, chińskie odpowiedniki Apple i Amazon, SCS w 2020 r. stanie się ogólnochiński, a wszystko, co zrobi obywatel, będzie miało wpływ na obliczenie jego wyniku. Pijesz, za dużo grasz w gry wideo lub po prostu spotykasz się z niewłaściwymi ludźmi? SCS rozważy, czy hobby, zakupy i nawyki zdrowotne odbiegają od tego, co partia wyznaczyła wzorcowemu obywatelowi jako karę: izolację społeczną i ekonomiczną. Jedynym problemem jest to, że – jak widzieliśmy w kanadyjskich eksperymentach izolacyjnych – środki te radykalizują ludzi i wypaczają ich poczucie rzeczywistości. Ideą SCS jest to, że chiński rząd nie jest w stanie obsłużyć ponad miliarda ludzi, którzy mogliby posiadać zaawansowaną technologię, dlatego należy zidentyfikować osoby niegodne zaufania, które najprawdopodobniej spowodują problemy, i stopniowo wypierać je z dużych miast, łącznie z tymi, którzy mogliby im pomóc wdrapać się z powrotem do środka. Zgodnie z tą logiką SCS będzie nagradzać tych, którzy działają odpowiedzialnie, a jednocześnie stanowić karę wstępną wobec tych, którzy zagrażają sobie i innym. Inne kary to odcięcie dostępu do Internetu, brak dostępu do kredytów mieszkaniowych i możliwości zatrudnienia oraz cofnięcie paszportu. Co zrobią ci ludzie, aby przetrwać w świecie z coraz bardziej wrogą technologią?

Sztuczna inteligencja i etyka

https://aie24.pl/

Ta medyczna sztuczna inteligencja mogłaby analizować obrazy i zdjęcia rentgenowskie, zaglądając w obraz aż do ostatniego piksela, aby zobaczyć najwcześniejsze oznaki i możliwe rozprzestrzenianie się choroby. Osobom cierpiącym na fobie i stany lękowe można dostarczyć gogle wirtualnej rzeczywistości, w których sztuczna inteligencja przeprowadzi ich przez traumę i przekaże odpowiednie instrukcje dotyczące radzenia sobie z sytuacją w najdrobniejszych szczegółach. W połączeniu z oprogramowaniem do rozmów wideo, takim jak Skype, sztuczna inteligencja może analizować twarze obłożnie chorych pacjentów, aby czytać w ich wewnętrznym świecie lepiej niż jakikolwiek człowiek. Pacjenci powinni uzyskać świadomą zgodę, którzy powinni zawsze mieć świadomość, że rozmawiają z maszyną, a nie z człowiekiem, ale widząc, jak główne sieci społecznościowe przyznają się, że dosłownie szpiegują użytkowników i nikt nie mrugnął okiem, prawdopodobni pacjenci skorzystaliby z programu. Lekarze mają dużą swobodę w sposobie postępowania z pacjentami i być może będą musieli uciekać się do ekstremalnych środków, aby poradzić sobie z ekstremalnymi przypadkami. Nie jest to złośliwość ani arogancja, ale potrzeba działania i unikania emocjonalnego przywiązania do pacjenta, a jedno i drugie można osiągnąć, stosując najszybsze rozwiązanie, zwykle jakąś formę leku na receptę. Jednak lekarze mają również kodeks etyczny, który najlepiej można podsumować słowami: „po pierwsze, nie szkodzić”. Co by było, gdyby sztuczna inteligencja musiała zastosować jakiś ekstremalny środek, aby uratować życie pacjenta? Czy sztuczna inteligencja potrzebowałaby wówczas tego samego kodeksu etyki, który muszą mieć lekarze, aby powstrzymać ją przed szaleństwem naukowca na rzecz nieszczęsnych pacjentów? Według Stuarta Russella, autora książki o sztucznej inteligencji, stoimy przed przyszłością, w której inteligentne maszyny bezwzględnie muszą otrzymać obowiązkowy kodeks etyczny, ponieważ mogą generować fałszywe wiadomości, które zmienią nasze zachowanie w zakresie głosowania i wydatków. Potrafią już przeszukiwać media społecznościowe, aby wychwycić słowa kluczowe w celu określenia cech osobowości, a następnie przeprowadzać automatyczne czaty, szpiegostwo i szantaż. W ramach przygotowań do swojej petycji przed Narodami Zjednoczonymi Stuart stworzył także „Slaughterbots”, udramatyzowany film o tym, jak małe drony można wykorzystać do zabójstw. Zdolny do unikania leniwych uderzeń, dron może dosłownie zrzucić bombę nurkową na cel, dostarczając trzy gramy materiału wybuchowego w sam środek czoła, powodując natychmiastową śmierć. Choć dramatyczny, film Slaughterbots nie wyjaśnia, w jaki sposób walczy on z autonomicznymi dronami w gorszym stopniu niż, powiedzmy, walka z atakującymi srokami, które agresywnie bronią swoich gniazd podczas sezonu lęgowego w Australii. Ludzie od tysiącleci mają do czynienia z morderczymi zwierzętami, w tym śmiercionośnymi owadami i szalejącymi drapieżnikami, ale drony byłyby prawdopodobnie również wyjątkowo podatne na coś takiego jak pistolet osłabiający lub super nasiąkacz. Łatwo sobie wyobrazić, że ludzie uprawiają sport, polując na drony-zabójców, używając specjalnych gogli, aby je zobaczyć, i nosząc kamery na głowie, aby transmitować tę pierwszorzędną rozrywkę. Cóż, tak właśnie robią ludzie. Zatem w programach dronów mogłoby być zapisane etyczne zachowanie, a rząd mógłby nadzorować standardy etyczne, tak samo jak standardy elektryczne i inżynieryjne. Izaak Asimov myślał już o idei robotów mających zasady etyczne, a mianowicie o swoich trzech prawach robotyki, które można podsumować w następujący sposób: 1) nie krzywdź człowieka, 2) bądź posłuszny człowiekowi i 3) chroń siebie. Problem pojawia się, gdy pomyślimy o tradycyjnym programowaniu, które ignoruje kontekst i sposób, w jaki sztuczna inteligencja może interpretować takie ograniczenia etyczne. Jeśli człowiek idzie na spacer, czy inteligentna maszyna powinna mu tego zabronić, ponieważ światło słoneczne powoduje raka skóry? A co jeśli człowiek będzie chciał pojechać samochodem albo skoczyć ze spadochronem? Kwestię ograniczeń etycznych można postawić w następujący sposób: jaką władzę chcemy, aby maszyny miały nad nami? Za dużo i jesteśmy poddanymi w więzieniu naszej własnej konstrukcji, więc wydaje się, że odpowiedzią jest zapewnienie maszynom wystarczającej świadomości, aby rozpoznały, kiedy dokonujemy złych wyborów, ale niewystarczającej mocy, aby mogły nas przed nimi powstrzymać. Chcemy, aby inteligentne maszyny były naszymi doradcami, którzy będą zbierać surowe dane, prezentować je w sposób przejrzysty i wyciągać z liczb proste wnioski z taką przejrzystością, aby sprostały każdemu możliwemu wyzwaniu, ale ostatecznie pozostawiły wybór nam. Nawet jeśli sprawiają ból, błędne wybory zazwyczaj prowadzą do cennych lekcji, które pozostają na całe życie.

AI i samotność

https://aie24.pl/

Wydaje się, że w przyszłości największym problemem będzie samotność, gdyż będziemy kontaktować się ze sobą za pośrednictwem ekranów, a nie osobiście. Problem pojawia się, ponieważ nasz mózg jest przygotowany na odbieranie podświadomych sygnałów od innych ludzi, które czynią nas bardziej świadomymi naszego otoczenia i kontekstu społecznego, umożliwiając nam kontakt z rzeczywistością. bez tych sygnałów ta ogromna maszyneria neuronowa zaczyna się wyłączać. Mimo że w prawdziwym świecie istnieje potencjał pozytywnych i negatywnych doświadczeń, przynajmniej są one rzeczywiste w prawdziwym tego słowa znaczeniu i wywołują pewnego rodzaju dojrzałość, ale cyfrowy ocean doświadczeń typu clickbait w Internecie ma na celu najniższy wspólny mianownik w nasze osobowości, aby wywołać strach, niepokój i panikę, abyśmy mogli jak najdłużej pozostać online. Wiadomo, że izolacja wypacza umysł, a skrajna izolacja może powodować halucynacje i ataki paniki, dlatego też izolatka jest prawdziwą karą nawet dla najgorszych przestępców. W wyniku serii eksperymentów z deprywacją sensoryczną przeprowadzonych na kanadyjskich studentach wyposażono ich w wyszukany zestaw urządzeń do noszenia, zaprojektowanych w celu zminimalizowania stymulacji mózgu: tłumiki na uszach, opaski na oczy itp. Po kilku godzinach uczniowie zaczęli wykazywać niepokój i przeszli zaczęli mieć dzikie halucynacje, widząc dziwaczne sceny, które różniły się w zależności od osoby. Ich sprawność umysłowa zdegradowana i nie mogli pozbyć się wrażenia, że znaleźli się w… dziwnym śnie, w którym pokój i znajdujące się w nim przedmioty wirują lub zmieniają kształt długo po odzyskaniu stymulacji. Żadnemu z nich nie udało się przekroczyć progu dwóch dni. Dzieje się tak dlatego, że ludzki mózg jest zaprojektowany tak, aby absorbować i przetwarzać ogromne ilości danych, a każdy niedobór ich ma negatywny wpływ. to jest jak samochód, który psuje się, jeśli zwalnia, ale części zachowują przez chwilę bezwładność i rozkładają się, nawet gdy samochód już się nie porusza. Długotrwała izolacja prowadzi do tragicznego życia, w którym mózg stopniowo zaczyna przystosowywać się do samotności, tworząc wyszukane fantazje i szczegółowe światy, często zasypując je wyimaginowanymi doświadczeniami wizualnymi. Kiedy młode małpy są izolowane od grupy, po 30 dniach stają się całkowicie niezdolne do funkcjonowania ze swoimi braćmi, ponieważ ich mózgi zostały pozbawione stymulacji w najbardziej bezbronnych miejscach; dzieci, które przechodzą przez to samo, stają się społecznie zahamowane do skrajności. Przedsiębiorcy również doświadczają izolacji, porzucając swój krąg znajomych i rodzinę w pogoni za sukcesem biznesowym. Jest to dobrowolne poświęcenie, które otępia umysł i sprawia, że przedsiębiorca staje się nieczuły i obojętny, a jego laserowe skupienie na celu ignoruje wszystko inne. Później przedsiębiorcy nadmiernie to rekompensują, oddając się wystawnym przyjemnościom fizycznym, ale najprostszych interakcji międzyludzkich po prostu nie ma na co dzień, aby utrzymać funkcjonowanie obwodów społecznych. Więźniowie doświadczają najgorszego rodzaju izolacji, ponieważ ich jedyny kontakt z ludźmi odbywa się z innymi więźniami i strażnikami, co generalnie sprawia im trudności. W niektórych przypadkach więźniowie rezygnują z wszelkich manier i przyjmują całkowitą agresję, ponieważ utracili tę zniuansowaną kalibrację społeczną, która wynika z ciągłego kontaktu społecznego. Co robimy z tymi ludźmi? Czy po prostu pozwolimy, aby sieci neuronowe oceniające ryzyko decydowały o ich losie, nawet jeśli zalecają trzymanie ich w izolacji, czy też nadal próbujemy znaleźć rozwiązanie, które ostatecznie je zrehabilituje, choć może to być dziwaczne? Powszechnym mechanizmem radzenia sobie osób izolowanych jest znalezienie wyższego, bardziej abstrakcyjnego sensu życia. Zamiast skupiać się na ziemskich przyjemnościach, mogą zacząć czerpać radość z tworzenia dzieł sztuki, czytania lub rozwiązywania równań matematycznych. Religia również pomaga, dlatego mnisi przez dziesięciolecia wycofują się w góry, unikając rzadkiego kontaktu z ludźmi, ponieważ pozwala im to usłyszeć słowo Boże. Wszystko zaczyna mieć teraz sens? Jest prawdopodobne, że przedsiębiorcy doświadczający tego samego braku kontaktu z ludźmi również zaczną zapadać na te same psychozy, co sprawi, że pomyślą, że nadchodzi sztuczna inteligencja. Tym bardziej tragiczne jest to, że izolacja jest tym bardziej tragiczna, że tak wiele osób skazuje się na dobrowolne zamknięcie w izolatce, wybierając dziewicze życie świata cyfrowego zamiast bałaganu fizycznego, bez skłonności do przedsiębiorczości, aby przynajmniej zapewnić sobie źródło dochodu. Bez kontaktu z ludźmi i źródła dochodu umiejętności społeczne zanikają, a dana osoba nie jest w stanie utrzymywać kontaktu wzrokowego ani prowadzić znaczącej rozmowy bez zwątpienia. Jeśli pojawia się także problem fizyczny, w szczególności wpływający na mobilność, dana osoba nie ma pieniędzy, aby go naprawić i na dobre traci krąg społeczny. Jest to problem, który sam się pogłębia i wymaga szeroko zakrojonej rehabilitacji, którą równie dobrze mogłaby przeprowadzić sztuczna inteligencja. Teoretycznie, gdyby ogólna sztuczna inteligencja została stworzona i udostępniona ogółowi społeczeństwa już teraz, jakie byłoby łatwe i skalowalne rozwiązanie zarówno problemów osobowości, jak i konsekwencji izolacji?  Sztuczna inteligencja mogłaby ocenić ryzyko psychologiczne u każdej osoby i opracować spersonalizowane podejście, które doprowadziłoby do poprawy zachowania. Jedna taka sztuczna inteligencja mogłaby również prezentować się jako słowo Boże osobom pragnącym je usłyszeć i przekazywać jego przesłania za pośrednictwem ekosystemu IoT, co uczyniłoby je wszechobecnymi i nieuniknionymi. Stawiając danej osobie małe wyzwania, sztuczna inteligencja powoli przestawia jej mózg na wyższy bieg i czyni z niej funkcjonalną część społeczeństwa, ucząc ją także kilku rzeczy na temat kalibracji społecznej. Agresja nie przestraszyłaby sztucznej inteligencji, która nie miałaby układu limbicznego panikującego, aby przetrwać. Dzięki nieograniczonej cierpliwości i nieskończonej mądrości to słowo Boże mogłoby powoli przeprogramować osobę tak, aby stała się szczęśliwsza i bardziej produktywna. Brzmi zbyt przerażająco? Szczerze mówiąc, nie mamy innego rozwiązania dla osobowości aspołecznych, które zostały całkowicie zniszczone przez brak opieki i więzi emocjonalnej. Znając przeszłość danej osoby i mając dostęp do zapisów cyfrowych, sztuczna inteligencja może przejąć głos autorytetu lub po prostu członka rodziny, któremu dana osoba ulegnie. W przeciwnym razie głos można po prostu ustawić tak, aby był jak najbardziej kojący, wprawiając układ limbiczny w samozadowolenie. Jeśli tego rodzaju system zostanie dodany do istniejącej infrastruktury opieki zdrowotnej, pielęgniarki i lekarze zyskają więcej czasu na uporanie się z falami formalności i warstwami administracji. W połączeniu z faktem, że przewlekłe problemy zdrowotne wymagają całej sieci opiekunów do opieki nad jednym pacjentem, najprawdopodobniej będziemy potrzebować sztucznej inteligencji – stat. Sztuczna inteligencja może rozmawiać z pacjentami, aby zająć ich przy ocenie ich słownictwa, chorób psychicznych lub po prostu ogólnego nastroju, tworząc przydatny raport dla lekarza, który może uzyskać pełny obraz sytuacji bez marnowania czasu. Sztuczna inteligencja mogłaby automatycznie przesyłać anonimowe dane do bazy danych, która aktualizowałaby je w czasie rzeczywistym, pokazując częstość występowania różnego rodzaju udarów, urazów, nowotworów itp., co mogłoby pomóc politykom w opracowywaniu strategii zdrowotnych w momencie pojawienia się problemów, a nie dwudziestu lat później.

Porady dietetyczne AI

https://aie24.pl/

Dieta będzie jednym z tych obszarów, w których sztuczna inteligencja pomaga przekazywać przydatne informacje, aby każda osoba mogła sięgnąć po talerz, który pasuje do niej genetycznie. Wyobraź sobie zastąpienie białego chleba chlebem kukurydzianym i żytnim o stężeniu 40-60, który smakuje dziwnie, ale ostatecznie rozwiązuje problemy z wzdęciami, trądzikiem i wysypką. Z jakiegoś powodu zmiana czegoś w diecie ogromnie pomaga w przypadku problemów zdrowotnych, ale zazwyczaj nigdy nie rozważamy tej opcji świadomie i nie wiemy, co z tym zrobić. Wiele produktów, które jemy, nie ma nic wspólnego z naszymi potrzebami, a raczej wynika z przyzwyczajenia lub tęsknoty za wygodnym jedzeniem z powodu nadmiernej ekspozycji na stres. Jeśli chodzi o żywność, obecne warunki rynkowe wymagają niedoinformowanych klientów o niewielkiej kontroli impulsów, aby osiągnąć wzrost finansowy – wystarczy spojrzeć, jak wyszedł gluten. Gluten, zwykle występujący w przyrodzie jako białko pszenicy, które działa jak klej utrzymujący nasiona w jednym kawałku, został wyizolowany i wprowadzony do użytku komercyjnego jako zagęszczacz gdzieś na początku XX wieku – stosowany w lodach, aby zapobiec ich zbyt szybkiemu topnieniu. Izolowany gluten działa jak maleńka kula w przewodzie pokarmowym człowieka, robiąc dziury, które szybko się goją; Nadużywanie glutenu przez dziesięciolecia prowadzi u konsumentów do poważnych problemów jelitowych i chorób autoimmunologicznych. Firmy stosowały gluten, ponieważ sprawiał, że żywność była gumowata, zastępował droższe składniki bez rozpadania się produktu i wydłużał okres przydatności do spożycia. Inspektorzy bezpieczeństwa żywności nie stwierdzili żadnego problemu z glutenem, ponieważ zazwyczaj byli niedofinansowani i przepracowani; bez żadnych dowodów przeciwnych dopuszczono do obrotu gluten, co otworzyło furtkę dla bezsensownych eksperymentów z najróżniejszymi substancjami. Tymczasem typowy konsument widzi tańsze lody, które topią się wolniej i smakują bardziej jak lody konkurencji, ponieważ zawierają gluten; kogo to obchodzi, czy to prawda, czy szkodzi zdrowiu? Dopiero około sto lat później odkryto podstęp i wszyscy zaczęli wariować, gdy układ limbiczny zaczął pracować na wysokich obrotach, ale do tego czasu firmy spożywcze zbiły fortunę, sprzedając produkty gorszej jakości pod pozorem jakości. Interesujące w przypadku glutenu jest to, że ma on różny wpływ na różne osoby, przy czym narażenie na niego w młodości najwyraźniej aktywuje pewne geny, które prowadzą do problemów zdrowotnych w późniejszym życiu. W przypadku glutenu trudno mówić z całą pewnością, gdyż przewód pokarmowy człowieka jest tak skomplikowany, że wyjaśnienie tylko jednego zachodzącego w nim procesu zasługuje – i zwykle otrzymuje – Nagrodę Nobla. Ostatecznie użycie glutenu w żywności okazało się szeroko zakrojonym eksperymentem przeprowadzonym na ogół społeczeństwa, obmyślonym przez firmy spożywcze, usankcjonowanym przez rząd i finansowanym przez nieświadomego konsumenta napędzanego układem limbicznym. Dlaczego? Ponieważ zwiększył wzrost gospodarczy poprzez wzrost sprzedaży i konsumpcji żywności. Nie ma powodu sądzić, że wdrożenie sztucznej inteligencji w jakimkolwiek społeczeństwie będzie lepsze niż wprowadzenie glutenu. Jednakże gluten można bezproblemowo mieszać z innymi składnikami, ale sztuczna inteligencja będzie się wyróżniać, co wymaga, abyśmy od samego początku chętnie go akceptowali i uwielbiali. To kolejne wyjaśnienie, dlaczego tak wiele wpływowych osób zaczęło opowiadać się za sztuczną inteligencją, mimo że będzie ona zamożna w przyszłości. Masowe przyjęcie sztucznej inteligencji będzie wymagało hurtowego oświecenia, całkowitego obrotu w sposobie prowadzenia działalności przez firmy lub obu; najprawdopodobniej nic takiego się nie stanie, ale niezależnie od tego przeanalizujmy możliwości. Według artykułu w New York Times, w którym reporter, również kardiolog, za pomocą aplikacji rejestrował wszystko, co zjadł, ile spał i ćwiczył w ciągu czternastu dni, sztuczna inteligencja może sprawić, że poważnie zwątpimy w to, co jemy przez całe życie . Oprócz czujnika śledzącego poziom cukru we krwi reporter zbadał także jego kał pod kątem bakterii jelitowych, aby zobaczyć, co znajduje się w jego jelitach; różni ludzie mają w jelitach różne bakterie, a każdy szczep lubi inną żywność. Większość badań dotyczących żywności ma charakter obserwacyjny i dobrowolny, co oznacza, że polegają na tym, że uczestnicy prawidłowo zgłaszają, co jedli przez lata. Najlepsze możliwe wyniki badań diety wykazują korelację, ale nie mamy pojęcia o przyczynie i skutku, z wyjątkiem przypadku soli – nadmierne jej używanie przez lata zdecydowanie podnosi ciśnienie krwi. Kto finansuje najwięcej badań nad dietetyką? Ten sam przemysł spożywczy, który jest zainteresowany sprzedawaniem jak największej liczby tanich i stabilnych zamienników oryginalnych składników. Czy istnieje optymalna dieta dla każdego człowieka? Nie mamy pojęcia, dlatego sztuczna inteligencja ma przesiewać wszystkie dane osób o podobnym profilu genetycznym, analizować, jak radziły sobie na określonych dietach i dostarczać nam probabilistycznych rekomendacji. Wszystko, od historii rodziny po toksyny w środowisku i bakterie jelitowe, odgrywa rolę w sposobie, w jaki organizm przetwarza żywność.Od czasu do czasu pojawiają się przełomowe badania z obiecującymi wynikami, w których próbuje się wyodrębnić ten jeden kluczowy czynnik, ale potem zostaje ono podważone, a wnioski złagodzone. Jednym z takich badań było „Spersonalizowane odżywianie na podstawie przewidywania reakcji glikemicznych”, w którym sprawdzano, jak poziom cukru we krwi uczestników wzrósł w odpowiedzi na 52 000 najpopularniejszych produktów spożywczych, w tym lody. Uważany za główny czynnik prognostyczny cukrzycy, skoki poziomu cukru we krwi („reakcje glikemiczne” z tytułu badania) oznaczają, że organizm musi się wysilić, aby przetworzyć właśnie zjedzony pokarm. Jabłka i orzechy laskowe mają niski indeks glikemiczny, ale rafinowany cukier i napoje gazowane mają wysoki; ogólnie rzecz biorąc, bardziej wyrafinowana żywność działa bardziej szokująco na organizm. 800 osobom chorym na cukrzycę zmierzono poziom glukozy do czasu, gdy naukowcy wykonali ponad 1,5 miliona pomiarów, po czym nadszedł czas, aby sztuczna inteligencja przetworzyła wszystko bez ludzkich uprzedzeń. Stwierdzono, że bakterie jelitowe są najważniejszym czynnikiem wpływającym na reakcję poszczególnych osób na różne pokarmy. Następnie reporter miał okazję samodzielnie wypróbować system — wszystkie zalecenia AI dotyczyły potraw, których reporter nienawidził, a najbardziej lubił wszystkie potrawy, których powinien unikać. Komercyjne wersje tej samej sztucznej inteligencji, choć uproszczone, mają wykorzystywać zdjęcia talerza danej osoby do identyfikacji żywności i wydawać zalecenia, aby uniknąć żmudnego ręcznego raportowania żywności, ale bez pomiaru poziomu glukozy, najlepiej za pomocą urządzenia medycznego do noszenia, to wszystko jest tylko nieznacznie lepsze niż przypadkowe domysły. W przypadku reportera miał kamienie nerkowe, które zaostrzały się pod wpływem pokarmów takich jak truskawki, które zalecił trener dietetyczny AI. Na razie mamy diety uniwersalne, takie jak Paleo i Keto. Dieta Paleo mówi, że przetworzona żywność kryje w sobie wiele nieprzyjemnych niespodzianek, a każde ogniwo w łańcuchu przetwarzania może skazić żywność, zanim wyląduje na naszym talerzu. Dlatego dieta Paleo zaleca spożywanie „czystej” żywności, czyli takiej, o której wiesz na pewno, w jaki sposób była uprawiana, przechowywana i przetwarzana. Jeśli to możliwe, uprawiaj własne owoce, warzywa i drób. Dieta Keto ma na celu radzenie sobie ze skokami poziomu glukozy we krwi poprzez unikanie rafinowanych węglowodanów lub ogólnie samych węglowodanów, co oznacza brak chleba, słodyczy, cukru lub napojów gazowanych i tylko odrobinę owoców dziennie. Stwierdzono, że dieta ketonowa powstrzymuje ataki epilepsji, których nie są w stanie stłumić żadne leki; nauka wciąż nie ma pojęcia, dlaczego tak się dzieje.

AI jako jedna światowa religia

https://aie24.pl/

Mając tego rodzaju kontekst, można w końcu zrozumieć polityczne aspiracje dyrektorów generalnych gigantów technologicznych, w szczególności Marka Zuckerberga, który prawie przyznał się do kandydowania na prezydenta w przyszłych wyborach w USA w 2020 r. , a jego platforma prawie całkowicie skupiała się na UBI . Innymi słowy, darmowe korzenie dla każdego. Jak zatem poradziłby sobie kraj zarządzany przez Marka? Zobaczmy, jak zarządza własną firmą, aby uzyskać wskazówki. 13 marca 2019 r. Facebook, Instagram i WhatsApp miały ogromną ogólnoświatową awarię . W zależności od użytkownika niektóre funkcje były dostępne, ale większość innych była niedostępna. Strony internetowe korzystające z kont Facebook do logowania również miały problemy z tymi funkcjami. Zajęło to dzień, zanim wszystko było w porządku, a oficjalne wyjaśnienie brzmiało „zmiana konfiguracji serwera”, co nie wyklucza hakerów, ponieważ oni również mogą zmienić konfigurację serwera. Teraz wyobraź sobie, że witryny Facebooka są jedynymi istniejącymi w Internecie i możesz zobaczyć, jak byłoby to niewykonalne. Jeden gigant technologiczny kontrolujący większą część Internetu uczyniłby go niezwykle podatnym na ataki hakerskie, ale i tak będą nalegać na monokulturę, ponieważ chodzi tu o kontrolę polityczną, a nie o zwiększoną produktywność i potrzeby użytkowników. To zupełnie tak, jakby fanatycy religijni mówili o swojej religii jako o „jedynej właściwej drodze”. Z technicznego punktu widzenia konkurent Google, Microsoft przyjmuje niektóre z tych samych taktyk, a nawet niektóre z tego samego oprogramowania. W 2018 roku Microsoft ogłosił, że jego przeglądarka Edge będzie działać na silniku Chromium firmy Google, tym samym, który jest używany w przeglądarce Google Chrome. Użytkownicy mogli więc wybierać między Edge a Chrome, ale w zasadzie otrzymaliby to samo bez względu na wszystko. Twórcy witryn, jak można się było spodziewać, wybiorą najłatwiejszą drogę i po prostu zoptymalizują witryny pod kątem Chromium, czyniąc inne przeglądarki mniej przyjemnymi w użyciu i stopniowo namawiając użytkowników do korzystania z Chrome. Najnowsza aktualizacja internetowej aplikacji Skype sprawiła, że działa już tylko w Edge i Chrome, co udowadnia, że giganci technologiczni są więcej niż chętni do zablokowania wszystkim innym dostępu do zabawy. Jednak hakerzy, którzy majstrowali przy innych przeglądarkach, udowodnili, że tę samą aktualizację można zastosować w innych przeglądarkach, jeśli fałszywie zidentyfikują się jako Edge lub Chrome  . To nie tak, że Microsoft nie może sprawić, że wszystko będzie działać w przeglądarce Firefox lub Safari; chodzi o to, że nie będzie to tylko utworzenie monopolu. Jest to szczególnie ironiczne, ponieważ Skype jest reklamowany jako sposób na wypełnienie luki między platformami i kontynentami, ale w rzeczywistości kieruje użytkowników do monokulturowego świata, w którym tylko aplikacje tej samej firmy działają bezproblemowo. Takie zachowanie miało miejsce w przypadku Microsoftu i będzie się zdarzać ponownie, podsycane strachem kadry kierowniczej przed utratą udziałów w rynku. Jeśli AI jest bóstwem, to kim są kapłani? Różni naukowcy ze wszystkich dziedzin uważają się za jedynych godnych interpretacji niewysłowionej woli boskiego mózgu maszyny. W 2019 roku na Uniwersytecie Stanforda powstał nowy instytut poświęcony sztucznej inteligencji [34] , ale niewiele było wzmianek o nauce, a dużo o prozelityzmie. Zamiast dzielić ludzkość na narody, które konkurują ze sobą za pomocą sztucznej inteligencji, instytut przedstawił ideę zjednoczonej ludzkości. Instytut Stanforda ds. Sztucznej Inteligencji Skoncentrowanej na Człowieku, kierowany przez Fei-Fei Li, niegdyś głównego naukowca Google ds. sztucznej inteligencji w Google, ma stać się religią XXI wieku. A więc prywatna organizacja prowadzona przez pracownika Google, który tak się składa, że jest Chińczykiem. W materiałach promocyjnych zachwalających nadejście „ery sztucznej inteligencji” przechwala się, że sztuczna inteligencja przekształci wszystko, od prawa po medycynę i literaturę. Oczywiście Uniwersytet Stanforda będzie centrum ogólnoświatowej aktywności prawodawców, polityków i przedsiębiorców, którzy będą musieli się tam udać, aby uzyskać oficjalną zgodę przed podjęciem jakiejkolwiek decyzji dotyczącej człowieka. Instytut, składający się z pracowników reprezentujących różne narodowości i kolory skóry, ma pokazać ludzkości, jak to jest współpracować w skali globalnej. Teoretycznie sztuczna inteligencja będzie wiedzieć wszystko lepiej niż ludzie, ale to właśnie ci naukowcy będą interpretować jej wolę, podobnie jak kapłani religii pogańskich. Sztuczna inteligencja zostanie opisana jako niebezpieczna dla ogółu społeczeństwa, co wymagałoby jej przechowywania w skarbcach Stanforda, w wygodny sposób ukrywając wszystkie surowe dane wejściowe i procesy podejmowania decyzji przed niezależną analizą. Nie martw się, ludzie sprawujący władzę nigdy jej nie nadużyli, zwłaszcza gdy byli tak pokorni jak te cudowne osobistości ze Stanfordu. Za tego rodzaju ruchem przyjaznym sztucznej inteligencji stoją giganci technologiczni, nic więc dziwnego, że oni również chcą wziąć udział w akcji. W 2017 roku Google przestawił swój marketing na „najpierw sztuczną inteligencję”, zmieniając nazwę działu badawczego na „Google AI”. Istnieją różne głosy, jak na przykład Steve Blank, profesor na Uniwersytecie Stanforda, który stwierdził, że ludzie, którzy opracowują nową technologię, zazwyczaj nie ponoszą odpowiedzialności za jej niewłaściwe wykorzystanie i wspomina, że technologia zawsze ma konsekwencje wykraczające poza wszelkie wyobrażenia jej twórców.