Mail:





Słowniczek Sztucznej Inteligencji





Uważaj na lukę

O co toczy się gra

Głębokie uczenie i nie tylko

Skoro komputery są tak inteligentne, dlaczego nie potrafią czytać?

Gdzie jest Rosie?

Wglądy z ludzkiego umysłu

Zdrowy rozsądek i droga do głębokiego zrozumienia

Zaufanie

Epilog




Sztuczna Inteligencja : Gry


•  Wprowadzenie

•  Gry AI

•  Ruch

•  Znalezienie drogi

•  Podejmowanie decyzji

•  Taktyczna i strategiczna AI

•  Uczenie się

•  Proceduralne generowanie treści

•  Gry planszowe

•  Zarządzanie wykonaniem

•  Interfejs ze światem

•  Narzędzia i tworzenie treści

•  Programowanie gry AI

•  Projektowanie gry AI

•  Gatunki gier opartych na sztucznej inteligencji



A.I. dla Nie-Techników



•  Część 1 - Podstawy sztucznej inteligencji
•  Część 2 - Dane
•  Część 3 - Uczenie maszynowe
•  Część 4 - Głębokie uczenie
•  Część 5 - Robotic Process Automation
•  Część 6 - Przetwarzanie języka naturalnego (NLP)
•  Część 7 - Roboty fizyczne
•  Część 8 - Wdrażanie sztucznej inteligencji
•  Część 9 - Przyszłość sztucznej inteligencji





Sztuczna Inteligencja i Robotyka

• Co to są inteligentne roboty?

• Krótka historia robotyki

• Automatyzacja i autonomia

• Autonomia organizacji oprogramowania

• Telesystemy

• Zachowania

• Postrzeganie i zachowania

• Koordynacja behawioralna

• Lokomocja

• Czujniki i wykrywanie

• Wykrywanie zasięgu

• Warstwa deliberatywna

• Nawigacja

• Planowanie ścieżek metrycznych i planowanie ruchu

• Lokalizacja, mapowanie i eksploracja

• Uczenie się

• Funkcjonalność interaktywna

• Interakcja Człowiek-Robot

• Projektowanie i ocena systemów autonomicznych

• Etyka




Sztuczna inteligencja: podstawy i zastosowania

Część 1: Sztuczna inteligencja i nanotechnologia: superkonwergencja

Część 2: Sztuczna inteligencja w handlu elektronicznym: analiza procesów biznesowych

Część 3: ABC ery cyfrowej ze szczególnym odniesieniem do sektora bankowego

Część 4: Sztuczna inteligencja w predykcyjnej analizie ubezpieczeń i bankowości

Część 5: Sztuczna inteligencja w robotyce i automatyzacji.

Część 6: Sztuczna inteligencja: nowe podejście w opiece zdrowotnej

Część 7: Sztuczna inteligencja i spersonalizowane leki: Wspólna narracja o postępach w opiece medycznej

Część 8: Nanotechnologia i sztuczna inteligencja w medycynie precyzyjnej w onkologii

Część 9: Zastosowania sztucznej inteligencji w recepturach farmaceutycznych i leków

Część 10: Rola sztucznej inteligencji w diagnozowaniu gruźlicy

Część 11: Zastosowania sztucznej inteligencji w wykrywaniu i leczeniu COVID-19

Część 12: Sztuczna inteligencja oparta na Internecie rzeczy przy użyciu platformy Microsoft Azure

Część 13: Równoważenie obciążenia w bezprzewodowej sieci heterogenicznej za pomocą sztucznej inteligencji

Część 14: Zastosowania technik sztucznej inteligencji w systemach elektroenergetycznych

Część 15: Wpływ sztucznej inteligencji w sektorze lotniczym i kosmicznym

Część 16: Sztuczna inteligencja do prognozowania pogody

Część 17: Górnictwo molekularne: zastosowania w naukach farmaceutycznych




A.I. … i wszystko jasne




Wprowadzenie do Języka R




Język R … od słów do czynów !!!



 + Kody Źródłowe




A.I.: Jaka jest nasza Przyszłość?

[101 Prostych Pytań]




VIDEO



  Hipoteza Riemanna

 Pogadać z Maszyną 1

 Pogadać z Maszyną 2

 Pogadać z Maszyną 3

 Pogadać z Maszyną 4

 Wywiad z maszyną !

 Co słyszy Sztuczna Inteligencja?

 Komputer Kwantowy

 Świadomość Maszyn

 Sztuczna Inteligencja - Szansa czy Zagrożenie?

 This is AI 1

 This is AI 2 : How machines learn

 This is AI 3 : Learnig for life

 This is AI 4: A synthetic sixth sense




Bogowie Sztucznej Inteligencji






SŁOWNIK TERMINÓW ROBOTYCZNYCH




Anatomia Robota

  • Systemy Sterowania
  • Sprzęt Komputerowy
  • Niezawodność, Bezpieczeństwo i Zgodność
  • Kroki Projektowe: HLD
  • Energia i systemy zasilania
  • Kontrola Energii
  • DSP
  • Komunikacja
  • Silniki i Siłowniki
  • Mechanika



  • Artificial Intelligence




    Jak A.I. zmienia nasz świat




    Mity Sztucznej Inteligencji




    Króka Historia A.I.




    Fundamenty


    • Prolog

    • Wprowadzenie do A.I.

    • Definiowanie roli danych

    • Biorąc pod uwagę alogorytmy

    • Pionierski ,specjalistyczny sprzęt

    • Zastosowanie AI w aplikacjach komputerowych

    • Automatyzacja typowych procesów

    • Zastosowanie AI w medycynie

    • A.I. a poprawa interakcji

    • Analiza danych przez A.I.

    • Wykorzystanie machine learning

    • Poprawa A.I. (…)

    • Rozwój robotów

    • Latanie dronami

    • Samochód napędzany A.I.

    • Zroumieć aplikacje bez szans

    • AI w Kosmosie

    • Nowe zawody w erze A.I.

    •  X zawodów dla A.I.(?)

    • Wkład A.I. w społeczeństwo

    • Jak zawiodła A.I.




    "Ocieplamy" Fundamenty


    • Intuicyjna koncepcja sztucznej inteligencji

    • Podstawy wyszukiwania

    • Inteligentne wyszukiwanie

    • Algorytmy Ewolucyjne

    • Zaawansowane podejście ewolucyjne

    • Inteligencja Roju: Mrówki

    • Inteligencja roju: Cząstki

    • Uczenie maszynowe

    • Sztuczne sieci neuronowe

    •  Uczenie się ze wzmocnieniem za pomocą Q-Learning




    XVI Filarów Świątyni ArtInt′a


    • Korzenie i Zakres

    • Reprezentacja i wyszukiwanie

    • Struktury i strategie wyszukiwania

    • Wyszukiwanie Heurystyczne

    • Metody Stochastyczne

    • Budowanie algorytmów sterowania

    • Reprezentacja Wiedzy

    • Silna metoda rozwiązywanie problemów

    • Rozumowanie w niepewnych sytuacjach

    •  Uczenie maszynowe : oparte na symbolach

    • Uczenie maszynowe : koneksjonizm

    • Uczenie maszynowe : genetyczne i awaryjne

    • Uczenie maszynowe : probabilistyczne

    • Automatyczne wnioskowanie

    • Rozumienie języka naturalnego

    • Sztuczna Inteligencja jako pytanie empiryczne




    Sztuczna Inteligencja i Big Data

    Sekcja 1 : Big Data i systemy sztucznej inteligencji

    Sekcja 2 : Ontologia dla dużych zbiorów danych

    Sekcja 3: Uczenie się z dużych zbiorów danych

    Sekcja 4:Sieci neuronowe dla dużych zbiorów danych

    Sekcja 5: Deep Big Data Analytics

    Sekcja 6: Przetwarzanie języka naturalnego

    Sekcja 7: Systemy rozmyte

    Sekcja 8: Programowanie genetyczne

    Sekcja 9: Analiza roju

    Sekcja 10: Uczenie się przez wzmocnienie

    Sekcja 11: Cyberbezpieczeństwo

    Sekcja 12: Obliczenia poznawcze












    Wczoraj , Dziś … Jutro














    Odwiedzin: 23569
    Dzisiaj: 24
    On-line: 1
    Strona istnieje: 1240 dni
    Ładowanie: 0.409 sek


    [ 6550 ]



    Sztuczna Inteligencja z Językiem NetLogo



    LINK



    I. O co tyle zamieszania?

    II. Przezroczystość

    III. Stronniczość

    IV. Odpowiedzialność i odpowiedzialność prawna

    V. Kontrola

    VI. Prywatność

    VII. Autonomia

    Autonomia jest ważną wartością w społeczeństwach liberalnych. Jest chroniona i ceniona zarówno w kulturze prawnej, jak i popularnej. Niektórzy twierdzą, że życie bez niej nie byłoby warte życia. Mówi się, że w swoim przemówieniu na Drugiej Konwencji Wirginii 23 marca 1775 roku Patrick Henry przekonał ludzi do poparcia wojny o niepodległość Stanów Zjednoczonych porywającym przemówieniem, które zakończyło się słowami: "Daj mi wolność albo śmierć". Podobne myśli odbijają się echem w motcie stanu New Hampshire ze śmiałym imperatywem "żyj wolny lub zgiń". I nie tylko w Stanach Zjednoczonych te nastroje znajdują mile widzianą publiczność. Greckie motto narodowe to "Eleftheria i Thanatos", co tłumaczy się jako "wolność albo śmierć". Co więcej, zaangażowanie na rzecz indywidualnej wolności i autonomii często było źródłem pocieszenia dla tych, którzy znaleźli się w trudnych okolicznościach. Na przykład Nelson Mandela pocieszał siebie i innych więźniów podczas uwięzienia na wyspie Robben, recytując wiersz Williama Ernesta Henleya "Invictus". Napisany pod koniec XIX wieku, kiedy Henley wracał do zdrowia po wielu operacjach, wiersz jest peanem na cześć panowania nad sobą, niezależności i odporności, kończący się nieśmiertelnymi wersami: "Jestem panem mojej duszy / jestem kapitanem mojego losu ". Biorąc pod uwagę ceniony status indywidualnej autonomii w liberalnym społeczeństwie, musimy zadać sobie pytanie, w jaki sposób sztuczna inteligencja i algorytmiczne podejmowanie decyzji mogą na nią wpłynąć. Kiedy to robimy, stwierdzamy, że nie brakuje obaw związanych z potencjalnie negatywnymi skutkami. Społeczni krytycy technologii obawiają się, że wkrótce zostaniemy uwięzieni w "niewidzialnym drucie kolczastym" algorytmów predykcyjnych, które popychają, manipulują i wymuszają nasze wybory. Inni, jak izraelski historyk Yuval Noah Harari, twierdzą, że ostatecznym celem powszechnego wdrażania sztucznej inteligencji jest infrastruktura technologiczna, która zastępuje i eliminuje, a nie popycha i manipuluje autonomicznymi decydentami ludzkimi.2 Ale czy mają rację? Czy autonomia jest naprawdę zagrożona przez sztuczną inteligencję? A może sztuczna inteligencja może być tylko najnowszym z długiej linii technologii zwiększających autonomię? W tym rozdziale wycofujemy się z szumu i siania strachu i oferujemy bardziej szczegółowy przewodnik po myśleniu o związku między sztuczną inteligencją a indywidualną autonomią. Robimy to w czterech etapach. Najpierw wyjaśniamy naturę i wartość samej autonomii, wyjaśniając, czym ona jest i jak znajduje odzwierciedlenie w naszych systemach prawnych. Po drugie, rozważamy potencjalny wpływ sztucznej inteligencji na autonomię, pytając w szczególności, czy technologia stwarza jakieś nowe i nieprzewidziane zagrożenie dla autonomii jednostki. Po trzecie, pytamy, czy negatywny wpływ sztucznej inteligencji na autonomię jest bardziej prawdopodobny w sektorze prywatnym, czy publicznym, czy też w jakiejś kombinacji tych dwóch. Innymi słowy, pytamy: "Kogo powinniśmy się bardziej bać: wielkiej technologii czy wielkiego rządu?" Po czwarte, zastanawiamy się, w jaki sposób możemy chronić indywidualną autonomię w erze zaawansowanej sztucznej inteligencji. Ogólne stanowisko przedstawione w tym rozdziale jest takie, że chociaż musimy być czujni wobec zagrożeń, jakie sztuczna inteligencja stwarza dla naszej autonomii, ważne jest, aby nie wyolbrzymiać tych zagrożeń ani zakładać, że jako obywatele nie jesteśmy w stanie zapobiec ich urzeczywistnieniu.

    Trójwymiarowe rozumienie autonomii

    Aby właściwie myśleć o wpływie sztucznej inteligencji na autonomię, musimy mieć jasność co do tego, co rozumiemy pod pojęciem "autonomia". W pierwszym akapicie pomieszały się ideały autonomii, wolności, niezależności i panowania nad sobą. Ale czy to wszystko to samo, czy też istnieją między nimi istotne różnice? Filozofowie i teoretycy polityki spędzili tysiące lat debatując nad tym pytaniem. Niektórzy z nich wymyślili złożone genealogie, taksonomie i wielowymiarowe modele tego, co jest rozumie się przez takie terminy jak "wolność" i "autonomia". Zajęłoby kilka książek, aby je wszystkie uporządkować i dowiedzieć się, kto zapewnia nam najlepsze zrozumienie odpowiednich terminów. Zamiast tego, w tym rozdziale proponujemy zaproponować jeden konkretny model autonomii. Ten model jest inspirowany długotrwałymi debatami filozoficznymi, a osoby zaznajomione z tymi debatami będą w stanie prześledzić oczywiste wpływy, ale nie będziesz potrzebować żadnej wcześniejszej wiedzy na ich temat, aby śledzić dyskusję. Celem jest zapewnienie czytelnikom zrozumienia autonomii, które jest dość proste i samodzielne, ale wystarczająco dopracowane, aby umożliwić im docenienie wielu różnych wpływów sztucznej inteligencji na autonomię. Czym więc jest ten model autonomii? Rozpoczyna się od uznania powszechnego, codziennego znaczenia tego terminu, zgodnie z którym, aby być "autonomicznym", trzeba mieć możliwość wyboru własnej drogi życiowej, samostanowienia oraz być wolnym od ingerencji i manipulacji ze strony innych. To wspólne zrozumienie jest dobrym punktem wyjścia. Oddaje ideę, że bycie autonomicznym wymaga pewnych podstawowych umiejętności i zdolności rozumowania - w szczególności zdolności wybierania spośród możliwych kierunków działania - oraz pewnej względnej niezależności w korzystaniu z tych umiejętności i zdolności. Filozof prawny i polityczny, Joseph Raz, w słynnej definicji tego, co trzeba zrobić, by być autonomicznym, dodaje trochę ciała do kości tego modelu autonomii.

    Jeśli człowiek ma być twórcą lub autorem własnego życia, to musi posiadać zdolności umysłowe do formułowania intencji o odpowiednio złożonym charakterze i planowania ich realizacji. Należą do nich minimalna racjonalność, zdolność zrozumienia środków wymaganych do realizacji swoich celów, zdolności umysłowe niezbędne do planowania działań itp. Aby osoba mogła cieszyć się autonomicznym życiem, musi faktycznie korzystać z tych zdolności, aby wybrać życie. Innymi słowy, muszą być dostępne dla niego odpowiednie opcje do wyboru. Wreszcie jego wybór musi być wolny od przymusu i manipulacji ze strony innych, musi być niezależny.

    Definicja Raza dzieli autonomię na trzy części składowe. Mówi, że jesteś autonomiczny, jeśli (1) posiadasz podstawową racjonalność wymaganą do działania w sposób ukierunkowany na cel; (2) masz do wyboru odpowiedni zakres opcji; oraz (3) twój wybór spośród tych opcji jest niezależny, to znaczy wolny od przymusu i manipulacji ze strony innych osób. Definicję tę można zastosować zarówno do indywidualnych decyzji, jak i życia jako całości. Innymi słowy, idąc za Razem, możemy rozważyć, czy całe życie człowieka jest autonomiczne, czy też dana decyzja lub zestaw decyzji jest autonomiczny. Niektórzy ludzie lubią używać różnych terminów, aby rozróżnić różne zakresy analizy. Na przykład filozof Gerald Dworkin zasugerował kiedyś, abyśmy używali terminu "autonomia", gdy mówimy o życiu jako całości (lub jakiejś jego dłuższej części), a "wolności", gdy mówimy o indywidualnych decyzjach. Jest to jednak mylące, ponieważ, jak zobaczymy poniżej, termin "wolność" został również zastosowany tylko do trzeciego warunku autonomii Raza. Dlatego w dalszej części artykułu użyjemy tylko jednego słowa - "autonomia" - w odniesieniu do interesującego nas zjawiska. Co więcej, tak naprawdę nie będziemy omawiać wpływu sztucznej inteligencji na życie jako całość, ale raczej jej wpływ na konkretne decyzje lub określone konteksty decyzyjne. Kuszące jest myślenie o trzech składnikach autonomii Raza jako warunki, które muszą być spełnione, aby decyzja została uznana za samodzielną. Jeśli spełniasz wszystkie trzy, jesteś niezależny; jeśli nie, to nie jesteś. Ale to jest zbyt binarne. W rzeczywistości bardziej pomocne jest myślenie o trzech komponentach jako o wymiarach, wzdłuż których autonomia decyzji może się zmieniać. Możemy je nazwać odpowiednio wymiarami racjonalności, opcjonalności i niezależności. Może istnieć minimalny próg, który należy przekroczyć w każdym wymiarze, zanim decyzja będzie kwalifikować się do statusu autonomicznego, ale poza tym progiem decyzje mogą być mniej lub bardziej autonomiczne. Aby uczynić to bardziej konkretnym, porównaj dwie różne decyzje. Pierwsza decyzja polega na wybraniu spośród opcji filmów zalecanych przez aplikację Netflix (lub inną aplikację do strumieniowego przesyłania wideo). Aplikacja oferuje dziesięć polecanych filmów. Czytasz ich opisy i wybierasz ten, który najbardziej Cię interesuje. Druga decyzja polega na wybraniu trasy pieszej, która została Ci polecona przez Google Maps (lub inną usługę mapowania). Aplikacja podaje jedną zalecaną trasę, podświetloną na niebiesko i jedną podobną trasę w mniej zauważalnym szarym kolorze. Podążasz zaznaczoną trasą. Czy oba te wybory są autonomiczne? Prawdopodobnie. Możemy założyć, że posiadasz podstawową racjonalność potrzebną do działania w sposób ukierunkowany na cel; widzimy, że aplikacje dały Ci szereg opcji; a aplikacje oczywiście nie wymuszają i nie manipulują twoimi wyborami (chociaż poniżej ponownie ocenimy to twierdzenie). Ale czy jedna decyzja jest bardziej autonomiczna niż druga? Prawdopodobnie. Na pierwszy rzut oka wydaje się, że aplikacja Netflix zapewnia więcej opcji i informacji, a nie podkreśla ani nie poleca jednej z nich, która ma wyższe wyniki w drugim i trzecim wymiarze. Daje to większą opcjonalność i więcej niezależności. Myślenie o autonomii w ten trójwymiarowy sposób jest przydatne. Pozwala nam docenić, że autonomia jest zjawiskiem złożonym. Zachęca nas do unikania uproszczonego i binarnego myślenia. Możemy teraz zrozumieć, że autonomia nie jest jakimś prostym zjawiskiem albo/albo. Decyzje mogą być mniej lub bardziej autonomiczne, a ich autonomia może być podważana lub promowana na różne sposoby. W związku z tym ważne jest, aby zdać sobie sprawę, że mogą istnieć praktyczne kompromisy między różnymi wymiarami i że musimy je zrównoważyć, aby promować autonomię. Na przykład dodanie większej liczby opcji do decyzji może promować autonomię tylko do pewnego stopnia. Poza tym dodanie większej liczby opcji może być przytłaczające, sprawić, że będziemy bardziej zdezorientowani i zagrozi naszej podstawowej racjonalności. Jest to coś, co psychologowie określili jako "paradoks wyboru" (więcej na ten temat później). Podobnie, pewne ograniczenia opcji i minimalny przymus lub ingerencja mogą być konieczne, aby w pełni wykorzystać autonomię. Od dawna jest to uznawane w teorii politycznej. Thomas Hobbes, na przykład, w swojej słynnej obronie suwerennego państwa argumentował, że potrzebujemy minimalnego przymusu ze strony państwa, aby uchronić nas przed pogrążeniem się w gorzkich sporach i konfliktach między sobą. Chociaż wszystkie aspekty trójwymiarowego modelu autonomii zasługują na omówienie, warto poświęcić nieco więcej uwagi wymiarowi niezależności. Wymiar ten skutecznie pokrywa się ze standardowymi politycznymi koncepcjami "wolności" i "wolności". Kluczową ideą leżącą u podstaw tego wymiaru jest to, że aby być autonomicznym, musisz być wolny i niezależny. Ale co właściwie oznacza ta wolność i niezależność? Raz mówi o tym, że wymaga to braku przymusu i manipulacji, ale te koncepcje same w sobie są mocno kwestionowane i mogą manifestować się na różne sposoby. Na przykład przymus zwykle wymaga groźby ingerencji, jeśli dana opcja nie zostanie wybrana ("zrób to albo inaczej!"), podczas gdy manipulacja może być bardziej subtelna, często obejmując próbę prania mózgu lub uwarunkowania kogoś, by faworyzował określoną opcję. We współczesnych politycznych teoriach wolności istnieje również istotne rozróżnienie między wolnością rozumianą jako brak rzeczywistej ingerencji w podejmowanie decyzji a wolnością rozumianą jako brak faktycznej i potencjalnej ingerencji. Ta pierwsza jest związana z klasycznymi teoriami liberalnymi, takimi jak te wysunięte przez Johna Locke7prime;a i Thomasa Hobbesa; ta ostatnia jest kojarzona z republikańskimi teoriami wolności, takimi jak te preferowane przez Machiavellego, a ostatnio irlandzkiego filozofa Philipa Pettita (nie mylić z partią republikańską w USA). Możemy wyjaśnić to rozróżnienie na prostym przykładzie zaczerpniętym z Pettit. Wyobraź sobie niewolnika, to znaczy kogoś, kto jest legalnie posiadany i kontrolowany przez inną istotę ludzką. A teraz wyobraź sobie, że właściciel niewolnika jest wyjątkowo życzliwy i oświecony. Mają prawnie uznaną moc zmuszania niewolnika do robienia tego, co chcą, ale nie korzystają z tej władzy. W rezultacie niewolnik prowadzi stosunkowo szczęśliwe życie, wolne od jakiejkolwiek faktycznej ingerencji. Czy niewolnik jest wolny? Zwolennicy republikańskiej teorii wolności twierdzą, że niewolnik nie jest wolny. Mimo że nie są aktywnie ingerowani, nadal żyją w stanie dominacji. Życzliwy pan niewolnika może pozwolić niewolnikowi działać tylko w ramach określonych arbitralnie określonych parametrów lub może zmienić zdanie w dowolnym momencie i wkroczyć i ingerować w wybory niewolnika. To jest antyteza wolności. Problem, według republikanów, polega na tym, że pogląd klasycznego liberalizmu nie może tego wyjaśnić. Musimy brać pod uwagę zarówno faktyczne, jak i potencjalne ingerencje w podejmowanie decyzji, jeśli mamy właściwie chronić wolność jednostki. Osoba nie może być wolna, jeśli żyje pod potencjalną dominacją innej osoby. Niezależnie od tego, co jest warte, uważamy, że jest to rozsądne stanowisko do przyjęcia. Najważniejsze jest zatem to, że musimy zapewnić, aby nasz trójwymiarowy model autonomii uwzględniał zarówno rzeczywiste, jak i potencjalne ingerencje w jego podejście do wymiaru niezależności. To tyle o naturze autonomii. A co z jego wartością? Dlaczego niektórzy ludzie woleliby umrzeć niż obejść się bez niego? Nie możemy tutaj dokładnie odpowiedzieć na to pytanie, ale możemy przynajmniej nakreślić niektóre sposoby, w jakie można na nie odpowiedzieć. Pozostawiamy indywidualnemu czytelnikowi określenie, jak ważna jest dla niego autonomia. Ogólnie rzecz biorąc, istnieją dwa sposoby myślenia o wartości autonomii. Pierwszym z nich jest myślenie o autonomii jako o czymś, co jest samo w sobie wartościowe, to znaczy wartościowe samo w sobie, niezależnie od swoich konsekwencji lub skutków. Jeśli przyjmiesz ten pogląd, pomyślisz o autonomii jako o jednym z podstawowych warunków ludzkiego rozkwitu. Prawdopodobnie uwierzysz, że ludzie nie mogą naprawdę dobrze żyć, jeśli nie mają autonomii. Możesz nawet posunąć się tak daleko, że myślisz, że życie bez autonomii nie jest warte życia. Drugim sposobem myślenia o tym jest to, że jest to coś, co jest wartościowe instrumentalnie, to znaczy wartościowe ze względu na swoje typowe konsekwencje lub skutki. Jeśli przyjmiesz ten pogląd, możesz wysoko cenić autonomię, ale tylko dlatego, że uważasz, że autonomia sprzyja dobrym wynikom. Jest to powszechny pogląd i często występuje w politycznych i prawnych uzasadnieniach autonomii. Chodzi o to, że ludziom jest lepiej, jeśli pozwalają im robić swoje. Mogą przebierać i wybierać rzeczy, które najbardziej sprzyjają ich dobremu samopoczuciu, a nie robić tego za nich państwo lub strona trzecia. Kontrapunktem jest oczywiście paternalistyczny pogląd, który głosi, że ludzie nie zawsze działają w najlepszym interesie i czasami potrzebują pomocy. Walka między paternalizmem a autonomią toczy się we współczesnych debatach politycznych. Z jednej strony są tacy, którzy potępiają "państwo niańcze" za to, że zawsze wkracza i uważa, że wie najlepiej; na drugim biegunie są tacy, którzy ubolewają nad irracjonalnością swoich współobywateli i myślą, że wszyscy byśmy stali się otyłymi narkomanami, gdybyśmy mieli sami decydować. Większość ludzi prawdopodobnie zamieszkuje gdzieś pomiędzy tymi dwoma skrajnościami. Możemy wyjaśnić to rozróżnienie na prostym przykładzie zaczerpniętym z Pettit. Wyobraź sobie niewolnika, to znaczy kogoś, kto jest legalnie posiadany i kontrolowany przez inną istotę ludzką. A teraz wyobraź sobie, że właściciel niewolnika jest wyjątkowo życzliwy i oświecony. Mają prawnie uznaną moc zmuszania niewolnika do robienia tego, co chcą, ale nie korzystają z tej władzy. W rezultacie niewolnik prowadzi stosunkowo szczęśliwe życie, wolne od jakiejkolwiek faktycznej ingerencji. Czy niewolnik jest wolny? Zwolennicy republikańskiej teorii wolności twierdzą, że niewolnik nie jest wolny. Mimo że nie są aktywnie ingerowani, nadal żyją w stanie dominacji. Życzliwy pan niewolnika może pozwolić niewolnikowi działać tylko w ramach określonych arbitralnie określonych parametrów lub może zmienić zdanie w dowolnym momencie i wkroczyć i ingerować w wybory niewolnika. To jest antyteza wolności. Problem, według republikanów, polega na tym, że pogląd klasycznego liberalizmu nie może tego wyjaśnić. Musimy brać pod uwagę zarówno faktyczne, jak i potencjalne ingerencje w podejmowanie decyzji, jeśli mamy właściwie chronić wolność jednostki. Osoba nie może być wolna, jeśli żyje pod potencjalną dominacją innej osoby. Niezależnie od tego, co jest warte, uważamy, że jest to rozsądne stanowisko do przyjęcia. Najważniejsze jest zatem to, że musimy zapewnić, aby nasz trójwymiarowy model autonomii uwzględniał zarówno rzeczywiste, jak i potencjalne ingerencje w jego podejście do wymiaru niezależności. To tyle o naturze autonomii. A co z jego wartością? Dlaczego niektórzy ludzie woleliby umrzeć niż obejść się bez niego? Nie możemy tutaj dokładnie odpowiedzieć na to pytanie, ale możemy przynajmniej nakreślić niektóre sposoby, w jakie można na nie odpowiedzieć. Pozostawiamy indywidualnemu czytelnikowi określenie, jak ważna jest dla niego autonomia. Ogólnie rzecz biorąc, istnieją dwa sposoby myślenia o wartości autonomii. Pierwszym z nich jest myślenie o autonomii jako o czymś, co jest samo w sobie wartościowe, to znaczy wartościowe samo w sobie, niezależnie od swoich konsekwencji lub skutków. Jeśli przyjmiesz ten pogląd, pomyślisz o autonomii jako o jednym z podstawowych warunków ludzkiego rozkwitu. Prawdopodobnie uwierzysz, że ludzie nie mogą naprawdę dobrze żyć, jeśli nie mają autonomii. Możesz nawet posunąć się tak daleko, że myślisz, że życie bez autonomii nie jest warte życia. Drugim sposobem myślenia o tym jest to, że jest to coś, co jest wartościowe instrumentalnie, to znaczy wartościowe ze względu na swoje typowe konsekwencje lub skutki. Jeśli przyjmiesz ten pogląd, możesz wysoko cenić autonomię, ale tylko dlatego, że uważasz, że autonomia sprzyja dobrym wynikom. Jest to powszechny pogląd i często występuje w politycznych i prawnych uzasadnieniach autonomii. Chodzi o to, że ludziom jest lepiej, jeśli pozwalają im robić swoje. Mogą przebierać i wybierać rzeczy, które najbardziej sprzyjają ich dobremu samopoczuciu, a nie robić tego za nich państwo lub strona trzecia. Kontrapunktem jest oczywiście paternalistyczny pogląd, który głosi, że ludzie nie zawsze działają w najlepszym interesie i czasami potrzebują pomocy. Walka między paternalizmem a autonomią toczy się we współczesnych debatach politycznych. Z jednej strony są tacy, którzy potępiają "państwo niańcze" za to, że zawsze wkracza i uważa, że wie najlepiej; na drugim biegunie są tacy, którzy ubolewają nad irracjonalnością swoich współobywateli i myślą, że wszyscy byśmy stali się otyłymi narkomanami, gdybyśmy mieli sami decydować. Większość ludzi prawdopodobnie zamieszkuje gdzieś pomiędzy tymi dwoma skrajnościami. Oczywiście można cenić autonomię zarówno z powodów wewnętrznych, jak i instrumentalnych, sądzić, że jest ona wartościowa sama w sobie i że z większym prawdopodobieństwem doprowadzi do lepszych wyników. Dostępne są również bardziej egzotyczne widoki. Na przykład jeden z autorów niniejszej książki bronił twierdzenia, że autonomia nie jest wartościowa ani instrumentalnie, ani samoistnie, ale raczej czymś, co sprawia, że dobre rzeczy stają się lepsze, a złe gorsze. Wyobraź sobie na przykład seryjnego mordercę, który samodzielnie decyduje się zabić wielu ludzi, w porównaniu z seryjnym mordercą, któremu wyprano mózg, by zabił wielu ludzi. Czyje działania są gorsze? Oczywistą odpowiedzią jest to pierwsze. Brak autonomii tego ostatniego wydaje się łagodzący. Oczywiście dla wielu nadal jest źle , że ludzie zginęli w wyniku jego działań, ale biorąc pod uwagę wszystko, wydaje się gorzej, jeśli zginęli w wyniku autonomicznego wyboru. Sugeruje to, że działa większe zło. To samo dotyczy dobrych rzeczy, które zdarzają się przypadkowo, w porównaniu z tymi, które zdarzają się w wyniku autonomicznego działania. Niezależnie od tego, który pogląd wybierzesz, należy wziąć pod uwagę dodatkowe komplikacje. Na początek trzeba się zastanowić, gdzie w hierarchii wartości leży autonomia. Cenimy wiele rzeczy w życiu, w tym zdrowie, życie towarzyskie, przyjaźń, wiedzę, dobre samopoczucie i tak dalej. Czy autonomia jest ważniejsza czy mniej ważna niż te inne rzeczy? A może jest równorzędny? Czy powinniśmy być gotowi poświęcić trochę autonomii, aby żyć dłużej i szczęśliwiej (jak mogliby argumentować paternaliści)? A może zgadzamy się z Patrickiem Henrym, że utrata wolności to los gorszy od śmierci? To, jak odpowiemy na te pytania, odegra dużą rolę w tym, jak poważnie traktujemy wszelkie zagrożenia, jakie sztuczna inteligencja może stanowić dla naszej wolności. Pomocna może być analogia. Wielu filozofów, prawników i teoretyków polityki uważa, że prywatność jest ważna, ale niektórzy kwestionują nasze zaangażowanie w ochronę prywatności. W końcu wydaje się, że lekcja płynąca z ery internetu polega na tym, że ludzie są skłonni zrezygnować z prawa do prywatności, aby uzyskać dostęp do szybkich i wydajnych usług cyfrowych. Prowadzi to niektórych do argumentu, że możemy przechodzić do społeczeństwa post-prywatnego. Czy coś podobnego może dotyczyć autonomii? Czy bylibyśmy skłonni zrzec się naszej autonomii, aby zyskać korzyści płynące z AI? Czy możemy przejść do społeczeństwa post-autonomicznego? Jest to coś, co należy traktować poważnie, gdy przyglądamy się potencjalnym zagrożeniom dla autonomii. Na koniec należy również rozważyć związek między autonomią (jakkolwiek jest ona ceniona) a innymi podstawowymi prawami i wolnościami. Na przykład wiele klasycznych negatywnych praw ma solidne podstawy w wartości autonomii. Przykładami mogą być wolność słowa, swoboda przemieszczania się, swoboda zawierania umów, swoboda zrzeszania się oraz, oczywiście, prywatność i prawo do bycia pozostawionym w spokoju. Chociaż istnieją ekonomiczne i polityczne uzasadnienia dla każdej z tych swobód, mogą być również uzasadnione wartością autonomii, a ich ochrona może przyczynić się do promowania autonomii. Krótko mówiąc, wydaje się, że można uzasadnić pogląd, że autonomia, niezależnie od tego, jak jest ceniona, jest podstawą naszych ram prawnych i politycznych. Wszyscy mamy w tym jakiś interes.

    Czy sztuczna inteligencja i algorytmiczne podejmowanie decyzji podważają autonomię?

    Teraz, gdy mamy głębsze zrozumienie zarówno natury, jak i wartości autonomii, przechodzimy do pytania: czy powszechne wdrażanie sztucznej inteligencji i algorytmicznego podejmowania decyzji podważa autonomię? Jak już wspomniano, krytycy i komentatorzy społeczni już to sugerowali, ale uzbrojeni w trójwymiarowy model możemy podjąć się bardziej szczegółowej analizy. Możemy rozważyć wpływ tych nowych technologii we wszystkich trzech wymiarach autonomii. Czyniąc to, musimy z góry przyznać, że istnieją pewne powody do niepokoju. Rozważmy pierwszy z trzech wymiarów przedstawionych powyżej: podstawową racjonalność. We wcześniejszych częściach zwrócono uwagę na różne sposoby, w jakie sztuczna inteligencja i algorytmiczne narzędzia do podejmowania decyzji mogą na to wpływać. Podstawowa racjonalność zależy od naszej zdolności zrozumienia, w jaki sposób nasze działania odnoszą się do naszych celów. Wymaga to pewnej zdolności do wypracowania przyczynowej struktury świata i wybrania działań, które z największym prawdopodobieństwem zrealizują nasze cele. Jednym z problemów związanych ze sztuczną inteligencją jest to, że może uniemożliwić nam wypracowanie tych związków przyczynowych. Przyjrzyjmy się problemowi nieprzejrzystości i niewyjaśnialności, który omówiliśmy w części 2. Jest całkiem możliwe, że systemy sztucznej inteligencji po prostu podrzucą nam zalecane działania, które powinniśmy wykonać, bez wyjaśniania, dlaczego lub w jaki sposób te opcje odnoszą się do naszych celów. Musimy po prostu wziąć to na wiarę. W niedawnej książce zatytułowanej Re-Engineering Humanity, Brett Frischmann i Evan Selinger jasno wyrazili ten strach. Twierdzą, że jedną z konsekwencji nadmiernego polegania na sztucznej inteligencji byłoby przeprogramowanie ludzi na proste maszyny "bodziec-reakcja". Ludzie zobaczą zalecenia przekazane im przez sztuczną inteligencję i wdrożą reakcję bez krytycznej refleksji lub zastanowienia. Podstawowa racjonalność jest zagrożona. Podobne problemy pojawiają się, gdy przyjrzymy się wymiarowi opcjonalności. Jednym z najbardziej rozpowszechnionych zastosowań sztucznej inteligencji w usługach skierowanych do konsumentów jest "filtrowanie" i ograniczanie opcji. Na przykład Google filtruje i porządkuje możliwe linki w odpowiedzi na nasze zapytania. W ten sposób zmniejsza liczbę opcji, które musimy przetworzyć, znajdując potrzebne informacje. Rekomendacje produktów Netflix i Amazon działają w podobny sposób. Uczą się na podstawie Twojego wcześniejszego zachowania (i zachowania innych klientów) i dają Ci ograniczony zestaw opcji z szerokiego zakresu potencjalnych produktów. Często to filtrowanie opcji jest mile widziane. Sprawia, że decyzje są łatwiejsze w zarządzaniu. Ale jeśli system sztucznej inteligencji daje nam tylko jedną lub dwie rekomendacje i daje jednej z nich ocenę ufności "95 procent", to musimy zapytać, czy jest to zachowanie autonomii. Jeśli mamy zbyt mało opcji i jeśli jesteśmy zniechęceni do krytycznego lub refleksyjnego myślenia o nich, prawdopodobnie tracimy coś niezbędnego do bycia autorami własnego życia. Par 5 na kontroli jest naprawdę szczególną ilustracją tego problemu. Wreszcie wymiar niezależności może być również zagrożony przez wykorzystanie sztucznej inteligencji. Rzeczywiście, jeśli już, wymiar niezależności będzie prawdopodobnie najbardziej oczywistą ofiarą wszechobecnej sztucznej inteligencji. Dlaczego tak? Ponieważ sztuczna inteligencja oferuje wiele nowych możliwości rzeczywistej i potencjalnej ingerencji w nasze podejmowanie decyzji. Jedną z możliwości jest bezpośredni przymus przez sztuczną inteligencję lub za jej pośrednictwem. Asystent AI może na przykład zagrozić wyłączeniem usługi, jeśli nie zastosujemy się do zalecenia. Paternalistyczne rządy i firmy (np. towarzystwa ubezpieczeniowe) mogą ulec pokusie wykorzystania technologii w ten sposób. Możliwe są jednak również mniej jawne ingerencje w podejmowanie decyzji. Wykorzystanie reklamy i zarządzania informacjami opartego na sztucznej inteligencji może powodować powstawanie baniek filtrujących i komór echa. W rezultacie możemy zostać uwięzieni w technologicznych "pudełkach Skinnera", w których jesteśmy nagradzani za podporządkowanie się ideologicznej linii partyjnej, a tym samym wmanipulowani w zestaw preferencji, który właściwie nie jest naszym własnym. Istnieją pewne sugestie, że to już się dzieje, a wiele osób wyraża zaniepokojenie wpływem fałszywych wiadomości za pośrednictwem AI i polaryzujących reklam politycznych w debatach politycznych. Niektóre z tych reklam potencjalnie stanowią przykład najbardziej subtelnej i podstępnej formy dominacji, którą Jamie Susskind nazywa kontrolą percepcji. Kontrola percepcji to dosłownie próba wpłynięcia na sposób, w jaki postrzegamy świat. Filtrowanie jest filarem kontroli percepcji. Świat jest chaotyczny i oszałamiający, więc nasze transakcje z nim muszą być pośredniczone, aby uniknąć zasypania nas szczegółami. Albo sami dokonujemy tego przesiewania i sortowania, albo, co bardziej prawdopodobne, polegamy na innych, którzy zrobią to za nas, takich jak komercyjne serwisy informacyjne, media społecznościowe, wyszukiwarki i inne systemy rankingowe. W każdym przypadku ktoś (lub coś) dokonuje wyborów dotyczących tego, ile informacji jest dla nas istotnych, ile kontekstu jest potrzebne, aby było to zrozumiałe, i ile trzeba nam powiedzieć. Chociaż w przeszłości filtrowanie było wykonywane przez ludzi, coraz częściej jest to ułatwiane przez wyrafinowane algorytmy, które przemawiają do nas w oparciu o dogłębne zrozumienie naszych preferencji. Te preferencje są wiarygodnie przewidywane na podstawie naszej historii sprzedaży detalicznej, polubień i udostępnień na Facebooku, postów na Twitterze, wyświetleń w YouTube i tym podobnych. Na przykład Facebook najwyraźniej filtruje przekazywane wiadomości na podstawie około 100 000 czynników, "w tym kliknięć, polubień, udostępnień [i] komentarzy". W sferze demokratycznej technologia ta toruje drogę do aktywnej manipulacji poprzez ukierunkowane reklamy polityczne. "Ciemne" reklamy mogą być wysyłane do osób, które są na nie najbardziej podatne, bez korzyści - a nawet możliwości - otwartego obalenia i rywalizacji, od których funkcjonowanie rynku pomysłów zależy. Zakres kontroli postrzegania, który umożliwiają nowe platformy cyfrowe, jest naprawdę pierwszy w historii i prawdopodobnie spowoduje skoncentrowanie bezprecedensowej władzy w rękach kilku wielkich gigantów technologicznych i władz państwowych mających obsesję na punkcie prawa i porządku. Co więcej, powszechne stosowanie masowej inwigilacji zarówno przez rząd, jak i duże firmy technologiczne tworzy nową formę dominacji w naszym życiu. Jesteśmy obserwowani i monitorowani przez cały czas w cyfrowym panoptikonie i chociaż możemy nie być aktywnie ingerowani na bieżąco, zawsze istnieje możliwość, że możemy być, jeśli przekroczymy linię. Nasza pozycja staje się wówczas nieco podobna do sytuacji cyfrowego niewolnika żyjącego pod arbitralnym kaprysem naszych cyfrowych panów. Jest to zupełne przeciwieństwo republikańskiej koncepcji autonomii. Ale jest inna historia do opowiedzenia. Łatwo jest przecenić panikę na temat sztucznej inteligencji i utraty autonomii. Musimy spojrzeć na to z każdej strony. Istnieją sposoby, w jakie sztuczna inteligencja może promować i wzmacniać autonomię. Zarządzając informacjami i organizując je w przydatne pakiety, sztuczna inteligencja może pomóc nam uporządkować złożony bałagan rzeczywistości. To może promować racjonalność, a nie ją utrudniać. Podobnie, jak zauważono, filtrowanie i ograniczanie opcji, o ile nie posunie się za daleko, może w rzeczywistości promować autonomię, sprawiając, że problemy związane z podejmowaniem decyzji będą łatwiejsze do opanowania poznawczo. Przy zbyt wielu opcjach utkniemy i nie jesteśmy pewni, co robić. Zawężenie pola opcji ponownie nas uwalnia. Asystenci AI mogą również chronić nas przed zewnętrznymi formami ingerencji i manipulacji, działając na przykład jako wyrafinowane filtry spamu ideologicznego. Wreszcie, bardziej ogólnie, ważne jest, aby uznać, że technologie takie jak sztuczna inteligencja mają tendencję do zwiększania naszej władzy nad światem i umożliwiają nam robienie rzeczy, które wcześniej nie były możliwe. Google daje nam dostęp do bardziej użytecznych (i bezużytecznych!) informacji niż którykolwiek z naszych przodków; Netflix daje nam dostęp do większej ilości rozrywki; Asystenci AI, tacy jak Alexa i Siri, pozwalają nam efektywnie planować i zarządzać czasem. Umiejętne wykorzystanie sztucznej inteligencji może być wielkim dobrodziejstwem dla naszej autonomii. Należy również wziąć pod uwagę niebezpieczeństwo stronniczości status quo lub niechęci do strat. Często, gdy pojawia się nowa technologia, szybko zauważamy jej wady i identyfikujemy zagrożenia, jakie stwarza dla cenionych wartości, takich jak autonomia. Mniej szybko zauważamy, że te zagrożenia są już nieodłączną częścią status quo. Staliśmy się na nie niewrażliwi. Wydaje się, że dotyczy to zagrożeń, jakie sztuczna inteligencja stwarza dla naszej autonomii. Nie da się wyeliminować wszystkich możliwych zagrożeń dla autonomii. Ludzie nie są doskonale samo-tworzącymi się panami własnego losu. Jesteśmy zależni od naszego środowiska naturalnego i od siebie nawzajem. Co więcej, mamy długą i bogatą historię wzajemnego podważania autonomii. Od wieków podważamy racjonalność, ograniczamy opcje i ideologicznie manipulujemy sobą nawzajem. Zrobiliśmy to poprzez teksty religijne i dyktaty rządowe. Ale stworzyliśmy również dość solidne ramy konstytucyjne i prawne, które chronią przed najgorszym z tych zagrożeń. Czy jest jakiś powód, by sądzić, że jest coś szczególnego lub innego w zagrożeniach, jakie sztuczna inteligencja stwarza dla autonomii? Być może. Chociaż zagrożenia dla autonomii nie są niczym nowym, sztuczna inteligencja tworzy nowe sposoby realizacji tych zagrożeń. Na przykład jedną z ważnych obaw związanych ze sztuczną inteligencją jest to, w jaki sposób może ona skoncentrować władzę podważającą autonomię w obrębie kilku kluczowych podmiotów (np. rządów i dużych firm technologicznych). Historycznie władza podważająca autonomię była bardziej rozproszona. Nasi sąsiedzi, koledzy z pracy, przyjaciele, rodziny, stany i kościoły mogą próbować ingerować w podejmowanie przez nas decyzji i ideologicznie warunkować nasze zachowanie. Niektórzy z tych aktorów byli stosunkowo bezsilni, więc zagrożenie, jakie stanowili, można było zignorować na poziomie praktycznym. Zawsze istniała też nadzieja, że różne siły mogą się wzajemnie znosić lub stosunkowo łatwo je zignorować. To może już nie być prawda. Internet łączy nas wszystkich i tworzy środowisko, w którym kilka kluczowych firm (np. Facebook, Google, Amazon) i dobrze finansowane agencje rządowe mogą odegrać ogromną rolę w ograniczaniu naszej autonomii. Co więcej, po stronie korporacyjnej jest całkiem możliwe, że wszyscy kluczowi gracze mają silną motywację do ideologicznego uwarunkowania nas w tym samym kierunku. Psycholog społeczny i teoretyk społeczny Shoshana Zuboff w swojej książce The Age of Surveillance Capitalism twierdzi, że wszystkie dominujące platformy technologiczne mają motywację do promowania ideologii kapitalizmu nadzoru. Ta ideologia zachęca do wydobywania wartości z indywidualnych danych i działa poprzez nakłanianie ludzi do normalizacji i akceptacji masowej cyfrowej inwigilacji oraz powszechnego stosowania analiz predykcyjnych. Twierdzi, że można to zrobić w subtelny i ukryty sposób, gdy korzystamy z udogodnień usług cyfrowych i normalizujemy koszty, jakie nakładają one na prywatność i autonomię. To samo dotyczy sytuacji, gdy rządy wykorzystują sztuczną inteligencję. Na przykład chiński rząd, poprzez swój system kredytów społecznych (który jest ułatwiony dzięki partnerstwu z prywatnymi przedsiębiorstwami), wykorzystuje cyfrowy nadzór i algorytmiczne systemy oceniania, aby narzucić określony model tego, co to znaczy być dobrym obywatelem. Efektem netto powszechnego rozpowszechniania sztucznej inteligencji przez Internet jest to, że daje ona garstce aktorów ogromną władzę, by podważać autonomię. Może to być naprawdę bezprecedensowe zagrożenie dla autonomii. Sztuczna inteligencja może również osłabiać autonomię w sposób, któremu jednostkom znacznie trudniej jest się oprzeć i przeciwdziałać niż tradycyjnym zagrożeniom dla autonomii. Idea "szturchnięcia" rozpowszechniła się w kręgach politycznych w ostatnich dziesięcioleciach. Po raz pierwszy została wymyślona przez Cass Sunstein i Richarda Thalera w ich książce Nudge. Sunstein i Thaler byli zainteresowani wykorzystaniem spostrzeżeń z psychologii behawioralnej i poznawczej do poprawy porządku publicznego. Wiedzieli, że dziesięciolecia badań ujawniły, że ludzie są systematycznie stronniczy w podejmowaniu decyzji. Nie rozumują prawidłowo na temat prawdopodobieństwa i ryzyka; są niechętni stratom i krótkoterminowi w swoim myśleniu. W rezultacie często postępują wbrew swojemu długofalowemu samopoczuciu. Świadomość tego wszystkiego wydaje się uzasadnieniem dla paternalistycznej interwencji. Osobom nie można ufać, że postąpią właściwie, więc ktoś inny musi to zrobić za nich. Na przykład rządy muszą wkroczyć i skierować ludzi na właściwe tory. Pytanie postawione przez Sunsteina i Thalera brzmiało: "jak możemy to zrobić bez całkowitego podważenia autonomii?" Ich odpowiedzią było popychanie, a nie zmuszanie ludzi do robienia właściwych rzeczy. Innymi słowy, wykorzystanie spostrzeżeń z psychologii behawioralnej do delikatnego popychania lub zachęcania ludzi do robienia właściwych rzeczy, ale zawsze pozostawiania im opcji odrzucenia impulsu i korzystania z własnej autonomii. Wymaga to starannej inżynierii "architektur wyborów", z którymi ludzie mają do czynienia na co dzień, tak aby pewne wybory były bardziej prawdopodobne. Klasyczne przykłady "szturchnięć" zalecanych przez Sunsteina i Thalera obejmują zmianę polityki opt-in na politykę opt-out (wykorzystując w ten sposób nasze naturalne lenistwo i lojalność wobec status quo), zmianę sposobu przedstawiania ludziom ryzyka w celu podkreślenia strat, a nie korzyści (wykorzystując w ten sposób naszą naturalną skłonność do niechęci do strat) oraz zmieniając sposób, w jaki informacje są przedstawiane ludziom, aby uczynić pewne opcje bardziej wyrazistymi lub atrakcyjnymi (w ten sposób wykorzystując naturalne dziwactwa i uprzedzenia w sposobie, w jaki postrzegamy świat). Przez lata toczyło się wiele dyskusji na temat tego, czy zachęty rzeczywiście chronią autonomię. Krytycy obawiają się, że niektórzy aktorzy mogą wykorzystywać ponaglenia w sposób manipulacyjny i nieprzejrzysty, a ich ostatecznym skutkiem jest osłabienie naszej zdolności do samodzielnego dokonywania wyborów (ponieważ popychanie działa najlepiej, gdy ludzie nie są ich świadomi). Sunstein utrzymuje, że ponaglenia mogą zachować autonomię, jeśli zostaną spełnione pewne wytyczne. Bez względu na zalety tych argumentów, teoretyk regulacji Karen Yeung twierdzi, że narzędzia sztucznej inteligencji ułatwiają nową i bardziej ekstremalną formę szturchania, coś, co nazywa "hipernaukami". Jej argumentem jest to, że stały nadzór cyfrowy w połączeniu z analizą predykcyjną w czasie rzeczywistym umożliwia inżynierom oprogramowania tworzenie cyfrowych architektur wyborów, które stale dostosowują się i reagują na preferencje użytkownika, aby popchnąć go we właściwym kierunku. W rezultacie, gdy tylko dana osoba nauczy się odrzucać szturchnięcie, system sztucznej inteligencji może zaktualizować architekturę wyboru o nowe pchnięcie. Istnieje zatem znacznie ograniczona zdolność do opierania się naciskom i korzystania z autonomii. W podobnym duchu sztuczna inteligencja umożliwia znacznie bardziej wszechobecną i subtelną formę dominacji nad naszym życiem. Pisząc o tym w innym kontekście, filozof Tom O'Shea przekonuje, że istnieje coś takiego jak "mikrodominacja". Dzieje się tak, gdy wiele codziennych decyzji na małą skalę można podejmować tylko pod kierunkiem i za zgodą innego aktora ("dominusa" lub mistrza). O'Shea podaje przykład osoby niepełnosprawnej mieszkającej w placówce instytucjonalnej, aby zilustrować tę ideę. Każda podejmowana przez nich decyzja - w tym kiedy wstać, kiedy pójść do łazienki, kiedy zjeść, kiedy wyjść na dwór itd. - podlega aprobacie opiekunów zatrudnionych w placówce. Jeśli osoba niepełnosprawna zgadza się z życzeniami opiekunów (i harmonogramem instytucjonalnym), to jest w porządku, ale jeśli chce od tego odstąpić, szybko okazuje się, że nie może robić tego, co chce. Decyzje te rozpatrywane indywidualnie nie są szczególnie znaczące - nie wiążą się z ważnymi prawami ani wyborami życiowymi - ale wszystkie te "mikro" przypadki dominacji razem wzięte stanowią istotną potencjalną ingerencję w autonomię jednostki. Wszechobecne wykorzystanie sztucznej inteligencji może doprowadzić do czegoś podobnego. Rozważmy hipotetyczny przykład: jeden dzień z życia Jermaine'a. Właśnie dziś rano Jermaine został obudzony przez swój system monitorowania snu. Używa go każdej nocy do rejestrowania swoich wzorców snu. Na podstawie swoich obserwacji ustawia alarm, który budzi go w optymalnym momencie. Kiedy Jermaine dociera do swojego biurka, szybko sprawdza swoje kanały w mediach społecznościowych, gdzie jest karmiony strumieniem informacji dostosowanych do jego preferencji i zainteresowań. Zachęca się go do publikowania aktualizacji dla osób, które śledzą jego pracę ("tysiąc osób, które śledzą cię na Facebooku, od jakiegoś czasu nie ma od ciebie wiadomości"). Kiedy zabiera się do pracy, jego telefon brzęczy, przypominając mu z jednej z jego aplikacji zdrowotnych i fitnessowych, że czas pobiegać. Później tego dnia, jadąc na spotkanie po drugiej stronie miasta, korzysta z Map Google, aby wytyczyć trasę. Czasami, gdy zboczy z toru, przelicza to i wysyła go w nowym kierunku. Posłusznie stosuje się do jego zaleceń. Kiedy tylko jest to możliwe, korzysta z oprogramowania autopilota w swoim samochodzie, aby zaoszczędzić czas i wysiłek, ale od czasu do czasu podpowiada mu to, by przejąć kontrolę nad samochodem, ponieważ pojawia się jakaś przeszkoda, do pokonania której nie jest zaprogramowany. Moglibyśmy mnożyć przykłady, ale rozumiesz o co chodzi. Wiele drobnych, być może trywialnych wyborów w codziennym życiu Jermaine'a podlega teraz algorytmicznemu mistrzowi: jaką trasą jechać, z kim rozmawiać, kiedy ćwiczyć i tak dalej. Tak długo, jak działa w ramach preferencji i opcji nadanych mu przez sztuczną inteligencję, wszystko jest w porządku. Ale jeśli wyjdzie poza te preferencje, szybko zda sobie sprawę z zakresu swojej zależności i okaże się, że nie jest w stanie robić tego, co mu się podoba (przynajmniej dopóki nie będzie miał czasu na dostosowanie się do nowej normalności). Rzeczywiście, nie jest to czysto hipotetyczna obawa; już to widzimy. Socjolożka Janet Vertesi udokumentowała, jak ona i jej mąż zostali oznaczeni jako potencjalni przestępcy, gdy próbowali ukryć fakt, że jest w ciąży przed sprzedawcami internetowymi, którzy śledzą dane dotyczące zakupów, wyszukiwania słów kluczowych i rozmowy w mediach społecznościowych.

    Od miesięcy żartowałem rodzinie, że prawdopodobnie jestem na liście obserwacyjnej z powodu nadmiernego korzystania z Tora i wypłat gotówki. Ale potem mój mąż udał się do naszego lokalnego sklepu na rogu, aby kupić wystarczającą liczbę kart podarunkowych, aby pozwolić sobie na wózek wymieniony na Amazon. Tam tabliczka ostrzegawcza za kasjerem informowała go, że sklep "zastrzega sobie prawo do ograniczenia dziennej kwoty zakupów kartą przedpłaconą i ma obowiązek zgłaszania władzom nadmiernych transakcji".

    Zrobiła krok poza cyfrowym panoptikonem i wkrótce uświadomiła sobie jego moc. Efektem netto hipernaukowania i mikrodominacji za pośrednictwem sztucznej inteligencji będzie prawdopodobnie forma wyuczonej bezradności. Możemy chcieć uwolnić się od potęgi usług i narzędzi sztucznej inteligencji, ale pozbycie się ich wpływu jest zbyt trudne i zbyt przytłaczające. Nasze tradycyjne formy oporu już nie działają. Łatwiej jest po prostu przestrzegać. Wszystko to maluje dystopijny obraz i sugeruje, że może być coś naprawdę innego w zagrożeniu, jakie sztuczna inteligencja stanowi dla autonomii. Może nie stanowi nowej kategorii zagrożenia, ale zwiększa zakres i zakres skali tradycyjnych zagrożeń. Ale znowu, potrzebny jest pewien stopień sceptycyzmu, zanim przyjmiemy ten dystopijny pogląd. Wszystkie wymienione zagrożenia wywnioskowano z rozważań na temat natury sztucznej inteligencji i siły algorytmicznej. Nie opierają się one na dokładnym badaniu empirycznym ich rzeczywistych skutków. Niestety, nie ma jeszcze tak wielu badań empirycznych dotyczących tych skutków, ale garstka, które istnieją, sugeruje, że niektóre z przedstawionych powyżej zagrożeń nie urzeczywistniają się w praktyce. Na przykład etnografka Ang?le Christin przeprowadziła dogłębne badania wpływu zarówno opisowych, jak i predykcyjnych narzędzi analitycznych w różnych środowiskach pracy. W szczególności przyjrzała się wpływowi analityki w czasie rzeczywistym na dziennikarstwo internetowe i algorytmiczne prognozy ryzyka w sądach karnych. Chociaż uważa, że wśród pracowników panuje znaczny szum i obawy związane z tymi technologiami, praktyczny wpływ technologii jest bardziej ograniczony. Odkrywa, że pracownicy w obu środowiskach często ignorują lub pomijają dane i zalecenia dostarczane im przez te narzędzia algorytmiczne. Jej odkrycia dotyczące przewidywania ryzyka w sądownictwie karnym są szczególnie uderzające i ważne, biorąc pod uwagę temat tej książki. Jak zauważono w poprzednich rozdziałach, istnieje wiele obaw związanych z potencjalnym uprzedzeniem i dyskryminacją nieodłącznie związanymi z tymi narzędziami. Jednak Christin stwierdza, że w praktyce poświęca się im bardzo mało uwagi. Większość prawników, sędziów i kuratorów albo całkowicie je ignoruje, albo aktywnie "gra" nimi w celu osiągnięcia własnych preferowanych rezultatów. Urzędnicy ci wyrażają również znaczny sceptycyzm co do wartości tych narzędzi, kwestionując metodologię leżącą u ich podstaw i zazwyczaj przedkładając własną opinię eksperta nad tę, którą zapewnia im technologia. Podobnie, niektóre wyrażane obawy dotyczące uwarunkowań ideologicznych, zwłaszcza w sferze politycznej, wydają się przesadzone. Z pewnością istnieją dowody sugerujące, że fałszywe wiadomości i dezinformacje są rozpowszechniane online przez różne grupy i państwa narodowe. Często robią to za pośrednictwem zespołów botów, a nie prawdziwych ludzi. Ale badania przeprowadzone przez politologów Andrew Guessa, Brendana Nyhana, Benjamina Lyonsa i Jasona Reiflera sugerują, że ludzie nie dają się uwięzić w cyfrowych komorach echa, których tak wielu z nas się obawia, że większość z nas nadal polega na tradycyjnych mediach głównego nurtu dla naszych wiadomości, a w rzeczywistości jest bardziej prawdopodobne, że wpadniemy do komór echa offline niż online! Takie ustalenia, w połączeniu z możliwymi efektami sztucznej inteligencji zwiększającymi autonomię, dają pewne uzasadnienie dla ostrożnego optymizmu. O ile i dopóki nie będziemy aktywnie zmuszani do korzystania z narzędzi sztucznej inteligencji wbrew naszej woli, mamy więcej mocy, aby oprzeć się ich złym skutkom, niż moglibyśmy zdawać sobie sprawę. Ważne, żeby to podkreślać i nie dać się uwieść narracji o bezsilności i pesymistycznym fatalizmie.




    "Czy wiesz, jak było?": Historia AI

    Historia nie jest klubem, z którego można wyjść do woli. - John Major

    Ile i jaki rodzaj sztucznej inteligencji może znieść człowiek?

    Nauka, którą uprawia się dzisiaj, jest magicznym lustrem, w które musimy zajrzeć, jeśli chcemy ujrzeć przebłysk tego, co ma nadejść.       (Y. Gasset)

    Jak działa sztuczna inteligencja?: Techniki sztucznej inteligencji

    Technologia może nie oszczędza nam czasu, ale inaczej go rozdziela. - Helmar Nahr


    Jak realizowana jest sztuczna inteligencja?: AI określa nasze życie

    Często przyszłość jest tutaj, zanim będziemy na nią gotowi. - John Steinbeck

    Nadal kupujesz, czy już "wpływasz"?: Handel 4.0

    Dla człowieka do działania, jego własne ja jest kiepskim punktem wyjścia. - Francis Bacon

    Gdzie się udać z "ugorem społecznym"?: Przemysł 4.0

    Jedna maszyna może wykonać pracę pięćdziesięciu zwykłych ludzi. Żadna maszyna nie jest w stanie wykonać pracy jednego wyjątkowego człowieka - Elbert Hubbard.

    Jak zmienia się nasza wspólnota?: Społeczne implikacje sztucznej inteligencji

    Prognostyk to człowiek, który ma ponure przeczucia w jasnych chwilach. - Tennessee Williams

    Paradise Times czy End of the World?: Przyszłość z AI

    Futurologia to sztuka drapania, zanim zacznie swędzieć. - Robert Jung




    Od naturalnej głupoty do sztucznej inteligencji




    Wprowadzenie

    AI dla sprzedaży i marketingu

    AI dla mediów

    AI dla języka naturalnego

    AI do kuracji treści i budowania społeczności

    Gotowy - wyszukiwanie możliwości AI

    Zbiór - przygotowanie danych, technologii i ludzi

    Go - strategia wdrażania AI

    Co nasz czeka?