100 Pytań o A.I. : Jaką rolę powinna odgrywać etyka w sztucznej inteligencji?

Tak długo, jak ludzie zamieszkują planetę Ziemię, etyka tak została wykorzystane, aby pomóc nam zdefiniować, co jest dobre, a co złe, a jakie rzeczy powinny być dozwolone lub zakazane. W pewien sposób etyka zapewnia społeczeństwu ramy niezbędne do wspólnego działania i współistnienia ze wspólnym zestawem przyjętych zasad. W dziedzinie sztucznej inteligencji jednym z najbardziej zagorzałych zwolenników ustanawiania etyki w stosunku do powstających technologii jest Gerd Leonhard, autor książki Technology vs. Humanity: The Coming Clash Between Man and Machine. Leonhard twierdzi, że wszyscy są odpowiedzialni za rzeczy, które tworzą, mówiąc:

“Wiele firm jest tanich z etycznego punktu widzenia. Muszą się samoregulować. Muszą przyjąć odpowiedzialność. A jeśli tego nie zrobią, to myślę, że musimy to zrobić dla nich “.

Z całego serca się z tym zgadzam. Po śledzeniu pracy Leonharda ja stały się bardziej przekonane o znaczeniu etyki na świecie AI i wierzę, że tej koncepcji należy uczyć na uniwersytetach i inne instytucje edukacyjne. Polecam również, aby każdy przeczytał swoją najnowszą książkę na ten temat, aby dowiedzieć się więcej na temat interakcji między etyką a technologią. Szwedzki filozof Nick Bostrom, który założył Future of Life Institute i napisał książkę Superintelligence: Paths, Danger, Strategies, był kolejnym zwolennikiem ustanawiania etycznych wytycznych dotyczących rozwoju technologii AI. Instytut Future of Life wraz z kilkoma najlepszymi ekspertami AI opracował zestaw zasad AI, które są podzielone na trzy sekcje: Zagadnienia badawcze, etyka i wartości oraz problemy długoterminowe. W tym zestawie zasad sekcja Etyka i wartości obejmuje:

•  Bezpieczeństwo: systemy AI powinny być bezpieczne przez cały okres ich eksploatacji oraz weryfikowalne, o ile ma to zastosowanie i jest wykonalne.

•  Brak przejrzystości: Jeśli system AI powoduje szkodę, powinno być możliwe ustalenie przyczyny.

•  Przejrzystość sądowa: Każde zaangażowanie autonomicznego systemu w proces podejmowania decyzji przez sąd powinno dostarczyć satysfakcjonujących wyjaśnień kontrolowanych przez właściwy organ ludzki.

•  Odpowiedzialność: Projektanci i twórcy zaawansowanych systemów AI są interesariuszami w moralnych implikacjach ich użycia, niewłaściwego użycia i działań, z odpowiedzialnością i możliwością kształtowania tych implikacji.

•  Dostosowanie wartości: wysoce autonomiczne systemy sztucznej inteligencji powinny być zaprojektowane tak, aby ich cele i zachowania mogły być zgodne z wartościami ludzkimi podczas ich działania.

•  Wartości ludzkie: systemy AI powinny być zaprojektowane i obsługiwane w taki sposób, aby były zgodne z ideałami ludzkiej godności, praw, wolności i różnorodności kulturowej.

•  Prywatność osobista: ludzie powinni mieć prawo dostępu do generowanych przez siebie danych, zarządzania nimi i kontrolowania ich, biorąc pod uwagę uprawnienia systemów AI do analizowania i wykorzystywania tych danych.

•  Wolność i prywatność: zastosowanie sztucznej inteligencji do danych osobowych nie może nadmiernie ograniczać rzeczywistej lub rzekomej wolności ludzi.

•  Wspólna korzyść: technologie AI powinny przynieść korzyści i dać jak największej liczbie osób.

•  Wspólny dobrobyt: dobrobyt gospodarczy stworzony przez sztuczną inteligencję powinien być szeroko rozpowszechniony, z korzyścią dla całej ludzkości.

•  Kontrola ludzi: ludzie powinni decydować, w jaki sposób i czy przekazać decyzje systemom AI, aby osiągnąć cele wybrane przez człowieka.

•  Brak wywrotu: moc przyznawana przez kontrolę wysoce zaawansowanych systemów AI powinna szanować i ulepszać, a nie podważać procesy społeczne i obywatelskie, od których zależy zdrowie społeczeństwa.

•  Wyścig zbrojeń AI: Należy unikać wyścigu zbrojeń śmiertelną bronią autonomiczną.

Uważam, że te wytyczne powinny być przestrzegane przy opracowywaniu wszystkich projektów związanych z AI, a także nauczane w instytucjach edukacyjnych.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *