Każda rewolucja technologiczna budzi kontrowersje. W tej sekcji skupiamy się na trzech najbardziej kontrowersyjnych aspektach GPT-3: zakodowaniu w modelu błędu sztucznej inteligencji; treści niskiej jakości i rozpowszechnianie dezinformacji; oraz ślad środowiskowy GPT-3. Jeśli połączysz ludzkie uprzedzenia z potężnym narzędziem, które jest w stanie wygenerować ogromne ilości pozornie spójnego tekstu, rezultaty mogą być niebezpieczne. Płynność i spójność dużej części tekstu GPT-3 stwarza kilka zagrożeń, ponieważ ludzie są gotowi interpretować go jako znaczący. Wiele osób postrzega także programistów zaangażowanych w tworzenie aplikacji opartych na GPT-3 jako „autorów” ich wyników i żąda, aby byli pociągani do odpowiedzialności za ich zawartość. Ryzyko, które rozważamy , wynika z natury danych szkoleniowych GPT-3. Język ludzki odzwierciedla nasz światopogląd, w tym nasze uprzedzenia, a ludzie, którzy mają czas i dostęp do publikowania swoich słów w Internecie, często znajdują się na pozycjach uprzywilejowanych ze względu na rasę, płeć i inne cechy, które mogą być formami ucisku, co oznacza, że mają tendencję do być nadreprezentowany w danych szkoleniowych LLM. Krótko mówiąc, uprzedzenia społeczne i dominujący światopogląd są już zakodowane w danych szkoleniowych. Bez dokładnego dostrojenia (więcej o tym w dalszej części rozdziału) GPT-3 absorbuje te uprzedzenia, problematyczne skojarzenia i wulgarny język i włącza je do swoich wyników, które świat może zinterpretować. Jakiekolwiek odchylenia pojawiające się w początkowym zestawie szkoleniowym lub danych wejściowych użytkownika są powtarzane i mogą zostać wzmocnione lub nawet radykalizowane w wynikach generowanych przez GPT-3. Istnieje ryzyko, że ludzie będą czytać i rozpowszechniać takie teksty, wzmacniając i propagując problematyczne tereotypy i wulgarny język. Osoby będące celem szkodliwych wiadomości mogą doświadczyć konsekwencji psychologicznych. Ponadto osoby błędnie postrzegane jako „autorzy” tekstu wygenerowanego przez GPT-3 mogą spotkać się z naruszeniem swojej reputacji, a nawet próbą zemsty. Co więcej, takie uprzedzenia mogą również pojawić się w przyszłych LLM szkolonych na zbiorach danych obejmujących publicznie dostępne wyniki poprzednich generacji LLM.