Pokażemy, jak GPT-3 napędza kolejną falę start-upów, napędzając wyobraźnię kreatywnych przedsiębiorców odpowiednią technologią. Przyjrzymy się również, w jaki sposób badania nad sztuczną inteligencją zmierzają do komercjalizacji w kilku dziedzinach. Porozmawiamy także z jednym z inwestorów kapitału wysokiego ryzyka wspierających te inicjatywy, aby zrozumieć finansowe aspekty rozwijającej się gospodarki GPT-3. Historia powstania API OpenAI przypomina wiele historii start-upów i firm przedstawionych w tym rozdziale. Przeprowadziliśmy wywiad z Peterem Welinderem z OpenAI. Opowiedział nam historię odważnych eksperymentów, szybkich iteracji i wykorzystania inteligentnego projektu w celu osiągnięcia korzyści skali (dostarczanie potężnych modeli na dużą skalę przy możliwie najniższych kosztach). Welinder podsumowuje misję OpenAI w trzech kluczowych punktach: „Rozwiń AGI (sztuczną inteligencję ogólną), upewnij się, że jest bezpieczna, a następnie wprowadź ją na świecie, aby zmaksymalizować korzyści dla całej ludzkości”. Dlatego firma koncentruje się na rozwoju sztucznej inteligencji, która może znaleźć zastosowanie w coraz bardziej ogólnym zakresie potrzeb. Mając nadzieję na możliwie szybkie i bezpieczne osiągnięcie AGI, jedną z technologii, na którą OpenAI zdecydowało się postawić, były duże modele językowe, w szczególności GPT-3. Welinder mówi o wypróbowaniu GPT-3: „To był pierwszy raz, kiedy poczuliśmy coś takiego: «Właściwie to wydaje się całkiem przydatne, pozwala uzyskać najnowocześniejsze wyniki w wielu zadaniach akademickich testy porównawcze itd.”. Podekscytowany możliwościami Welinder i czterech współpracowników debatowali nad tym, jak najlepiej wykorzystać algorytm: Zbudować silnik tłumaczący? Asystent pisania? Aplikacja do obsługi klienta? Wtedy do nich dotarło, Welinder mówi: „Dlaczego zamiast tego po prostu nie udostępnić tej technologii jako interfejsu API i pozwolić deweloperom na zbudowanie na jej podstawie własnego biznesu?” Podejście API było zgodne z celami i misją OpenAI poprzez maksymalizację przyjęcia technologii i jej wpływu, umożliwiając członkom społeczności tworzenie aplikacji, których zespół OpenAI nie mógł przewidzieć. Pozostawia to również rozwój produktu wykwalifikowanym programistom na całym świecie, uwalniając zespół OpenAI do skupienia się na tym, w czym jest naprawdę dobry: opracowywaniu solidnych, przełomowych modeli. Do tego momentu badacze skupiali się na projektowaniu skalowalnych, wydajnych systemów szkoleniowych, aby wycisnąć maksymalną wydajność z procesorów graficznych. Ale tam w niewielkim stopniu skupiał się na uruchamianiu tych modeli na rzeczywistych danych i uzyskiwaniu z nich czegoś do zastosowań w świecie rzeczywistym. Dlatego zespół OpenAI zdecydował się podwoić podstawowe funkcje API, koncentrując się na takich aspektach, jak szybkie wnioskowanie i małe opóźnienia. Sześć miesięcy przed planowanym uruchomieniem wersji beta API. Według Welindera badacze zredukowali opóźnienia około dziesięciokrotnie i zwiększyli przepustowość setki razy: „Poświęciliśmy mnóstwo pracy inżynieryjnej, aby naprawdę wziąć te modele, upewnić się, że ich procesory graficzne są tak wydajne, jak to możliwe, wykonywać do nich połączenia za pomocą naprawdę niskie opóźnienia i sprawiają, że jest skalowalny.” Korzystanie z modelu za pośrednictwem interfejsu API zamiast konieczności korzystania z własnego procesora graficznego sprawia, że zwykli programiści są opłacalni i dostępni do zabawy z przypadkami użycia i próbowania nowych rzeczy. Ważne jest również bardzo małe opóźnienie, aby ułatwić iterację. „Nie chcesz czegoś wpisywać, a potem czekać minut na odpowiedź, co miało miejsce w początkach API. Teraz możesz zobaczyć wyniki modelu w czasie rzeczywistym” – mówi Welinder. OpenAI wierzyło, że modele będą się rozwijać, co utrudni programistom ich wdrażanie; zespół chciał usunąć tę barierę. „Będzie to po prostu zbyt wiele kosztować, ponieważ potrzebujesz wielu procesorów graficznych i procesorów do zabawy z konkretnym przypadkiem użycia. Samodzielne wdrażanie tego modelu nie będzie miało sensu” – mówi Welinder. Zamiast tego firma zdecydowała się udostępnić model deweloperom za pośrednictwem API. „Tysiące programistów korzysta z tych samych modeli i w ten sposób można osiągnąć korzyści skali” – dodaje Welinder. „A to obniża ceny dostępu do tych modeli dla wszystkich i jeszcze bardziej poszerza dystrybucję, dzięki czemu więcej osób może wypróbować te modele”. Wydanie API OpenAI w prywatnej wersji beta przyniosło sporo niespodzianek. Poprzedni model markizy, GPT-2, ożywił bardzo niewiele rzeczywistych przypadków użycia, więc zespół miał nadzieję, że GPT-3 okaże się bardziej przydatny. Udało się i to bardzo szybko. Welinder mówi, że kolejną niespodzianką było to, że „wiele osób na naszej platformie nie było programistami. Byli autorami, twórcami różnego rodzaju, projektantami i menedżerami produktu i tak dalej. GPT-3 w pewnym sensie zmieniło to, co znaczy być programistą: nagle okazuje się, że aby zbudować aplikację AI, nie trzeba umieć programować. Wystarczy, że będziesz dobry w opisywaniu tego, co chcesz, aby sztuczna inteligencja zrobiła za pomocą podpowiedzi. Welinder i jego zespół odkryli, że „często ludzie, którzy byli w tym naprawdę dobrzy, nie mieli żadnego doświadczenia w uczeniu maszynowym”, a ci, którzy je posiadali, musieli się oduczyć, jak myśleli o wielu problemach, aby używać GPT-3. Wielu użytkowników tworzyło aplikacje oparte na GPT-3 bez kodu. Zespół OpenAI, choć tak naprawdę nie zamierzał, obniżył bariery w tworzeniu aplikacji: był to pierwszy krok w kierunku demokratyzacji sztucznej inteligencji. „Podstawową strategią jest zapewnienie użyteczności interfejsu API dla jak największej liczby osób” – mówi Welinder: „Podstawową misją naszej misji jest zapewnienie, że bariery w korzystaniu z naszej technologii będą niskie. Dlatego zbudowaliśmy ten interfejs API.” Kolejnym nieoczekiwanym przypadkiem użycia GPT-3 było kodowanie. Wczesne oznaki potencjału kodowania modelu skłoniły OpenAI do zintensyfikowania projektowania pod kątem kodowania przypadków użycia. Ich wysiłki zaowocowały wydaniem w połowie 2021 roku Kodeksu. Wraz z oszałamiającą różnorodnością zastosowań API dało początek zupełnie nowemu ekosystemowi start-upów: „W ciągu kilku miesięcy od uruchomienia API było kilka firm, które budowały w całości na bazie OpenAI API. Wiele z nich pozyskało obecnie finansowanie VC po dość wysokich wycenach” – mówi Welinder. Jedną z podstawowych zasad OpenAI jest ścisła współpraca z klientami. Welinder mówi: „Za każdym razem, gdy wprowadzamy nowe funkcje produktu, staramy się znaleźć klientów, o których wiemy, że uznają te funkcje za przydatne, i tworzymy bezpośrednie kanały komunikacji, w których zapewniamy im wcześniejszy dostęp”. Na przykład OpenAI współpracowało z kilkoma klientami nad udoskonaleniem funkcji wyszukiwania przed szerszą publikacją tej funkcji w interfejsie API. OpenAI zajmuje się przede wszystkim zapewnieniem bezpiecznego i odpowiedzialnego korzystania ze sztucznej inteligencji. Oprócz wielu pozytywnych skutków firma dostrzega rosnący potencjał niewłaściwego wykorzystania w miarę zwiększania się dostępności sztucznej inteligencji dla ogółu społeczeństwa. Jednym z głównych powodów, dla których zdecydowali się uruchomić API w prywatnej wersji beta, było zrozumienie, w jaki sposób ludzie będą korzystać z modeli i sprawdzenie ich potencjału do nadużyć. Badają jak najwięcej przypadków niepożądanego zachowania modelu, wykorzystując zdobytą wiedzę do swoich badań i szkolenia modeli. Welinder czerpie inspirację z różnorodności i kreatywności projektów opartych na API. „Nadchodząca dekada będzie niezwykle ekscytująca pod względem wszystkich rzeczy, które ludzie będą budować w oparciu o tę technologię. Myślę, że współpracując możemy stworzyć naprawdę dobre bariery zabezpieczające, które zapewnią, że te technologie i aplikacje, które zostaną zbudowane, będą naprawdę pozytywne dla naszego społeczeństwa”.