Kiedy pojawia się nowa innowacja lub zmiana techniczna, duże korporacje zazwyczaj wdrażają je jako ostatnie. Ich hierarchiczne struktury składają się z różnych poziomów autorytarnych, a standardowe procesy uzyskiwania zezwoleń prawnych i dokumentów często ograniczają swobodę eksperymentowania, utrudniając przedsiębiorstwom wczesne wdrażanie rozwiązań. Ale wydaje się, że tak nie jest w przypadku GPT-3. Gdy tylko API zostało wypuszczone, korporacje zaczęły z nim eksperymentować. Natknęli się jednak na istotną barierę: prywatność danych. W najprostszej formie model językowy polega jedynie na przewidywaniu następnego słowa na podstawie serii poprzednich słów. Jak dowiedziałeś się z rozdziału 2, OpenAI opracowało kilka technik transformacji funkcjonowania modeli językowych jak GPT-3 od prostego przewidywania następnego słowa do bardziej przydatnych zadań NLP, takich jak odpowiadanie na pytania, podsumowywanie dokumentów i generowanie tekstu specyficznego dla kontekstu. Zazwyczaj najlepsze wyniki osiąga się poprzez dostrojenie modelu języka lub uwarunkowanie go tak, aby naśladował określone zachowanie, poprzez dostarczenie kilku przykładów z wykorzystaniem danych specyficznych dla domeny. Możesz podać przykłady w monicie szkoleniowym, ale bardziej niezawodnym rozwiązaniem jest utworzenie niestandardowo przeszkolonego modelu przy użyciu interfejsu API dostrajania. OpenAI oferuje GPT-3 w postaci otwartego API, w którym użytkownicy dostarczają dane wejściowe, a API zwraca dane wyjściowe. Właściwe zabezpieczanie, obsługa i przetwarzanie danych użytkowników jest kluczową kwestią dla korporacji chcących korzystać z GPT-3. Welinder z OpenAI zauważa, że chociaż liderzy przedsiębiorstw wyrażali różne obawy dotyczące GPT-3, „zgodność z SOC2, geofencing i możliwość uruchamiania interfejsu API w sieci prywatnej były z nich największymi”. Środki OpenAI dotyczące bezpieczeństwa i niewłaściwego wykorzystania modeli mają zatem na celu uwzględnienie szerokiego zakresu kwestii w ramach prywatności i bezpieczeństwa danych. Na przykład Bram Adams, założyciel Stenography, opowiada nam o aspektach prywatności i bezpieczeństwa API OpenAI. „W obecnej sytuacji Stenography jest przejściowym interfejsem API — przypomina płatną drogę. Aby ludzie mogli przekazywać swój kod, który jest przekazywany w niezmienionej postaci do API OpenAI, bez konieczności zapisywania go lub rejestrowania w dowolnym miejscu.” Poza tymi barierami Stenografia stanowi nadzbiór Warunków użytkowania OpenAI. Rozmawialiśmy z przedstawicielami kilku korporacji o tym, co powstrzymuje je przed wykorzystaniem OpenAI API w produkcji. Większość podkreślała dwie typowe obawy:
* Punkt końcowy interfejsu API GPT-3 udostępniony przez OpenAI nie powinien przechowywać ani zapisywać żadnej części danych szkoleniowych dostarczonych mu w ramach procesu dostrajania/uczenia modelu.
* Przed wysłaniem danych do interfejsu API OpenAI firmy chcą się upewnić, że osoby trzecie nie będą miały możliwości wyodrębnienia danych ani uzyskania dostępu do nich poprzez wprowadzenie jakichkolwiek danych wejściowych do interfejsu API.
OpenAI odpowiedziało na powyższe obawy i pytania klientów dotyczące przetwarzania danych i prywatności, oferując przeglądy bezpieczeństwa, umowy korporacyjne, umowy dotyczące przetwarzania danych, wysiłki w zakresie certyfikacji bezpieczeństwa przez strony trzecie i nie tylko. Niektóre z kwestii omawianych przez klientów i OpenAI dotyczyły tego, czy dane klienta można wykorzystać do ulepszenia modeli OpenAI, co może poprawić wydajność w pożądanych przypadkach użycia przez klienta, ale wiąże się z obawami dotyczącymi prywatności danych i wewnętrznych obowiązków w zakresie zgodności; ograniczenia dotyczące przechowywania i zatrzymywania danych klientów; oraz obowiązki dotyczące bezpieczeństwa obsługi i przetwarzania danych. W pozostałej części omówiono trzy studia przypadków, które pokazują, jak globalne przedsiębiorstwa, takie jak GitHub, Microsoft i Algolia, radzą sobie z tymi pytaniami i wykorzystują GPT-3 na dużą skalę. Dowiesz się także, jak OpenAI dostosowało się do zapotrzebowania na produkty klasy korporacyjnej, współpracując w ramach usługi Microsoft Azure OpenAI Service.