Koszt

https://aie24.pl/

Większość przypadków użycia GPT-3, które widzieliśmy do tej pory, to produkty typu business-to-consumer (B2C), ale w przypadku firmy typu business-to-business (B2B), takiej jak Algolia, gra jest inna. Nie tylko potrzebują, aby ceny OpenAI działały dla nich, ale także muszą zoptymalizować swoje ceny dla klientów, aby „mogły przynosić zyski i sprawiać, że klienci nadal byli zainteresowani tym, co [tworzą]”. W branży rozwiązań wyszukiwania sukces mierzy się na podstawie przepustowości. Naturalnie więc warto pomyśleć o kompromisie między jakością, kosztami i szybkością. Coates mówi: „Nawet zanim poznaliśmy koszty, Ada była dla nas właściwym modelem ze względu na szybkość. Ale nawet jeśli, powiedzmy, Davinci był wystarczająco szybki, być może i tak dotarlibyśmy do Ady tylko ze względu na koszty”. Helme-Guizon zauważa, że czynniki wpływające na koszt obejmują „liczbę tokenów oraz liczbę wysyłanych dokumentów i ich długość”. Podejście Algolii polegało na zbudowaniu „najmniejszych możliwych okien kontekstowych” – 1 oznaczających ilość danych wysyłanych jednorazowo do API – które nadal byłyby „wystarczająco istotne pod względem jakości”. Jak więc rozwiązali ten problem? Coates wyjaśnia: „Zaczęliśmy od OpenAI, zanim ogłoszono ceny, zaszliśmy wystarczająco daleko i przekonaliśmy się, że jakość jest wystarczająco dobra w porównaniu z tym, co widzieliśmy gdzie indziej, nie wiedząc, jakie są ceny. Więc to było sporo nieprzespanych nocy, nie wiedząc, jakie są ceny. A kiedy już znaliśmy ceny, [kwestia] polegała na wymyśleniu, jak obniżyć te koszty. Ponieważ kiedy po raz pierwszy zobaczyliśmy ceny, nie byliśmy pewni, czy [będziemy w stanie] sprawić, by to zadziałało”. Włożyli dużo pracy w optymalizację ceny pod kątem swojego zastosowania, ponieważ według Coatesa ustalanie cen będzie „uniwersalnym wyzwaniem” dla każdego, kto próbuje zbudować swój biznes w oparciu o GPT-3. Dlatego zdecydowanie zaleca się, aby myśleć o optymalizacji cen już na wczesnych etapach rozwoju produktu.

Prywatność danych

https://aie24.pl/

Według Coatesa największe wyzwania, przed którymi stanęła Algolia podczas wprowadzania tej nowatorskiej technologii, miały charakter prawny. „Przejście przez kwestie prawne, bezpieczeństwa i zaopatrzenia było być może najtrudniejszą rzeczą, jaką zrobiliśmy w całym projekcie, ponieważ wysyłasz dane klientów, co zasila model uczenia maszynowego. Jak usuwamy te dane? Jak możemy się upewnić, że jest on zgodny z RODO? Jak sobie z tym wszystkim radzimy? Skąd wiemy, że OpenAI nie pobierze tych danych i nie zasili nimi również modelu innych osób? Było więc wiele pytań, na które należało odpowiedzieć, i wiele porozumień, które należało wprowadzić w życie”.

Ocena opcji NLP

https://aie24.pl/

Algolia powołała specjalny zespół do pracy w tym obszarze. Kiedy OpenAI skontaktowało się z nimi, aby dowiedzieć się, czy Algolia może być zainteresowana GPT-3, zespół Coatesa porównał to z konkurencyjnymi technologiami. Inżynierka Algolia ML Claire Helme-Guizon, członkini pierwotnego zespołu Algolia Answers, wyjaśnia: „Pracowaliśmy nad modelami podobnymi do BERT, aby zoptymalizować prędkość, DistilBERT i bardziej stabilnymi modelami, takimi jak RoBERTa wraz z różnymi wariantami GPT-3 jak DaVinci, Ada itp.” Stworzyli system oceny, aby porównać jakość różnych modeli i poznać ich mocne i słabe strony. Odkryli, jak mówi Coates, że GPT-3 „działa naprawdę dobrze, jeśli chodzi o jakość zwracanych wyników wyszukiwania”. Szybkość i koszt były słabymi stronami, ale ostatecznie decydującym czynnikiem był interfejs API, ponieważ umożliwił Algolii korzystanie z modelu bez konieczności utrzymywania infrastruktury. Algolia zapytała obecnych klientów, czy mogliby być zainteresowani tego typu wyszukiwaniem, a odpowiedź była bardzo pozytywna. Nawet przy takiej jakości wyników Algolia wciąż miała mnóstwo pytań: jak by to zadziałało dla klientów? Czy architektura byłaby skalowalna? Czy było to wykonalne finansowo? Aby na nie odpowiedzieć, Coates wyjaśnia: „Opracowaliśmy konkretne przypadki użycia, które zawierały dłuższą treść tekstową”, takie jak publikacje i punkty pomocy. W niektórych przypadkach wystarczy polegać wyłącznie na GPT-3, aby uzyskać wyniki wyszukiwania, ale w innych skomplikowanych przypadkach może być konieczne zintegrowanie GPT-3 z innymi modelami. GPT-3, do pewnego momentu szkolony na danych, boryka się z przypadkami użycia związanymi z świeżością, popularnością lub spersonalizowanymi wynikami. Jeśli chodzi o jakość wyników, wyzwanie dla zespołu Algolia stanowił fakt, że wyniki podobieństwa semantycznego generowane przez GPT-3 nie były jedynym miernikiem, który miał znaczenie dla ich klientów. Musieli w jakiś sposób połączyć wyniki podobieństwa z innymi miarami, aby zapewnić klientom zadowalające wyniki. Wprowadzili więc inne modele open source, aby podkreślić najlepsze wyniki w połączeniu z GPT-3.

Studium przypadku: Odpowiedzi Algolii

https://aie24.pl/

Algolia to renomowany dostawca rozwiązań wyszukiwania, którego klientami są firmy z listy Fortune 500 oraz start-upy nowej generacji. Oferuje symboliczny interfejs API wyszukiwania oparty na słowach kluczowych, który można zintegrować z dowolnym istniejącym produktem lub aplikacją. W 2020 roku Algolia nawiązała współpracę z OpenAI, aby połączyć GPT-3 z już istniejącą technologią wyszukiwania. Oferta produktów nowej generacji zaowocowała Algolia Answers, która umożliwia klientom budowanie inteligentnego, opartego na semantyce punktu końcowego z jednym wyszukiwaniem dla zapytań. „Budujemy technologię, z której korzystają inne firmy” – mówi Dustin Coates, menedżer produktu w Algolia. Coates twierdzi, że jego zespół rozumie przez inteligentne wyszukiwanie mniej więcej tak: „Szukasz czegoś i natychmiast otrzymujesz odpowiedź — nie tylko wracasz do nagrania, ale wracasz do artykułu — ale wracasz do co właściwie jest odpowiedzią na pytanie. Krótko mówiąc, jest to „funkcja wyszukiwania, w której ludzie nie muszą wpisywać dokładnie tych słów”.

Co dalej z GitHub Copilot?

https://aie24.pl

De Moor widzi w Copilocie ogromny potencjał, jeśli chodzi o pomoc w przeglądaniu kodu i pisaniu. „Pomyśl o automatycznym narzędziu do przeglądania kodu, które automatycznie sprawdza Twoje zmiany i przedstawia sugestie, dzięki którym Twój kod będzie lepszy i wydajniejszy. Dzisiejszy proces przeglądu kodu w GitHub składa się z weryfikatorów, ale badamy także ideę recenzji Copilot. Inną badaną funkcją jest wyjaśnianie kodu. De Moor wyjaśnia, że użytkownicy mogą wybrać fragment kodu, a „Copilot może to wyjaśnić prostym językiem angielskim”. Ma to potencjał jako przydatne narzędzie edukacyjne. Ponadto, jak mówi de Moor, Copilot ma nadzieję zapewnić narzędzia, które pomogą w „tłumaczeniu kodu z jednego języka programowania na inny”. Copilot otworzył świat nieograniczonych możliwości nie tylko dla programistów, ale także dla każdego, kto chce wykazać się kreatywnością i zbudować oprogramowanie, aby urzeczywistnić swoje pomysły. Przed GitHub Copilot i Codexem OpenAI funkcje takie jak generowanie kodu klasy produkcyjnej, przeglądanie kodu przy pomocy AI i tłumaczenie kodu z jednego języka na inny były dalekosiężnym marzeniem. Pojawienie się LLM w połączeniu z platformami bez kodu i o niskim kodzie umożliwi ludziom uwolnienie swojej kreatywności i tworzenie ciekawych i nieoczekiwanych aplikacji.

Skalowanie za pomocą API

https://aie24.pl/

Skalowanie w kategoriach modeli językowych było przez długi czas niedoceniane ze względu na koncepcje teoretyczne takie jak brzytwa Ockhama i zanikanie wyników po rozszerzeniu sieci neuronowej do znacznych rozmiarów. W przypadku konwencjonalnego uczenia głębokiego normą zawsze było utrzymywanie małego rozmiaru modelu i mniejszej liczby parametrów, aby uniknąć problemu zanikających gradientów i wprowadzenia złożoności w procesie uczenia modelu. Brzytwa Ockhama, która sugeruje, że „prosty model jest najlepszym modelem”, była święta w społeczności AI od jej powstania. Zasada ta była punktem odniesienia przy szkoleniu nowych modeli, co zniechęcało ludzi do eksperymentowania ze skalą. W 2020 roku, kiedy OpenAI wypuściło swój model języka markizy GPT-3, potencjał skalowania znalazł się w centrum uwagi, a powszechna koncepcja społeczności AI zaczęła się zmieniać. Ludzie zaczęli zdawać sobie sprawę, że „dar skali” może dać początek bardziej uogólnionej sztucznej inteligencji, w której pojedynczy model, taki jak GPT-3, może wykonywać szereg zadań. Hostowanie i zarządzanie modelem takim jak GPT-3 wymaga wyrafinowania na wielu różnych poziomach, w tym optymalizacji architektury modelu, jego wdrożenia i sposobu, w jaki ogół społeczeństwa może uzyskać do niego dostęp. De Moor mówi nam: „Kiedy uruchomiliśmy Copilot, w początkowych fazach korzystał on z infrastruktury OpenAI API, a po uruchomieniu mieliśmy eksplozję reakcji, ponieważ tak wiele osób zarejestrowało się i chciało korzystać z produktu”. Chociaż API było w stanie obsłużyć dużą liczbę żądań, rzeczywista liczba żądań i ich częstotliwość i tak zaskoczyły zespół OpenAI. De Moor i jego zespół „zdali sobie sprawę z potrzeby bardziej wydajnej i większej infrastruktury do wdrażania i na szczęście mniej więcej w tym czasie wyszło na jaw rozwiązanie Microsoft Azure OpenAI”, co umożliwiło im dokonanie wymaganego przejścia na infrastrukturę wdrożeniową Azure . Kiedy zapytaliśmy o doświadczenia w budowaniu i skalowaniu Copilota, de Moor dzieli się: „Na początku mieliśmy błędne przekonanie, że dokładność jest najważniejszą rzeczą, która się liczy, ale jakiś czas później, na drodze do produktu, zdaliśmy sobie sprawę, że tak naprawdę jest to handel -różnica między potężnym modelem sztucznej inteligencji a [] nieskazitelnym doświadczeniem użytkownika. Zespół Copilot szybko zdał sobie sprawę, że istnieje kompromis między szybkością a dokładnością sugestii, jak ma to miejsce w przypadku każdego modelu głębokiego uczenia się o wystarczającej skali. Ogólnie rzecz biorąc, im więcej warstw ma model głębokiego uczenia się, tym będzie on dokładniejszy. Jednak więcej warstw oznacza również, że działanie będzie wolniejsze. Jak wyjaśnia de Moor, zespół Copilot musiał w jakiś sposób znaleźć równowagę między nimi: „Nasz przypadek użycia wymagał, aby model dostarczył odpowiedź z szybkością, błyskawiczna prędkość z wieloma alternatywnymi sugestiami; jeśli nie jest wystarczająco szybki, użytkownicy mogą łatwo wyprzedzić model i sami napisać kod. Odkryliśmy więc, że odpowiedzią był nieco słabszy model, który zapewnia szybkie reakcje przy zachowaniu jakości wyników”. Szybkie przyjęcie przez użytkowników i zainteresowanie GitHub Copilot zaskoczyło wszystkich w zespole, ale na tym się nie skończyło. Ze względu na użyteczność produktu i jakość sugestii dotyczących kodu zespół zaobserwował wykładniczy wzrost ilości kodu wygenerowanego przy użyciu rozwiązania Copilot, przy czym średnio „35% nowo napisanego kodu jest sugerowane przez Copilot. Liczba ta będzie rosnąć w miarę zbliżania się do znalezienia właściwej równowagi między możliwościami modelu a szybkością sugestii” – mówi de Moor. Zapytany o aspekt bezpieczeństwa danych i prywatności kodu przesłanego w ramach żądania do Copilota, de Moor odpowiada: „Architektura Copilota została zaprojektowana w taki sposób, że gdy użytkownik wpisze kod w Copilocie, nie będzie żadnej możliwości wycieku kodu między użytkownikami. GitHub Copilot to syntezator kodu, a nie wyszukiwarka: zdecydowana większość sugerowanego kodu jest generowana unikalnie i nigdy wcześniej nie była widziana. Odkryliśmy, że w około 0,1% przypadków sugestia może zawierać fragmenty pochodzące dosłownie ze zbioru uczącego”.

Brak kodu/niski kod: uproszczenie tworzenia oprogramowania?

https://aie24.pl/

Obecnie opracowywanie produktów lub usług związanych z oprogramowaniem wymaga wiedzy technicznej lub naukowej — na przykład trzeba nauczyć się co najmniej jednego języka programowania. A to dopiero początek. Nawet aby opracować minimalnie opłacalny produkt (MVP) przy użyciu konwencjonalnych technik, należy zrozumieć różne elementy inżynierii oprogramowania związane z tworzeniem zarówno frontendu (w jaki sposób użytkownik wchodzi w interakcję z oprogramowaniem), jak i backendu (jak działa logika przetwarzania). Stwarza to barierę wejścia dla tych, którzy nie pochodzą z wykształcenia technicznego lub inżynierskiego. De Moor postrzega Copilot jako krok w kierunku uczynienia technologii bardziej dostępną i włączającą. Jeśli programiści „będą musieli coraz mniej martwić się szczegółami rozwoju i po prostu wyjaśniać projekt, wyjaśniać cel tego, co chcą zrobić” i pozwolić Copilotowi zająć się szczegółami, znacznie więcej osób będzie mogło korzystać z tych narzędzi, aby tworzyć nowe produkty i usługi. Według de Moora istnieje już kilka platform do programowania bez kodu, ale dla wielu użytkowników ich ograniczenia są ograniczające, w istocie „znacznie upraszczając programowanie”, czyniąc je „bardziej wizualnym, graficznym i łatwym w użyciu”. „Te rzeczy są świetne na początek, ale niestety wiążą się z ograniczeniami w zakresie rzeczy, które można zbudować przy użyciu tych platform”. De Moor twierdzi, że Copilot jest równie łatwy w obsłudze, ale zapewnia znacznie więcej możliwości dzięki wykorzystaniu w pełni funkcjonalnego narzędzia programowania, a nie uproszczone wersje.

Studium przypadku: GitHub Copilot

https://aie24.pl/

Zacznijmy tę podróż od GitHub Copilot, jednego z najgorętszych produktów 2021 roku. GitHub Copilot  to pierwszy w swoim rodzaju programista AI, który pomaga użytkownikom pisać kod szybciej i przy znacznie mniejszym nakładzie pracy. Oege de Moor, wiceprezes GitHub Next, mówi, że misją jest „dotarcie do wszystkich programistów, a ostatecznym celem jest udostępnienie programowania każdemu”. Automatyzacja przyziemnych zadań, takich jak pisanie nadmiarowego kodu i pisanie przypadków testów jednostkowych, pozwala programistom „skupić się na prawdziwie kreatywnej części pracy, która polega na decydowaniu, co oprogramowanie powinno faktycznie robić” i „więcej myśleć o koncepcji produktu, zamiast być utknąłem w zastanawianiu się aby wyciągnąć kod. Jak powiedział nam Awan: „Jestem podekscytowany możliwością pracy nad większą liczbą projektów pobocznych, ponieważ wiem, że będę miał pomoc w GitHub Copilot. To prawie tak, jakbym miał teraz współzałożyciela. Codex i Copilot piszą od 2 do 10% mojego kodu, mniej więcej tak. Dzięki temu przyspieszyłem już od 2 do 10%. A wszystko to na skalę wykładniczą. Jaki zatem będzie GPT-3 w przyszłym roku? Jaki będzie Kodeks w przyszłym roku? Być może będę szybszy o 30%.” Zagłębmy się w wewnętrzne działanie Copilota.

GitHub Copilot rysuje kontekst z kodu, nad którym pracujesz, w oparciu o takie elementy, jak ciągi dokumentów, komentarze i nazwy funkcji. Następnie automatycznie sugeruje następny wiersz lub nawet całe funkcje bezpośrednio w edytorze, aby wygenerować szablonowy kod i zasugerować przypadki testowe pasujące do implementacji kodu. Współpracuje z szerokim zestawem frameworków i języków programowania, korzystając z wtyczki do edytora kodu użytkownika, dzięki czemu jest niemal niezależny od języka, a także lekki i łatwy w użyciu. Naukowiec zajmujący się OpenAI, Harri Edwards, zauważa, że Copilot jest także użytecznym narzędziem dla programistów pracujących w nowym języku lub frameworku: „Próba pisania kodu w nieznanym języku poprzez wygooglowanie wszystkiego jest jak nawigacja po obcym kraju za pomocą samych rozmówek. Korzystanie z GitHub Copilot jest jak zatrudnienie tłumacza.” GitHub Copilot działa w oparciu o Codex OpenAI, potomka modelu GPT-3, który, jak zauważyliśmy w rozdziale 4, został zaprojektowany specjalnie do interpretowania i pisania kodu. „GitHub jest domem dla ponad 73 milionów programistów i zawiera ogromną ilość danych publicznych, które odzwierciedlają zbiorową wiedzę społeczności” – mówi de Moor. Przekłada się to na miliardy linii publicznie dostępnego kodu, na którym Codex może się uczyć. Rozumie zarówno języki programowania, jak i języki ludzkie. Kodeks opiera się na komentarzach pomocniczych lub instrukcjach w prostym języku angielskim, aby utworzyć odpowiedni kod.

Rozszerzenie edytora Copilot inteligentnie wybiera kontekst, który ma zostać wysłany do usługi GitHub Copilot, która z kolei uruchamia model Codexu OpenAI w celu syntezy sugestii. Mimo że Copilot generuje kod, to użytkownik nadal ponosi odpowiedzialność: możesz przeglądać sugerowane opcje, wybierać, które zaakceptować lub odrzucić, a także ręcznie edytować sugerowany kod. GitHub Copilot dostosowuje się do wprowadzanych przez Ciebie zmian i dopasowuje się do Twojego stylu kodowania. De Moor wyjaśnia: „Łączy język naturalny z kodem źródłowym, dzięki czemu można go używać w obu kierunkach. Możesz użyć kodu źródłowego do wygenerowania komentarzy lub możesz użyć komentarzy do wygenerowania kodu źródłowego, co czyni go niezwykle potężnym. Ta funkcjonalność pośrednio zmieniła także sposób, w jaki programiści piszą kod. Kiedy wiedzą, że ich komentarze do kodu w językach ludzkich, takich jak angielski, będą częścią szkolenia modelu, piszą „lepsze i dokładniejsze komentarze, aby uzyskać lepsze wyniki z Copilot” – mówi de Moor. Wielu krytyków obawia się, że oddanie tego narzędzia w ręce osób, które nie potrafią ocenić jakości kodu, może skutkować wprowadzeniem błędów w bazie kodu. Wbrew tej opinii de Moor mówi nam: „Otrzymaliśmy wiele opinii od programistów, że Copilot pozwala im pisać lepszy i wydajniejszy kod”. W aktualnej wersji zapoznawczej Copilot może pomóc Ci w pisaniu kodu tylko wtedy, gdy rozumiesz, jak działają różne elementy oprogramowania i możesz dokładnie powiedzieć Copilotowi, co ma robić. Copilot zachęca programistów do stosowania zdrowych praktyk, takich jak pisanie dokładniejszych komentarzy, i nagradza programistów lepszym generowaniem kodu. Copilot nie ogranicza się tylko do ogólnych zasad programowania; może także poznać szczegóły konkretnych dziedzin, takich jak pisanie programów do komponowania muzyki. Aby to zrobić, musisz zrozumieć teorię muzyki. „Widzenie, jak Copilot w jakiś sposób wyłapał to z niezwykle dużych danych treningowych, jest po prostu niesamowite” – dodaje de Moor.

Opracowywanie drugiego pilota

De Moor twierdzi, że jednym z wyzwań związanych z projektowaniem Copilot było stworzenie odpowiedniego doświadczenia użytkownika, które „pozwala korzystać z tego modelu w sposób oparty na współpracy, bez ingerencji”. Celem jest, aby czuć się jak podczas pracy z partnerem programistycznym lub współpracownikiem, który „wie więcej o przyziemnych sprawach związanych z kodowaniem, dzięki czemu możesz bardziej skupić się na tworzeniu ważnych rzeczy”. Programiści stale szukają istniejących rozwiązań problemów i często odwołują się do Stack Overflow, wyszukiwarek i blogów, aby znaleźć szczegóły implementacji i składni kodu — co oznacza częste przechodzenie między edytorem a przeglądarką. Jak zauważa de Moor: „Jako programista jesteś bardziej produktywny, gdy możesz pozostać w swoim środowisku i po prostu myśleć o problemie, zamiast ciągle zmieniać kontekst”. Właśnie dlatego zespół GitHuba zaprojektował Copilot tak, aby dostarczał sugestie w środowisku programistycznym.

GPT-3 dla korporacji

https://aie24.pl/

Kiedy pojawia się nowa innowacja lub zmiana techniczna, duże korporacje zazwyczaj wdrażają je jako ostatnie. Ich hierarchiczne struktury składają się z różnych poziomów autorytarnych, a standardowe procesy uzyskiwania zezwoleń prawnych i dokumentów często ograniczają swobodę eksperymentowania, utrudniając przedsiębiorstwom wczesne wdrażanie rozwiązań. Ale wydaje się, że tak nie jest w przypadku GPT-3. Gdy tylko API zostało wypuszczone, korporacje zaczęły z nim eksperymentować. Natknęli się jednak na istotną barierę: prywatność danych. W najprostszej formie model językowy polega jedynie na przewidywaniu następnego słowa na podstawie serii poprzednich słów. Jak dowiedziałeś się z rozdziału 2, OpenAI opracowało kilka technik transformacji funkcjonowania modeli językowych jak GPT-3 od prostego przewidywania następnego słowa do bardziej przydatnych zadań NLP, takich jak odpowiadanie na pytania, podsumowywanie dokumentów i generowanie tekstu specyficznego dla kontekstu. Zazwyczaj najlepsze wyniki osiąga się poprzez dostrojenie modelu języka lub uwarunkowanie go tak, aby naśladował określone zachowanie, poprzez dostarczenie kilku przykładów z wykorzystaniem danych specyficznych dla domeny. Możesz podać przykłady w monicie szkoleniowym, ale bardziej niezawodnym rozwiązaniem jest utworzenie niestandardowo przeszkolonego modelu przy użyciu interfejsu API dostrajania. OpenAI oferuje GPT-3 w postaci otwartego API, w którym użytkownicy dostarczają dane wejściowe, a API zwraca dane wyjściowe. Właściwe zabezpieczanie, obsługa i przetwarzanie danych użytkowników jest kluczową kwestią dla korporacji chcących korzystać z GPT-3. Welinder z OpenAI zauważa, że chociaż liderzy przedsiębiorstw wyrażali różne obawy dotyczące GPT-3, „zgodność z SOC2, geofencing i możliwość uruchamiania interfejsu API w sieci prywatnej były z nich największymi”. Środki OpenAI dotyczące bezpieczeństwa i niewłaściwego wykorzystania modeli mają zatem na celu uwzględnienie szerokiego zakresu kwestii w ramach prywatności i bezpieczeństwa danych. Na przykład Bram Adams, założyciel Stenography, opowiada nam o aspektach prywatności i bezpieczeństwa API OpenAI. „W obecnej sytuacji Stenography jest przejściowym interfejsem API — przypomina płatną drogę. Aby ludzie mogli przekazywać swój kod, który jest przekazywany w niezmienionej postaci do API OpenAI, bez konieczności zapisywania go lub rejestrowania w dowolnym miejscu.” Poza tymi barierami Stenografia stanowi nadzbiór Warunków użytkowania OpenAI. Rozmawialiśmy z przedstawicielami kilku korporacji o tym, co powstrzymuje je przed wykorzystaniem OpenAI API w produkcji. Większość podkreślała dwie typowe obawy:

  * Punkt końcowy interfejsu API GPT-3 udostępniony przez OpenAI nie powinien przechowywać ani zapisywać żadnej części danych szkoleniowych dostarczonych mu w ramach procesu dostrajania/uczenia modelu.

* Przed wysłaniem danych do interfejsu API OpenAI firmy chcą się upewnić, że osoby trzecie nie będą miały możliwości wyodrębnienia danych ani uzyskania dostępu do nich poprzez wprowadzenie jakichkolwiek danych wejściowych do interfejsu API.

OpenAI odpowiedziało na powyższe obawy i pytania klientów dotyczące przetwarzania danych i prywatności, oferując przeglądy bezpieczeństwa, umowy korporacyjne, umowy dotyczące przetwarzania danych, wysiłki w zakresie certyfikacji bezpieczeństwa przez strony trzecie i nie tylko. Niektóre z kwestii omawianych przez klientów i OpenAI dotyczyły tego, czy dane klienta można wykorzystać do ulepszenia modeli OpenAI, co może poprawić wydajność w pożądanych przypadkach użycia przez klienta, ale wiąże się z obawami dotyczącymi prywatności danych i wewnętrznych obowiązków w zakresie zgodności; ograniczenia dotyczące przechowywania i zatrzymywania danych klientów; oraz obowiązki dotyczące bezpieczeństwa obsługi i przetwarzania danych. W pozostałej części omówiono trzy studia przypadków, które pokazują, jak globalne przedsiębiorstwa, takie jak GitHub, Microsoft i Algolia, radzą sobie z tymi pytaniami i wykorzystują GPT-3 na dużą skalę. Dowiesz się także, jak OpenAI dostosowało się do zapotrzebowania na produkty klasy korporacyjnej, współpracując w ramach usługi Microsoft Azure OpenAI Service.

Wniosek

https://aie24.pl/

To niesamowite widzieć te przypadki użycia i wiele innych, zbudowanych na bazie GPT-3 tak szybko i z takim sukcesem. Pod koniec 2021 r., kilka start-upów w społeczności OpenAI zebrało już ogromne rundy finansowania i rozważało plany szybkiej ekspansji. Wydaje się, że ta fala rynkowa rozbudziła apetyty także większych przedsiębiorstw. Coraz więcej przedsiębiorstw zaczyna rozważać wdrożenie w swoich organizacjach eksperymentalnych projektów GPT-3. W rozdziale 5 przyjrzymy się temu segmentowi rynku, składającemu się z produktów na dużą skalę, takich jak GitHub Copilot, a zwłaszcza nowej usługi Microsoft Azure OpenAI, która została zaprojektowana z myślą o potrzebach dużych organizacji.