Perspektywa inwestora na ekosystem start-upów GPT-3

https://aie24.pl/

Aby zrozumieć perspektywę inwestorów wspierających firmy oparte na GPT-3, rozmawialiśmy z Jake’em Flomenbergiem z Wing Venture Capital, renomowanej globalnej firmy venture capital i głównym inwestorem w kilku start-upach opartych na GPT-3, w tym CopyAI i Simplified. Jak każdy obserwator rynku może sobie wyobrazić, inwestorzy kapitału wysokiego ryzyka obserwują rodzące się technologie sztucznej inteligencji, takie jak GPT-3. Flomenberg podsumowuje atrakcyjność: GPT-3 „nie przypomina żadnego innego modelu NLP, jaki kiedykolwiek widzieliśmy. To istotny krok w kierunku budowania bardziej uogólnionej sztucznej inteligencji”. Jego zdaniem niewykorzystany potencjał jest ogromny, a świat biznesu wciąż „niedocenia i w związku z tym w niewystarczającym stopniu wykorzystuje możliwości LLM”. Jak jednak potencjalni inwestorzy powinni ocenić coś tak nowego i innego? „Cenimy start-upy posiadające głębokie zrozumienie problemu, domeny i technologii”, a także te, które wykazują dobre dopasowanie produktu do rynku, mówi Flomenberg. „Nuans w ocenie czegoś zbudowanego na GPT-3 polega na pytaniu, jaki jest sekret? Na czym firma zbudowała głęboką wiedzę technologiczną? Czy firma rozwiązuje prawdziwy problem za pomocą GPT-3, czy po prostu wykorzystuje szum medialny, aby wprowadzić swój produkt na rynek? Dlaczego teraz? Dlaczego ten zespół najlepiej nadaje się do realizacji tego pomysłu? Czy tę ideę da się obronić w prawdziwym świecie?” Jeśli start-up nie jest w stanie obronić swojego istnienia, jest to ogromna czerwona lampka dla inwestorów. Inwestorzy uważnie przyglądają się także OpenAI i jego API, ponieważ firmy oparte na GPT-3 całkowicie polegają na jego możliwościach. Flomenberg wymienia proces przeglądu due diligence OpenAI jako główny czynnik w tej relacji opartej na zaufaniu: „Start-upy, które przejdą kontrolę produkcyjną i są przedmiotem zainteresowania OpenAI, automatycznie stają się atrakcyjne dla inwestycji”. Podejmując decyzje inwestycyjne, inwestorzy zazwyczaj sięgają po historię i wiedzę założycieli. GPT-3 jest jednak niezwykły, ponieważ pozwala osobom z dowolnego wykształcenia, nie tylko programistom, tworzyć najnowocześniejsze produkty NLP. Flomenberg podkreśla tutaj znaczenie rynku: „Zazwyczaj w przypadku start-upów opartych na głębokich technologiach szukamy założycieli ze świetnym zrozumieniem dziedzin technicznych i AI. Jednak w przypadku start-upów opartych na GPT-3 bardziej koncentrujemy się na tym, czy rynek odpowiada wizji założycieli i czy są oni w stanie zidentyfikować i zaspokoić potrzeby użytkowników końcowych. Cytuje CopyAI jako „klasyczny przykład modelu wzrostu opartego na produkcie, zbudowanego na bazie GPT-3. Spotkały się z niezwykłym oddźwiękiem wśród użytkowników i rozwinęły głębokie zrozumienie technologii, wnosząc do niej głębię i wartość”. Mówi, że odnoszące sukcesy start-upy „utrzymują sztuczną inteligencję w środku”, koncentrując się bardziej na rozwiązywaniu problemów użytkowników i zaspokajaniu ich potrzeb za pomocą narzędzia odpowiedniego do danego zadania.

Kodowanie Zastosowania GPT-3: Stenografia

https://aie24.pl/

Ponieważ GPT-3 i jego potomek, model Codex, nadal wykazują większą zdolność do interakcji z programowaniem i językami naturalnymi, pojawia się coraz więcej nowych potencjalnych przypadków użycia. Bram Adams, ambasador społeczności OpenAI znany ze swoich twórczych eksperymentów z algorytmami GPT-3 i Codex, wypuścił pod koniec 2021 roku jeden: Stenography, który wykorzystuje zarówno GPT-3, jak i Codex do automatyzacji irytującego zadania pisania dokumentacji kodu. Stenography odniósł natychmiastowy sukces, wprowadzając go na rynek jako produkt numer jeden dnia na popularnym portalu wprowadzania produktów na rynek Product Hunt. Adams wypróbował kilka potencjalnych przypadków użycia interfejsu API, zanim zawęził swoje pomysły do tego, który stał się jego nowym biznesem. „Myślę, że wiele z tych eksperymentów polegało na tym, że nieświadomie sprawdzałem, z czym może sobie poradzić model językowy taki jak GPT-3”. Poszukiwania Adamsa rozpoczęły się od pomysłu: „Co bym zrobił, gdybym mógł poprosić komputer o zrobienie czegokolwiek?” Zaczął eksplorować, „szperając w zakamarkach API OpenAI i sprawdzając, jak daleko może to zajść”. Wymyślił bota generującego poezję na Instagramie; wypróbował projekt dziennikarstwa selfpodcast, w którym użytkownicy rozmawiają z cyfrowymi wersjami siebie; pracował nad projektem tworzenia playlist muzycznych na Spotify w oparciu o preferencje użytkowników; i stworzył wiele innych projektów w służbie swojej ciekawości. Dzięki tej ciekawości „naprawdę wcześnie nauczyłem się rozumieć różne silniki GPT-3”. Dlaczego więc stenografia? „Dostałem całkiem dobry sygnał ze świata zewnętrznego, że może to być bardzo pomocne dla wielu osób”. Choć Adams cieszy się elegancją dobrze napisanego kodu, większość użytkowników GitHuba po prostu pobiera opublikowany kod i używa go: „Nikt tak naprawdę nie będzie podziwiał piękna, które umieściłeś w swojej bazie kodu”. Zauważył również, że świetne programy na GitHubie, które nie są dobrze udokumentowane, często nie są tak widoczne, jak na to zasługują: „Plik Readme [plik] jest pierwszą rzeczą, którą wszyscy widzą. Natychmiast przewijają w dół do tego.” Stenografia była próbą przemyślenia, w jaki sposób dokumentacja mogłaby ewoluować, aby stała się mniej irytująca dla programistów: „To trudne, ponieważ szczególnie w przypadku dokumentacji musisz uzasadnić to, co zrobiłeś. Mówisz więc: „Użyłem tej biblioteki, żeby to zrobić”. A potem zdecydowałem się użyć tego i dodałem tę funkcję, aby to zrobić.” Adams postrzega dokumentację jako sposób, w jaki ludzie mogą dotrzeć do innych osób w swoich zespołach, do siebie w przyszłości lub po prostu do zainteresowanych osób którzy natkną się na projekt. Jego celem jest uczynienie projektu zrozumiałym dla innych. „Zainteresował mnie pomysł, czy GPT-3 mógłby tworzyć zrozumiałe komentarze.” Wypróbował zarówno GPT-3, jak i Codex i był pod wrażeniem poziomu wyjaśnień z obu modeli. Następne pytanie, które zadał, brzmiało: „Jak sprawić, by było to naprawdę łatwe i przyjemne dla programistów?” Jak więc działa Stenografia i jak jej komponenty wykorzystują API OpenAI? Adams twierdzi, że na wysokim poziomie istnieją dwa główne procesy — analizowanie i wyjaśnianie — i każdy wymaga innej strategii. „W procesie analizowania spędziłem dużo czasu na zrozumieniu złożoności kodu, ponieważ nie wszystkie wiersze w kodzie są nawet warte udokumentowania”. Niektóre kody mogą mieć oczywisty cel, nie mieć wartości operacyjnej lub nie być już przydatne. Dodatkowo „duże” bloki kodu, sięgające ponad 800 linii, są zbyt trudne, aby model mógł je zrozumieć za jednym razem. „Trzeba byłoby rozbić tę logikę na wiele różnych kroków, aby móc dokładnie powiedzieć, że to właśnie robi to coś. Kiedy to zrozumiałem, zacząłem myśleć: „Jak mogę wykorzystać analizę składniową, aby znaleźć bloki, które są wystarczająco złożone, ale niezbyt skomplikowane?” Ponieważ każdy pisze kod inaczej, pozostaje tylko spróbować dołączyć do abstrakcyjnego drzewa składni i pracować z tym, co najlepsze. Stało się to głównym wyzwaniem architektonicznym warstwy analizującej.  Jeśli chodzi o warstwę objaśnień, „jest to raczej cecha polegająca na tym, że GPT-3 i Kodeks mówią to, co chcesz, żeby powiedziały” – wyjaśnia Adams. Sposobem na osiągnięcie tego jest znalezienie kreatywnych sposobów zrozumienia odbiorców kodu i nakłonienie GPT-3 do przemówienia do nich. Warstwa ta „może próbować rozwiązać dowolne pytanie, ale może nie rozwiązać go ze stuprocentową dokładnością, jaką można uzyskać za pomocą kalkulatora. Jeśli wpiszesz dwa plus dwa równa się cztery, czasami otrzymasz pięć, ale nie musisz pisać wszystkich funkcji mnożenia, dzielenia i odejmowania. Te przychodzą za darmo.” Na tym polega kompromis z systemami probabilistycznymi: czasami działają, a czasami nie, ale zawsze zwracają odpowiedź. Adams radzi pozostać na tyle płynny, aby w razie potrzeby móc zmienić strategię. Adams podkreśla znaczenie prawdziwego zrozumienia problemu przed rozpoczęciem korzystania z API OpenAI. „W godzinach mojej pracy przyjdą ludzie i będą mieli ogromne problemy. Zapytają: „Jak zbudować statek rakietowy od podstaw, korzystając z podpowiedzi?”, a ja na to: „No cóż, na statek rakietowy składa się wiele elementów. GPT-3 nie jest panaceum. To bardzo potężna maszyna, ale tylko wtedy, gdy wiesz, do czego jej używasz.” Porównuje GPT-3 do języków programowania, takich jak JavaScript, Python i C: „Są przekonujące, ale tylko jeśli rozumiesz rekurencję i for i while oraz jakie narzędzia pomogą Ci rozwiązać konkretny problem. Dla Adamsa oznaczało to zadawanie wielu „metapytań technicznych”, takich jak „W czym pomaga posiadanie dokumentacji AI?” oraz „Czym w ogóle jest dokumentacja?” Radzenie sobie z tymi pytaniami było dla niego największym wyzwaniem. „Myślę, że wiele osób po prostu natychmiast rzuciło się do Davinci, aby rozwiązać swoje problemy. Ale jeśli potrafisz rozwiązać coś na mniejszym silniku, takim jak Ada, Babbage czy Curie, tak naprawdę poznajesz problem o wiele głębiej, niż gdybyś próbował rzucić na niego całą sztuczną inteligencję za pomocą Davinci”. twierdzi. Jeśli chodzi o budowanie i skalowanie produktu za pomocą API OpenAI, radzi używać „małych silników lub niskich temperatur, ponieważ nie można przewidzieć, jak będzie wyglądać końcowa zachęta (ani czy będzie ona ewoluować w czasie), co co próbujesz zrobić i kim jest Twój użytkownik końcowy, ale [dzięki] zastosowaniu mniejszych silników i niższych temperatur szybciej znajdziesz odpowiedzi na naprawdę trudne pytania”. Kolejnym wyzwaniem było przejście od własnych, samodzielnych eksperymentów do aplikacji uwzględniającej wszystkie różne warunki i sposoby pracy, z którymi mogą się spotkać użytkownicy. Teraz pracuje nad „znalezieniem różnych przypadków brzegowych”, aby lepiej zrozumieć, jak szybka musi być warstwa projektowa interfejsu API, jak często musi odpowiadać konkretnym żądaniem i jak współdziała z różnymi językami. Co dalej ze Stenografią? Teraz, gdy Adams zbudował produkt, z którego jest bardzo zadowolony, w 2022 roku planuje skupić się na sprzedaży i rozmowie z bazą użytkowników. „Stenografia nie będzie polegać tak bardzo na budowaniu, jak na prawdziwym doskonaleniu produktu i pokazywaniu go ludziom”.

Zastosowania marketingowe GPT-3: Copysmith

https://aie24.pl/

Czy GPT-3 może wyeliminować blokadę zapisu? YouTuber Yannic Kilcher tak uważa: „Jeśli masz blokadę pisarską, po prostu pytasz modelkę, a ona przedstawia setki pomysłów, które stanowią dla ciebie pulę rezonansową. Przyjrzyjmy się jednemu z takich narzędzi: Copysmith. Jednym z najpopularniejszych zastosowań GPT-3 jest generowanie kreatywnych treści na bieżąco. Copysmith to jedno z wiodących na rynku narzędzi do tworzenia treści. „Copysmith… umożliwia użytkownikom tworzenie i wdrażanie treści w dowolnym miejscu w Internecie sto razy szybciej dzięki potężnej sztucznej inteligencji” – mówi współzałożycielka i dyrektor ds. technologii Anna Wang. Wykorzystuje GPT-3 do copywritingu w e-commerce i marketingu, aby błyskawicznie generować, współpracować i uruchamiać wysokiej jakości treści. Wang i dyrektor generalny Shegun Otulana opowiedzieli, jak dwie siostry przekształciły swój mały, borykający się z trudnościami sklep e-commerce w odnoszącą sukcesy firmę technologiczną, a także opowiedzieli o kluczowej roli GPT-3 w umożliwieniu tego. W czerwcu 2019 Anna Wang i jej siostra Jasmine Wang założyły butik oparty na Shopify. Brakowało im jednak doświadczenia w marketingu i „biznes całkowicie upadł” – mówi Anna Wang. Kiedy w 2020 roku siostry dowiedziały się o interfejsie API OpenAI, Wang mówi: „Zaczęliśmy zgłębiać jego możliwości twórcze, takie jak pisanie wierszy czy próby naśladowania postaci z książek i filmów. Któregoś dnia zdaliśmy sobie sprawę, że gdybyśmy mieli to narzędzie podczas budowania sklepu e-commerce, bylibyśmy w stanie napisać lepsze wezwania do działania [i] opisy produktów, a tym samym ulepszylibyśmy naszą grę marketingową aby oderwać go od ziemi.” Zainspirowani, w październiku 2020 roku uruchomili Copysmith, spotykając się z ciepłym przyjęciem. Jak mówi Anna Wang: „Wszystko się zaczęło. Zaczęliśmy rozmawiać z użytkownikami i opracowywać produkt w oparciu o opinie.” Zauważa, że GPT-3 pozwala na bardzo szybkie iteracje bez wcześniejszej wiedzy, podczas gdy inne modele open source, takie jak BERT i RoBERTa, wymagają znacznego poziomu dostrojenia każdego kolejnego zadania. „Jest niezwykle elastyczny pod względem zadań, jakie może wykonywać” – dodaje, i „jest najpotężniejszym modelem na rynku”. Co więcej, GPT-3 jest „niezwykle przyjazny dla programistów i użytkowników dzięki prostemu interfejsowi „wprowadzanie i wysyłanie tekstu”, który umożliwia wykonywanie wszelkiego rodzaju zadań przy użyciu prostego interfejsu API”. Kolejną jego zaletą jest prostota wywołania API w porównaniu z wysiłkami włożonymi w hosting zastrzeżonego modelu. Jeśli chodzi o wyzwania związane z budowaniem produktu opartego na GPT-3, Otulana mówi: „Zazwyczaj jesteś ograniczony ograniczeniami OpenAI. Aby więc temu zaradzić, musisz zapewnić swojemu przedsiębiorcy kontakt z interfejsem API, aby stworzyć coś, co się wyróżnia. Kolejnym ograniczeniem jest niewielka utrata kontroli, w przypadku której Twój postęp jest w istocie ograniczony postępem OpenAI. Anna Wang ma dwie rady dla przyszłych projektantów produktów, którzy chcą używać GPT-3. Po pierwsze, mówi: „Upewnij się, że rozwiązujesz prawdziwy problem… pomyśl o swoim użytkowniku, ponieważ jedną z łatwych rzeczy w przypadku GPT-3 jest przyjęcie nastawienia polegającego na budowaniu rzeczy w granicach wytycznych bezpieczeństwa, nie pozwalając sobie na bycie twórczy.” Po drugie, Wang radzi: „Uważnie obserwuj, czym podajesz modelowi. Uważaj na interpunkcję, gramatykę i słownictwo podpowiedzi. Gwarantuję, że będziesz miał znacznie lepsze doświadczenia z wynikami modelu.

Zastosowania GPT-3: Quickchat

https://aie24.pl/

GPT-3, będący bardzo biegły w interakcjach językowych, jest oczywistym wyborem w celu ulepszenia istniejącego doświadczenia chatbota. Podczas gdy wiele aplikacji zapewnia użytkownikom rozrywkę za pomocą chatbotów AI, takich jak Philosopher AI i Talk Kanye, dwie firmy w szczególności wykorzystują tę funkcję w swoich aplikacjach biznesowych: Quickchat i Replika. Quickchat jest dobrze znany ze swojego chatbota AI, Emerson AI, dostępnego za pośrednictwem Telegram Messenger i aplikacji mobilnej Quickchat. Emerson AI posiada szeroką, ogólną wiedzę światową, w tym dostęp do nowszych informacji niż te wykorzystywane do szkolenia GPT-3; obsługuje wiele języków; potrafi prowadzić spójną rozmowę; i miło się z nim rozmawia. Piotr Grudzień i Dominik Posmyk, współzałożyciele Quickchata, od początku byli podekscytowani GPT-3 i pełni pomysłów na wykorzystanie go w nowym produkcie. Podczas wczesnych eksperymentów z API OpenAI stale wracali do koncepcji „ewoluujących interfejsów między maszynami i ludźmi”. Grudzień wyjaśnia, że skoro interakcje między człowiekiem a komputerem stale ewoluują, logicznym kolejnym krokiem będzie język naturalny: w końcu ludzie wolą komunikować się poprzez rozmowę. Doszli do wniosku, że GPT-3 wydaje się mieć potencjał umożliwiający korzystanie z czatu z komputerem na poziomie zbliżonym do ludzkiego. Grudzień twierdzi, że żaden z założycieli nie budował wcześniej konwencjonalnej aplikacji typu chatbot. Podejście do zadania z „nastawieniem początkującego” pomogło im zachować świeżość i otwartość na temat rozwiązania problemu. W przeciwieństwie do innych firm zajmujących się chatbotami, nie zaczynali od ambicji zostania najlepszym narzędziem obsługi klienta lub marketingu. Zaczęli od tego: „Jak nakłonić człowieka do rozmowy z maszyną w sposób budzący podziw i będący najlepszą rzeczą, jakiej kiedykolwiek próbowali?” Chcieli stworzyć chatbota, który nie tylko realizuje proste funkcje, takie jak zbieranie danych klientów i udzielanie odpowiedzi, ale jest także gotowy odpowiadać na nieskryptowane pytania klientów lub prowadzić przyjemną pogawędkę. „Zamiast mówić «nie wiem»” – dodaje Grudzień, może „powrócić do konwersacyjnego API i podtrzymać rozmowę”. Posmyk dodaje: „Naszą misją jest wyposażenie ludzi w sztuczną inteligencję, a nie jej zastępowanie. Wierzymy, że w ciągu następnej dekady sztuczna inteligencja przyspieszy cyfryzację kluczowych branż, takich jak edukacja, prawo i [i] opieka zdrowotna, a także zwiększy naszą produktywność w pracy i [w] życiu codziennym”. Aby rzucić okiem na tę dalekosiężną misję, stworzyli Emerson AI, inteligentną aplikację chatbota ogólnego przeznaczenia obsługiwaną przez GPT-3. Chociaż firma Emerson AI ma rosnącą społeczność użytkowników, jej prawdziwym celem jest zaprezentowanie możliwości chatbotów obsługujących GPT-3 i zachęcenie użytkowników do współpracy z Quickchat nad wdrożeniem takiej osobowości w swoich firmach. Oferta produktów Quickchat to uniwersalna sztuczna inteligencja do konwersacji, która może rozmawiać na dowolny temat. Klienci, głównie firmy o ugruntowanej pozycji, mogą dostosować chatbota, dodając dodatkowe informacje specyficzne dla ich produktu (lub dowolnego tematu, jaki chcą). Quickchat doczekał się różnorodnych zastosowań, takich jak automatyzacja typowych pytań dotyczących obsługi klienta, rozwiązywanie problemów oraz wdrażanie persony AI, aby pomóc użytkownikom przeszukiwać wewnętrzną bazę wiedzy firmy. W odróżnieniu od typowych dostawców usług chatbota, Quickchat nie buduje żadnych drzew konwersacji, sztywnych scenariuszy ani nie musi uczyć chatbota, jak odpowiadać na pytania w określony sposób. Zamiast tego, wyjaśnia Grudzień, klienci postępują zgodnie z prostym procesem: „Kopiujesz i wklejasz tekst zawierający wszystkie informacje, których ma używać Twoja sztuczna inteligencja, [i] klikasz przycisk ponownego szkolenia; [przyswojenie wiedzy] zajmuje kilka sekund i to wszystko. Chatbot przeszkolony na Twoich danych jest gotowy do przeprowadzenia rozmowy testowej. Zapytany o kompromisy pomiędzy modelami open source a API OpenAI, Grudzień odpowiada, że „OpenAI API jest przyjemne i łatwe w użyciu, ponieważ nie trzeba się martwić infrastrukturą, opóźnieniami ani szkoleniem modeli. To po prostu wywołanie API i uzyskanie odpowiedzi. Jest wyjątkowo niezawodny.” Uważa jednak, że za jakość płaci się dość wysoką cenę. Dla porównania, modele open source wydają się być świetną darmową alternatywą. W praktyce „trzeba ponieść koszty przetwarzania w chmurze. Wymaga to procesorów graficznych i skonfigurowania procesorów graficznych, aby działały szybko z tymi modelami, a następnie samodzielnego dostrojenia”, co, jak przyznaje Grudzień, nie jest prostym procesem. Podobnie jak Erickson z Viable, Grudzień i Posmyk starają się dostarczać wartość przy każdym wywołaniu API. Mają jednak także nadzieję, że w miarę wypuszczania na rynek coraz bardziej konkurencyjnych modeli ceny API OpenAI „spadną lub ustabilizują się na pewnym poziomie, po prostu z powodu presji konkurencji”. Czego więc nauczył się Quickchat? Po pierwsze, aby zbudować dochodowy biznes, potrzeba czegoś więcej niż tylko szumu. Wielka sensacja medialna, taka jak ta, która wypuściła GPT-3, może początkowo zapewnić napływ podekscytowanych entuzjastów, „ale potem ludzie się nudzą i czekają na kolejną wielką rzecz. Przetrwają jedynie te produkty, które faktycznie rozwiązują pewne problemy, na których ludziom zależy” – mówi Grudzień. „Nikt nie będzie korzystał z Twojego produktu tylko dlatego, że ma standard GPT-3. Musi dostarczać jakąś wartość, użyteczną lub zabawną, albo rozwiązywać jakiś problem. GPT-3 nie zrobi tego za ciebie. Musisz więc potraktować to jako kolejne narzędzie. Kolejną kluczową lekcją było opracowanie solidnych wskaźników wydajności. „Za każdym razem, gdy tworzysz produkt do uczenia maszynowego, jego ocena zawsze jest trudna” – mówi Grudzień. Jego zdaniem, ponieważ GPT-3 jest solidny i działa w trudnej do oszacowania dziedzinie języka naturalnego, ocena jakości jego wyników jest złożona i uciążliwa. Jakkolwiek ekscytujący może być przełom, twierdzi, „użytkownicy prawdopodobnie ocenią Cię na podstawie najgorszej wydajności, w najlepszym razie średniej”. Quickchat optymalizuje zatem satysfakcję użytkownika. Dla firmy kluczowe było zaprojektowanie wskaźnika uwzględniającego zmienne powiązane z zadowolonymi użytkownikami i wysoką retencją, które bezpośrednio przekładają się na wyższe przychody.

Kolejnym wyzwaniem, być może zaskakującym, jest talent GPT-3 do kreatywności. „Nawet jeśli ustawisz bardzo niską temperaturę, niezależnie od tego, jaki podpowiesz, nadal użyje tego maleńkiego podpowiedzi, a następnie wygeneruje coś w oparciu o tę ogromną wiedzę, którą posiada” – wyjaśnia Grudzień. Ułatwia to generowanie kreatywnego tekstu, takiego jak poezja, teksty marketingowe lub opowiadania fantasy. Ale większość chatbotów służy do rozwiązywania problemów klientów. „Musi zapewniać przewidywalne, powtarzalne działanie, a jednocześnie umożliwiać konwersację w pewnym stopniu kreatywny, ale bez popychania go za daleko”. Duże modele językowe czasami generują tekst, który jest „dziwny”, „pusty” lub po prostu „niezbyt wspaniały”, więc ludzie muszą interweniować. „Jeśli zaczniesz mierzyć, czy udało mu się spełnić jakiś warunek, czy zadanie, to okaże się, że jest naprawdę twórcze, ale na dziesięć prób udało mu się tylko sześć razy – czyli prawie zero, jeśli chodzi o prawdziwy biznes z płacącymi klientami.” Dlatego do pomyślnej aplikacji biznesowej potrzebnych jest wiele wewnętrznych systemów i modeli, które ograniczają tę kreatywność i zwiększają niezawodność. „Aby stworzyć dla naszych klientów narzędzie, które działa w 99% przypadków, opracowaliśmy szereg mechanizmów obronnych” – mówi Grudzień. Obecnie Quickchat koncentruje się na ścisłej współpracy z klientami, aby upewnić się, że wydajność ich API pozwoli im odnieść sukces w ich przypadkach użycia. Tym, co najbardziej ekscytuje Grudzień, jest obserwowanie tego, co tworzą klienci: „Naprawdę, naprawdę chcemy zobaczyć, jak nasz silnik czatu jest używany na tysiące różnych sposobów w różnych produktach”.

Analiza danych Zastosowania GPT-3: wykonalne

https://aie24.pl/

Historia start-upu Viable jest przykładem tego, jak wiele może się zmienić od momentu rozpoczęcia pracy nad pomysłem na biznes do faktycznego znalezienia produktu dopasowanego do rynku i bazy klientów. Viable pomaga firmom lepiej zrozumieć swoich klientów, używając GPT-3 do podsumowania opinii klientów. Viable gromadzi opinie, takie jak ankiety, zgłoszenia do pomocy technicznej, dzienniki czatów na żywo i recenzje klientów. Następnie identyfikuje motywy, emocje i nastroje, wyciąga wnioski z wyników i przedstawia podsumowanie w ciągu kilku sekund. Na przykład, jeśli zostaniesz zapytany: „Co frustruje naszych klientów w procesie realizacji transakcji?” Viable mógłby odpowiedzieć: „Klienci są sfrustrowani przepływem transakcji, ponieważ ładowanie trwa zbyt długo. Chcą także możliwości edycji swojego adresu podczas realizacji transakcji i zapisania wielu metod płatności”. Oryginalny model biznesowy Viable polegał na pomaganiu firmom rozpoczynającym działalność na wczesnym etapie w znalezieniu dopasowania produktu do rynku za pomocą ankiet i planów rozwoju produktów. Zaczęto napływać prośby od większych firm z prośbą o wsparcie w analizie ogromnych ilości tekstu, np. „zgłoszenia do pomocy technicznej, media społecznościowe, recenzje w sklepach z aplikacjami i odpowiedzi na ankiety”, które wszystko zmieniły, mówi Daniel Erickson. Erickson jest założycielem i dyrektorem generalnym firmy Viable oraz jednym z pierwszych użytkowników interfejsu API OpenAI. Wyjaśnia: „Właściwie spędziłem około miesiąca na eksperymentowaniu, dosłownie po prostu zbierając nasze dane, umieszczając je w Playground, opracowując różne podpowiedzi i tym podobne rzeczy. W końcu doszedłem do wniosku, że [GPT-3] może zasilać bardzo potężny system pytań i odpowiedzi”. Erickson i jego współpracownicy zaczęli używać interfejsu API OpenAI do interakcji i generowania spostrzeżeń na podstawie dużych zbiorów danych, z którymi pracowali. Początkowo stosowali inny model NLP, osiągając mierne wyniki, ale kiedy rozpoczęli pracę z GPT-3, zespół zaobserwował „co najmniej 10% wzrost we wszystkich przypadkach. Kiedy mówimy o przejściu z 80% do 90%, jest to dla nas ogromny wzrost. Bazując na tym sukcesie, wykorzystano GPT-3 w połączeniu z innymi modelami i systemami, aby stworzyć funkcję pytań i odpowiedzi, która umożliwia użytkownikom zadawanie pytań prostym językiem angielskim i uzyskiwanie odpowiedzi. Viable przekształca pytanie w złożone zapytanie, które może pobrać wszystkie istotne informacje zwrotne z bazy danych. Następnie przepuszcza dane przez kolejną serię modeli podsumowań i analiz, aby wygenerować udoskonaloną odpowiedź. Ponadto system Viable zapewnia klientom „co tydzień podsumowanie składające się z 12 akapitów… które zawiera najważniejsze skargi, najważniejsze komplementy, najważniejsze prośby i najważniejsze pytania”. Jak można się spodziewać po specjalistach zajmujących się opiniami klientów, firma Viable posiada przyciski „kciuk w górę” i „w dół” obok każdej odpowiedzi generowanej przez oprogramowanie. Wykorzystują tę informację zwrotną podczas ponownego uczenia modelu. Ludzie również są częścią tego procesu: Viable ma zespół adnotacji, którego członkowie są odpowiedzialni za budowanie szkoleniowych zbiorów danych, zarówno na potrzeby modeli wewnętrznych, jak i dostrajania GPT-3. Wykorzystują bieżącą iterację tego dopracowanego modelu do generowania wyników, które ludzie następnie oceniają pod kątem jakości. Jeśli wynik nie ma sensu lub jest niedokładny, przepisuje go. A kiedy już mają listę wyników, z których są zadowoleni, przekazują tę listę z powrotem do następnej iteracji zbioru danych szkoleniowych. Erickson zauważa, że interfejs API jest ogromną zaletą, ponieważ pozostawia hosting, debugowanie, skalowanie i optymalizację OpenAI: „Wolę kupować niż budować do czegokolwiek, co nie jest super rdzeniem naszej technologii. I nawet jeśli jest to rdzeń naszej technologii, nadal ma sens, abyśmy zrobili to z GPT-3. Dlatego idealnym rozwiązaniem byłoby użycie GPT-3 we wszystkich elementach procesu. Musieli jednak zoptymalizować swoje wykorzystanie ze względu na koszty: „Mamy firmy, które udostępniają nam setki tysięcy punktów danych, każdy zawierający od pięciu do tysiąca słów”. Używanie GPT-3 do wszystkiego może być drogie. Zamiast tego Viable wykorzystuje głównie modele wewnętrzne do strukturyzacji danych, które opracowano na podstawie BERT i ALBERT i przeszkolono przy użyciu danych wyjściowych GPT-3. Modele te obecnie spełniają lub przekraczają możliwości GPT-3 w zakresie wyodrębniania tematów, analizy emocji i nastrojów oraz wielu innych zadań. Firma Viable przeszła również na model cenowy oparty na użyciu, oparty na cenach API OpenAI. Erickson utrzymuje, że GPT-3 daje firmie Viable przewagę nad konkurencją pod dwoma względami: dokładnością i użytecznością. Wspomnieliśmy o imponującym 10% zwiększeniu celności w Viable. Ale co z użytecznością? Większość konkurentów Viable tworzy narzędzia zaprojektowane specjalnie dla profesjonalnych analityków danych. Viable uważało, że grono odbiorców jest zbyt wąskie: „Nie chcieliśmy tworzyć oprogramowania, z którego mogliby korzystać tylko analitycy, ponieważ naszym zdaniem ogranicza to wartość. Chcemy pomóc zespołom w podejmowaniu lepszych decyzji na podstawie danych jakościowych”. Zamiast tego samo oprogramowanie Viable jest „analitykiem”. Użytkownicy mogą szybciej wykonywać iteracje dzięki pętli informacji zwrotnej, która pozwala im zadawać pytania dotyczące ich danych w języku naturalnym i uzyskiwać szybką i dokładną odpowiedź. Erickson podzielił się kilkoma kolejnymi krokami Viable: wkrótce wprowadzi dane ilościowe i dogłębną analizę produktów. Docelowo Erickson chce dać użytkownikom możliwość przeprowadzenia pełnej analizy wiedzy o klientach i zadawania pytań takich jak „Ilu klientów korzysta z funkcji X?” oraz „Spośród klientów korzystających z funkcji X, jak ich zdaniem należy ją ulepszyć?” Ostatecznie Erickson podsumowuje: „To, co sprzedajemy, to generowane spostrzeżenia. Zatem im bardziej dogłębne i potężniejsze są nasze spostrzeżenia oraz im szybciej je dostarczamy, tym większą wartość tworzymy”.

Twórcze zastosowania GPT-3: Fable Studio

https://aie24.pl/

Jedną z najbardziej ekscytujących możliwości GPT-3 jest opowiadanie historii. Możesz nadać modelowi temat i poprosić go o napisanie historii w ustawieniu zero-shot. Możliwości dają pisarzom możliwość poszerzenia swojej wyobraźni i stworzenia niezwykłych dzieł. Na przykład sztuka AI wyreżyserowana przez Jennifer Tang i opracowana wspólnie z Chinonyerem Odimbą i Niną Segal przedstawia wyjątkową współpracę między umysłami ludzkimi i komputerowymi za pomocą GPT-3. Autor K Allado-McDowell potraktował GPT-3 jako współautora podczas pisania książki Pharmako-AI (Ignota Books), która według Allado-McDowella „na nowo wyobraża sobie cybernetykę dla świata stojącego w obliczu wielu kryzysów, z głębokimi konsekwencjami dla tego, jak postrzegamy siebie, przyrodę i technologia XXI wieku.” Spotkaliśmy się z Edwardem Saatchi, współzałożycielem i dyrektorem generalnym Fable Studio oraz Frankiem Careyem, dyrektorem technicznym Fable Studio, aby dowiedzieć się o ich podróży podczas tworzenia nowego  gatunku interaktywnych historii przy użyciu GPT-3. Bajka zaadaptowana przez Neila Gaimana oraz książkę dla dzieci Dave’a McKeana „Wilki w ścianach” w nagrodzony nagrodą Emmy film w wirtualnej rzeczywistości (VR). Lucy, bohaterka filmu, może prowadzić naturalne rozmowy z ludźmi dzięki dialogom generowanym przez GPT-3. Lucy pojawiła się nawet jako gość na Festiwalu Filmowym w Sundance w 2021 roku. Saatchi i Carey zauważyli, że wśród widzów nawiązała się emocjonalna więź z Lucy. To skłoniło ich do skupienia się na wykorzystaniu sztucznej inteligencji do tworzenia wirtualnych istot, a wraz z nimi nowej kategorii opowiadania historii i rozrywki, która splata sztuczną inteligencję i opowiadanie historii. Jak to ujął YouTuber Bakz Awan: „Będziemy mieli zupełnie nowe rodzaje filmów i gatunków: będziemy mieć interaktywne, zintegrowane doświadczenia.” Carey wyjaśnia, że widzowie zwykle myślą o sztucznej inteligencji przejmującej rolę postaci, tak jak zrobiłby to aktor: jedna sztuczna inteligencja odpowiada jednej postaci. Zamiast tego sztuczna inteligencja Fable jest narratorem, mającym w swoim repertuarze najróżniejsze postacie. Carey wierzy, że możliwe jest stworzenie gawędziarza opartego na sztucznej inteligencji, równie utalentowanego i kreatywnego, jak najlepsi pisarze. Podczas gdy rozmowy Lucy toczą się głównie za pośrednictwem czatów tekstowych i wideo, Fable eksperymentuje również z GPT-3 w symulowanych światach 3-D, aby zapewnić wciągające wrażenia VR. Zespół wykorzystuje sztuczną inteligencję do generowania dźwięku i gestów oraz synchronizowania ruchów warg. Używają GPT-3 do generowania znacznej ilości treści na potrzeby interakcji bohaterów z publicznością. Niektóre z tych treści mogą być wstępnie opracowane, ale większość z nich musi być tworzona na bieżąco. Współpracownicy Lucy intensywnie korzystali z GPT-3, zarówno improwizując podczas jej występu w Sundance, jak i podczas tworzenia filmu. Lucy pojawiła się także na interaktywnej platformie Twitch, gdzie transmituje gry lub opowiada historie). Carey twierdzi, że w obu przypadkach „ponad 80% treści zostało wygenerowanych przy użyciu GPT-3.” Jest to uderzająca zmiana w porównaniu z wcześniejszymi eksperymentami zespołu obejmującymi wyłącznie tekst, które były w większym stopniu autorskie i miały bardziej liniową narrację. Zespół Fable Studio zasadniczo nie korzystał z GPT-3 na żywo, aby poradzić sobie z nieprzewidywalnymi reakcjami widzów; ich techniki były starsze niż GPT-3. Czasami jednak używali GPT-3 jako partnera do pisania lub zastępowania publiczności, gdy rozważali potencjalne odpowiedzi, jakie mogliby udzielić członkowie publiczności. Carey wyjaśnia, że GPT-3 jest także użytecznym narzędziem dla autorów będących ludźmi: „W przypadku improwizowanych treści używamy GPT-3 do rozgrywania testów, więc możesz traktować GPT jak człowieka i w pewnym sensie odgrywać tę postać . Przechodzenie tam i z powrotem za pomocą GPT-3 pomaga wymyślić, na przykład, o co ktoś by zapytał w tej sytuacji? Jakie będą dalsze działania?” Pomaga to autorom uwzględnić jak najwięcej wyników rozmów. “Czasami był to partner w pisaniu, czasem coś, co mogło wypełnić luki w tym, co się dzieje” – mówi Saatchi. „Możemy więc pomyśleć: to właśnie stanie się z tą postacią w tym tygodniu. Co stanie się z bohaterem w przyszłym tygodniu? A GPT-3 [wypełnia] niektóre z tych luk.” Zespół Fable w pełnym zakresie wykorzystał GPT-3 w eksperymencie przeprowadzonym na Festiwalu Filmowym w Sundance w 2021 r., gdzie Lucy współpracowała na żywo z uczestnikami festiwalu, aby stworzyć własny film krótkometrażowy Dracula: Blood Gazpacho, podczas gdy Fable Studio i uczestnicy byli kuratorami jej pomysłów wygenerowane, odrzucając je od uczestników i wprowadzając pomysły publiczności z powrotem do GPT-3. Zasilanie jednej spójnej postaci za pomocą GPT-3 było szczególnym wyzwaniem. GPT-3 jest bardzo dobry w przypadkach użycia, które przekierowują postać do uczestnika, jak sesje terapeutyczne, a także w przypadku postaci, które mają „bardzo dużą bazę wiedzy na swój temat, jak gwiazda lub postać archetypowa jak Jezus , Święty Mikołaj lub Dracula. Ale oczywiście to ogranicza wszystkie informacje, które zostały już zapisane” – wyjaśnia Saatchi, zauważając, że każdy, kto intensywnie wchodzi w interakcję z postacią zasilaną GPT-3, dość szybko osiągnie limity GPT-3.

„Próbuje znaleźć dobrą odpowiedź na historię, którą proponujesz. Ale jeśli w podpowiedziach opowiesz fantastyczną historię, ona również otrzyma fantastyczne odpowiedzi. Prawidłowy? Nie jest więc osobą mówiącą prawdę. Powiedziałbym, że jest z natury gawędziarzem; po prostu próbuje znaleźć wzorce w języku.” Wiele osób nie zdaje sobie sprawy z GPT-3, że jego podstawowym zadaniem jest opowiadanie historii, a nie „prawdy” – mówi Carey. „Wygenerowanie kilku losowych scenariuszy przy użyciu GPT-3 to jedno, ale upewnienie się, że jest to głos tej postaci, to zupełnie inna sprawa”

Carey dodaje. „Mamy więc techniki, których używamy do ich tworzenia wyświetla monit, aby znak był dobrze zdefiniowany dla GPT-3.” Przyznaje, że zespół wkłada wiele wysiłku w to, aby GPT-3 rozumiał głos postaci i pozostawał w zakresie możliwych reakcji postaci. Musieli także unikać pozwalania uczestnikom na wpływanie na postać, ponieważ GPT-3 może wychwytywać subtelne sygnały. Carey wyjaśnia, że jeśli Lucy wchodzi w interakcję z osobą dorosłą, „będzie to po prostu współgrało z atmosferą, ale [jeśli] Lucy jest ośmiolatką, może wyczuć bardziej dorosłą atmosferę od uczestnika i przekazać ją z powrotem do nich. Ale tak naprawdę chcemy, żeby [Lucy] mówiła głosem ośmioletniego dziecka”. Przekonanie OpenAI, aby pozwoliło Fable na tworzenie wirtualnych istot za pomocą GPT-3, wymagało trochę wysiłku. „Byliśmy bardzo zainteresowani tym, aby nasi bohaterowie rozmawiali z ludźmi jak postacie” – mówi Carey. „Możesz sobie wyobrazić, że może to być jeden z ich problematycznych obszarów, prawda? [To] z pewnością może potencjalnie zostać nikczemnie wykorzystane przez kogoś udającego człowieka”. Zespoły Fable Studio i OpenAI spędziły trochę czasu na opracowywaniu różnic między tworzeniem realistycznych postaci a podszywanie się pod ludzi, zanim OpenAI zatwierdziło przypadek użycia Fable. OpenAI miało jeszcze jeden wymóg: zespół Fable musiał na bieżąco informować człowieka o wszelkich eksperymentach narracyjnych, podczas których wirtualna istota udawała „prawdziwą” przed publicznością. Zdaniem Careya, zapewnienie działania GPT-3 w środowisku przeznaczonym dla tysięcy ludzi było wyzwaniem. Mimo to nadal uważa, że duże modele językowe będą dobrodziejstwem, „nawet jeśli będą przeznaczone do wstępnego tworzenia treści lub, w bardziej wyrozumiałych obszarach, jeśli będą używane „na żywo” i bez ograniczeń”. Carey wierzy, że tworzenie GPT-3 najlepiej sprawdza się jako narzędzie współpracy w rękach osoby, która zna sztukę opowiadania historii i chciałaby uzyskać lepsze wyniki, zamiast oczekiwać, że GPT-3 wykona całą pracę. Jeśli chodzi o koszty, wyzwaniem, jakie widzi w przypadku użycia opowiadania historii, jest to, że przy każdym żądaniu API, aby zachować spójność GPT-3 z rozwijającą się historią, należy „podać wszystkie szczegóły i wygenerować coś, co do tego doda. Zatem za wygenerowanie kilku linii pobierana jest opłata za cały zestaw tokenów. To może być wyzwanie.” Jak Fable Studio rozwiązało kwestię cen? Studiu udało się tego w dużej mierze uniknąć, głównie dzięki eksperymentom z pregeneracją, podczas której „wstępnie generujesz kilka opcji, a następnie możesz skorzystać z wyszukiwania, aby znaleźć odpowiednią opcję, aby odpowiedzieć” – mówi Carey. Znaleźli także sposób na zmniejszenie liczby użytkowników API: zamiast zapewniać dużą publiczność wchodzącą w interakcję z Lucy za pośrednictwem sztucznej inteligencji, „w pewnym sensie przeszliśmy do modelu, w którym Lucy faktycznie prowadzi rozmowę jeden na jeden, ale w strumień na Twitchu.” Widzowie oglądają za pośrednictwem Twitcha, zamiast wykonywać połączenia API, co łagodzi problemy z przepustowością, ogranicza liczbę osób, z którymi Lucy wchodzi w interakcję w danym momencie, i poszerza grono odbiorców. Saatchi wspomina plotkę, że GPT-4 bada przestrzenne rozumienie przestrzeni wirtualnych, które jego zdaniem mają większy potencjał niż chatboty wyłącznie językowe. Radzi osobom badającym ten przypadek użycia, aby skupiły się na tworzeniu postaci w wirtualnych światach. Saatchi zauważa, że Replika, firma, która stworzyła postać wirtualnego przyjaciela AI, obecnie bada możliwość rozszerzenia się na metaświat, w którym wirtualne istoty będą miały własne mieszkania i będą mogły spotykać się i wchodzić w interakcje ze sobą, a także ostatecznie z ludźmi. „Chodzi o to, aby postać sprawiała wrażenie żywej, a GPT-3 jest jednym z wielu narzędzi. Potencjalnie umożliwienie wirtualnym istotom prawdziwego zrozumienia przestrzeni, po których się poruszają, mogłoby odblokować możliwość uczenia się tych postaci”. Co nas czeka? Carey widzi miejsce dla przyszłych iteracji GPT-3 w budowaniu metaświata, równoległej rzeczywistości cyfrowej, w której ludzie mogą wchodzić w interakcje i wykonywać czynności tak swobodnie, jak w prawdziwym świecie. Wyobraża sobie, że będzie to generować pomysły i mieć na oku człowieka, który będzie ich kuratorem. Saatchi uważa, że zmniejszenie nacisku na język jako jedyny sposób interakcji może potencjalnie stworzyć bardziej interesujące i wyrafinowane interakcje ze sztuczną inteligencją. „Naprawdę uważam, że przestrzenie 3D dają nam możliwość zrozumienia przestrzeni przestrzennej przez sztuczną inteligencję” – kontynuuje. Metawersum, które Saatchi przewiduje, daje AI możliwość poruszania się i eksploracji, a ludziom daje możliwość stania się częścią pętli i pomagania w szkoleniu wirtualnych istot. Dochodzi do wniosku, że potrzebujemy radykalnie nowego myślenia i że metaświat oferuje znaczne możliwości umieszczania postaci AI w przestrzeniach 3D i „pozwalania im na symulowane życie z ludźmi, pomagającymi postaciom się rozwijać”.

Nowy ekosystem start-upów: studia przypadków

https://aie24.pl/

Wkrótce po wypuszczeniu API przez OpenAI środowisko start-upów zapełniło się firmami korzystającymi z niego do rozwiązywania problemów. Ci przedsiębiorcy są pionierami najnowocześniejszych produktów NLP, a ich podróże mają charakter informacyjny, szczególnie dla każdego, kto planuje przyszłe aplikacje biznesowe oparte na API OpenAI. Pozostała część  przedstawia ten dynamiczny krajobraz poprzez wywiady z liderami niektórych z najskuteczniejszych start-upów wykorzystujących GPT-3 jako rdzeń architektury swoich produktów. Dzielą się z nami tym, czego nauczyli się do tej pory w takich obszarach, jak sztuki kreatywne, analiza danych, chatboty, copywriting i narzędzia programistyczne.

Model jako usługa

https://aie24.pl/

Pokażemy, jak GPT-3 napędza kolejną falę start-upów, napędzając wyobraźnię kreatywnych przedsiębiorców odpowiednią technologią. Przyjrzymy się również, w jaki sposób badania nad sztuczną inteligencją zmierzają do komercjalizacji w kilku dziedzinach. Porozmawiamy także z jednym z inwestorów kapitału wysokiego ryzyka wspierających te inicjatywy, aby zrozumieć finansowe aspekty rozwijającej się gospodarki GPT-3. Historia powstania API OpenAI przypomina wiele historii start-upów i firm przedstawionych w tym rozdziale. Przeprowadziliśmy wywiad z Peterem Welinderem z OpenAI. To, co nam opowiedział, było historią odważnych eksperymentów, szybkich iteracji i wykorzystania inteligentnego projektu w celu osiągnięcia korzyści skali (dostarczanie potężnych modeli na dużą skalę przy możliwie najmniejszych kosztach). Welinder podsumowuje misję OpenAI w trzech kluczowych punktach: „Rozwój AGI (sztuczna inteligencja ogólna), upewnij się, że jest bezpieczna, a następnie wprowadź ją w świat, aby zmaksymalizować korzyści dla całej ludzkości. Dlatego firma koncentruje się na rozwoju sztucznej inteligencji, która może znaleźć zastosowanie w coraz bardziej ogólnym zakresie potrzeb. Mając nadzieję na możliwie szybkie i bezpieczne osiągnięcie AGI, jedną z technologii, na którą OpenAI zdecydowało się postawić, były duże modele językowe, w szczególności GPT-3. Welinder mówi o wypróbowaniu GPT-3: „To był pierwszy raz, kiedy poczuliśmy coś takiego: «Właściwie to wydaje się całkiem przydatne, pozwala uzyskać najnowocześniejsze wyniki w wielu zadaniach akademickich benchmarki i tak dalej.”

Podekscytowany możliwościami Welinder i czterech współpracowników debatowali nad tym, jak najlepiej wykorzystać algorytm: Zbudować silnik tłumaczący? Asystent pisania? Aplikacja do obsługi klienta? Wtedy do nich dotarło, Welinder mówi: „Dlaczego zamiast tego po prostu nie udostępnić tej technologii jako interfejsu API i pozwolić deweloperom na zbudowanie na jej podstawie własnego biznesu?” Podejście API było zgodne z celami i misją OpenAI poprzez maksymalizację przyjęcia technologii i jej wpływu, umożliwiając członkom społeczności tworzenie aplikacji, których zespół OpenAI nie mógł przewidzieć. Pozostawia to również rozwój produktu wykwalifikowanym programistom na całym świecie, uwalniając zespół OpenAI do skupienia się na tym, w czym jest naprawdę dobry: opracowywaniu solidnych, przełomowych modeli. Do tego momentu badacze skupiali się na projektowaniu skalowalnych, wydajnych systemów szkoleniowych, aby wycisnąć maksymalną wydajność z procesorów graficznych. Jednak niewiele uwagi poświęcono uruchamianiu tych modeli na rzeczywistych danych i uzyskiwaniu z nich czegoś do zastosowań w świecie rzeczywistym. Dlatego zespół OpenAI zdecydował się podwoić podstawowe funkcje API, koncentrując się na takich aspektach, jak szybkie wnioskowanie i małe opóźnienia.

Według Welindera na sześć miesięcy przed planowanym uruchomieniem wersji beta interfejsu API badacze zmniejszyli opóźnienia około dziesięciokrotnie i zwiększyli przepustowość setki razy: „Włożyliśmy mnóstwo pracy inżynieryjnej, aby naprawdę wykorzystać te modele, stworzyć upewnij się, że ich procesory graficzne są tak wydajne, jak to możliwe, wykonuj do nich połączenia z naprawdę niskimi opóźnieniami i zapewniaj skalowalność. Korzystanie z modelu za pośrednictwem interfejsu API zamiast konieczności korzystania z własnego procesora graficznego sprawia, że zwykli programiści są opłacalni i dostępni do zabawy z przypadkami użycia i próbowania nowych rzeczy. Ważne jest również bardzo małe opóźnienie, aby ułatwić iterację. „Nie chcesz czegoś wpisywać, a potem czekać minut na odpowiedź, co miało miejsce w początkach API. Teraz możesz zobaczyć wyniki modelu w czasie rzeczywistym” – mówi Welinder. OpenAI wierzyło, że modele będą się rozwijać, co utrudni programistom ich wdrażanie; zespół chciał usunąć tę barierę. „Będzie to po prostu zbyt wiele kosztować, ponieważ potrzebujesz wielu procesorów graficznych i procesorów do zabawy z konkretnym przypadkiem użycia. Samodzielne wdrażanie tego modelu nie będzie miało sensu” – mówi Welinder. Zamiast tego firma zdecydowała się udostępnić model deweloperom za pośrednictwem API. „Tysiące programistów korzysta z tych samych modeli i w ten sposób można osiągnąć korzyści skali” – dodaje Welinder. „A to obniża ceny dostępu do tych modeli dla wszystkich i jeszcze bardziej poszerza dystrybucję, tzw więcej osób może wypróbować te modele.” Wydanie API OpenAI w prywatnej wersji beta przyniosło sporo niespodzianek. Poprzedni model markizy, GPT-2, ożywił bardzo niewiele rzeczywistych przypadków użycia, więc zespół miał nadzieję, że GPT-3 okaże się bardziej przydatny. Udało się i to bardzo szybko. Welinder mówi, że kolejną niespodzianką było to, że „wiele osób na naszej platformie nie było programistami. Byli autorami, twórcami różnego rodzaju, projektantami i menedżerami produktu i tak dalej. GPT-3 w pewnym sensie zmieniło to, co znaczy być programistą: nagle okazuje się, że aby zbudować aplikację AI, nie trzeba umieć programować. Wystarczy, że będziesz dobry w opisywaniu tego, co chcesz, aby sztuczna inteligencja zrobiła za pomocą podpowiedzi (co omówiono w rozdziale 2). Welinder i jego zespół odkryli, że „często ludzie, którzy byli w tym naprawdę dobrzy, nie mieli żadnego doświadczenia w uczeniu maszynowym”, a ci, którzy je posiadali, musieli się oduczyć, jak myśleli o wielu problemach, aby używać GPT-3. Wielu użytkowników tworzyło aplikacje oparte na GPT-3 bez kodu. Zespół OpenAI, choć tak naprawdę nie zamierzał, obniżył bariery w tworzeniu aplikacji: był to pierwszy krok w kierunku demokratyzacji sztucznej inteligencji. „Podstawową strategią jest zapewnienie użyteczności interfejsu API dla jak największej liczby osób” – mówi Welinder: „Podstawową misją naszej misji jest zapewnienie, że bariery w korzystaniu z naszej technologii będą niskie. Dlatego zbudowaliśmy ten interfejs API.” Kolejnym nieoczekiwanym przypadkiem użycia GPT-3 było kodowanie. Wczesne oznaki potencjału kodowania modelu skłoniły OpenAI do zintensyfikowania projektowania pod kątem kodowania przypadków użycia. Ich wysiłki zaowocowały wydaniem w połowie 2021 roku Kodeksu. Wraz z oszałamiającą różnorodnością zastosowań API dało początek zupełnie nowemu ekosystemowi start-upów: „W ciągu kilku miesięcy od uruchomienia API było kilka firm, które budowały w całości na bazie OpenAI API. Wiele z nich pozyskało obecnie finansowanie VC po dość wysokich wycenach” – mówi Welinder. Jedną z podstawowych zasad OpenAI jest ścisła współpraca z klientami. Welinder mówi: „Za każdym razem, gdy wprowadzamy nowe funkcje produktu, staramy się znaleźć klientów, o których wiemy, że uznają te funkcje za przydatne, i tworzymy bezpośrednie kanały komunikacji, w których zapewniamy im wcześniejszy dostęp”. Na przykład OpenAI współpracowało z kilkoma klientami nad udoskonaleniem funkcji wyszukiwania przed szerszą publikacją tej funkcji w interfejsie API. OpenAI zajmuje się przede wszystkim zapewnieniem bezpiecznego i odpowiedzialnego korzystania ze sztucznej inteligencji. Oprócz wielu pozytywnych skutków firma dostrzega rosnący potencjał nadużyć w miarę zwiększania się dostępności sztucznej inteligencji dla ogółu społeczeństwa. Jednym z głównych powodów, dla których zdecydowali się uruchomić API w prywatnej wersji beta, było zrozumienie, w jaki sposób ludzie będą korzystać z modeli i sprawdzenie ich potencjału do nadużyć. Badają jak najwięcej przypadków niepożądanego zachowania modelu, wykorzystując zdobytą wiedzę do swoich badań i szkolenia modeli. Welinder czerpie inspirację z różnorodności i kreatywności projektów opartych na API. „Nadchodząca dekada będzie niezwykle ekscytująca pod względem wszystkich rzeczy, które ludzie będą budować w oparciu o tę technologię. Myślę, że współpracując możemy stworzyć naprawdę dobre bariery zabezpieczające, które zapewnią, że te technologie i aplikacje, które zostaną zbudowane, będą naprawdę pozytywne dla naszego społeczeństwa”.

GPT-3 jako starter dla start-upów nowej generacji

https://aie24.pl/

Przed wydaniem GPT-3 interakcja większości ludzi z sztuczną inteligencją ograniczała się do określonych zadań, takich jak proszenie Alexy o puszczenie ulubionej piosenki lub używanie Tłumacza Google do rozmowy w różnych językach. Naukowcom udało się opracować sztuczną inteligencję zdolną do wykonywania przyziemnych zadań, jednak jak dotąd sztuczna inteligencja nie dorównała jeszcze kreatywnemu potencjałowi człowieka w zakresie wykonywania abstrakcyjnych zadań bez jasnych, dobrze zdefiniowanych instrukcji. Wraz z nadejściem ery LLM obserwujemy znaczącą zmianę paradygmatu. LLM pokazały nam, że zwiększając rozmiar modeli, mogą wykonywać kreatywne i złożone zadania podobne do ludzi. Teraz najważniejsze pytanie brzmi: czy sztuczna inteligencja jest w stanie wykonywać działania twórcze? Twórczy potencjał sztucznej inteligencji zawsze był ekscytującym obszarem badań, choć w większości ukryty za ciasnymi ścianami badawczo-rozwojowymi firm takich jak Google i Facebook. GPT-3 zmienia sposób, w jaki współdziałamy ze sztuczną inteligencją i umożliwia ludziom tworzenie aplikacji nowej generacji, co przed wydaniem wydawało się zbyt naciąganym pomysłem. John Smith, menedżer ds. multimediów i wizji w IBM Research, zauważa: „Sztucznej inteligencji łatwo jest wymyślić coś nowatorskiego po prostu przypadkowo. Ale bardzo trudno wymyślić coś nowatorskiego, nieoczekiwanego i przydatnego. A Jason Toy, dyrektor generalny Somatic, pyta: „Czy możemy wziąć to, co ludzie uważają za piękne i kreatywne, i spróbować umieścić to w algorytmie?”