Błędy

https://aie24.pl/

Ponieważ wiele osób spędza wiele godzin dziennie na czytaniu i pisaniu e-maili, podsumowywanie ich jest powszechnie pożądanym przypadkiem użycia GPT-3. Zobaczmy, jak radzi sobie GPT-3, podsumowując trzyakapitowy e-mail w jedną wyraźną linię

Aby osiągnąć zamierzony efekt, wkleiliśmy cały e-mail, a na końcu dodaliśmy po prostu „jednozdaniowe podsumowanie:”. Dodaliśmy także „.” zatrzymaj sekwencję, aby poinformować model, że powinien zatrzymać generowanie podsumowania po pojedynczym zdaniu.

Nasz monit:

Hej Greg,

Jesteśmy Sandra i Shubham. Jesteśmy współautorami rozwiązania opartego na GPT-3

zarezerwuj to

ma być podręcznikiem dla użytkowników API. Zapewni to

czytelników wz

wiedzę niezbędną do rozpoczęcia pracy z GPT-3, a także kontekst

rozwój

otaczający go ekosystem. Książka zostanie wydana przez O’Reilly

wydawniczy

dom na początku 2022 r.

Chcielibyśmy nawiązać kontakt i zbadać możliwości współpracy

z OpenAI

ewangelizować dostęp do API dla ludzi ze wszystkich środowisk i

im to umożliwić

budować nowe, ekscytujące rozwiązania przy użyciu GPT-3. Będziemy wdzięczni za Twoje

wejście do

upewnij się, że dokładnie reprezentujemy stanowisko OpenAI w sprawie GPT-3 i poinformuj o tym

naszych czytelników

o nadchodzących udoskonaleniach/funkcjach interfejsu API.

Będzie wspaniale, jeśli uda nam się spotkać w tym tygodniu i porozmawiać

to dalej?

To, co najlepsze,

SS

podsumowanie w jednym zdaniu:

I wynik:

Piszemy książkę o GPT-3 i chcielibyśmy nawiązać kontakt

OpenAI, aby uzyskać

lepsze zrozumienie API i przyszłych zmian.

Podsumowanie tekstu

https://aie24.pl/

Podsumowanie tekstu to technika generowania zwięzłego i dokładnego podsumowania długich tekstów, skupiając się na sekcjach zawierających przydatne informacje, bez utraty ogólnego znaczenia. Podsumowanie tekstu w oparciu o GPT-3 ma na celu przekształcenie długich fragmentów tekstów tl;dr w ich skrócone wersje. Zadania takie są na ogół trudne i kosztowne do wykonania ręcznie. W przypadku GPT-3 jest to kwestia jednego wprowadzenia i kilku sekund! Modele NLP można wytrenować w zakresie rozumienia dokumentów i identyfikowania sekcji, które przekazują ważne fakty i informacje przed utworzeniem podsumowania tekstów. Jednak takie modele wymagają dużej liczby próbek szkoleniowych, zanim będą mogły poznać kontekst i zacząć podsumowywać niewidoczne dane wejściowe. Abstrakcyjne podsumowanie GPT-3 jest kluczem do rozwiązania problemu ekstrakcji informacji. Tworząc streszczenia, zamiast jedynie wyodrębniać kluczowe informacje, GPT-3 może zapewnić bardziej wszechstronne i dokładne zrozumienie tekstu. Wykorzystuje podejście zerowe lub kilka strzałów do podsumowania tekstu, dzięki czemu jest przydatne w różnych przypadkach użycia. Dzięki GPT-3 istnieje wiele sposobów podsumowania tekstu w zależności od przypadku użycia: streszczenia podstawowe, streszczenia jednowierszowe lub streszczenia na poziomie klasy. Przeanalizujmy szybko te podejścia. W większości przypadków model jest w stanie wygenerować przyzwoite wyniki w formie podsumowania przeglądu, ale czasami może generować nieistotne wyniki w zależności od wcześniejszego kontekstu. Aby uniknąć problemu uzyskania niepożądanych wyników, możesz ustawić parametr „best of” na 3, co zawsze da Ci najlepszy z trzech wyników wygenerowanych przez API. W przykładzie pokazanym na rysunku  po kilku próbach i niewielkich zmianach parametrów uzyskaliśmy przyzwoite wyniki.

Oto nasz monit:

Problem w tym, że jak coś działa, to działa, a kiedy nie,

to naprawdę

nie. Na szczęście słabe punkty gry, takie jak okropny plik binarny

system ukryty

a błędy i brak QoL można naprawić lub można je naprawić w znacznym stopniu

przeważone przez dobro

bitów, a ogólny wynik nadal jest znacznie wyższy niż

średnia z

wiele innych gier. To bardzo pomogło w tej chwili

rozgrywka,

co opłaca się tak samo, jak historia bije na głowę; ruch

system Ci na to pozwala

wspiąć się na prawie każdy krótki obiekt, pojazdy są ciężkie w prowadzeniu i

mieć fantastyczne

projekty wewnętrzne i zewnętrzne, a broń wydaje się odpowiednio głośna i

ciężki. Jego historia

i narracja trzymały mnie przyklejonego do ekranu i wszystkiego – od

sceny seksu

i opcje romansu z Keanu Reevesem, który próbuje cię zabić lub pomóc

na wskroś

gra – są wyjątkowo dobrze zrobione. Cyberpunk 2077 to gra

stworzone z miłością,

i to pokazuje.

tl;dr:

I wynik:

Cyberpunk 2077 to gra stworzona z miłością i to widać. The

historia jest świetna,

rozgrywka jest świetna, budowanie świata jest świetne. To nie jest

pod każdym względem doskonały,

ale i tak jest to jedna z najlepszych gier, w jakie grałem od lat.

Dobre:

– Świetna historia i bohaterowie

– Niesamowite budowanie świata

– Doskonały system strzelania i ruchu

Złe:

– Binarny system ukrywania się (czasami jesteś widziany bez względu na wszystko) –

Rozpoznawanie nazwanych podmiotów

https://aie24.pl/

Rozpoznawanie nazwanych podmiotów (NER) to zadanie wyodrębniania informacji, które ma na celu zlokalizowanie i sklasyfikowanie nazwanych podmiotów wymienionych w nieustrukturyzowanym tekście według predefiniowanych kategorii, takich jak nazwiska osób, organizacje, lokalizacje, wyrażenia czasu, ilości, wartości pieniężne, wartości procentowe itp. NER pomaga aby odpowiedzi były bardziej spersonalizowane i trafne, ale obecne, najnowocześniejsze podejścia wymagają ogromnych ilości danych do szkolenia, zanim w ogóle zacznie się prognozować. Z drugiej strony GPT-3 może od razu rozpoznać ogólne byty, takie jak ludzie, miejsca i organizacje, bez konieczności podawania przez człowieka choćby jednego przykładu szkoleniowego. W poniższym przykładzie używamy wersji modelu z serii davinci-instruct, która w momencie pisania tej książki była w fazie beta, a model gromadzi podpowiedzi umożliwiające uczenie i ulepszanie przyszłych modeli API OpenAI. Dajemy mu proste zadanie: wydobyć dane kontaktowe z przykładowego maila. Pomyślnie wykonuje zadanie za pierwszym podejściem .

Oto nasz wkład:

Wyodrębnij imię i nazwisko oraz adres pocztowy z tego e-maila:

Shubham,

Wspaniale było z tobą porozmawiać pewnego dnia!

Nie mogę się doczekać rozpoczęcia pracy nad naszą książką.

Oto mój adres: 1307 Roosevelt Street, San Francisco, CA 94107

To, co najlepsze,

Sandra Kubik

Imię i nazwisko oraz adres korespondencyjny:

I wynik:

Sandra Kubik

1307 Roosevelt Street, San Francisco, CA 94107

Klasyfikacja partii

https://aie24.pl/

Po zrozumieniu klasyfikacji kilkuetapowej za pomocą GPT-3 przyjrzyjmy się bliżej klasyfikacji za pomocą klasyfikacji wsadowej, która umożliwia klasyfikowanie próbek wejściowych w partiach w ramach jednego wywołania API, zamiast klasyfikować tylko jeden przykład na wywołanie API. Nadaje się do zastosowań, w których chcesz sklasyfikować wiele przykładów za jednym razem, podobnie jak w przypadku analizowanego przez nas zadania analizy nastrojów na tweetach, ale analizującego kilka tweetów z rzędu. Podobnie jak w przypadku klasyfikacji kilkukrotnej, należy zapewnić modelowi wystarczający kontekst, aby osiągnąć pożądany wynik, ale w formacie konfiguracji wsadowej. Tutaj definiujemy różne kategorie klasyfikacji nastrojów na tweetach, korzystając z różnych przykładów w formacie konfiguracji wsadowej. Następnie prosimy modelkę o analizę kolejnej partii tweetów.

Oto nasz monit:

Analyze tweets in terms of their sentiment. Depending on their

sentiment,

classify them as positive, neutral, or negative.

Tweet: “I’m seriously worried that super intelligent AI will be

disappointed in

humans.”

Sentiment analysis(positive, neutral, negative): negative

###

Tweet: “I cannot wait for super intelligent AI to emerge and

deepen our

understanding of the Universe.”

Sentiment analysis(positive, neutral, negative): positive

###

Tweet: “I think it is neither super likely nor super unlikely that

the super

intelligent AI will emerge one day.”

Sentiment analysis(positive, neutral, negative): neutral

###

Tweet: “Super intelligent AI is going to be the most exciting

discovery in human

history.”

Sentiment analysis(positive, neutral, negative): positive

###

Tweet:

  1. “I’m seriously worried that super intelligent AI will be

disappointed in

humans.”

  1. “I cannot wait for super intelligent AI to emerge and deepen

our understanding

of the Universe.”

  1. “I think it is neither super likely nor super unlikely that the

super

intelligent AI will emerge one day.”

  1. “Super intelligent AI is going to be the most exciting

discovery in human

history.”

  1. “This is the latest report on the state of the AI”

Tweet sentiment:

  1. negative
  2. positive
  3. neutral
  4. positive
  5. neutral

Tweet:

  1. “I can’t stand bad techno music”
  2. “This is a tweet”
  3. “I can’t wait for going to the Moon!!!”
  4. “AI is super cute ❤ “
  5. “Got VERY ANGRY now!!! “

Tweet sentiment:

1.

I odpowiedź:

  1. negative
  2. neutral
  3. positive
  4. positive
  5. negative

Jak widać, model odtworzył format wsadowej analizy nastrojów i pomyślnie sklasyfikował tweety. Przejdźmy teraz, aby zobaczyć, jak radzi sobie z zadaniami rozpoznawania nazwanych jednostek.

Klasyfikacja jednostrzałowa i kilkustrzałowa

https://aie24.pl/

Inne podejście do klasyfikacji tekstu polega na dostrojeniu modelu sztucznej inteligencji na jednym lub kilku przykładach szkoleniowych, co nazywa się odpowiednio jednorazową lub kilkoma przykładami szkoleniowymi. Jeśli podasz przykłady klasyfikacji tekstu, model może poznać informacje o kategoriach obiektów na podstawie tych przykładów. Jest to nadzbiór klasyfikacji zerowej, który umożliwia klasyfikację tekstu poprzez dostarczenie modelowi trzech do czterech zróżnicowanych przykładów. Może to być przydatne szczególnie w dalszych przypadkach użycia, które wymagają pewnego poziomu ustawień kontekstu. Spójrzmy na następujący przykład klasyfikacji kilkustrzałowej. Prosimy model o przeprowadzenie klasyfikacji analizy nastrojów na Twitterze i podanie trzech przykładów tweetów w celu zilustrowania każdej z możliwych etykiet: pozytywnej, neutralnej i negatywnej. Jak widać na rysunku , model wyposażony w tak szczegółowy kontekst na podstawie kilku przykładów jest w stanie w bardzo prosty sposób przeprowadzić analizę nastrojów kolejnego tweeta.

UWAGA: Kiedy odtwarzasz przykłady podpowiedzi z książki lub tworzysz własne, upewnij się, że w podpowiedziach znajdują się odpowiednie odstępy między wierszami. Dodatkowa linijka po akapicie może dać zupełnie inny wynik, więc warto się z tym pobawić i zobaczyć, co będzie dla Ciebie najlepsze.

Oto nasz monit:

Przeanalizuj tweet pod kątem jego nastrojów. W zależności od

sentyment, klasyfikacja

je jako pozytywne, neutralne lub negatywne.

Tweet: „Poważnie martwię się, że będzie superinteligentna sztuczna inteligencja

rozczarowany

ludzie.”

Analiza nastrojów (pozytywna, neutralna, negatywna): negatywna

Tweet: „Nie mogę się doczekać pojawienia się superinteligentnej sztucznej inteligencji i

pogłębić nasze

zrozumienia Wszechświata.”

Analiza nastrojów (pozytywny, neutralny, negatywny): pozytywny

Tweet: „Myślę, że nie jest to ani super prawdopodobne, ani super nieprawdopodobne

super

pewnego dnia pojawi się inteligentna sztuczna inteligencja.”

Analiza nastrojów (pozytywna, neutralna, negatywna): neutralna

Tweet: „Super inteligentna sztuczna inteligencja będzie najbardziej ekscytująca

odkrycie w człowieku

historia.”

Analiza nastrojów (pozytywny, neutralny, negatywny):

I wynik:

pozytywny

Klasyfikacja zerowego strzału

https://aie24.pl/

Współczesna sztuczna inteligencja od dawna dąży do opracowania modeli, które mogą wykonywać funkcje predykcyjne na danych, których nigdy wcześniej nie widziały. Ten ważny obszar badań nazywany jest uczeniem się od zera. Podobnie klasyfikacja zerowa to zadanie klasyfikacyjne, w przypadku którego nie jest wymagane wcześniejsze szkolenie ani dostrajanie oznaczonych danych, aby model mógł sklasyfikować fragment tekstu. GPT-3 generuje obecnie wyniki dla niewidocznych danych, które są lepsze lub porównywalne z najnowocześniejszymi modelami sztucznej inteligencji dostosowanymi do tego konkretnego celu. Aby przeprowadzić klasyfikację zerową za pomocą GPT-3, musimy zapewnić mu kompatybilny monit. Oto przykład klasyfikacji zerowej, której celem jest przeprowadzenie analizy polegającej na sprawdzeniu faktów w celu ustalenia, czy informacje zawarte w tweecie są prawidłowe, czy nieprawidłowe. Rysunek  przedstawia całkiem imponujący wynik klasyfikacji poprawności informacji w oparciu o przykład zerowy

A oto nasza zachęta:

Przeanalizuj tweeta pod kątem poprawności informacji.

Tweet: „Ponad 50% światowych naukowców w to nie wierzy

zmiana klimatu.”

Analiza:

I wynik:

Tweet jest nieprawidłowy.

Klasyfikacja tekstu

https://aie24.pl/

Klasyfikacja tekstu to proces kategoryzowania tekstu w zorganizowane grupy. Dzięki zastosowaniu NLP klasyfikacja tekstu może automatycznie analizować tekst, a następnie przypisywać zestaw predefiniowanych tagów lub kategorii na podstawie jego kontekstu. Klasyfikacja tekstu polega na analizie tekstu dostarczonego jako dane wejściowe i przypisaniu mu etykiety, wyniku lub innego atrybutu, który go charakteryzuje. Typowymi przykładami klasyfikacji tekstu są analiza tonacji, etykietowanie tematów i wykrywanie intencji. Możesz zastosować wiele podejść, aby GTP-3 klasyfikował tekst, ponownie począwszy od klasyfikacji zerowej (gdzie nie podajesz modelowi żadnych przykładów) do klasyfikacji jednostkowej i kilkustopniowej (gdzie pokazujesz kilka przykłady do modelu).

Wydajność GPT-3 w konwencjonalnych zadaniach NLP

https://aie24.pl/

GPT-3 jest wysoce zaawansowanym i wyrafinowanym następcą dziedziny NLP, zbudowanym i trenowanym przy użyciu podstawowych podejść NLP i głębokich sieci neuronowych. W przypadku każdego podejścia do modelowania opartego na sztucznej inteligencji wydajność modelu ocenia się w następujący sposób: najpierw trenujesz model pod kątem określonego zadania (takiego jak klasyfikacja, pytanie i odpowiedź, generowanie tekstu itp.) na danych szkoleniowych; następnie weryfikujesz wydajność modelu, korzystając z danych testowych (nowych, wcześniej niewidzianych danych). W podobny sposób istnieje standardowy zestaw testów porównawczych NLP służących do oceny wydajności modeli NLP i tworzenia względnego rankingu lub porównania modeli. To porównanie lub ranking względny pozwala wybrać najlepszy model dla konkretnego zadania NLP (problemu biznesowego). W tej sekcji omówimy wydajność GPT-3 w niektórych standardowych zadaniach NLP, jak pokazano na rysunku , i porównamy ją z wydajnością podobnych modeli w odpowiednich zadaniach NLP.

Cennik

https://aie24.pl/

W ostatniej sekcji mówiliśmy o tokenach, czyli najmniejszej wymiennej jednostce używanej przez OpenAI do ustalania cen za wywołania API. Tokeny zapewniają większą elastyczność niż mierzenie liczby słów lub zdań użytych w podpowiedziach szkoleniowych, a ze względu na szczegółowość tokenów można je łatwo przetwarzać i wykorzystywać do pomiaru cen szerokiego zakresu podpowiedzi szkoleniowych. Za każdym razem, gdy wywołujesz API z Playground lub programowo, za kulisami API oblicza liczbę tokenów użytych w monicie szkoleniowym wraz z wygenerowanym zakończeniem i pobiera opłatę za każde połączenie na podstawie całkowitej liczby wykorzystanych tokenów. OpenAI zazwyczaj pobiera stałą opłatę za 1000 tokenów, przy czym opłata zależy od silnika wykonawczego użytego w wywołaniu API. Davinci jest najpotężniejszy i najdroższy, podczas gdy Curie, Babbage i Ada są tańsze i szybsze. Tabela 2-2 przedstawia ceny różnych silników API w momencie pisania tego rozdziału (grudzień 2021 r.).

Model Cena za 1000 tokenów

Davinci (najpotężniejszy) 0,0600 USD

Curie: 0,0060 USD

Babbage’a: 0,0012 USD

Ada (najszybsza): 0,0008 USD

Firma pracuje nad chmurowym modelem cenowym „pay as you go”. Aby uzyskać aktualne ceny, sprawdź harmonogram cen online. Zamiast monitorować tokeny dla każdego wywołania API, OpenAI udostępnia pulpit raportowania umożliwiający monitorowanie dziennego skumulowanego użycia tokenów. Zależy od sposobu użytkowania, może wyglądać mniej więcej tak, jak na rysunku

Na rysunku możesz zobaczyć wykres słupkowy pokazujący dzienne zużycie tokenów. Pulpit nawigacyjny pomaga monitorować wykorzystanie tokenów i koszty w Twojej organizacji, dzięki czemu możesz regulować wykorzystanie API i nie przekraczać budżetu. Istnieje również możliwość monitorowania skumulowanego użycia i uzyskania zestawienia liczby tokenów na wywołanie API. Powinno to zapewnić wystarczającą elastyczność w tworzeniu zasad dotyczących zużycia tokenów i cen dla Twojej organizacji. Teraz, gdy znasz już tajniki Playground i API, przyjrzymy się wydajności GPT-3 w typowych zadaniach modelowania języka.

WSKAZÓWKA

Początkującym, którzy dopiero rozpoczęli przygodę z GPT-3, może być trudno ogarnąć kwestię zużycia tokenów. Wielu użytkowników wprowadza zbyt długie teksty podpowiedzi, co prowadzi do nadmiernego wykorzystania środków, a w konsekwencji do nieoczekiwanych opłat. Aby tego uniknąć, w pierwszych dniach korzystania z panelu wykorzystania interfejsu API obserwuj liczbę zużytych tokenów i zobacz, jak długość monitów i uzupełnień wpływa na wykorzystanie tokenów. Może pomóc zapobiec niekontrolowanemu wykorzystaniu kredytów i utrzymać wszystko w ramach budżetu.

Tokenizator

https://aie24.pl/

Rodzina modeli GPT przetwarza tekst za pomocą tokenów, które są typowymi sekwencjami znaków występującymi w tekście. Moduły rozumieją zależności statystyczne pomiędzy tymi tokenami i doskonale radzą sobie z tworzeniem kolejnego tokena w sekwencji tokenów. Możesz użyć poniższego narzędzia, aby dowiedzieć się, w jaki sposób fragment tekstu będzie tokenizowany przez interfejs API, oraz całkowitą liczbę tokenów w tym fragmencie tekstu

Do integracji metryki liczby tokenów w wywołaniach API do różnych punktów końcowych, możesz załatać atrybuty logprobs i echo wraz z żądaniem API, aby uzyskać pełną listę zużytych tokenów. W następnej sekcji omówimy sposób wyceny tokenów w oparciu o różne silniki wykonawcze.