Odpowiedzi (beta)

https://aie24.pl/

Punkt końcowy odpowiadający na pytania GPT-3 jest nadal w fazie beta w chwili pisania tego tekstu pod koniec 2021 r. Po otrzymaniu pytania punkt końcowy kontroli jakości generuje odpowiedzi na podstawie informacji dostarczonych w zestawie dokumentów lub przykładów szkoleniowych. Na przykład, jeśli chcesz zaimplementować punkt końcowy kontroli jakości w zestawie plików PDF, po prostu prześlij je za pomocą punktu końcowego plików i podaj identyfikator pliku z parametrami żądania. Punkt końcowy odpowiedzi użyje tych plików jako kontekstu do udzielenia odpowiedzi na dowolne zapytanie. Pozwala także sterować kontekstowym tonem i odpowiedziami modelu, dostarczając listę par (pytanie, odpowiedź) w formie przykładów szkoleniowych. Najpierw przeszukuje dostarczone dokumenty lub przykłady w celu znalezienia odpowiedniego kontekstu, a następnie łączy je z odpowiednimi przykładami i pytaniami w celu wygenerowania odpowiedzi. Jego podpis to:

POST https://api.openai.com/v1/answers

Klasyfikacja (beta)

https://aie24.pl/

Punkt końcowy klasyfikacji umożliwia wykorzystanie oznaczonego zestawu przykładów bez dostrajania. Klasyfikuje zapytanie na podstawie podanych przykładów, unikając w ten sposób dostrajania, a co za tym idzie, eliminuje potrzebę dostrajania hiperparametrów. Można go używać do praktycznie każdego zadania klasyfikacji uczenia maszynowego. Ten punkt końcowy zapewnia łatwe w konfiguracji rozwiązanie „autoML”, które można łatwo dostosować do zmieniającego się schematu etykiet. Możesz podać maksymalnie sto oznaczonych przykładów jako część żądania lub w trakcie zapytania można dostarczyć wstępnie przesłany plik. Oprócz zapewnienia ścieżki URI ten punkt końcowy wymaga modelu i zapytania wraz z przykładami. Jego podpis to:

POST https://api.openai.com/v1/classifications

Pliki

https://aie24.pl/

Punkt końcowy plików może być używany w różnych punktach końcowych, takich jak odpowiedzi, klasyfikacja i wyszukiwanie semantyczne. Służy do przesyłania dokumentów lub plików do pamięci OpenAI, która jest dostępna w całym interfejsie API. Tego samego punktu końcowego można używać z różnymi sygnaturami do wykonywania następujących zadań:

Lista plików

Zwraca listę plików należących do organizacji użytkownika lub powiązanych z określonym kontem użytkownika. Jest to wywołanie HTTP GET, które nie wymaga przekazywania żadnych parametrów w żądaniu:

GET https://api.openai.com/v1/files

Prześlij pliki

Przesyła pliki zawierające dokumenty, które mają być używane na różnych punktach końcowych. Przesyła dokumenty do już przydzielonej przestrzeni wewnętrznej przez OpenAI dla organizacji użytkownika. Jest to wywołanie HTTP POST wymagające dodania ścieżki pliku w żądaniu API:

POST https://api.openai.com/v1/files

Pobierz plik

Zwraca informacje o konkretnym pliku, podając identyfikator pliku jakoparametr żądania:

GET https://api.openai.com/v1/files/{file_id}

Usuń plik

Usuwa określony plik, podając identyfikator pliku jako parametr żądania:

DELETE https://api.openai.com/v1/files/{file_id}

Wyszukiwanie semantyczne

https://aie24.pl/

Punkt końcowy wyszukiwania semantycznego umożliwia podanie zapytania w języku naturalnym w celu przeszukania zestawu dokumentów, którymi mogą być słowa, zdania, akapity lub nawet dłuższe teksty. Oceni i uszereguje dokumenty na podstawie ich semantycznego powiązania z zapytaniem wejściowym. Na przykład, jeśli podasz dokumenty [„szkoła”, „szpital”, „park”] i zapytanie „lekarz”, otrzymasz inną ocenę podobieństwa dla każdego dokumentu. Wynik podobieństwa to wynik dodatni, który zwykle mieści się w przedziale od 0 do 300 (ale czasami może być wyższy), gdzie wynik powyżej 200 zwykle oznacza, że dokument jest semantycznie podobny do zapytania. Im wyższy wynik podobieństwa, tym bardziej semantycznie podobny jest dokument do zapytania (w tym przykładzie „szpital” będzie najbardziej podobny do „lekarz”). W ramach swojego żądania do API możesz przekazać aż dwieście dokumentów. Poniżej znajduje się podpis punktu końcowego wyszukiwania semantycznego:

POST https://api.openai.com/v1/engines/{engine_id}/search

Uzupełnienia

https://aie24.pl/

Uzupełnienia to najsłynniejszy i powszechnie używany punkt końcowy GPT-3. Po prostu przyjmuje podpowiedź tekstową jako dane wejściowe i zwraca pełną odpowiedź jako wynik. Wykorzystuje metodę HTTP POST i wymaga identyfikatora silnika jako części ścieżki URI. Jako część treści HTTP punkt końcowy uzupełnień akceptuje kilka dodatkowych parametrów omówionych w poprzedniej sekcji. Jego podpis to:

POST https://api.openai.com/v1/engines/{engine_id}/completions

Lista silników

https://aie24.pl/

Punkt końcowy silników listy, nazywany także punktem końcowym metadanych, udostępnia listę dostępnych silników wraz z określonymi metadanymi powiązanymi z każdym aparatem, takimi jak właściciel i dostępność. Aby uzyskać do niego dostęp, możesz wywołać następujący identyfikator URI za pomocą metody HTTP GET bez przekazywania jakichkolwiek parametrów żądania:

GET https://api.openai.com/v1/engines

Odzyskaj silnik

Gdy podasz nazwę aparatu do punktu końcowego aparatu pobierania, zwróci on szczegółowe metadane dotyczące tego aparatu. Aby uzyskać do niego dostęp, wywołaj następujący identyfikator URI za pomocą metody HTTP GET bez przekazywania jakichkolwiek parametrów żądania:

GET https://api.openai.com/v1/engines/{engine_id}

Punkty końcowe

https://aie24.pl/

Playground to graficzny interfejs sieciowy, który wywołuje API OpenAI za kulisami, ale istnieje kilka innych sposobów wywoływania API. Aby to zrobić, musisz zapoznać się z jego punktami końcowymi: zdalnymi interfejsami API, które komunikują się tam i z powrotem, gdy zostaną wywołane. W tej sekcji zapoznasz się z funkcjonalnością i wykorzystaniem ośmiu punktów końcowych API.

InstructGPT

https://aie24.pl/

W oparciu o cztery podstawowe modele OpenAI uruchomiło serię modeli InstructGPT, które lepiej rozumieją instrukcje ipodążając za nimi, będąc jednocześnie mniej toksycznym i bardziej zgodnym z prawdą niż oryginalny GPT-3. Zostały one opracowane przy użyciu technik pochodzących z badań OpenAI dotyczących wyrównania. Modele te są szkolone z udziałem ludzi i są teraz wdrażane jako domyślne modele językowe w interfejsie API OpenAI. Rysunki przedstawiają dwa wyniki generowane przez silniki Davinci serii InstructGPT i GPT dla tego samego sygnału wejściowego.

Nasz wkład:

Napisz opowiadanie o sztucznej inteligencji dla 5-latka.

Dane wyjściowe instrukcji GPT:

Robot był bardzo szczęśliwy. Dopiero co się urodził, a już był

najmądrzejszy

robota na świecie. Mógł zrobić wszystko, co każdy inny robot

mógłby zrobić, ale on

mógł też samodzielnie pomyśleć.

Dane wyjściowe GPT:

Ten projekt jest próbą stworzenia sztucznej inteligencji, która może produkować

fikcyjne historie.

Jest to praca w toku.

Fikcyjność

Celem tego projektu jest stworzenie sztucznej inteligencji, która potrafi tworzyć fikcyjne historie.

Aby proces tworzenia podpowiedzi był naprawdę wydajny, OpenAI zdecydowało się udostępnić publicznie wersje InstructGPT czterech modeli: tekst-davinci-001, tekst-curie-001, tekst-babbage-001 i tekst-ada-001. Dzięki jasnym instrukcjom modele te mogą dawać lepsze wyniki niż ich podstawowe odpowiedniki i są teraz domyślnymi modelami interfejsu API. Ta seria to ważny krok w zasypywaniu luki między sposobem myślenia ludzi a sposobem działania modeli.

WSKAZÓWKA

Zalecamy używanie tej serii modeli jako domyślnej do wszystkich zadań związanych z tekstem. Podstawowe wersje modeli GPT-3 są dostępne jako Davinci, Curie, Babbage i Ada i są przeznaczone do stosowania z punktami końcowymi dostrajania, wyszukiwania, klasyfikacji i odpowiedzi.

Ada

https://aie24.pl/

Ada jest najszybszym i najtańszym z dostępnych silników. Może wykonywać proste zadania, które nie wymagają szczegółowego zrozumienia kontekstu, takie jak analizowanie tekstu, poprawianie gramatyki lub prosta klasyfikacja. Często można poprawić wydajność Ady, dostarczając więcej kontekstu dla wprowadzanych danych. W przypadkach użycia wymagających częstych wywołań API preferowanym modelem może być Ada; przy odpowiedniej konfiguracji ustawień może osiągnąć rezultaty zbliżone do większych modeli. Im więcej eksperymentujesz z parametrami API, tym lepiej zrozumiesz, jakie ustawienia sprawdzają się w Twoim przypadku użycia.

Babbage

https://aie24.pl/

Babbage jest szybszy niż Curie, ale nie jest w stanie wykonywać zadań wymagających zrozumienia złożonych intencji. Jest jednak całkiem wydajny i jest preferowany, jeśli chodzi o rankingi wyszukiwania semantycznego i analizowanie dopasowania dokumentów do zapytań. Jest tańszy niż Curie i Davinci i jest preferowanym wyborem w przypadku prostych problemów związanych z częstymi wywołaniami API.