Korzystanie z API OpenAI w Pythonie

https://aie24.pl/

Python to najpopularniejszy język do zadań związanych z analizą danych i uczeniem maszynowym. W porównaniu z konwencjonalnymi językami programowania do nauki o danych, takimi jak R i Stata, Python wyróżnia się, ponieważ jest skalowalny i dobrze integruje się z bazami danych. Jest szeroko stosowany i ma kwitnącą społeczność programistów, którzy aktualizują swój ekosystem. Python jest łatwy do nauczenia i zawiera przydatne biblioteki do nauki o danych, takie jak NumPy i pandy. Możesz sparować GPT-3 z Pythonem, korzystając z biblioteki o nazwie Chronology, która zapewnia prosty i intuicyjny interfejs. Chronologia może złagodzić monotonną pracę polegającą na pisaniu całego kodu od zera za każdym razem. Jego funkcje obejmują:

* Wywołuje asynchronicznie interfejs API OpenAI, umożliwiając generowanie wiel szybkich uzupełnień w tym samym czasie.

* Możesz łatwo tworzyć i modyfikować podpowiedzi szkoleniowe; Na przykład, modyfikowanie podpowiedzi szkoleniowej używanej w innym przykładzie jest sprawiedliwe prosty.

* Umożliwia łączenie podpowiedzi poprzez podłączenie wyjścia jednego podpowiedzi do drugiego.

Chronologia jest hostowana na PyPI i obsługuje Python 3.6 i nowsze wersje. Aby zainstalować bibliotekę, uruchom następującą komendę:

pip install chronological

Po zainstalowaniu biblioteki Pythona przez PyPI przyjrzyjmy się przykładowi, jak przygotować GPT-3, aby podsumował dany dokument tekstowy na poziomie czytania drugiej klasy. Pokażemy Ci, jak wywołać interfejs API, wysłać monit szkoleniowy jako żądanie i uzyskać podsumowanie zakończenia w postaci wyniku. Opublikowaliśmy kod dla Ciebie w repozytorium GitHub.

W tym przykładzie użyjemy następującego podpowiedzi szkoleniowej:

My second-grader asked me what this passage means:

“””

Olive oil is a liquid fat obtained from olives (the fruit of Olea

europaea;

family Oleaceae)…

“””

I rephrased it for him, in plain language a second-grader can

understand:

“””

Najpierw zaimportuj następujące zależności:

# Importing Dependencies

from chronological import read_prompt, cleaned_completion, main

Teraz możemy utworzyć funkcję, która odczyta komunikat szkoleniowy i wyświetli wynik zakończenia. Uczyniliśmy tę funkcję asynchroniczną, co pozwala nam na wykonywanie równoległych wywołań funkcji. Dla parametrów API zastosujemy następującą konfigurację:

* Maksymalna liczba tokenów = 100

* Silnik wykonawczy = „Davinci”

* Temperatura=0,5

* Góra-p=1

* Kara za częstotliwość = 0,2

* Sekwencja zatrzymania = [„\n\n”]

# Takes in the training prompt and returns the completed response

async def summarization_example():

# Takes in a text file(summarize_for_a_2nd_grader) as the input

prompt

prompt_summarize = read_prompt(‘summarize_for_a_2nd_grader’)

# Calling the completion method along with the specific GPT-3

parameters

completion_summarize = await

cleaned_completion(prompt_summarize,

max_tokens=100, engine=”davinci”, temperature=0.5, top_p=1,

frequency_penalty=0.2, stop=[“\n\n”])

# Return the completion response

return completion_summarize

Teraz możemy stworzyć asynchroniczny przepływ pracy, wywołać go za pomocą głównej funkcji dostarczonej przez bibliotekę i wydrukować wynik w konsoli:

# Designing the end-to-end async workflow, capable of running

multiple prompts

# in parallel

async def workflow():

# Making async call to the summarization function

text_summ_example = await summarization_example()

# Printing the result in console

print(‘————————-‘)

print(‘Basic Example Response: {0}’.format(text_summ_example))

print(‘————————-‘)

# invoke Chronology by using the main function to run the async

workflow

main(workflow)

Zapisz go jako skrypt Pythona o nazwie text_summarization.py i uruchom go z terminala, aby wygenerować dane wyjściowe. Możesz uruchomić następujące polecenie z folderu głównego:

python text_summarization.py

Po wykonaniu skryptu konsola powinna wyświetlić następujące podsumowanie zachęty:

————————-

Basic Example Response: Olive oil is a liquid fat that comes from

olives.

Olives grow on a tree called an olive tree. The olive tree is the

most common

tree in the Mediterranean. People use the oil to cook with, to put

on their

salads, and as a fuel for lamps.

————————-

Jeśli nie jesteś dobrze zaznajomiony z językiem Python i chcesz połączyć różne podpowiedzi bez pisania kodu, możesz użyć interfejsu bez kodu wbudowanego w bibliotekę Chronology, aby utworzyć przepływ pracy podpowiedzi za pomocą metody „przeciągnij i upuść”. Więcej przykładów wykorzystania programowania w Pythonie do interakcji z GPT-3 znajdziesz w naszym repozytorium GitHub.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *