Python to najpopularniejszy język do zadań związanych z analizą danych i uczeniem maszynowym. W porównaniu z konwencjonalnymi językami programowania do nauki o danych, takimi jak R i Stata, Python wyróżnia się, ponieważ jest skalowalny i dobrze integruje się z bazami danych. Jest szeroko stosowany i ma kwitnącą społeczność programistów, którzy aktualizują swój ekosystem. Python jest łatwy do nauczenia i zawiera przydatne biblioteki do nauki o danych, takie jak NumPy i pandy. Możesz sparować GPT-3 z Pythonem, korzystając z biblioteki o nazwie Chronology, która zapewnia prosty i intuicyjny interfejs. Chronologia może złagodzić monotonną pracę polegającą na pisaniu całego kodu od zera za każdym razem. Jego funkcje obejmują:
* Wywołuje asynchronicznie interfejs API OpenAI, umożliwiając generowanie wiel szybkich uzupełnień w tym samym czasie.
* Możesz łatwo tworzyć i modyfikować podpowiedzi szkoleniowe; Na przykład, modyfikowanie podpowiedzi szkoleniowej używanej w innym przykładzie jest sprawiedliwe prosty.
* Umożliwia łączenie podpowiedzi poprzez podłączenie wyjścia jednego podpowiedzi do drugiego.
Chronologia jest hostowana na PyPI i obsługuje Python 3.6 i nowsze wersje. Aby zainstalować bibliotekę, uruchom następującą komendę:
pip install chronological
Po zainstalowaniu biblioteki Pythona przez PyPI przyjrzyjmy się przykładowi, jak przygotować GPT-3, aby podsumował dany dokument tekstowy na poziomie czytania drugiej klasy. Pokażemy Ci, jak wywołać interfejs API, wysłać monit szkoleniowy jako żądanie i uzyskać podsumowanie zakończenia w postaci wyniku. Opublikowaliśmy kod dla Ciebie w repozytorium GitHub.
W tym przykładzie użyjemy następującego podpowiedzi szkoleniowej:
My second-grader asked me what this passage means:
“””
Olive oil is a liquid fat obtained from olives (the fruit of Olea
europaea;
family Oleaceae)…
“””
I rephrased it for him, in plain language a second-grader can
understand:
“””
Najpierw zaimportuj następujące zależności:
# Importing Dependencies
from chronological import read_prompt, cleaned_completion, main
Teraz możemy utworzyć funkcję, która odczyta komunikat szkoleniowy i wyświetli wynik zakończenia. Uczyniliśmy tę funkcję asynchroniczną, co pozwala nam na wykonywanie równoległych wywołań funkcji. Dla parametrów API zastosujemy następującą konfigurację:
* Maksymalna liczba tokenów = 100
* Silnik wykonawczy = „Davinci”
* Temperatura=0,5
* Góra-p=1
* Kara za częstotliwość = 0,2
* Sekwencja zatrzymania = [„\n\n”]
# Takes in the training prompt and returns the completed response
async def summarization_example():
# Takes in a text file(summarize_for_a_2nd_grader) as the input
prompt
prompt_summarize = read_prompt(‘summarize_for_a_2nd_grader’)
# Calling the completion method along with the specific GPT-3
parameters
completion_summarize = await
cleaned_completion(prompt_summarize,
max_tokens=100, engine=”davinci”, temperature=0.5, top_p=1,
frequency_penalty=0.2, stop=[“\n\n”])
# Return the completion response
return completion_summarize
Teraz możemy stworzyć asynchroniczny przepływ pracy, wywołać go za pomocą głównej funkcji dostarczonej przez bibliotekę i wydrukować wynik w konsoli:
# Designing the end-to-end async workflow, capable of running
multiple prompts
# in parallel
async def workflow():
# Making async call to the summarization function
text_summ_example = await summarization_example()
# Printing the result in console
print(‘————————-‘)
print(‘Basic Example Response: {0}’.format(text_summ_example))
print(‘————————-‘)
# invoke Chronology by using the main function to run the async
workflow
main(workflow)
Zapisz go jako skrypt Pythona o nazwie text_summarization.py i uruchom go z terminala, aby wygenerować dane wyjściowe. Możesz uruchomić następujące polecenie z folderu głównego:
python text_summarization.py
Po wykonaniu skryptu konsola powinna wyświetlić następujące podsumowanie zachęty:
————————-
Basic Example Response: Olive oil is a liquid fat that comes from
olives.
Olives grow on a tree called an olive tree. The olive tree is the
most common
tree in the Mediterranean. People use the oil to cook with, to put
on their
salads, and as a fuel for lamps.
————————-
Jeśli nie jesteś dobrze zaznajomiony z językiem Python i chcesz połączyć różne podpowiedzi bez pisania kodu, możesz użyć interfejsu bez kodu wbudowanego w bibliotekę Chronology, aby utworzyć przepływ pracy podpowiedzi za pomocą metody „przeciągnij i upuść”. Więcej przykładów wykorzystania programowania w Pythonie do interakcji z GPT-3 znajdziesz w naszym repozytorium GitHub.