Wniosek

https://aie24.pl/

Nauczyliśmy się korzystać z API OpenAI w językach programowania Python, Go i Java. Przeszliśmy także przez środowisko piaskownicy o niskim kodzie utworzone przy użyciu Streamlit, które pomoże Ci szybko przekształcić Twój pomysł w aplikację. Na koniec przyjrzeliśmy się kluczowym wymaganiom dotyczącym uruchomienia aplikacji GPT-3. W tym rozdziale przedstawiono perspektywy programowania API; w przyszłości zagłębimy się w rozwijający się ekosystem wspierany przez GPT-3.

Uruchomienie aplikacji obsługujących GPT-3

https://aie24.pl/

Czy jesteś gotowy, aby wdrożyć aplikację korzystającą z GPT-3 w środowisku produkcyjnym? Zanim to zrobisz, omówmy niektóre środki ograniczające ryzyko. W rozdziale 6 dowiesz się, w jaki sposób GPT-3 może zostać wykorzystany do wyrządzenia szkody. Aby zabezpieczyć się przed tymi złośliwymi praktykami, OpenAI stworzyło wytyczne i procedury, których należy przestrzegać przed uruchomieniem aplikacji. Obecnie możesz udostępnić interfejs API pięciu osobom bez wcześniejszej zgody, ale w przypadku większej liczby osób musisz wystąpić o przegląd produkcyjny przed uruchomieniem. Zdecydowanie zalecamy zapoznanie się z Wytycznymi dotyczącymi użytkowania przed złożeniem wniosku. Kiedy przesyłasz żądanie przeglądu przed uruchomieniem, zespół OpenAI szczegółowo analizuje Twój przypadek użycia i sygnalizuje wszelkie potencjalne naruszenia Najlepszych praktyk dotyczących bezpieczeństwa API. Jeśli Twoja prośba zostanie zatwierdzona, OpenAI przyzna Ci maksymalny limit wydatków, który z czasem będzie wzrastał w miarę budowania historii. Jak nasza baza użytkowników rośnie, możesz złożyć wniosek o zwiększenie limitu. Daje to swobodę budowania i wdrażania aplikacji, podczas gdy OpenAI monitoruje jej potencjalny wpływ na platformę.

Piaskownica GPT-3 obsługiwana przez Streamlit

https://aie24.pl/

W tej sekcji przeprowadzimy Cię przez GPT-3 Sandbox, stworzone przez nas narzędzie typu open source, które udostępnia standardowy kod, który pomoże Ci przekształcić Twoje pomysły w rzeczywistość za pomocą zaledwie kilku linijek kodu Pythona. Pokażemy Ci, jak z niego korzystać i jak dostosować go do konkretnego zastosowania. Celem naszej piaskownicy jest umożliwienie Ci tworzenia fajnych aplikacji internetowych, bez względu na Twoje zaplecze techniczne. Jest zbudowany na platformie Streamlit. Aby dołączyć do tej książki, stworzyliśmy także serię filmów zawierających instrukcje krok po kroku dotyczące tworzenia i wdrażania aplikacji GPT-3. Dostęp do nich można uzyskać, skanując kod QR pokazany na rysunku . Postępuj zgodnie z nimi podczas czytania .

W naszych przykładach używamy Visual Studio Code jako IDE, ale możesz użyć dowolnego IDE. Zanim zaczniesz, musisz zainstalować IDE. Upewnij się także, że używasz języka Python w wersji 3.7 lub nowszej. Możesz sprawdzić, którą wersję zainstalowałeś, uruchamiając następujące polecenie:

 python –version

Sklonuj kod z tego repozytorium, otwierając nowy terminal w swoim IDE i używając następującego polecenia:

git clone https://github.com/Shubhamsaboo/kairos_gpt3

Po sklonowaniu repozytorium struktura kodu w IDE powinna wyglądać jak na rysunku

Wszystko, czego potrzebujesz do stworzenia i wdrożenia aplikacji internetowej, jest już obecne w kodzie. Wystarczy zmodyfikować kilka plików, aby dostosować piaskownicę do konkretnego przypadku użycia. Utwórz wirtualne środowisko Pythona, które nazwiesz env. Następnie możesz zainstalować wymagane zależności. Przejdź do folderu email_generacja. Twoja ścieżka powinna wyglądać następująco:

(env) kairos_gpt3\GPT-3 Sandbox\email_generation>

Stamtąd uruchom następujące polecenie:

(env) kairos_gpt3\GPT-3 Sandbox\email_generationcja> pip install -r

requirements.txt

Teraz możesz rozpocząć dostosowywanie kodu piaskownicy. Pierwszym plikiem, któremu musisz się przyjrzeć, jest Training_data.py. Otwórz ten plik i zastąp domyślny monit monitem szkoleniowym, którego chcesz użyć. Możesz używać GPT-3 Playground do eksperymentowania z różnymi podpowiedziami szkoleniowymi (zobacz rozdział 2 i nasz film, aby uzyskać więcej informacji na temat dostosowywania piaskownicy).

Możesz teraz dostosować parametry API (maksymalna liczba tokenów, silnik wykonawczy, temperatura, górne P, kara za częstotliwość, sekwencja zatrzymywania) zgodnie z wymaganiami przypadku użycia aplikacji. Zalecamy eksperymentowanie z różnymi wartościami parametrów dla danego monitu szkoleniowego w Playground, aby określić, które wartości będą najlepsze w Twoim przypadku użycia. Po uzyskaniu zadowalających wyników możesz zmienić wartości w pliku model_training_service.py. Otóż ​​to! Twoja aplikacja internetowa oparta na GPT-3 jest już gotowa. Możesz uruchomić go lokalnie za pomocą następującego polecenia:

(env) kairos_gpt3\GPT-3 Sandbox\email_generation> streamlit run

gpt_app.py

Sprawdź, czy działa, a następnie możesz wdrożyć aplikację w Internecie za pomocą udostępniania Streamlit, aby zaprezentować ją szerszej publiczności. Nasz film przedstawia pełny opis wdrożenia.

NOTATKA

Ta aplikacja działa według prostego przepływu pracy, w którym monit szkoleniowy otrzymuje pojedyncze dane wejściowe z interfejsu użytkownika i wyświetla odpowiedź. Jeśli Twoja aplikacja wymaga bardziej złożonego przepływu pracy, w którym monit szkoleniowy przyjmuje wiele danych wejściowych, dostosuj elementy interfejsu użytkownika, korzystając ze skryptów app1.py, app2.py i gpt_app.py. Szczegółowe informacje można znaleźć w dokumentacji Streamlit.

W następnych kilku rozdziałach przyjrzymy się różnym zastosowaniom GPT-3 i temu, jak na jego podstawie buduje się odnoszące sukcesy firmy.

Korzystanie z API OpenAI w Javie

https://aie24.pl/

Java to jeden z najstarszych i najpopularniejszych języków programowania służących do tworzenia konwencjonalnych systemów oprogramowania; jest to również platforma dostarczana ze środowiskiem wykonawczym. Został opracowany przez firmę Sun Microsystems (obecnie spółkę zależną Oracle) w 1995 roku i obecnie działa na nim ponad trzy miliardy urządzeń. Jest to język programowania ogólnego przeznaczenia, oparty na klasach, zorientowany obiektowo, zaprojektowany tak, aby miał mniej zależności implementacyjnych. Jego składnia jest podobna do składni języków C i C++. Dwie trzecie branży oprogramowania nadal używa Java jako podstawowego języka programowania. Skorzystajmy jeszcze raz z naszego przykładowego podsumowania tekstu dotyczącego oliwy z oliwek. Podobnie jak w przypadku Pythona i Go, pokażemy Ci, jak wywołać interfejs API, wysłać monit szkoleniowy jako żądanie i uzyskać podsumowanie zakończenia w postaci wyniku przy użyciu języka Java. Aby zapoznać się ze szczegółowym opisem kodu na komputerze lokalnym, sklonuj nasze repozytorium GitHub. W sklonowanym repozytorium przejdź do folderu Programming_with_GPT-3 i otwórz folder GPT-3_Java.

Najpierw zaimportuj wszystkie odpowiednie zależności:

package example;

// Importing Dependencies

import java.util.*;

import java.io.*;

import com.theokanning.openai.OpenAiService;

import com.theokanning.openai.completion.CompletionRequest;

import com.theokanning.openai.engine.Engine;

Teraz utworzysz klasę o nazwie OpenAiApiExample. Cały Twój kod

będzie jego częścią. W ramach tej klasy utwórz najpierw obiekt OpenAiService przy użyciu tokena API:

class OpenAiApiExample {

public static void main(String… args) throws

FileNotFoundException {

String token = “sktuRevI46unEKRP64n7JpT3BlbkFJS5d1IDN8tiCfRv9WYDFY”;

OpenAiService service = new OpenAiService(token);

Połączenie z API OpenAI jest teraz nawiązywane w formie obiektu usługi. Przeczytaj monit szkoleniowy z folderu podpowiedzi:

// Reading the training prompt from the prompts folder

File file = new File(“D:\\GPT-3 Book\\Programming with GPT-3\\GPT-3

Java\\example\\src\\main\\java\\example\\prompts\\

summarize_for_a_2nd_grader.txt”);

Scanner sc = new Scanner(file);

// we just need to use \\Z as delimiter

sc.useDelimiter(“\\Z”);

// pp is the string consisting of the training prompt

String pp = sc.next();

Następnie możesz utworzyć żądanie uzupełnienia z następującą konfiguracją parametrów API:

Maksymalna liczba tokenów=100

Silnik wykonawczy = „Davinci”

Temperatura=0,5

Top-p=1

Kara za częstotliwość = 0,2

Sekwencja zatrzymania=[„\n\n”]

// Creating a list of strings to used as stop sequence

List<String> li = new ArrayList<String>();

li.add(“\n\n”””);

// Creating a completion request with the API parameters

CompletionRequest completionRequest =

CompletionRequest.builder().prompt(pp)

.maxTokens(100).temperature(0.5).topP(1.0).frequencyPenalty(0.2).sto

p(li)

.echo(true).build();

// Using the service object to fetch the completion response

service.createCompletion(“davinci”,completionRequest).getChoices().f

orEach

(System.out::println);

Zapisz plik kodu jako text_summarization.java i uruchom go z terminala, aby wygenerować dane wyjściowe. Aby uruchomić plik z folderu głównego, możesz użyć następującego polecenia:

./gradlew example:run

Twoja konsola powinna wydrukować to samo podsumowanie, co w poprzednich przykładach. Więcej przykładów wykorzystania języka Java do interakcji z GPT-3 można znaleźć w naszym repozytorium GitHub.

Korzystanie z interfejsu API OpenAI w Go

https://aie24.pl/

Go to język programowania o otwartym kodzie źródłowym, który łączy w sobie najlepsze cechy innych języków programowania, łącząc łatwość programowania interpretowanego języka o dynamicznym typowaniu z wydajnością i bezpieczeństwem języka kompilowanego o typie statycznym. Programiści często nazywają go „C na miarę XXI wieku”. Go jest preferowanym językiem w przypadku projektów budowlanych wymagających wysokiego bezpieczeństwa, dużej szybkości i dużej modułowości. To sprawia, że jest to atrakcyjna opcja dla wielu projektów w branży fintech. Najważniejsze cechy Go są następujące:

* Łatwość użycia

* Najnowocześniejsza produktywność

* Wysokowydajne pisanie statyczne

* Zaawansowana wydajność w sieci

* Pełne wykorzystanie mocy wielordzeniowej

Jeśli dopiero zaczynasz korzystać z Go i chcesz spróbować, możesz zapoznać się z dokumentacją, aby rozpocząć. Po zakończeniu instalacji i zrozumieniu podstaw programowania Go możesz wykonać poniższe kroki, aby użyć opakowania Go API dla GPT-3. Więcej informacji na temat tworzenia modułów Go znajdziesz w tym samouczku. Najpierw utworzysz moduł do śledzenia i importowania zależności kodu. Tworzyć i zainicjuj moduł gogpt za pomocą następującego polecenia:

go mod init gogpt

Po utworzeniu modułu gogpt wskażmy mu to repozytorium GitHub, aby pobrać niezbędne zależności i pakiety do pracy z API. Użyj następującego polecenia:

go get github.com/sashabaranov/go-gpt3

go get: added github.com/sashabaranov/go-gpt3 v0.0.0-20210606183212-

2be4a268a894

Użyjemy tego samego przykładu podsumowania tekstu, co w poprzedniej sekcji. (Cały kod znajdziesz w poniższym repozytorium.)

Na początek zaimportujmy niezbędne zależności i pakiety:

# Calling the package main

package main

# Importing Dependencies

import (

“fmt”

“io/ioutil”

“context”

gogpt “github.com/sashabaranov/go-gpt3”

)

Programowanie Go organizuje pliki źródłowe w katalogi systemowe zwane

pakiety, co ułatwia ponowne wykorzystanie kodu w aplikacjach Go. W pierwszej linii kodu wywołujemy pakiet main, który informuje kompilator Go, że pakiet powinien się skompilować jako program wykonywalny, a nie jako biblioteka współdzielona.

NOTATKA

W Go za każdym razem, gdy tworzysz fragmenty kodu nadające się do ponownego wykorzystania, tworzysz pakiet jako bibliotekę współdzieloną. Ale kiedy tworzysz programy wykonywalne, użyjesz pakietu main, aby uczynić pakiet programem wykonywalnym. Ponieważ nazywamy ten pakiet główną funkcją pakietu, main zostanie ustawiony jako punkt wejścia naszego programu wykonywalnego.

Teraz utworzysz główną funkcję, która będzie obsługiwać całą logikę odczytywania podpowiedzi szkoleniowej i dostarczania wyników zakończenia. Użyj następującej konfiguracji parametrów API:

Maksymalna liczba tokenów=100

Silnik wykonawczy = „Davinci”

Temperatura=0,5

Top-p=1

Kara za częstotliwość = 0,2

Sekwencja zatrzymania=[„\n\n”]

func main() {

c := gogpt.NewClient(“OPENAI-API-KEY”)

ctx := context.Background()

prompt, err :=

ioutil.ReadFile(“prompts/summarize_for_a_2nd_grader.txt”)

req := gogpt.CompletionRequest{

MaxTokens: 100,

Temperature: 0.5,

TopP: 1.0,

Stop: []string{“\n\n”},

FrequencyPenalty: 0.2,

Prompt: string(prompt),

}

resp, err := c.CreateCompletion(ctx, “davinci”, req)

if err != nil {

return

}

fmt.Println(“————————-“)

fmt.Println(resp.Choices[0].Text)

fmt.Println(“————————-“)

Ten kod wykonuje następujące zadania:

  1. Konfiguruje nowego klienta API poprzez udostępnienie mu tokenu API, a następnie pozostawia go działającego w tle.
  2. Odczytuje zachętę „ ” w formie pliku tekstowego z folderu podpowiedzi.
  3. Tworzy żądanie ukończenia, podając monit szkoleniowy i określając wartości parametrów API (takich jak temperatura, górne P, sekwencja zatrzymania itp.).
  4. Wywołuje funkcję dokończenia tworzenia i udostępnia jej klienta API, żądanie zakończenia i silnik wykonawczy.
  5. Generuje odpowiedź w postaci uzupełnienia, która wypisuje się na końcu w konsoli.

Następnie możesz zapisać plik kodu jako text_summarization.go i uruchomić go z terminala, aby wygenerować dane wyjściowe. Użyj następującego polecenia, aby uruchomić plik z folderu głównego:

go run text_summarization.go

Po uruchomieniu pliku konsola wyświetli następujące dane wyjściowe:

————————-

Oliwa z oliwek to płynny tłuszcz pochodzący z oliwek. Oliwki rosną na drzewie zwanym drzewem oliwnym. Drzewo oliwne jest najpospolitszym drzewem na

Śródziemnomorski. Ludzie używają oliwy do gotowania, do sałatek i jako paliwo do lamp.

————————-

Aby uzyskać więcej przykładów wykorzystania programowania Go do interakcji z GPT-

3, odwiedź nasze repozytorium GitHub.

Korzystanie z API OpenAI w Pythonie

https://aie24.pl/

Python to najpopularniejszy język do zadań związanych z analizą danych i uczeniem maszynowym. W porównaniu z konwencjonalnymi językami programowania do nauki o danych, takimi jak R i Stata, Python wyróżnia się, ponieważ jest skalowalny i dobrze integruje się z bazami danych. Jest szeroko stosowany i ma kwitnącą społeczność programistów, którzy aktualizują swój ekosystem. Python jest łatwy do nauczenia i zawiera przydatne biblioteki do nauki o danych, takie jak NumPy i pandy. Możesz sparować GPT-3 z Pythonem, korzystając z biblioteki o nazwie Chronology, która zapewnia prosty i intuicyjny interfejs. Chronologia może złagodzić monotonną pracę polegającą na pisaniu całego kodu od zera za każdym razem. Jego funkcje obejmują:

* Wywołuje asynchronicznie interfejs API OpenAI, umożliwiając generowanie

wiele szybkich uzupełnień w tym samym czasie.

* Możesz łatwo tworzyć i modyfikować podpowiedzi szkoleniowe; na przykład modyfikowanie podpowiedzi szkoleniowej używanej w innym przykładzie jest dość proste.

* Umożliwia łączenie podpowiedzi poprzez podłączenie wyjścia jednego podpowiedzi do drugiego.

Chronologia jest hostowana na PyPI i obsługuje Python 3.6 i nowsze wersje. Aby zainstalować bibliotekę, uruchom następującą komendę:

pip install chronological

Po zainstalowaniu biblioteki Pythona przez PyPI przyjrzyjmy się przykładowi, jak przygotować GPT-3, aby podsumował dany dokument tekstowy na poziomie czytania drugiej klasy. Pokażemy Ci, jak wywołać interfejs API, wysłać monit szkoleniowy jako żądanie i uzyskać podsumowanie zakończenia w postaci wyniku. Opublikowaliśmy kod dla Ciebie w repozytorium GitHub. W tym przykładzie użyjemy następującego podpowiedzi szkoleniowej:

Moja uczennica drugiej klasy zapytała mnie, co oznacza ten fragment:

„””

Oliwa z oliwek to płynny tłuszcz otrzymywany z oliwek (owoców Olea

europaea;

rodzina Oleaceae)…

„””

Przeformułowałem to za niego, prostym językiem, jaki potrafi drugoklasista

zrozumieć:

„””

Najpierw zaimportuj następujące zależności:

# Importing Dependencies

from chronological import read_prompt, cleaned_completion, main

z importu chronologicznego read_prompt, clean_completion, main Teraz możemy stworzyć funkcję, która odczyta zachętę do szkolenia i wyświetli wynik zakończenia. Uczyniliśmy tę funkcję asynchroniczną, co pozwala nam na wykonywanie równoległych wywołań funkcji. Dla parametrów API zastosujemy następującą konfigurację:

Maksymalna liczba tokenów=100

Silnik wykonawczy = „Davinci”

Temperatura=0,5

Top-p=1

Kara za częstotliwość = 0,2

Sekwencja zatrzymania=[„\n\n”]

# Przyjmuje komunikat szkoleniowy i zwraca pełną odpowiedź

async def podsumowanie_przykład():

# Jako dane wejściowe pobiera plik tekstowy (summarize_for_a_2nd_grader).

podpowiedź

Prompt_summarize = read_prompt(‘podsumowanie_dla_2.klasisty’)

# Wywołanie metody uzupełniania wraz z konkretnym GPT-3

parametry

kompletacja_summarize = czekaj

clean_completion(prompt_summarize,

max_tokens=100, silnik=”davinci”, temperatura=0,5, top_p=1,

częstotliwość_kara=0,2, stop=[“\n\n”])

# Zwróć odpowiedź o zakończeniu

zwróć zakończenie_podsumowania

Teraz możemy stworzyć asynchroniczny przepływ pracy, wywołać go za pomocą głównej funkcji dostarczonej przez bibliotekę i wydrukować wynik w konsoli:

# Projektowanie kompleksowego, asynchronicznego przepływu pracy, który można uruchomić

wiele podpowiedzi

# równolegle

asynchroniczny przepływ pracy def():

# Wykonywanie asynchronicznego wywołania funkcji podsumowującej

text_summ_example = oczekuj podsumowania_example()

# Drukowanie wyniku w konsoli

wydrukować(‘————————-‘)

print(‘Podstawowa przykładowa odpowiedź: {0}’.format(text_summ_example))

wydrukować(‘————————-‘)

# wywołaj Chronologię, używając funkcji main do uruchomienia asynchronizacji

przepływ pracy

główny (przebieg pracy)

Zapisz go jako skrypt Pythona o nazwie text_summarization.py i uruchom go z

terminal do generowania danych wyjściowych. Możesz uruchomić następujące polecenie z

twój folder główny:

python text_summarization.py

Po wykonaniu skryptu konsola powinna wydrukować następujące podsumowanie

monitu:

————————-

Podstawowy przykład odpowiedzi: Oliwa z oliwek to płynny tłuszcz, z którego pochodzi

oliwki.

Oliwki rosną na drzewie zwanym drzewem oliwnym. Drzewo oliwne to

najczęściej

drzewo w Morzu Śródziemnym. Ludzie używają oleju do gotowania i nakładania

na ich

sałatek i jako paliwo do lamp.

————————-

Jeśli nie jesteś dobrze zaznajomiony z językiem Python i chcesz połączyć różne podpowiedzi bez pisania kodu, możesz użyć interfejsu bez kodu wbudowanego w bibliotekę Chronology, aby utworzyć przepływ pracy podpowiedzi za pomocą metody „przeciągnij i upuść”. Więcej przykładów wykorzystania programowania w Pythonie do interakcji z GPT-3 znajdziesz w naszym repozytorium GitHub.

Programowanie za pomocą GPT-3

https://aie24.pl/

Prawie wszystkie możliwości NLP GPT-3 są tworzone w języku programowania Python. Aby jednak zapewnić szerszą dostępność, interfejs API posiada wbudowaną obsługę wszystkich głównych języków programowania, dzięki czemu użytkownicy mogą tworzyć aplikacje oparte na GPT-3, korzystając z wybranego przez siebie języka programowania. W tej sekcji zilustrujemy, jak to działa, replikując przykład z trzema popularnymi językami programowania: Python, Go i Java. Tylko uwaga: w każdej sekcji poświęconej konkretnemu językowi zakładamy, że masz podstawową wiedzę na temat omawianego języka programowania. Jeśli nie, możesz bezpiecznie pominąć tę sekcję.

Wniosek

https://aie24.pl/

Omówiliśmy OpenAI Playground, szybką inżynierię i różne komponenty OpenAI API, a następnie przedstawiliśmy przykłady Playground obejmujące główne zadania NLP. Do tej pory powinieneś wiedzieć, jak interfejs API działa w połączeniu z różnymi komponentami i jak używać Playground jako podstawy do projektowania i eksperymentowania z różnymi podpowiedziami szkoleniowymi. W następnym rozdziale przeprowadzimy Cię przez proces wykorzystania GPT-3 w różnych językach programowania, aby zintegrować API ze swoim produktem lub zbudować od podstaw zupełnie nową aplikację.

Pokolenie postów w mediach społecznościowych

https://aie24.pl/

Oto nasz monit:

Napisz post w mediach społecznościowych na Facebooku, Twitterze i Instagramie

o uruchomieniu

nowa wersja beta aplikacji zwiększającej produktywność.

Wpis na Facebooku:

I wynik:

„Po szeroko zakrojonych testach z użytkownikami z przyjemnością ogłaszamy, że nasz

najnowsza aktualizacja to

dostępny do pobrania! Nasz zespół ciężko pracował, aby stworzyć

najlepsza wersja

jeszcze nasza aplikacja. Pobierz ją teraz bezpłatnie ze strony www.app.com.”

Wpis na Twitterze:

„Wprowadzamy zaktualizowaną wersję Twojej ulubionej aplikacji

aplikacja zwiększająca produktywność! Teraz

dostępna na iOS i Androida. #produktywność #beta”

Post na Instagramie:

„Właśnie wydaliśmy nową wersję beta Twojej ulubionej aplikacji

aplikacja! Pobierać

już dziś za darmo na iOS i Androida. #produktywność #beta”

Generacja tekstu

https://aie24.pl/

Przed wprowadzeniem GPT-3 panowało ogólne przekonanie, że modele sztucznej inteligencji są w stanie prowadzić krótkie rozmowy z ludźmi, które odpowiadają na konkretne pytania lub wykonują określone zadania. Jednak modele nie były wystarczająco zaawansowane, aby poradzić sobie ze skomplikowanymi zadaniami związanymi z generowaniem tekstu, i zaczynały tracić kontrolę nad konwersacją, gdy napotykały coś złożonego lub abstrakcyjnego. W skomplikowanym świecie generowania języka naturalnego GPT-3 podważył pogląd, że modele językowe ograniczają się do trywialnych zadań. Generowanie tekstu jest największą siłą GPT-3. Jest w stanie generować treści tekstowe, które są prawie nie do odróżnienia od tekstu pisanego przez człowieka. GPT-3 jest szkolony na miliardach słów ze zbioru danych szkoleniowych w celu generowania tekstu w odpowiedzi na różne podpowiedzi. Według OpenAI generuje średnio 4,5 miliarda słów dziennie. W kolejnych dwóch przykładach eksperymentujemy z użyciem GPT-3 do tworzenia treści na potrzeby uruchamiania aplikacji osobistej i postów w mediach społecznościowych. Dajemy modelowi jedynie minimalny kontekst i za pierwszym razem generuje on wiele odpowiedzi z rysunku

Nasz monit:

Oto 5 najważniejszych wskazówek dotyczących osobistej produktywności.

I wynik:

  1. Opracuj rutynę

Praca może być przytłaczająca. Nie musisz pamiętać o każdym najdrobniejszym szczególe

Szczegół.

Dzięki rutynie będziesz mógł pracować wydajniej.

  1. Unikaj wielozadaniowości

Jeśli wykonujesz wiele zadań jednocześnie, na pewno coś przeoczysz. To jest

lepiej

pracować nad jednym zadaniem na raz.

  1. Rób przerwy

Prawdą jest, że jeśli nie będziesz robić przerw, będziesz więcej

produktywny. Jednakże,

jeśli będziesz robić przerwy zbyt często, będziesz zmęczony i zestresowany. Jeśli

pracujesz więcej

skutecznie skrócisz czas potrzebny na wykonanie zadania.

  1. Naucz się delegować

Jeśli masz dużo pracy, nie powinieneś robić wszystkiego na bieżąco

Twój własny.

Deleguj część pracy innym.

  1. Ustal priorytety

Ustal priorytety tego, co masz do zrobienia i wykonaj najważniejsze zadania

Pierwszy. Nie

martw się o małe rzeczy.