Wprowadzony w 2018 r. GPT-1 położył podwaliny pod późniejsze modele. Został wytrenowany na książkach, stronach internetowych i innych tekstach internetowych, pokazując potencjał transformatorów w rozumieniu i generowaniu języka. Jednak GPT-1 miał ograniczony zakres odpowiedzi i miał problemy z utrzymaniem kontekstu w dłuższych fragmentach.