https://aie24.pl/
Techniki przetwarzania języka naturalnego można podzielić na tradycyjne metody uczenia maszynowego i metody głębokiego uczenia. Tradycyjne techniki uczenia maszynowego obejmują następujące:
»»Regresja logistyczna to algorytm klasyfikacyjny, którego celem jest przewidywanie prawdopodobieństwa wystąpienia zdarzenia na podstawie pewnych danych wejściowych.
»»Naiwne klasyfikatory Bayesa to zbiór statystycznych algorytmów klasyfikacyjnych opartych na twierdzeniu Bayesa, które opisuje prawdopodobieństwo zdarzenia na podstawie wcześniejszej wiedzy o warunkach. Naiwna część nazwy odnosi się do założenia, jakie przyjmują te algorytmy, że poszczególne słowa nie są od siebie zależne.
»»Drzewa decyzyjne działają poprzez dzielenie zbioru danych na podstawie różnych danych wejściowych. Na przykład, jeśli chcesz dowiedzieć się, czy prawdopodobnie będzie padać, możesz zacząć od pytania, czy jest pochmurno. Jeśli tak, możesz zapytać o wilgotność, a następnie o temperaturę. Po kilku podziałach możesz uzyskać prognozę.
»»Ukryta alokacja Dirichleta (LDA) jest używana do modelowania tematów. Techniki modelowania tematów skanują zbiór dokumentów w celu wykrycia wzorców i grupowania grup słów, które najlepiej charakteryzują zbiór.
»»Ukryte modele Markowa (HMM) decydują o następnym stanie systemu na podstawie stanu poprzednio zaobserwowanego. Ukryta część nazwy odnosi się do właściwości danych, które nie są bezpośrednio obserwowane. W przetwarzaniu języka naturalnego stan ukryty to części mowy, a stan obserwowany to słowa w zdaniu.
Niektóre techniki stosowane w uczeniu maszynowym zostały nazwane na cześć osób, które sformułowały twierdzenia, na których opierają się te techniki. Thomas Bayes był osiemnastowiecznym angielskim statystykiem, filozofem i ministrem. Peter Gustav Lejeune Dirichlet był dziewiętnastowiecznym niemieckim matematykiem. Andrey Markov był rosyjskim matematykiem, który żył pod koniec dziewiętnastego wieku i na początku dwudziestego wieku. Podczas gdy tradycyjne metody NLP są często w stanie wykonać dobrą robotę, dopiero gdy zaczęto stosować techniki głębokiego uczenia się w NLP, sprawy stały się interesujące. Oto kilka technik głębokiego uczenia się NLP:
»»Sieci neuronowe splotowe (CNN) zostały zaprojektowane do pracy z obrazami, ale można je również stosować z dokumentami. W NLP sieci neuronowe traktują dokumenty jako obrazy składające się ze zdań, a nie pikseli.
»»Rekurencyjne sieci neuronowe (RNN) wykorzystują ukryte stany do zapamiętywania poprzednich informacji. Dzięki temu mogą nauczyć się, w jaki sposób każde słowo w zdaniu jest zależne od poprzednich słów lub słów w poprzednim zdaniu.
»»Modele transformatorowe uczą się kontekstu poprzez śledzenie relacji w danych sekwencyjnych (takich jak słowa w zdaniu). Modele transformatorowe to przełom, który zrewolucjonizował NLP w ostatnich latach. Więcej o tym, jak działają transformatory, opowiem w następnej sekcji.