Wyjaśniliśmy kluczowe elementy języka naturalnego, w tym gramatykę i semantykę. Systemy oparte na parsowaniu i analizie semantycznej okazały się skuteczne w wielu zadaniach, ale ich wydajność jest ograniczona nieskończoną złożonością zjawisk językowych w prawdziwym tekście. Biorąc pod uwagę ogromną ilość tekstu dostępnego w formie do odczytu maszynowego, warto rozważyć, czy podejścia oparte na uczeniu maszynowym opartym na danych mogą być bardziej skuteczne. Badamy tę hipotezę za pomocą narzędzi dostarczanych przez systemy głębokiego uczenia się . Zaczniemy , pokazując, jak można poprawić uczenie się, przedstawiając słowa jako punkty w przestrzeni wielowymiarowej, a nie jako wartości atomowe. Druga dotyczy wykorzystania rekurencyjnych sieci neuronowych do uchwycenia znaczenia i dalekosiężnego kontekstu, gdy tekst jest przetwarzany sekwencyjnie. Skupimy się przede wszystkim na tłumaczeniu maszynowym, jednym z największych sukcesów głębokiego uczenia stosowanego w NLP. Mamy też modele, które można wytrenować z dużej ilości tekstu nieoznaczonego etykietami, a następnie zastosować do określonych zadań, często osiągając wydajność na najwyższym poziomie.