AI : Technologie, Aplikacje i Wyzwania : Pętla zamknięta Visual P300 i BCI

https://aie24.pl/

P300 ma dodatnie maksimum w EPR (potencjał związany ze zdarzeniem) w zakresie 5–19 mV, które jest opóźnione między 220 a 500 ms po zdarzeniu. EPR określa się jako średni wzrost amplitudy rzędów chronologicznych najważniejszych znaków mózgowych na liniach środkowych. Jeśli przerwa między bodźcami jest mniejsza niż 250–300 ms, wówczas sygnał może nakładać się na następny sygnał, który powstaje w tym czasie. Wizualny P300 ma wysoki stopień dokładności i można go skalibrować w ciągu kilku minut, umożliwiając użytkownikom łatwe i szybkie korzystanie z systemu zarządzania urządzeniem. Wadą jest zmęczenie wynikające z konieczności dużego stopnia skupienia uwagi oraz niemożność korzystania z tego systemu przez osoby słabowidzące ze względu na konieczność silnego skupienia podczas użytkowania, chociaż zastosowanie tej metody znacznie skraca czas treningu. Eksperyment wymaga dużej uwagi, ponieważ amplituda P300 zależy od liczby wystąpień celu, czasu trwania między próbami, ciężkości eksperymentu, stanu pacjenta podczas uwagi i typowych nawyków behawioralnych. Ta metafora pokazuje zwiększoną wydajność poznawczą uwagi i szybkie odpowiedzi pamięciowe. Najczęstsze zastosowanie związane jest z rozwojem klawiatur protetycznych w celu zapewnienia ścieżek komunikacji dla pacjentów niepełnosprawnych. Zwykle narzędzia do sprawdzania pisowni w BCI zawierają macierz liter, cyfr i symboli. Wiersze i kolumny tej matrycy znajdują się w rzędzie, a uwaga pacjenta skupiona jest na zaprojektowanych znakach, a następnie ortograf edytuje je zgodnie ze swoją pozycją w danym wierszu i kolumnie. Urządzenia te wykorzystują model statystyczny oparty na P300 do identyfikacji prawidłowego symbolu podczas migania. Metoda ta jest przydatna dla osób z ALS i udarem mózgu, a także do sterowania robotami humanoidalnymi i nawigacją na wózku inwalidzkim, sterowania kursorem komputera w przestrzeni 2D przez osoby sparaliżowane oraz sterowania sztuczną ręką w stanie wirtualnym w inteligentnej rzeczywistości [18]. Badania BCI pokazują znaczący postęp w technologii neurorehabilitacji i sprzętu pomocniczego, wykazując zdolność do zarządzania zewnętrznymi urządzeniami protetycznymi w przypadku uszkodzeń rdzenia kręgowego i innych rodzajów chorób komunikacyjnych, takich jak stwardnienie zanikowe boczne (ALS) i stwardnienie rozsiane (SM).

Jedną z najważniejszych prowokacji BCI jest niezbędny czas ćwiczeń, aby pacjent osiągnął godną pozazdroszczenia umiejętność korzystania z takich systemów. Większości pacjentów zajmuje to dużo czasu, co powoduje zmęczenie pacjenta. Aby dokładniej zbadać to zjawisko, badacze badają, w jaki sposób badani odzwierciedlają zmienność behawioralną między sesjami, aby zebrać odpowiednie dane do kalibracji zachowań pacjentów na początku każdej sesji. Aby do pewnego stopnia uniknąć tego problemu, zastosowano metodę transferu wiedzy w celu ustanowienia treningu zerowego jako ogólnej metody BCI, którą można zastosować u większości pacjentów. Liczne metody dekodowania, przetwarzania sygnału i algorytmy klasyfikacji zostały ostatnio szczegółowo zbadane, ponieważ dowody pochodzące z sygnału EEG wskazują, że stosunek sygnału do szumu jest niewystarczający do skutecznego sterowania urządzeniem, takim jak np. ramię neuroprotetyczne. Wymaga to bardziej niezawodnych, dokładnych i szybszych algorytmów sieciowych. Aby poprawić tę wydajność, niektórzy badacze zalecają stosowanie metod uczenia wstępnego i głębokiego uczenia maszynowego, podczas gdy inni proponują adaptowalne klasyfikatory i dekodery w celu skorygowania niestacjonarnego charakteru sygnału EEG. Zamknięta pętla BCI to system adaptacji i wzajemnego uczenia się, w którym człowiek i komputer uczą się od siebie nawzajem, a jednocześnie zachodzi proces adaptacji algorytmów matematycznych i obwodów neuronowych. Nazywa się to kontrolą współdzieloną lub hybrydową. Wspólny BCI zakłada zarówno systemy kontroli niskiego, jak i wysokiego poziomu. Mózg generuje polecenia wysokiego poziomu, a konwencjonalne systemy monitorowania są odpowiedzialne za niezadowalające funkcje monitorowania poleceń. Pożądanym systemem BCI jest system ze wzajemną komunikacją, w którym system regulacji wykonawczej jest głównym (w sterowaniu wysokiego poziomu), podczas gdy inne części systemu BCI są wykorzystywane jako jego inteligentne wsparcie (w sterowaniu niskiego poziomu). Dzięki nadzorowi poznawczemu konsument działa jako nadzorca zewnętrznego niezależnego systemu, zamiast stale komunikować się z instrukcjami kontrolnymi. EEG skóry głowy jest tanią technologią monitorowania, dlatego ma duży potencjał komercjalizacji. Niektóre badania szacują modyfikacje behawioralne w reakcji na znaki dźwiękowe w otoczeniu rysunku i identyfikują korelacje między falami mózgowymi a innymi bodźcami sensorycznymi, takimi jak reakcja wątroby [20]. Opracowanie suchych czujników nie wymaga przygotowania skóry ani aplikacji żelu, co ułatwia aplikację BCI, umożliwiając np. lepszą jakość snu i lepszą skuteczność aplikacji leków przeciwdepresyjnych u pacjenta. Jednym z przyszłych kierunków zastosowania BCI będzie neuro-sprzężenie zwrotne jako proces samoregulacji fal mózgowych w celu wzmocnienia różnych aspektów kontroli poznawczej, zmniejszania negatywnych skutków ubocznych leków, takich jak bóle głowy. Ta metoda może pomóc w leczeniu pacjentów z uzależnieniami, otyłością, autyzmem i astmą. Najnowsze metody poznawcze koncentrują się na przezwyciężaniu neurorehabilitacyjnych defektów poznawczych, takich jak zespół nadpobudliwości psychoruchowej z deficytem uwagi, lęk, padaczka, choroba Alzheimera, urazowe uszkodzenie mózgu i zespół stresu pourazowego.

Powikłania prawdziwego języka naturalnego

https://aie24.pl/

Gramatyka prawdziwego angielskiego jest nieskończenie złożona (a inne języki są równie złożone). Pokrótce wspomnimy o niektórych tematach, które przyczyniają się do tej złożoności. Ocena ilościowa: Rozważ zdanie „Każdy agent czuje powiew”. Zdanie ma tylko jedną analizę składniowąa pod E0, ale jest semantycznie niejednoznaczna: czy istnieje jeden powiew, który jest odczuwany przez wszystkich agentów, czy każdy agent odczuwa osobny powiew osobisty? Obie interpretacje można przedstawić jako

Jedno standardowe podejście do kwantyfikacji polega na tym, że gramatyka nie definiuje rzeczywistego logicznego zdania semantycznego, ale raczej formę quasi-logiczną, która jest następnie przekształcana w zdanie logiczne przez algorytmy poza procesem parsowania. Algorytmy te mogą mieć reguły preferencji wyboru jednego zakresu kwantyfikatora zamiast innego — preferencje, które nie muszą być odzwierciedlone bezpośrednio w gramatyce. Pragmatyka: Pokazaliśmy, jak agent może postrzegać ciąg słów i używać gramatyki, aby uzyskać zestaw możliwych interpretacji semantycznych. Teraz zajmujemy się problemem uzupełnienia interpretacji, dodając zależne od kontekstu informacje o aktualnej sytuacji. Najbardziej oczywistą potrzebą informacji pragmatycznych jest rozstrzygnięcie znaczenia indeksów, które są zwrotami odnoszącymi się bezpośrednio do aktualnej sytuacji. Na przykład w zdaniu „Jestem dzisiaj w Bostonie” zarówno „ja”, jak i „dzisiaj” są indeksami. Słowo „ja” byłoby reprezentowane przez mówiącego, płynnego, który odnosi się do różnych przedmiotów w różnym czasie, i to do słuchacza należałoby rozstrzygnięcie desygnatu płynnego – to nie jest uważane za część gramatyki, ale raczej za kwestię. pragmatyki. Kolejną częścią pragmatyki jest interpretacja intencji mówiącego. Wypowiedź mówiącego jest uważana za akt mowy i od słuchacza zależy, jaki to rodzaj działania – pytanie, oświadczenie, obietnica, ostrzeżenie, polecenie i tak dalej. Polecenie takie jak „przejdź do 2 2” niejawnie odnosi się do słuchacza. Jak dotąd nasza gramatyka języka S obejmuje tylko zdania deklaratywne. Możemy ją rozszerzyć na polecenia — polecenie to fraza czasownikowa, w której podmiot jest domyślnie słuchaczem polecenia:

Zależności długodystansowe: Na rysunku  widzieliśmy, że „nie słyszała go ani nawet go nie widziała” zostało przeanalizowane z dwiema lukami, w których brakuje NP, ale odnosi się do NP „jego”. Możemy użyć tego symbolu, aby przedstawić luki: „nie słyszała go [nie słyszała ani nawet nie widziała]”. Ogólnie odległość między luką a NP, do której się odnosi, może być dowolnie długa: w „Komu agent kazał ci przekazać złoto?” luka odnosi się do „Kto”, oddalonego o 11 słów. Można zastosować złożony system reguł rozszerzonych, aby upewnić się, że brakujące NPs dopasować prawidłowo. Zasady są złożone; na przykład, nie możesz mieć przerwy w jednej gałęzi koniunkcji PN: „W co ona zagrała [Plany Lochy i ]?” jest niegramatyczne. Ale możesz mieć taką samą lukę w obu gałęziach koniunkcji VP, jak w zdaniu „Co czy [PZ [PZ pachnie] i [PZ strzela strzałą w ]]?” Czas i napięcie: Załóżmy, że chcemy przedstawić różnicę między „Ali kocha Bo” a „Ali kochał Bo”. Angielski używa czasów czasowników (przeszłego, teraźniejszego i przyszłego), aby wskazać względny czas wydarzenia. Dobrym wyborem do reprezentowania czasu wydarzeń jest notacja rachunku zdarzeń. W rachunku zdarzeń mamy

Ali loves Bo: E1 Loves(Ali,Bo) Λ Podczas(Now, Extent(E1))

Ali loves Bo: E2  Loves(Ali,Bo) Λ Po(Now, Extent(E2)) .

To sugeruje, że nasz dwie reguły leksykalne słów „kocha” i „kochany” powinny brzmieć następująco:

Poza tą zmianą wszystko inne w gramatyce pozostaje takie samo, co jest zachęcającą wiadomością; sugeruje, że jesteśmy na dobrej drodze, jeśli możemy tak łatwo dodać komplikacje, takie jak czasy czasowników (chociaż właśnie zarysowaliśmy powierzchnię pełnej gramatyki dla czasu i czasu). Niejednoznaczność: Mamy tendencję do myślenia o niejednoznaczności jako niepowodzeniu w komunikacji; gdy słuchacz świadomie zdaje sobie sprawę z dwuznaczności wypowiedzi, oznacza to, że wypowiedź jest niejasna lub zagmatwana. Oto kilka przykładów zaczerpniętych z nagłówków gazet:

Squad helps dog bite victim.

Police begin campaign to run down jaywalkers.

Helicopter powered by human flies.

Once-sagging cloth diaper industry saved by full dumps.

Include your children when baking cookies.

Portable toilet bombed; police have nothing to go on.

Milk drinkers are turning to powder.

Two sisters reunited after 18 years in checkout counter.

Takie nieporozumienia są wyjątkiem; przez większość czasu język, który słyszymy, wydaje się jednoznaczny. Tak więc, kiedy naukowcy po raz pierwszy zaczęli używać komputerów do analizy języka w latach 60., byli dość zaskoczeni, gdy dowiedzieli się, że prawie każde zdanie jest niejednoznaczne, z wieloma możliwymi analizami (czasem setkami), nawet jeśli pojedyncza preferowana analiza jest jedyną, która jest natywna. mówcy zauważają. Na przykład rozumiemy wyrażenie „brązowy ryż i czarna fasola” jako „[brązowy ryż] i [czarna fasola]” i nigdy nie bierzemy pod uwagę interpretacji o niskim prawdopodobieństwie „brązowy [ryż i czarna fasola]”, gdzie przymiotnik „brązowy ” modyfikuje całą frazę, a nie tylko „ryż”. Kiedy słyszymy „Poza psem książka jest najlepszym przyjacielem człowieka”, interpretujemy „na zewnątrz” jako „z wyjątkiem” i uważamy, że to zabawne, gdy następne zdanie żartu Groucho Marxa brzmi „Wewnątrz psa jest zbyt ciemno, by czytać”. Niejednoznaczność leksykalna ma miejsce, gdy słowo ma więcej niż jedno znaczenie: „wstecz” może być przysłówkiem (wróć), przymiotnikiem (tylne drzwi), rzeczownikiem (tył pokoju), czasownikiem (powrót kandydata) lub rzeczownik (rzeka w Nunavut w Kanadzie). „Jack” może być nazwą własną, rzeczownikiem (kartą do gry, sześcioramiennym metalowym pionkiem do gry, flagą morską, rybą, ptakiem, serem, gniazdem itp.) lub czasownikiem (do gniazda samochód, polowanie ze światłem lub mocne uderzenie w baseball). Niejednoznaczność składniowa odnosi się do frazy, która ma wiele pars: „Wyczułem wumpusa w 2,2” ma dwie parsy: jedna, w której fraza przyimkowa „w 2,2” modyfikuje rzeczownik, a druga, w której modyfikuje czasownik. Niejednoznaczność składniowa prowadzi do niejednoznaczności semantycznej, ponieważ jedna parsowanie oznacza, że ​​wumpus jest w 2,2, a druga oznacza, że ​​smród jest w 2,2. W takim przypadku błędna interpretacja może być śmiertelnym błędem. Może też istnieć niejednoznaczność między znaczeniami dosłownymi i przenośnymi. Figury mowy są ważne w poezji i są również powszechne w mowie potocznej. Metonimia to figura retoryczna, w której jeden przedmiot zastępuje inny. Kiedy słyszymy „Chrysler ogłosił nowy model”, nie interpretujemy tego jako powiedzenie, że firmy mogą mówić; raczej rozumiemy, że oświadczenie to ogłosił rzecznik firmy. Metonimia jest powszechna i często nieświadomie interpretowana przez ludzkich słuchaczy. Niestety nasza gramatyka w takiej formie, w jakiej jest napisana, nie jest tak prosta. Aby właściwie obsłużyć semantykę metonimii, musimy wprowadzić zupełnie nowy poziom niejednoznaczności. Moglibyśmy to zrobić, dostarczając dwa obiekty do semantycznej interpretacji każdej frazy w zdaniu: jeden dla obiektu, do którego fraza dosłownie się odnosi (Chrysler), a drugi dla odniesienia metonimicznego (rzecznik). Musimy wtedy powiedzieć, że istnieje między nimi związek. W naszej obecnej gramatyce „Chrysler ogłosił” jest interpretowane jako

Musimy to zmienić, aby

To mówi, że istnieje jeden byt x, który jest równy Chryslerowi, i inny byt m, który dokonał ogłoszenia, i że są one w relacji metonimii. Następnym krokiem jest określenie, jakie rodzaje relacji metonimii mogą wystąpić. Najprostszym przypadkiem jest sytuacja, w której w ogóle nie ma metonimii — przedmiot dosłowny x i przedmiot metonimiczny m są identyczne:

W przypadku Chryslera rozsądnym uogólnieniem jest to, że organizacja może być używana jako rzecznik tej organizacji:

Inne metonimie to autor dzieł (czytałem Szekspira) lub ogólniej producent produktu (jeżdżę Hondą) i część za całość (Red Sox potrzebują mocnego ramienia). Niektóre przykłady metonimii, takie jak „Kanapka z szynką na stole 4 chce innego piwa”, są bardziej nowatorskie i są interpretowane w odniesieniu do sytuacji (takich jak czekanie przy stolikach i nieznajomość nazwiska klienta). Metafora to kolejna figura retoryczna, w której fraza o jednym dosłownym znaczeniu jest używana do zasugerowania innego znaczenia poprzez analogię. Metafora może być zatem postrzegana jako rodzaj metonimii, w której relacja jest relacją podobieństwa. Ujednoznacznienie to proces odzyskiwania najbardziej prawdopodobnego zamierzonego znaczenia wypowiedzi. W pewnym sensie mamy już ramy rozwiązania tego problemu: z każdą regułą związane jest prawdopodobieństwo, więc prawdopodobieństwo interpretacji jest iloczynem prawdopodobieństw reguł, które doprowadziły do ​​interpretacji. Niestety, prawdopodobieństwa odzwierciedlają częstość występowania fraz w korpusie, z którego nauczono gramatyki, a więc odzwierciedlają wiedzę ogólną, a nie konkretną wiedzę o aktualnej sytuacji. Aby poprawnie dokonać ujednoznacznienia, musimy połączyć cztery modele:

  1. Model świata: prawdopodobieństwo wystąpienia zdania w świecie. Biorąc pod uwagę to, co wiemy o świecie, bardziej prawdopodobne jest, że mówiący, który mówi „nie żyję” oznacza „mam poważne kłopoty” lub „przegrałem tę grę wideo”, a nie „moje życie się skończyło, a jednak mogę nadal mówić”.
  2. Model mentalny: prawdopodobieństwo, że mówiący ukształtuje intencję zakomunikowania słuchaczowi pewnego faktu. Podejście to łączy modele tego, w co wierzy mówiący, w co wierzy mówiący, w co wierzy słuchający i tak dalej. Na przykład, kiedy polityk mówi: „Nie jestem oszustem”, model światowy może przypisać prawdopodobieństwo tylko 50% twierdzeniu, że polityk nie jest przestępcą, a 99,999% twierdzeniu, że nie jest on kijem haczykowatego pasterza. Niemniej jednak wybieramy pierwszą interpretację, ponieważ jest to bardziej prawdopodobne do powiedzenia.
  3. Model języka: prawdopodobieństwo, że zostanie wybrany określony ciąg słów, biorąc pod uwagę, że mówca ma zamiar przekazać pewien fakt.
  4. Model akustyczny: w przypadku komunikacji mówionej prawdopodobieństwo wygenerowania określonej sekwencji dźwięków, zakładając, że mówca wybrał dany ciąg słów. (W przypadku komunikacji pisanej odręcznie lub maszynowo, mamy problem z optycznym rozpoznawaniem znaków.)

AI : Technologie, Aplikacje i Wyzwania : Urządzenia inwazyjne i nieinwazyjne BCI

https://aie24.pl/

Urządzenia mózgowo-komputerowe umożliwiają sterowanie urządzeniem za pomocą aktywności elektroencefalograficznej (EEG) skóry głowy użytkownika lub poprzez monitorowanie aktywności jednego z neuronów obecnych w mózgu. EEG ma niewystarczającą rozdzielczość i wymaga intensywnej nauki, podczas gdy obrazowanie tylko jednego neuronu mózgowego wiąże się ze znacznym ryzykiem klinicznym i ma niewystarczającą stabilność. Aktywność elektrokardiograficzna (ECoG) zarejestrowana z obszaru mózgu pozwala klientom szybko i dokładnie zarządzać jednowymiarowym kursorem, co pozwala im identyfikować sygnały związane z różnymi rodzajami wynalazków motorycznych i mowy. Ponadto badania w otwartej pętli pokazują, że sygnały ECoG o częstotliwości 180 Hz kodują kluczowe dowody związane z dwuwymiarowym ruchem joysticka. Ta metoda BCI pozwala pacjentom z twardymi dysfunkcjami mieć korespondencję pozamięśniową, która jest potencjalnie bardziej stabilna i mniej traumatyczna niż BCI, która wykorzystuje elektrodę penetrującą mózg . BCI stosuje metody nieinwazyjne i inwazyjne. Nieinwazyjne BCI wykorzystuje zapis EEG ze skóry głowy. Jest wolny od ryzyka, tani, ma niską rozdzielczość przestrzenną, wymaga intensywnego szkolenia użytkowników, podczas gdy inwazyjny BCI wykorzystuje aktywność sygnalizacyjną neuronów zarejestrowaną w mózgu. Inwazyjne BCI wykazuje wyższą rozdzielczość przestrzenną i sterowanie sygnałem, które mają większy stopień swobody, ale wykazuje też wady dotyczące aspektu utrzymania stabilnego sygnału podczas długotrwałej rejestracji, ponieważ małe miejsca o wysokiej impedancji prowadzą do degeneracji sygnału na skutek enkapsulacji. Ponadto niewielkie przemieszczenia elektrod lekko naciętych powodują zmiany w warstwach korowych zawierających ogromną liczbę neuronów, co jest charakterystyczne dla neuronów piramidalnych w warstwie kory ruchowej. Metodologia BCI oparta na elektrokardiograficznej aktywności korowej (ECoG) jest dobrą alternatywą dla dotychczasowej metody EEG. ECoG ma lepszą rozdzielczość przestrzenną w porównaniu z EEG (rzędu milimetrów zamiast centymetrów), szersze pasmo przenoszenia (0–200 Hz zamiast 0–40 Hz), większą amplitudę (50–100 μV zamiast 10 –20 μV) i znacznie mniejszą niestabilność artefaktów niż w przypadku elektromiografii (EMG), w której elektrody nie penetrują kory mózgowej, co wpływa na lepszą długoterminową stabilność i bezpieczeństwo sygnału niż obrazowanie pojedynczego neuronu. BCI inicjuje nowatorską metodę neurorehabilitacji pacjentów niepełnosprawnych ruchowo (sparaliżowanych) i z amputowanymi kończynami) oraz uszkodzenia mózgu (udar). Bezprzewodowe nagrywanie, uczenie maszynowe i rozdzielczość w czasie rzeczywistym to główne cele BCI opartego na EEG. Aktywność mózgu można zaobserwować za pomocą różnych metod neuroobrazowania. Poprawa dekodowania ruchu kinematycznego kończyn górnych za pomocą inwazyjnej elektrody umożliwia precyzyjną regulację urządzeń protetycznych w przestrzeni 3D. Niestety inwazyjne elektrody powodują duże ryzyko podczas operacji i postępującą degenerację zarejestrowanych sygnałów. W związku z tym metody nieinwazyjne, takie jak funkcjonalny rezonans magnetyczny (fMRI), magnetoencefalografia (MEG), spektroskopia w bliskiej podczerwieni (NIRS) i EEG, są metodami bardziej powszechnymi w praktyce medycznej. Paradygmat motoryczno-wyobrażeniowy opisuje ruch obrazu zamiast faktycznego ruchu wykonawczego, pokazując, że wyobraźnia aktywuje obszar w mózgu odpowiedzialny za każdy konkretny ruch. Najczęściej stosowanymi modelami są rytmy sensomotoryczne (SMR) i wyimaginowana kinematyka ciała (IBK). Chociaż fMRI ma wysoką rozdzielczość przestrzenną, EEG jest najbardziej rozpowszechnionym podejściem ze względu na prosty pomiar aktywności nerwów, taniość i łatwość przenoszenia do zastosowań klinicznych. EEG mierzy aktywność elektryczną mózgu wytwarzaną przez przepływ prądu elektrycznego podczas wzbudzania synaps dendrytów nerwowych, zwłaszcza w korze i głębokiej architekturze mózgu. Te oznaki elektryczne są rejestrowane przez umieszczenie elektrod na skórze głowy. Znaki te regulują udogodnienia, takie jak wózki inwalidzkie i techniki pomocy informacyjnej. Metodę tę stosuje się również do sterowania urządzeniami pomocniczymi i rehabilitacyjnymi. Znaki EEG umożliwiają ścieżki z mózgu do różnych urządzeń zewnętrznych, umożliwiając kontrolę urządzeń wspomagających osób niepełnosprawnych i urządzeń rehabilitacyjnych kierowanych przez mózg dla klientów z udarami i innymi zaburzeniami nerwowymi. Umożliwia analizę zależności między aktywnością mózgu a przetwarzaniem bionicznym i poznawczym. Aktywność SMR jest najbardziej obiecującą metodą dla osób z paraplegią, urazem rdzenia kręgowego i stwardnieniem zanikowym bocznym (ALS). Volpav, wszyscy i McFarland używali czterokanałowych rytmów sensomotorycznych w lewym i prawym środkowym rowku, aby przesuwać kursor w przestrzeni 2D do celów znajdujących się na czterech krawędziach ekranu komputera. Następnie poprosili osoby z urazami rdzenia kręgowego, aby przesunęły myszką prawą i lewą rękę kursora do ośmiu różnych obiektów na bocznym urządzeniu wyświetlającym.  Wreszcie wymagane jest sterowanie kursorem w stosunku do celów umieszczonych w przestrzeni 3D. We wszystkich tych badaniach pacjenci są uczeni dostosowywania SMR w oparciu o wyobrażone części ciała, takie jak ręce i nogi. SMR nie ma możliwości bezpośredniej ekstrakcji parametrów kinematycznych, takich jak położenie, prędkość i przyspieszenie. Wyobrażona kinematyka ciała (IBK) jest motoryczno-wyobrażeniową metodą opartą na inwazyjnej technologii BCI. Ta metoda może być nieinwazyjna stosowana tylko dla sygnałów SMR o niskiej częstotliwości (poniżej 2 Hz). Metoda ta zakłada protokół treningowy i analizę, w której pacjent jest proszony o wizualizację uporczywych ruchów tylko jednej części ciała w wielowymiarowej przestrzeni. Otrzymane sygnały są deszyfrowane w dziedzinie czasu. Bradberry zbadał dwuwymiarową regulację kursora spontanicznym wyimaginowanym ruchem prawego palca (zmniejszając tym samym czas wykonania do wartości dla urządzeń inwazyjnych) oraz przeanalizował w czasie główne częstotliwości mniejsze niż 1 Hz .

Nauka gramatyk semantycznych

https://aie24.pl/

Niestety, Penn Treebank nie zawiera semantycznych reprezentacji swoich zdań, a jedynie drzewa syntaktyczne. Jeśli więc mamy uczyć się gramatyki semantycznej, będziemy potrzebować innego źródła przykładów. Zettlemoyer i Collins  opisują system, który uczy się gramatyki systemu odpowiedzi na pytania z przykładów, które składają się ze zdania połączonego z formą semantyczną tego zdania:

Zdanie: Jakie stany graniczą z Teksasem?

Forma logiczna: λx.state(x) Λ λx.borders(x,Teksas)

Biorąc pod uwagę duży zbiór takich par i trochę ręcznie zakodowanej wiedzy dla każdej nowej domeny, system generuje wiarygodne wpisy leksykalne (na przykład, że „Teksas” i „stan” są rzeczownikami, tak że stan (Teksas) jest prawdziwy ) i jednocześnie uczy się parametrów gramatyki, która umożliwia systemowi parsowanie zdań na reprezentacje semantyczne. System Zettlemoyera i Collinsa osiągnął 79% dokładność w dwóch różnych zestawach testowych niewidocznych zdań. Zhao i Huang demonstrują parser redukujący zmiany, który działa szybciej i osiąga dokładność od 85% do 89%. Ograniczeniem tych systemów jest to, że dane uczące zawierają formy logiczne. Są one drogie w tworzeniu i wymagają ludzkich adnotatorów ze specjalistyczną wiedzą – nie wszyscy rozumieją subtelności rachunku lambda i logiki predykatów. Dużo łatwiej jest zebrać przykłady par pytanie/odpowiedź:

* Pytanie: Jakie stany graniczy z Teksasem?

* Odpowiedź: Luizjana, Arkansas, Oklahoma, Nowy Meksyk.

* Pytanie: Ile razy Rhode Island zmieściłoby się w Kalifornii?

* Odpowiedź: 135

Takie pary pytań/odpowiedzi są dość powszechne w sieci, więc dużą bazę danych można utworzyć bez udziału ekspertów. Korzystając z tego dużego źródła danych, można zbudować parsery, które przewyższają te, które wykorzystują małą bazę danych z adnotowanymi formami logicznymi Kluczowym podejściem opisanym w tych artykułach jest wynalezienie wewnętrznej formy logicznej, która jest kompozycyjna, ale nie pozwala na wykładniczo dużą przestrzeń poszukiwań.

AI : Technologie, Aplikacje i Wyzwania : Interfejs mózg-komputer: stan techniki, wyzwania i przyszłość

https://aie24.pl/

Zdobywanie nowych możliwości poprzez BCI to jedno z niespełnionych marzeń współczesnego człowieka. Tak jak starożytni Grecy wyobrażali sobie latanie, tak dzisiaj fantazjujemy o maszynach rozwiązujących problem ludzkiej śmierci, a jednocześnie przeraża nas oczekiwanie na odpowiedź przekraczającą granice ludzkiej wyobraźni. Niedawno Elon Musk i Brian Johnson ogłosili rychłą realizację takiego interfejsu, co sprawiło, że pytanie o to, jak bliski jest taki moment i jakie byłyby konsekwencje takiej realizacji, stało się jeszcze ważniejsze. Jak ten interfejs miałby działać i jakie są wszystkie ukryte niebezpieczeństwa dla nas w tym nienaturalnym związku?. Wyrafinowane urządzenia dwukierunkowe, używane do rejestrowania i stymulacji układu nerwowego, doprowadziły do ​​radykalnie nowej metody rehabilitacji pacjentów po udarze i rdzeniu kręgowym poprzez wzmocnienie połączenia między różnymi obszarami mózgu a mózgiem i rdzeniem kręgowym poprzez przekierowanie informacji wokół powierzchni urazu. Sprzyjają resuscytacji sparaliżowanej części ciała. Ta technologia już ma umiejętność wykorzystania interfejsu komputera mózgowego do umożliwienia ruchów sparaliżowanych, które są w rzeczywistości dużo wolniejsze i mniej precyzyjne niż rzeczywiste ruchy człowieka. A jednak, choć wciąż jesteśmy daleko od celu, pozwala nam to robić imponujące rzeczy. Dlatego takie pierwsze kroki są zachęcające, biorąc pod uwagę, że neurony oddziałują między sobą poprzez złożoną sieć sygnałów elektrycznych i reakcji chemicznych . Niemniej jednak ten elektrochemiczny język można wytłumaczyć za pomocą obwodów elektronicznych, ponieważ neurony nie ułatwiają zrozumienia wiadomości wysyłanej przez taką stymulację w lesie wszystkich innych wrażeń obecnych podczas aktywności neuronowej. Konstrukcja samego interfejsu stwarza szczególny problem możliwego uszkodzenia tkanek neuronalnych, ponieważ tkanka mózgowa jest miękka i elastyczna, podczas gdy większość materiałów przewodzących prąd elektryczny, takich jak przewody łączące tkankę mózgową, jest bardzo nieelastyczna, co powoduje bliznowacenie i odporność następujące po nich reakcje skutkujące utratą wydajności interfejsów w czasie [3, 4]. Pomimo tych wszystkich wyzwań, w przyszłość należy patrzeć z większym optymizmem, ponieważ mózg jest zdumiewająco elastyczny i jest w stanie nauczyć się korzystać z interfejsu mózg-komputer w podobny sposób, jak przyswaja nowe umiejętności, takie jak prowadzenie samochodu. Ponadto mózg może nauczyć się wyjaśniać nowe zestawy danych sensorycznych, nawet jeśli są one dostarczane nieinwazyjnie, za pomocą impulsów magnetycznych. Ponadto można go dostosować w dwóch kierunkach, co oznacza to, że tak jak elektronika uczy się od mózgu, tak i mózg uczy się od elektroniki w całym procesie ich interakcji, co jest niezbędne do budowy mostków nerwowych, czyli wzajemnie harmonijnych dwukierunkowych interfejsów mózg-komputer. Fascynujący jest niedawny sukces skupienia leczenia zaburzeń, takich jak cukrzyca, na stosowaniu elektroceutyków, eksperymentalnych małych implantów, które leczą chorobę bez leków poprzez bezpośrednie przesyłanie instrukcji do narządów wewnętrznych [5]. Elon Musk, który założył Neuralink, którego ostatecznym celem było stworzenie interfejsu człowiek-komputer, oczekuje, że wkrótce zostaną stworzone żądane warunki, w których ludzki mózg zwiększy swoje możliwości do tego stopnia, że ​​znacznie przekroczą one obecne naturalne zdolności człowieka w zakresie bliska przyszłość. Taka wizja, choć wydaje się odległa i baśniowa, stała się tak bliska i realistyczna, że ​​życie bez niej jutro będzie to nie do pomyślenia, ponieważ gdy tylko początkowe podejrzenie w interfejsie mózg-komputer zostanie przezwyciężone, nastąpi niewiarygodny skok ludzkich możliwości, znacznie przewyższający wszystkie istniejące ograniczenia. W naładowanej emocjami wypowiedzi Elona Muska mówi on o bezprecedensowym postępie neuroinżynierii, bo mimo podkreślanej zdrowej dawki sceptycyzmu widać, że takie przedsięwzięcie jest nieporównywalnie bardziej złożone niż kolonizacja Marsa. Jest to zatem jeszcze jeden powód, aby nie wahać się stawić czoła wszelkim trudnościom, wytrwale i odważnie dążąc do ostatecznego celu, jakim jest połączenie ludzkiego mózgu ze sztuczną inteligencją. Abstrahując od niepokoju, który narzuca intensywny rozwój sztucznej inteligencji, zasadnicza idea budowy interfejsu mózg-komputer jest nieunikniona w najbliższej przyszłości, choć wciąż pachnie science fiction.

Interpretacja semantyczna

https://aie24.pl/

Aby pokazać, jak dodać semantykę do gramatyki, zaczynamy od przykładu, który jest prostszy niż angielski semantyka wyrażeń arytmetycznych. Rysunek 24.10 przedstawia gramatykę wyrażeń arytmetycznych, gdzie każda reguła jest wzbogacona o pojedynczy argument wskazujący na semantyczną interpretację frazy. Semantyka cyfry takiej jak „3” to sama cyfra. Semantyka wyrażenia „3 + 4” to operator „+” zastosowany do semantyki wyrażeń „3” i „4”. Reguły gramatyczne są zgodne z zasadą semantyki kompozycyjnej – semantyka frazy jest funkcją semantyki podfraz. Rysunek 

 

pokazuje parsuj drzewo dla 3+(4 ⁄ 2) zgodnie z tą gramatykę. Korzeniem drzewa parsowania jest Exp(5), wyrażenie, którego interpretacja semantyczna to 5. Przejdźmy teraz do semantyki języka angielskiego, a przynajmniej jego niewielkiej części. Do naszej reprezentacji semantycznej użyjemy logiki pierwszego rzędu. Tak więc proste zdanie „Ali loves Bo” powinno otrzymać semantyczną reprezentację Loves(Ali,Bo). Ale co z frazami składowymi? Możemy przedstawić NP „Ali” logicznym terminem Ali. Ale wiceprezes „kocha Bo” nie jest ani logicznym terminem, ani pełnym logicznym zdaniem. Intuicyjnie „kocha Bo” to opis, który może, ale nie musi, odnosić się do konkretnej osoby. (W tym przypadku odnosi się to do Ali.) Oznacza to, że „kocha Bo” jest predykatem, który w połączeniu z terminem reprezentującym osobę daje pełne zdanie logiczne. Używając λ-notacji –  możemy przedstawić „kocha Bo” jako orzeczenie

λ x Loves(x,Bo) :

Teraz potrzebujemy reguły, która mówi: „NP z semantyką n, po którym następuje VP z semantyką pred daje zdanie, którego semantyka jest wynikiem zastosowania pred do n:”

S(pred(n)) -> NP(n) VP(pred) :

Reguła mówi nam, że semantyczna interpretacja „Ali kocha Bo” to ( λ x Loves(x,Bo))(Ali) ; co jest odpowiednikiem Loves(Ali;Bo). Technicznie mówimy, że jest to β-redukcja Aplikacja funkcji lambda. Reszta semantyki wynika wprost z wyborów, których dokonaliśmy do tej pory. Ponieważ VP są reprezentowane jako predykaty, czasowniki również powinny być predykatami. Czasownik „kocha” jest reprezentowany jako λy λx Loves(x,y), orzeczenie, które po podaniu argumentu Bo zwraca orzeczenie λx Loves(x,Bo).  W bardziej kompletnej gramatyce umieścilibyśmy wszystkie rozszerzenia (semantykę, przypadek, numer osoby i głowę) w jednym zestawie reguł. Tutaj pokazujemy tylko rozszerzenie semantyczne, aby wyjaśnić, jak działają reguły.

AI : Technologie, Aplikacje i Wyzwania : Wniosek

https://aie24.pl/

Mieliśmy przegląd chirurgii laparoskopowej i jej rewolucję, w której różne operacje otwarte zostały dostosowane do chirurgii minimalnego dostępu (MAS) oraz korzyści z niej płynące dla pacjentów, w tym krótszy pobyt w szpitalu, mniejszy ból pooperacyjny, mniejszą utratę krwi i szybszy powrót do zdrowia przy mniejszym ryzyku infekcji i lepsze wyniki. Omówiono praktyczne zastosowanie chirurgii robotycznej, jej aktualne trendy, różne otwarte wyzwania oraz jej przyszłość. Opisano również różne typy robotów chirurgicznych wraz z ich wadami.

Rozszerzone gramatyki

https://aie24.pl/

Do tej pory zajmowaliśmy się gramatykami bezkontekstowymi. Ale nie każdy NP może pojawić się w każdym kontekście z równym prawdopodobieństwem. Zdanie „Zjadłem banana” jest w porządku, ale „Zjadłem banana” jest niegramatyczne, a „Zjadłem bandanę” jest mało prawdopodobne. Problem polega na tym, że nasza gramatyka koncentruje się na kategoriach leksykalnych, takich jak Zaimek, ale podczas gdy „ja” i „ja” są zaimkami, tylko „ja” może być podmiotem zdania. Podobnie „banan” i „chustka” to oba rzeczowniki, ale ten pierwszy jest znacznie bardziej prawdopodobny jako przedmiot „zjadł”. Językoznawcy twierdzą, że zaimek „ja” występuje w przypadku subiektywnym (tzn. jest podmiotem czasownika), a „ja” jest w przypadku obiektywnym3 (tzn. jest dopełnieniem czasownika). Mówią również, że „ja” jest w pierwszej osobie („ty” to druga osoba, a „ona” to trzecia osoba) i jest w liczbie pojedynczej („my” to liczba mnoga). Kategoria taka jak Zaimek, która została rozszerzona o funkcje, takie jak „przypadek subiektywny, liczba pojedyncza w pierwszej osobie”, nazywa się podkategorią. W tej sekcji pokazujemy, w jaki sposób gramatyka może reprezentować tego rodzaju wiedzę, aby dokładniej rozróżnić, które zdania są bardziej prawdopodobne. Pokażemy również, jak w sposób kompozycyjny konstruować reprezentację semantyki frazy. Wszystko to zostanie osiągnięte dzięki rozszerzonej gramatyce, w której nieterminale są nie tylko symbolami atomowymi, takimi jak zaimek lub NP, ale są ustrukturyzowanymi reprezentacjami. Na przykład fraza rzeczownikowa „I” może być reprezentowana jako NP(Sbj,1S,Speaker), co oznacza „frazę rzeczownikową, która jest w przypadku subiektywnym, pierwsza osoba liczby pojedynczej i której znaczeniem jest mówca zdania”. W przeciwieństwie do tego „ja” byłoby reprezentowane jako NP(Obj,1S,Speaker), zaznaczając fakt że tak jest w przypadku obiektywnym. Rozważ sekwencję „Rzeczownik i rzeczownik lub rzeczownik”, którą można przeanalizować jako „[rzeczownik i rzeczownik] lub rzeczownik” lub jako „rzeczownik i [rzeczownik lub rzeczownik]”. Nasza gramatyka bezkontekstowa nie ma możliwości wyrażenia preferencji dla jednej analizy w stosunku do drugiej, ponieważ reguła dla sprzężonych NP ! Koniunkcja NP NP[0:05] da takie samo prawdopodobieństwo każdej parsowaniu. Chcielibyśmy mieć gramatykę, która preferuje parsowanie „[[spaghetti i klopsiki] lub lasagne]” oraz „[spaghetti i [ciasto lub ciasto]]” nad alternatywnymi nawiasami dla każdego z tych fraz. Zleksykalizowany PCFG to rodzaj gramatyki rozszerzonej, który pozwala nam przypisywać prawdopodobieństwa na podstawie właściwości słów w wyrażeniu innym niż tylko kategorie składniowe. Dane byłyby rzeczywiście bardzo skąpe, gdyby prawdopodobieństwo, powiedzmy, 40-wyrazowego zdania zależało od wszystkich 40 słów — to ten sam problem, który zauważyliśmy w przypadku n-gramów. Dla uproszczenia wprowadzamy pojęcie nagłówka frazy – najważniejszego słowa. Tak więc „banan” to szef NP „banan”, a „zjadł” to szef wiceprezesa „zjadł banana”. Zapis VP(v) oznacza frazę z kategorią VP, której słowem głównym jest v. Oto zleksykalizowana PCFG:

Wymaga gramatyki ze wszystkimi regułami w jednym z dwóch bardzo specyficznych formatów: reguł leksykalnych postaci X !słowo [p] i reguł składniowych postaci X ! Y Z [p], z dokładnie dwiema kategoriami po prawej stronie. Ten format gramatyki, zwany formą normalną Chomsky’ego, może wydawać się restrykcyjny, ale tak nie jest: każda gramatyka bezkontekstowa może zostać automatycznie przekształcona w formę normalną Chomsky’ego. Tutaj P1(v,n) oznacza prawdopodobieństwo, że VP z nagłówkiem v połączy się z NP z n na czele, tworząc VP. Możemy określić, że „zjadłem banana” jest bardziej prawdopodobne niż „zjadłem chustkę”, upewniając się, że P1(zjadłem,banan) > P1(zjadłem,chustkę). Zauważ, że ponieważ rozważamy tylko głowy fraz, rozróżnienie między „zjadłem banana” a „zjadłem zjełczałego banana” nie zostanie złapane przez P1. Koncepcyjnie P1 jest ogromną tabelą prawdopodobieństw: jeśli w słowniku jest 5000 czasowników i 10 000 rzeczowników, to P1 wymaga 50 milionów wpisów, ale większość z nich nie będzie przechowywana wprost; będą raczej pochodzić z wygładzania i wycofywania. Na przykład możemy wycofać się z P1(v,n) do modelu, który zależy tylko od v. Taki model wymagałby 10 000 razy mniej parametrów, ale nadal może uchwycić ważne prawidłowości, takie jak fakt, że czasownik przechodni taki jak „ zjadł” częściej występuje po nim NP (niezależnie od głowy) niż po czasowniku nieprzechodnim, takim jak „sleep”.  Aby uniknąć tego problemu, nasza gramatyka musiałaby wiedzieć, że „ona”, a nie „ona” jest prawidłowym dopełnieniem „saw” (lub dowolnego innego czasownika) i że „widzieć”, a nie „widzi” jest formą czasownika towarzyszącego podmiotowi „ja”. Moglibyśmy zakodować te fakty całkowicie we wpisach prawdopodobieństwa, na przykład czyniąc P1(v,she) bardzo małą liczbą dla wszystkich czasowników v. Ale bardziej zwięzłe i modularne jest rozszerzenie kategorii NP o dodatkowe zmienne: NP(c ,pn,n) jest używany do reprezentowania frazy rzeczownikowej z przypadkiem c (subiektywne lub obiektywne), osoby i liczby pn (np. trzecioosobowa liczba pojedyncza) i głowy rzeczownika n. Rysunek powyższy przedstawia rozszerzoną gramatykę leksykalizowaną, która obsługuje te dodatkowe zmienne. Rozważmy szczegółowo jedną regułę gramatyczną:

S(v) -> NP(Sbj,pn,n) VP(pn,v) [P5(n,v)] :

Ta zasada mówi, że gdy po NP następuje VP, mogą one utworzyć S, ale tylko wtedy, gdy NP ma przypadek subiektywny (Sbj), a osoba i liczba (pn) NP i VP są identyczne. (Mówimy, że się zgadzają.) Jeśli to się zgadza, to mamy S, którego głową jest czasownik z VP. Oto przykład reguły leksykalnej, Zaimek(Sbj;1S;I) -> I [0:005], który mówi, że „ja” jest zaimkiem w przypadku subiektywnym, w pierwszej osobie liczby pojedynczej, z głową „ja”.

AI : Technologie, Aplikacje i Wyzwania : Przyszłość chirurgii robotyki

https://aie24.pl/

Od momentu zatwierdzenia przez FDA w 2000 roku, przy użyciu intuicyjnej platformy Da Vinci wykonano około 5 milionów operacji z użyciem robota. Nawet w Chinach rośnie popyt na minimum chirurgii inwazyjnej, co również skłoniło dział badawczo-rozwojowy chińskiej firmy do zbudowania robota medycznego. W 2008 r. rozpoczęto również wspólny projekt mający na celu opracowanie nowatorskiego systemu robotycznego do różnych rodzajów operacji. W dzisiejszych czasach chirurgia robotyczna stała się wyrafinowanym narzędziem dla chirurgów z dodatkowymi korzyściami, takimi jak precyzyjna operacja, mniejsza utrata krwi i mniejsze uszkodzenia tkanek, małe nacięcie, szybki powrót do zdrowia i operacja bez drżenia. Ten rodzaj operacji zasadniczo polega na tym, że chirurg siedzi przy konsoli i operuje za pomocą dwóch joysticków. Ruchy nadgarstka chirurga są replikowane w ciele pacjenta przez instrumenty, które umożliwiają wykonanie operacji . Ogólnie rzecz biorąc, wszystkie instrumenty robota znajdują się pod kontrolą głównego chirurga.

Nauka parsera z przykładów

https://aie24.pl/

Budowanie gramatyki dla znacznej części języka angielskiego jest pracochłonne i podatne na błędy. Sugeruje to, że lepiej byłoby nauczyć się reguł gramatycznych (i prawdopodobieństw) niż zapisywać je ręcznie. Aby zastosować uczenie nadzorowane, potrzebujemy par wejścia/wyjścia  i ich drzewa analizy. Najbardziej znanym źródłem takich danych jest Penn Treebank z ponad 100 tysiącami zdań opatrzonych adnotacją o strukturze drzewa parsowania. Rysunek  przedstawia drzewo z adnotacjami z Penn Treebank.

Mając bank drzewa, możemy utworzyć PCFG, po prostu licząc, ile razy każdy typ węzła pojawia się w drzewie (ze zwykłymi zastrzeżeniami dotyczącymi wygładzania niskich liczebności). Na rysunku  są dwa węzły postaci [S[NP. . . ][VP. . .]]. Policzylibyśmy te i wszystkie inne poddrzewa z pierwiastkiem S w korpusie. Jeśli jest 1000 węzłów S, z których 600 ma taką postać, to tworzymy regułę:

S -> NP PZ [0.6] .

W sumie Penn Treebank ma ponad 10 000 różnych typów węzłów. Odzwierciedla to fakt, że angielski jest językiem złożonym, ale wskazuje również, że adnotatorzy, którzy utworzyli bank drzew, preferowali płaskie drzewa, być może bardziej płaskie, niż byśmy chcieli. Na przykład fraza „dobry i zły” jest analizowana jako pojedyncza fraza rzeczownikowa, a nie jako dwie połączone frazy rzeczownikowe, co daje nam regułę:

NP ->  Artykuł rzeczownik Spójność Rzeczownik artykułu.

Istnieją setki podobnych reguł, które definiują frazę rzeczownikową jako ciąg kategorii ze spójnikiem gdzieś pośrodku; bardziej zwięzła gramatyka mogłaby uchwycić wszystkie reguły fraz połączonych rzeczowników z pojedynczą regułą

NP -> Koniunkcja NP NP.

 Bod i inni pokazują, jak automatycznie odzyskać takie uogólnione reguły, znacznie zmniejszając liczbę reguł wychodzących z banku drzewa i tworząc gramatykę, która ostatecznie lepiej uogólnia zdania wcześniej niewidziane. Nazywają swoje podejście analizowaniem zorientowanym na dane. Widzieliśmy, że banki drzew nie są doskonałe — zawierają błędy i mają idiosynkratyczne analizy. Jasne jest również, że stworzenie banku drzew wymaga dużo ciężkiej pracy; oznacza to, że banki drzew pozostaną stosunkowo małe w porównaniu z całym tekstem, który nie został oznaczony drzewami. Alternatywnym podejściem jest nienadzorowane parsowanie, w którym uczymy się nowej gramatyki (lub poprawiamy istniejącą) za pomocą korpusu zdań bez drzew. Algorytm inside-outside , którego nie będziemy tutaj omawiać, uczy się szacowania prawdopodobieństw w PCFG na podstawie przykładowych zdań bez drzew, podobnie jak algorytm przód-tył  szacuje prawdopodobieństwa. Spitkovsky i inni opisują nienadzorowane podejście do uczenia się, które wykorzystuje uczenie się w ramach programu nauczania: zacznij od łatwej części programu nauczania — krótkie jednoznaczne, dwuwyrazowe zdania, takie jak „Wyszedł”, można łatwo przeanalizować na podstawie wcześniejszej wiedzy lub adnotacji. Każda nowa analiza parsowania krótkiego zdania poszerza wiedzę systemu, dzięki czemu może on ostatecznie poradzić sobie z 3-wyrazowymi, 4-wyrazowymi i ostatecznie 40-wyrazowymi zdaniami. Możemy również użyć półnadzorowanego parsowania, w którym zaczynamy od niewielkiej liczby drzew jako danych do zbudowania początkowej gramatyki, a następnie dodajemy dużą liczbę nieprzeanalizowanych zdań, aby poprawić gramatykę. Podejście półnadzorowane może wykorzystywać częściowe nawiasy: możemy użyć powszechnie dostępnego tekstu, który został oznaczony przez autorów, a nie przez lingwistów, o częściowej strukturze drzewiastej, w postaci HTML lub podobnych adnotacji. W tekście HTML większość nawiasów odpowiada komponentowi składniowemu, więc częściowe nawiasy mogą pomóc w nauce gramatyki. Rozważ ten tekst HTML z artykułu w gazecie:

Jednak w 1998 roku, kiedy <a>założyłem w

<i>The New Republic</i></a> i Bill Clinton po prostu

<a>potwierdzony w swoich wspomnieniach</a>, Netanjahu zmienił zdanie

Słowa otoczone znacznikami <i></i> tworzą frazę rzeczownikową, a dwa ciągi słów otoczone znacznikami <a></a> tworzą frazy czasownikowe.