Heurystyczne aktywne uczenie się: Zbiór algorytmów aktywnego uczenia się, w którym kryteria wyboru próby opierają się na jakiejś heurystycznej funkcji celu. Na przykład aktywne uczenie się oparte na przestrzeni wersji polega na wybraniu próbki, która może zmniejszyć rozmiar przestrzeni wersji.
Przestrzeń hipotez: zbiór wszystkich hipotez, w którym zakłada się, że zostanie znaleziona hipoteza obiektywna.
Uczenie się częściowo nadzorowane: Zestaw algorytmów uczenia się, w którym zarówno oznakowane, jak i nieoznaczone dane w zbiorze danych uczących są bezpośrednio wykorzystywane do uczenia klasyfikatora.
Statystyczne aktywne uczenie się: Zbiór algorytmów aktywnego uczenia się, w którym kryteria doboru próby opierają się na pewnej statystycznej funkcji celu, takiej jak minimalizacja błędu uogólnienia, obciążenia systematycznego i wariancji. Statystyczne aktywne uczenie się jest zwykle statystycznie optymalne.
Uczenie się nadzorowane: Zbiór algorytmów uczenia się, w którym wszystkie próbki w zbiorze danych szkoleniowych są oznaczone etykietami.
Uczenie się bez nadzoru: Zbiór algorytmów uczenia się, w którym wszystkie próbki w zbiorze danych szkoleniowych są nieoznaczone.
Przestrzeń wersji: Podzbiór przestrzeni hipotez zgodny ze zbiorem uczącym.
Adaptacyjny model geometryczny (AGM): nowe podejście do obliczeń geometrycznych wykorzystujące paradygmat obliczeń adaptacyjnych. W modelu zastosowano kryteria ciągłego udoskonalania oparte na metryce błędu, aby optymalnie dostosować się do dokładniejszej reprezentacji.
Adaptacyjna technika wielu rozdzielczości (AMRT): Do wizualizacji terenu w czasie rzeczywistym jest to metoda, która wykorzystuje sprytny sposób dynamicznej optymalizacji siatki w celu zapewnienia płynnej i ciągłej wizualizacji z dużą wydajnością.
Adaptacyjna pamięć przestrzenna (ASM): Metoda hybrydowa oparta na połączeniu tradycyjnej hierarchicznej struktury drzewiastej z koncepcją rozwijania lub zwijania węzłów drzewa.
Technologia biometryczna (BT): obszar badań cech fizycznych i behawioralnych w celu uwierzytelnienia i identyfikacji osób.
Triangulacja Delaunaya (DT): struktura danych geometrii obliczeniowej podwójna do diagramu Woronoja.
Paradygmat ewolucyjny (EP): Zbiorcza nazwa szeregu metod rozwiązywania problemów wykorzystujących zasady ewolucji biologicznej, takie jak dobór naturalny i dziedziczenie genetyczne.
Inteligencja roju (SI): Właściwość systemu, dzięki której zbiorowe zachowania prostych agentów wchodzących w interakcję lokalnie ze swoim otoczeniem powodują wyłonienie się spójnych funkcjonalnych wzorców globalnych.
Techniki oparte na topologii (TBT): Grupa metod wykorzystujących właściwości geometryczne zbioru obiektów w przestrzeni i ich bliskość
Diagram Woronoja (VD): podstawowa struktura danych geometrii obliczeniowej, która przechowuje informacje topologiczne dla zbioru obiektów.
Adaptacyjna inteligencja biznesowa: dyscyplina polegająca na wykorzystaniu technik przewidywania i optymalizacji do budowania samouczących się systemów "decyzyjnych".
Business Intelligence: zbiór narzędzi, metod, technologii i procesów niezbędnych do przekształcenia danych w praktyczną wiedzę.
Dane: Elementy gromadzone codziennie w postaci bitów, liczb, symboli i "obiektów".
Eksploracja danych: zastosowanie metod i narzędzi analitycznych do danych w celu identyfikacji wzorców, relacji lub uzyskania systemów wykonujących przydatne zadania, takie jak klasyfikacja, przewidywanie, szacowanie lub grupowanie powinowactwa.
Informacja: "Zorganizowane dane", które są wstępnie przetwarzane, oczyszczane, układane w struktury i pozbawione nadmiarowości.
Wiedza: "zintegrowana informacja", która obejmuje fakty i relacje, które zostały dostrzeżone, odkryte lub wyuczone.
Optymalizacja: Proces znalezienia rozwiązania, które najlepiej pasuje do dostępnych zasobów.
Przewidywanie: stwierdzenie lub twierdzenie, że określone wydarzenie nastąpi w przyszłości.
Sztuczne sieci neuronowe (SSN): syntetyczny system przetwarzania informacji, składający się z kilku prostych nieliniowych jednostek przetwarzających, połączonych elementami posiadającymi funkcje przechowywania informacji i programowania, dostosowujące się i uczące na podstawie wzorców, co naśladuje biologiczną sieć neuronową.
Ślepa separacja źródeł (BSS): Separacja ukrytych, nieredundantnych (tj. wzajemnie statystycznie niezależnych lub dekorelowanych) sygnałów źródłowych ze zbioru mieszanin liniowych w taki sposób, że regularność każdego wynikowego sygnału jest maksymalizowana, a regularność między sygnałami jest minimalizowana (tj. niezależność statystyczna jest maksymalizowana) bez (prawie) jakichkolwiek informacji o źródłach.
Konfirmacyjna analiza danych (CDA): podejście, w którym po zebraniu danych następuje nałożenie wcześniejszego modelu oraz analiza, oszacowanie i przetestowanie parametrów modelu.
Eksploracyjna analiza danych (EDA): podejście polegające na umożliwieniu samym danym ujawnienia ich podstawowej struktury i modelu, w dużym stopniu wykorzystując zbiór technik zwanych grafiką statystyczną.
Niezależna analiza składowych (ICA): Eksploracyjna metoda rozdzielania liniowej mieszaniny ukrytych źródeł sygnału na niezależne składowe jako optymalne szacunki pierwotnych źródeł na podstawie ich wzajemnej niezależności statystycznej i niegaussa.
Reguła uczenia się: Strategia zmiany wagi w systemie koneksjonistycznym mająca na celu optymalizację określonej funkcji celu. Reguły uczenia się są stosowane iteracyjnie do danych wejściowych zbioru uczącego, przy czym błąd jest stopniowo zmniejszany w miarę dostosowywania się wag.
Analiza głównych składowych (PCA): ortogonalna transformacja liniowa oparta na dekompozycji wartości osobliwych, która rzutuje dane na podprzestrzeń zachowującą maksymalną wariancję.
Sztuczne sieci neuronowe (ANN): Sztuczna sieć neuronowa, często nazywana po prostu "siecią neuronową" (NN), to połączona grupa sztucznych neuronów, która wykorzystuje model matematyczny lub model obliczeniowy do przetwarzania informacji w oparciu o koneksjonistyczne podejście do obliczeń. Sieć nabywa wiedzę z otoczenia w procesie uczenia się, a siła połączeń międzyneuronowych (wagi synaptyczne) służy do przechowywania zdobytej wiedzy.
Ewoluująca rozmyta sieć neuronowa (EFuNN): Ewoluująca rozmyta sieć neuronowa to dynamiczna architektura, w której węzły reguł rosną w razie potrzeby i kurczą się w wyniku agregacji. Nowe jednostki reguł i połączenia można łatwo dodawać bez zakłócania istniejących węzłów. Schemat uczenia się często opiera się na koncepcji "węzła zwycięskiej reguły".
Logika rozmyta: Logika rozmyta to obszar zastosowań teorii zbiorów rozmytych, zajmujący się niepewnością w rozumowaniu. Wykorzystuje koncepcje, zasady i metody opracowane w ramach teorii zbiorów rozmytych do formułowania różnych form rozsądnego rozumowania przybliżonego. Logika rozmyta pozwala na ustawienie wartości członkostwa w zakresie (włącznie) od 0 do 1, a w swojej formie językowej pozwala na nieprecyzyjne pojęcia, takie jak "nieznacznie", "całkiem" i "bardzo". W szczególności umożliwia częściowe członkostwo w zestawie.
Rozmyte sieci neuronowe (FNN): to sieci neuronowe wzbogacone o możliwości logiki rozmytej, takie jak wykorzystanie danych rozmytych, reguł, zbiorów i wartości rozmytych. Systemy neurorozmyte (NFS): System neurorozmyty to system rozmyty, który wykorzystuje algorytm uczenia się wywodzący się z teorii sieci neuronowych lub inspirowany nią w celu określenia jego parametrów (zbiorów rozmytych i reguł rozmytych) poprzez przetwarzanie próbek danych.
Mapa samoorganizująca się (SOM): Samoorganizująca się mapa jest podtypem sztucznych sieci neuronowych. Jest szkolony przy użyciu uczenia się bez nadzoru w celu uzyskania niskowymiarowej reprezentacji próbek szkoleniowych, przy jednoczesnym zachowaniu właściwości topologicznych przestrzeni wejściowej. Samoorganizująca się mapa to jednowarstwowa sieć ze sprzężeniem zwrotnym, w której składnie wyjściowe są ułożone w niskowymiarową siatkę (zwykle 2D lub 3D). Każde wejście jest połączone ze wszystkimi neuronami wyjściowymi. Do każdego neuronu dołączony jest wektor wag o tej samej wymiarowości co wektory wejściowe. Liczba wymiarów wejściowych jest zwykle znacznie większa niż wymiar wyjściowy siatki. SOM są używane głównie do redukcji wymiarowości, a nie do rozszerzania.
Soft Computing: Soft Computing odnosi się do partnerstwa technik obliczeniowych w informatyce, sztucznej inteligencji, uczeniu maszynowym i niektórych dyscyplinach inżynieryjnych, które próbują badać, modelować i analizować złożone zjawiska. Głównymi partnerami w tym momencie są logika rozmyta, obliczenia neuronowe, rozumowanie probabilistyczne i algorytmy genetyczne. Zatem zasadą miękkiego przetwarzania danych jest wykorzystanie tolerancji na nieprecyzyjność, niepewność i częściową prawdę w celu osiągnięcia wykonalności, solidności, taniego rozwiązania i lepszego kontaktu z rzeczywistością.
Adaptacyjność: Właściwość struktur, które dynamicznie i autonomicznie zmieniają swoje zachowanie w odpowiedzi na bodźce wejściowe.
Adaptacyjny model obliczeniowy: abstrakcja o dużej mocy Turinga, która naśladuje zachowanie potencjalnie samomodyfikujących się złożonych systemów.
Urządzenie adaptacyjne: Struktura zachowująca się dynamicznie, z umieszczonym obok urządzeniem i mechanizmem adaptacyjnym.
Funkcje adaptacyjne i akcje adaptacyjne: Akcje adaptacyjne to wywołania funkcji adaptacyjnych, które mogą określić zmiany, jakie należy wprowadzić w zestawie reguł danej warstwy oraz w funkcjach adaptacyjnych warstwy znajdującej się bezpośrednio pod nimi.
Mechanizm adaptacyjny: dyscyplina zmian powiązana z zestawem reguł urządzenia adaptacyjnego, która zmienia zachowanie urządzenia znajdującego się obok niego poprzez wykonywanie działań adaptacyjnych.
Adaptacyjne urządzenie oparte na regułach: urządzenie adaptacyjne, którego zachowanie jest określone przez dynamicznie zmieniający się zestaw reguł, np.: automaty adaptacyjne, gramatyki adaptacyjne itp.
Zależność od kontekstu: reinterpretacja terminów ze względu na warunki występujące w innym miejscu zdania, np. zasady umowy w języku angielskim, sprawdzanie typu w Pascalu.
Formalizm kontekstowy (zależny): abstrakcja zdolna do reprezentowania języków Chomsky′ego typu 1 lub typu 0. Do wyrażania takich języków dobrze nadają się automaty adaptacyjne i adaptacyjne gramatyki bezkontekstowe.
Hierarchiczne (wielopoziomowe) urządzenie adaptacyjne: warstwowe struktury adaptacyjne, w których działania adaptacyjne warstwy mogą modyfikować zarówno reguły własnej warstwy, jak i funkcje adaptacyjne warstwy podstawowej.
Urządzenie sąsiadujące (lub bazowe): dowolne urządzenie wykorzystywane jako podstawa do formułowania urządzeń adaptacyjnych. Najbardziej wewnętrzna część wielopoziomowego urządzenia znajdującego się poniżej nie może być adaptacyjna
Bionika: zastosowanie metod i systemów występujących w przyrodzie do badania i projektowania systemów inżynieryjnych. Wydaje się, że słowo to powstało z połączenia "biologii" i "elektroniki" i zostało użyte po raz pierwszy przez J. E. Steele w 1958 roku.
Wielomian Czebyszewa: ważny rodzaj wielomianów stosowanych w interpolacji danych, zapewniający najlepsze przybliżenie funkcji ciągłej w ramach normy maksymalnej.
Zakres dynamiczny: Termin używany do opisania stosunku pomiędzy najmniejszymi i największymi możliwymi wartościami zmiennej wielkości.
FPGA: Akronim oznaczający Field-Programmable Gate Array, urządzenie półprzewodnikowe wynalezione w 1984 roku przez R. Freemana, które zawiera programowalne interfejsy i komponenty logiczne zwane "blokami logicznymi" służące do wykonywania funkcji podstawowych bramek logicznych (np. XOR) lub bardziej złożonych funkcje kombinowane, takie jak dekodery.
Odcinkowa funkcja liniowa: funkcja f(x), którą można podzielić na pewną liczbę odcinków liniowych, z których każdy jest zdefiniowany dla niezachodzącego na siebie przedziału x.
Splot przestrzenny: termin używany do określenia liniowej kombinacji serii dyskretnych danych 2D (obrazu cyfrowego) z kilkoma współczynnikami lub wagami. W teorii Fouriera splot w przestrzeni jest równoważny (przestrzennemu) filtrowaniu częstotliwości.
Szablon: Znany również jako jądro lub jądro splotu, to zestaw współczynników używanych do wykonywania operacji filtrowania przestrzennego na obrazie cyfrowym za pośrednictwem operatora splotu przestrzennego.
VLSI: Akronim oznaczający integrację na bardzo dużą skalę. Jest to proces tworzenia układów scalonych poprzez połączenie tysięcy (obecnie setek milionów) obwodów tranzystorowych w jeden układ scalony. Typowym urządzeniem VLSI jest mikroprocesor.
Modelowanie oparte na agentach: wykorzystanie inteligentnych agentów oraz ich działań i interakcji w danym środowisku do symulacji złożonej dynamiki systemu.
Dyfuzja innowacji: spopularyzowane przez Everetta Rogersa badanie procesu komunikowania i przyjmowania innowacji wśród członków systemu społecznego.
Inteligentny agent: autonomiczny program, który jest w stanie uczyć się i dostosowywać do swojego środowiska, aby wykonywać określone zadania powierzone mu przez jego mistrza.
Inteligentny system: system posiadający spójny zestaw komponentów i podsystemów współpracujących ze sobą w celu podejmowania działań zorientowanych na cel.
Inteligentne modelowanie systemów: proces konstruowania, kalibracji i walidacji modeli inteligentnych systemów.
System wieloagentowy: system rozproszony z grupą inteligentnych agentów, którzy komunikują się, targują, konkurują i współpracują z innymi agentami i otoczeniem, aby osiągnąć cele wyznaczone przez swoich mistrzów.
Inteligencja organizacyjna: zdolność organizacji do postrzegania, interpretowania i wybierania najwłaściwszej reakcji na otoczenie, aby osiągnąć swoje cele
Analiza kopuli: przekształca niegaussowskie rozkłady prawdopodobieństwa do wspólnej odpowiedniej przestrzeni (zwykle przestrzeni Gaussa), w której ma sens obliczanie korelacji jako momentów drugich.
DIME: Reprezentuje dyplomatyczne, informacyjne, wojskowe i ekonomiczne aspekty informacji, które należy połączyć w spójny wzór.
Globalna optymalizacja: odnosi się do zbioru algorytmów używanych do statystycznego próbkowania przestrzeni parametrów lub zmiennych w celu optymalizacji systemu, ale często jest również używany do próbkowania ogromnej przestrzeni w celu uzyskania informacji. Istnieje wiele wariantów, w tym symulowane wyżarzanie, algorytmy genetyczne, optymalizacja kolonii mrówek, wspinaczka po wzgórzach itp.
ISM: Anakronim dla Ideas by Statistical Mechanics w kontekście rzeczownika zdefiniowanego jako: Przekonanie (lub system przekonań) akceptowane jako autorytatywne przez jakąś grupę lub szkołę. Doktryna lub teoria; zwłaszcza teoria szalona lub wizjonerska. Charakterystyczna doktryna, teoria, system lub praktyka.
Meme: Nawiązuje do technologii pierwotnie zdefiniowanej w celu wyjaśnienia ewolucji społecznej, która została udoskonalona tak, aby oznaczała podobne do genu narzędzie analityczne do badania ewolucji kulturowej.
Pamięć: może mieć wiele form i mechanizmów. W tym przypadku w technologiach sztucznej inteligencji wykorzystywane są dwa główne procesy pamięci kory nowej, pamięć krótkotrwała (STM) i pamięć długoterminowa (LTM).
Symulowane wyżarzanie (SA): klasa algorytmów próbkowania z ogromnej przestrzeni, która ma matematyczny dowód zbieżności z globalnymi optymalnymi minimami. Większość algorytmów SA stosowanych w większości systemów nie wykorzystuje w pełni tego dowodu, ale dowód często jest przydatny, aby dać pewność, że system uniknie utknięcia na długi czas w lokalnych optymalnych regionach.
Mechanika statystyczna: Dział fizyki matematycznej zajmujący się układami o dużej liczbie stanów. Zastosowania nierównowagowej nieliniowej mechaniki statystycznej są obecnie powszechne w wielu dziedzinach, począwszy od nauk fizycznych i biologicznych, przez finanse, po informatykę itp.
Agent: W terminologii RL jest odpowiedzialny za podejmowanie decyzji zgodnie z obserwacjami swojego otoczenia.
Środowisko: W terminologii RL jest to każdy warunek zewnętrzny agenta.
Dylemat eksploracji-eksplotacji: Jest to klasyczny dylemat RL, w którym należy osiągnąć rozwiązanie kompromisowe. Eksploracja oznacza losowe poszukiwanie nowych działań w celu osiągnięcia prawdopodobnej (ale jeszcze nieznanej) lepszej nagrody niż wszystkie znane, podczas gdy eksploatacja koncentruje się na wykorzystaniu bieżącej wiedzy w celu maksymalizacji nagrody (podejście zachłanne).
Wartość w czasie życia: Jest to miara szeroko stosowana w aplikacjach marketingowych, która oferuje długoterminowy wynik, który należy zmaksymalizować.
Nagroda: W terminologii RL natychmiastowa nagroda to wartość zwracana przez otoczenie agentowi w zależności od podjętego działania. Długoterminowa nagroda to suma wszystkich natychmiastowych nagród w całym procesie decyzyjnym.
Wrażliwość: Podobna miara, która oferuje stosunek pozytywów, które są prawidłowo klasyfikowane przez model. Specyficzność: Miara wskaźnika sukcesu w problemie klasyfikacji. Jeśli istnieją dwie klasy (mianowicie, pozytywna i negatywna), specyficzność mierzy stosunek negatywów, które są poprawnie klasyfikowane przez model.
Sztuczne społeczeństwa: Złożone systemy, potencjalnie dużego, zbioru agentów, których interakcje są ograniczone normami i rolami, za które odpowiadają agenci.
Agenci poznawczy: Agenci oprogramowania obdarzeni wysokim poziomem postaw mentalnych, takimi jak przekonania, cele i plany.
Świadomość kontekstu: Odnosi się do idei, że komputery mogą zarówno wyczuwać, jak i reagować zgodnie ze stanem środowiska, w którym się znajdują. Urządzenia mogą posiadać informacje o okolicznościach, w których są w stanie działać i odpowiednio reagować.
Interakcja naturalna: Badanie relacji między ludźmi a maszynami mające na celu tworzenie interaktywnych artefaktów, które szanują i wykorzystują naturalną dynamikę, za pomocą której ludzie komunikują się i odkrywają prawdziwy świat.
Inteligentne domy: Domy wyposażone w inteligentne czujniki i urządzenia w ramach infrastruktury komunikacyjnej, która umożliwia różnym systemom i urządzeniom komunikowanie się ze sobą w celach monitorowania i konserwacji
Wszechobecne przetwarzanie: Model interakcji człowiek-komputer, w którym przetwarzanie informacji jest zintegrowane z codziennymi przedmiotami i czynnościami. W przeciwieństwie do paradygmatu pulpitu, w którym pojedynczy użytkownik wybiera interakcję z pojedynczym urządzeniem w wyspecjalizowanym celu, w przypadku przetwarzania wszechobecnego użytkownik wchodzi w interakcję z wieloma urządzeniami obliczeniowymi i systemami jednocześnie, w trakcie zwykłych czynności, i niekoniecznie musi być tego świadomy.
Sieci czujników bezprzewodowych: Sieci bezprzewodowe składające się z rozproszonych przestrzennie autonomicznych urządzeń wykorzystujących czujniki do wspólnego monitorowania warunków fizycznych lub środowiskowych, takich jak temperatura, dźwięk, wibracje, ciśnienie, ruch lub zanieczyszczenia, w różnych lokalizacjach.
Ambient Intelligence: Ambient Intelligence (AmI) zajmuje się nowym światem, w którym urządzenia komputerowe są wszędzie rozproszone, umożliwiając ludziom interakcję w środowiskach świata fizycznego w inteligentny i dyskretny sposób. Środowiska te powinny być świadome potrzeb ludzi, dostosowywać wymagania i prognozować zachowania.
Świadomość kontekstu: Świadomość kontekstu oznacza, że system jest świadomy bieżącej sytuacji, z którą mamy do czynienia.
Systemy wbudowane: Systemy wbudowane oznaczają, że urządzenia elektroniczne i komputerowe są osadzone w bieżących obiektach lub towarach.
Inteligentna sala decyzyjna: Przestrzeń podejmowania decyzji, np. sala konferencyjna lub centrum sterowania, wyposażona w inteligentne urządzenia i/lub systemy wspomagające procesy podejmowania decyzji.
Inteligentny dom: Dom wyposażony w kilka urządzeń elektronicznych i interaktywnych, które pomagają mieszkańcom w zarządzaniu konwencjonalnymi decyzjami domowymi.
Inteligentne systemy transportowe: Inteligentne systemy stosowane w obszarze transportu, a mianowicie w kwestiach ruchu drogowego i podróżowania.
Inteligentne pojazdy: Pojazd wyposażony w czujniki i komponenty wspomagające podejmowanie decyzji.
Wszechobecne przetwarzanie: Wszechobecne przetwarzanie jest powiązane ze wszystkimi fizycznymi częściami naszego życia, użytkownik może nie mieć pojęcia o urządzeniach obliczeniowych i szczegółach związanych z tymi fizycznymi częściami.
Wszechobecne przetwarzanie: Wszechobecne przetwarzanie oznacza, że mamy dostęp do urządzeń obliczeniowych w dowolnym miejscu w sposób zintegrowany i spójny.-
Automatyczne rozpoznawanie mowy: Rozpoznawanie maszynowe i konwersja wypowiedzianych słów na tekst.
Eksploracja danych: Zastosowanie metod analitycznych i narzędzi do danych w celu identyfikacji wzorców, relacji lub uzyskania systemów wykonujących przydatne zadania, takie jak klasyfikacja, przewidywanie, szacowanie lub grupowanie powinowactwa.
Ekstrakcja informacji: Automatyczne wyodrębnianie ustrukturyzowanej wiedzy z nieustrukturyzowanych dokumentów. Tekst zaszumiony: Tekst z jakąkolwiek różnicą w formie powierzchniowej od zamierzonego, poprawnego lub oryginalnego tekstu.
Optyczne rozpoznawanie znaków: Tłumaczenie obrazów tekstu pisanego odręcznie lub maszynowo (zwykle przechwytywanego przez skaner) na tekst edytowalny maszynowo.
Indukcja reguł: Proces uczenia się, z przypadków lub instancji, relacji reguł if-then, które składają się z poprzednika (część if, definiująca warunki wstępne lub zakres reguły) i następnika (część then, stwierdzająca klasyfikację, przewidywanie lub inne wyrażenie własności, która zachodzi dla przypadków zdefiniowanych w poprzedniku). Analiza tekstu: Proces wydobywania przydatnej i ustrukturyzowanej wiedzy z nieustrukturyzowanych dokumentów w celu znalezienia przydatnych skojarzeń i spostrzeżeń.
Klasyfikacja tekstu (lub kategoryzacja tekstu): Zadanie polega na uczeniu się modeli dla danego zestawu klas i stosowaniu tych modeli do nowych, niewidzianych dokumentów w celu przypisania do klasy.
Automatyczne rozpoznawanie mowy: Rozpoznawanie maszynowe i konwersja wypowiedzianych słów na tekst.
Eksploracja danych: Zastosowanie metod analitycznych i narzędzi do danych w celu identyfikacji wzorców, relacji lub uzyskania systemów wykonujących użyteczne zadania, takie jak klasyfikacja, przewidywanie, szacowanie lub grupowanie powinowactwa.
Ekstrakcja informacji: Automatyczne wyodrębnianie ustrukturyzowanej wiedzy z nieustrukturyzowanych dokumentów.
Ekstrakcja wiedzy: Wyjaśnienie wewnętrznej wiedzy systemu lub zestawu danych w sposób, który jest łatwy do zinterpretowania przez użytkownika.
Tekst zaszumiony: Tekst z jakąkolwiek różnicą w formie powierzchniowej od zamierzonego, poprawnego lub oryginalnego tekstu.
Optyczne rozpoznawanie znaków: Tłumaczenie obrazów tekstu pisanego ręcznie lub maszynowo (zwykle przechwytywanego przez skaner) na tekst edytowalny maszynowo.
Indukcja reguł: Proces uczenia się, z przypadków lub instancji, relacji reguł if-then, które składają się z poprzednika (część if, definiująca warunki wstępne lub zakres reguły) i następnika (część then, stwierdzająca klasyfikację, przewidywanie lub inne wyrażenie własności, która obowiązuje dla przypadków zdefiniowanych w poprzedniku).
Analiza tekstu: Proces wydobywania przydatnej i ustrukturyzowanej wiedzy z nieustrukturyzowanych dokumentów w celu znalezienia przydatnych skojarzeń i spostrzeżeń.
Angiografia: Obraz naczyń krwionośnych uzyskany dowolną możliwą procedurą.
Tętnica: Każde z naczyń, które transportują krew z serca do innych części ciała.
Tomografia komputerowa: Eksploracja promieni rentgenowskich, która tworzy szczegółowe obrazy przekrojów osiowych ciała. Tomografia komputerowa uzyskuje wiele obrazów poprzez obracanie się wokół ciała. Komputer łączy wszystkie te obrazy w ostateczny obraz, który przedstawia przekrój ciała jak plaster.
System ekspercki: Komputer lub program komputerowy, który może dawać odpowiedzi podobne do tych od eksperta.
Segmentacja: W wizji komputerowej segmentacja odnosi się do procesu podziału obrazu cyfrowego na wiele regionów. Celem segmentacji jest uproszczenie i/lub zmiana reprezentacji obrazu na coś, co jest bardziej znaczące i łatwiejsze do analizy. Segmentacja obrazu jest zwykle stosowana do lokalizowania obiektów i granic (struktur) na obrazach, w tym przypadku drzewa wieńcowego w ramach cyfrowej angiografii.
Zwężenie: Zwężenie to nieprawidłowe zwężenie w naczyniu krwionośnym lub innym narządzie lub strukturze rurowej. Tętnica wieńcowa, która jest zwężona lub zwężona, nazywana jest zwężoną. Nagromadzenie tłuszczu, cholesterolu i innych substancji z czasem może zatkać tętnicę. Wiele zawałów serca jest spowodowanych całkowitym zablokowaniem naczynia w sercu, zwanego tętnicą wieńcową.
Thresholding: Technika przetwarzania obrazów cyfrowych polegająca na stosowaniu określonej właściwości lub operacji do pikseli, których wartość intensywności przekracza określony próg.
Kompresja: Naprężenie generowane przez ściskanie lub ściskanie.
Konsystencja: Względna ruchliwość lub zdolność świeżo wymieszanego betonu lub zaprawy do płynięcia; typowym pomiarem betonu jest osiadanie, równe osiadaniu mierzonemu z dokładnością do 1/4 cala (6 mm) uformowanej próbki bezpośrednio po usunięciu stożka osiadania.
Ciągliwość: Ta właściwość materiału, dzięki której może on ulegać dużym trwałym odkształceniom bez pęknięcia.
Szalunek: Cały system podparcia świeżo położonego betonu, w tym forma lub poszycie, które stykają się z betonem, a także elementy nośne, osprzęt i niezbędne wzmocnienia; czasami nazywane szalunkiem w Wielkiej Brytanii.
Rozpiętość ścinania: Odległość między reakcją a najbliższym punktem obciążenia
Bezpieczeństwo konstrukcyjne: Reakcja konstrukcyjna silniejsza niż siły wewnętrzne wytwarzane przez obciążenie zewnętrzne.
Rozciąganie: Naprężenie wytwarzane przez rozciąganie.
Sztuczne sieci neuronowe: Połączony zestaw wielu prostych jednostek przetwarzających, powszechnie nazywanych neuronami, które wykorzystują model matematyczny, który reprezentuje relację wejścia/wyjścia
Algorytm propagacji wstecznej: Technika uczenia nadzorowanego stosowana przez sieci neuronowe, która iteracyjnie modyfikuje wagi połączeń sieci, tak aby błąd podawany przez sieć po porównaniu wyników z wynikami pożądanymi się zmniejszał.
Obliczenia ewolucyjne: Zestaw technik sztucznej inteligencji stosowanych w problemach optymalizacji, które są inspirowane mechanizmami biologicznymi, takimi jak naturalna ewolucja.
Programowanie genetyczne: Technika uczenia maszynowego wykorzystująca algorytm ewolucyjny w celu optymalizacji populacji programów komputerowych zgodnie z funkcją sprawności, która określa zdolność programu do wykonywania danego zadania.
Genotyp: Reprezentacja osobnika na całej kolekcji genów, do której stosuje się operatory krzyżowania i mutacji.
Fenotyp: Wyraz właściwości kodowanych przez genotyp osobnika. Populacja: Grupa osobników wykazujących takie same lub podobne struktury genomu, co pozwala na zastosowanie operatorów genetycznych.
Przestrzeń wyszukiwania: Zbiór wszystkich możliwych sytuacji, w których może znajdować się problem, który chcemy rozwiązać.
Sztuczne sieci neuronowe: Sieć wielu prostych procesorów ("jednostek" lub "neuronów"), która imituje biologiczną sieć neuronową. Jednostki są połączone jednokierunkowymi kanałami komunikacyjnymi, które przenoszą dane numeryczne. Sieci neuronowe można trenować w celu znajdowania nieliniowych relacji w danych i są wykorzystywane w takich zastosowaniach jak robotyka, rozpoznawanie mowy, przetwarzanie sygnałów lub diagnostyka medyczna.
Algorytm propagacji wstecznej: Algorytm uczenia się ANN, oparty na minimalizacji błędu uzyskanego z porównania między wyjściami, które sieć daje po zastosowaniu zestawu wejść sieciowych, a wyjściami, które powinna dać (pożądane wyjścia).
Klasyfikacja: Wpływ zjawiska na wstępnie zdefiniowaną klasę lub kategorię poprzez badanie jego charakterystycznych cech. W naszej pracy polega to na określeniu charakteru wykrytych defektów powierzchni urządzeń optycznych (na przykład "kurz" lub "inny rodzaj defektów").
Redukcja wymiarowości danych: Redukcja wymiarowości danych to przekształcenie danych wielowymiarowych w sensowną reprezentację zredukowanej wymiarowości. Celem jest znalezienie ważnych relacji między parametrami i odtworzenie tych relacji w przestrzeni o niższej wymiarowości. W idealnym przypadku uzyskana reprezentacja ma wymiarowość odpowiadającą wymiarowości wewnętrznej danych. Redukcja wymiarowości jest ważna w wielu dziedzinach, ponieważ ułatwia klasyfikację, wizualizację i kompresję danych o wysokiej wymiarowości. W naszej pracy jest ona wykonywana przy użyciu analizy odległości krzywoliniowej.
Wymiar wewnętrzny danych: gdy dane są opisywane wektorami (zbiorami wartości charakterystycznych), wymiar wewnętrzny danych jest efektywną liczbą stopni swobody zestawu wektorów. Zasadniczo wymiar ten jest mniejszy niż wymiar danych surowych, ponieważ mogą istnieć liniowe i/lub nieliniowe relacje między różnymi składnikami wektorów.
Wymiar danych surowych: gdy dane są opisywane wektorami (zbiorami wartości charakterystycznych), wymiar danych surowych jest po prostu liczbą składników tych wektorów.
Wykrywanie: identyfikacja zjawiska między innymi na podstawie szeregu cech charakterystycznych lub "symptomów". W naszej pracy polega to na identyfikowaniu nieregularności powierzchni na urządzeniach optycznych.
MLP (Multi Layer Perceptron): Ta szeroko stosowana sztuczna sieć neuronowa wykorzystuje perceptron jako prosty procesor. Model perceptronu, zaproponowany przez Rosenblatta, wygląda następująco:

Na tym schemacie X oznacza wejścia, a Y wyjście neuronu. Każde wejście jest mnożone przez wagę w, próg b jest odejmowany od wyniku, a na koniec Y jest przetwarzane przez zastosowanie funkcji aktywacji f. Wagi połączenia są dostosowywane podczas fazy uczenia się przy użyciu algorytmu propagacji wstecznej.
Automatyczne systemy oceny: Aplikacje skupiające się na ocenie mocnych i słabych stron uczniów w różnych działaniach edukacyjnych za pomocą testów oceniających.
Wspomagane komputerowo uczenie się współpracy (CSCL): Temat badawczy dotyczący wspierania metodologii uczenia się współpracy za pomocą komputerów i narzędzi współpracy.
Nauka oparta na grach: Nowy typ nauki, który łączy treści edukacyjne i gry komputerowe w celu poprawy satysfakcji i wyników uczniów podczas zdobywania nowej wiedzy i umiejętności.
Inteligentne systemy nauczania: Program komputerowy, który zapewnia uczniom spersonalizowane/adaptacyjne instrukcje bez ingerencji ludzi.
Ontologie: Zestaw pojęć w obrębie domeny, które przechwytują i reprezentują wiedzę konsensualną w sposób ogólny i mogą być ponownie wykorzystywane i udostępniane w aplikacjach oprogramowania.
Agenci oprogramowania: Jednostki oprogramowania, takie jak programy oprogramowania lub roboty, charakteryzujące się autonomią, współpracą i zdolnościami uczenia się.
Modele ucznia: Reprezentacja zachowania ucznia i stopnia kompetencji pod względem istniejącej wiedzy podstawowej na temat domeny.
Uszkodzenie pancerza: Wydobycie kamieni lub elementów betonowych z warstwy pancerza przez działanie fal.
Warstwa pancerza: Zewnętrzna warstwa falochronu z gruzu, składająca się z ciężkich kamieni lub bloków betonowych.
Sztuczne sieci neuronowe: Połączony zestaw wielu prostych jednostek przetwarzających, powszechnie nazywanych neuronami, które wykorzystują model matematyczny reprezentujący relację wejścia/wyjścia.
Algorytm propagacji wstecznej: Technika uczenia nadzorowanego stosowana przez sieci neuronowe, która iteracyjnie modyfikuje wagi połączeń sieci, tak aby błąd podawany przez sieć po porównaniu wyjść z pożądanym zmniejszał się.
Falochron: Konstrukcja przybrzeżna zbudowana w celu osłonięcia obszaru przed falami, zwykle do załadunku lub rozładunku statków.
Odbicie: Proces, w którym energia nadchodzących fal jest zwracana w kierunku morza.
Znaczna wysokość fali: W analizie zapisu fal, średnia wysokość najwyższej jednej trzeciej wybranej liczby fal.
Adaptacja: Adaptacja to proces modyfikacji oparty na danych wejściowych lub obserwacjach. System informacyjny powinien dostosowywać się do konkretnych potrzeb poszczególnych użytkowników w celu uzyskania zoptymalizowanych wyników.
Indeksowanie: Indeksowanie oznacza przypisanie terminów (słów), które reprezentują dokument w indeksie. Indeksowanie może być przeprowadzane ręcznie lub automatycznie. Automatyczne indeksowanie wymaga wyeliminowania słów pomijanych i stemmingu.
Pobieranie informacji: Pobieranie informacji dotyczy reprezentacji i wiedzy, a następnie wyszukiwania odpowiednich informacji w tych źródłach wiedzy. Pobieranie informacji zapewnia technologię stojącą za wyszukiwarkami.
Analiza linków: Linki między stronami w sieci stanowią duże źródło wiedzy, które jest wykorzystywane przez algorytmy analizy linków do wielu celów. Wiele algorytmów podobnych do PageRank określa wynik jakości lub autorytetu na podstawie liczby przychodzących linków strony. Ponadto analiza linków jest stosowana w celu identyfikacji tematycznych stron, społeczności internetowych i innych struktur społecznych.
Systemy rekomendacji: Działania lub treści są sugerowane użytkownikowi na podstawie wcześniejszych doświadczeń zebranych od innych użytkowników. Bardzo często dokumenty są rekomendowane na podstawie profili podobieństwa między użytkownikami.
Rozszerzenie terminu: Terminy nieobecne w oryginalnym zapytaniu do systemu wyszukiwania informacji wprowadzonym przez użytkownika są dodawane automatycznie. Rozszerzone zapytanie jest następnie ponownie wysyłane do systemu.
Ważenie: Ważenie określa ważność terminu dla dokumentu. Wagi są obliczane przy użyciu wielu różnych wzorów, które uwzględniają częstotliwość występowania każdego terminu w dokumencie i w zbiorze, a także długość dokumentu i średnią lub maksymalną długość dowolnego dokumentu w zbiorze.
Diagnostyka wspomagana komputerowo: Obszar badawczy obejmujący rozwój technik obliczeniowych i procedur wspomagających pracowników służby zdrowia w podejmowaniu decyzji dotyczących diagnostyki medycznej.
Redukcja wymiarowości: Znajdowanie zredukowanego zestawu danych, z możliwością mapowania większego zestawu.
Ekstrakcja cech: Znajdowanie reprezentatywnych cech określonego problemu z próbek o różnych cechach.
Obrazy medyczne: Obrazy generowane w specjalistycznym sprzęcie, wykorzystywane w celu wspomagania diagnostyki medycznej. Np.: obrazy rentgenowskie, tomografia komputerowa, obrazy rezonansu magnetycznego.
Rozpoznawanie wzorców: Obszar badawczy obejmujący rozwój metod i zautomatyzowanych technik identyfikacji i klasyfikacji próbek w określonych grupach, zgodnie z reprezentatywnymi cechami.
Diagnostyka radiologiczna: Diagnostyka medyczna oparta na analizie i interpretacji wzorców obserwowanych na obrazach medycznych.
Samouporządkowujące się mapy: Kategoria algorytmów opartych na sztucznych sieciach neuronowych, które wyszukują, za pomocą samouporządkowania, w celu utworzenia mapy cech reprezentujących zaangażowane próbki w określonym problemie.
Chiński pokój: W eksperymencie myślowym Searle′a, prosi nas, abyśmy wyobrazili sobie mężczyznę siedzącego w pokoju z wieloma księgami zasad. Do pokoju wprowadzono zestaw symboli. Mężczyzna przetwarza symbole zgodnie z księgami zasad i przekazuje nowy zestaw symboli poza pokój. Symbole umieszczone w pokoju odpowiadają chińskiemu pytaniu, a symbole, które przekazuje, są odpowiedzią na pytanie w języku chińskim. Jednak mężczyzna przestrzegający zasad nie zna chińskiego. Przykład sugeruje, że program komputerowy mógłby podobnie przestrzegać zasad, aby odpowiedzieć na pytanie bez żadnego zrozumienia.
Klasyczne przetwarzanie symboli: Klasyczny pogląd na poznanie był taki, że było ono analogiczne do symbolicznych obliczeń w komputerach cyfrowych. Informacje są reprezentowane jako ciągi symboli, a przetwarzanie poznawcze obejmuje manipulację tymi ciągami za pomocą zestawu reguł. Zgodnie z tym poglądem szczegóły dotyczące sposobu implementacji takich obliczeń nie są uważane za ważne.
Koneksjonizm: Koneksjonizm to termin używany do opisania zastosowania sztucznych sieci neuronowych w badaniu umysłu. W opisach koneksjonistycznych wiedza jest reprezentowana przez siłę połączeń między zestawem sztucznych neuronów.
Koneksjonizm eliminacyjny: Koneksjonista eliminacyjny stara się przedstawić opis poznania, który unika symboli i działa na poziomie subsymbolicznym. Na przykład koncepcja "psa" mogłaby zostać ujęta w rozproszonej reprezentacji jako szereg cech wejściowych (np. czworonożny, futrzasty, szczeka itp.), a następnie istniałaby w sieci w formie ważonych połączeń między jego jednostkami przypominającymi neurony.
Uogólnienie: Sztuczne sieci neuronowe, po wyszkoleniu, są w stanie uogólniać poza elementy, na których zostały wyszkolone, i generować podobne dane wyjściowe w odpowiedzi na dane wejściowe, które są podobne do tych napotkanych podczas szkolenia.
Koneksjonizm implementacyjny: W tej mniej ekstremalnej wersji koneksjonizmu celem jest znalezienie sposobu na wdrożenie klasycznego przetwarzania symboli przy użyciu sztucznych sieci - i znalezienie sposobu na uwzględnienie przetwarzania symboli na poziomie neuronów.
Decyzja leksykalna: Zadania decyzji leksykalnej to miara opracowana w celu zbadania procesów związanych z rozpoznawaniem słów. Prezentowane jest słowo lub pseudosłowo (bezsensowny ciąg liter zgodny z zasadami pisowni), a czytelnik jest proszony o naciśnięcie przycisku, aby wskazać, czy wyświetlane jest słowo, czy nie. Czas potrzebny na podjęcie decyzji jest rejestrowany w milisekundach. Miara może dostarczyć wskazówek dotyczących różnych aspektów przetwarzania tekstu - na przykład, jak znajome jest słowo czytelnikowi.
Sztuczna sieć neuronowa: Sieć wielu prostych procesorów ("jednostek" lub "neuronów"), która imituje biologiczną sieć neuronową. Jednostki są połączone jednokierunkowymi kanałami komunikacyjnymi, które przenoszą dane liczbowe. Sieci neuronowe można trenować, aby znajdowały nieliniowe relacje w danych i są wykorzystywane w takich zastosowaniach jak robotyka, rozpoznawanie mowy, przetwarzanie sygnałów lub diagnostyka medyczna.
Astrocyty: Astrocyty są podtypem komórek glejowych w mózgu. Pełnią wiele funkcji, w tym tworzenie bariery krew-mózg, dostarczanie składników odżywczych do tkanki nerwowej i odgrywają główną rolę w procesie naprawy i bliznowacenia w mózgu. Modulują transmisję synaptyczną, a ostatnio odkryto ich kluczową rolę w przetwarzaniu informacji.
Algorytm propagacji wstecznej: Technika uczenia nadzorowanego stosowana do trenowania sieci neuronowych, oparta na minimalizacji błędu uzyskanego z porównania wyników, które sieć daje po zastosowaniu zestawu danych wejściowych sieci, z wynikami, które powinna dać (pożądane wyniki).
Obliczenia ewolucyjne: Podejście do rozwiązania kierowane przez ewolucję biologiczną, która zaczyna się od potencjalnych modeli rozwiązań, a następnie iteracyjnie stosuje algorytmy w celu znalezienia najlepiej dostosowanych modeli z zestawu, które mają służyć jako dane wejściowe do następnej iteracji, co ostatecznie prowadzi do modelu najlepiej reprezentującego dane.
Algorytmy genetyczne: Algorytmy genetyczne (GA) to adaptacyjne algorytmy heurystyczne oparte na ewolucyjnych ideach doboru naturalnego i genetyki. Podstawowa koncepcja GA została zaprojektowana w celu symulacji procesów w naturalnym systemie niezbędnych do ewolucji, w szczególności tych, które podążają za zasadami po raz pierwszy określonymi przez Karola Darwina dotyczącymi przetrwania najsilniejszych. Jako takie stanowią one inteligentne wykorzystanie losowego wyszukiwania w określonej przestrzeni wyszukiwania w celu rozwiązania problemu.
System glejowy: Powszechnie nazywane gliami (po grecku "klej"), są komórkami nieneuronalnymi, które zapewniają wsparcie i odżywianie, utrzymują homeostazę, tworzą mielinę i uczestniczą w transmisji sygnałów w układzie nerwowym. Szacuje się, że w mózgu człowieka liczba komórek glejowych przewyższa liczbę neuronów w stosunku 10 do 1.
Trening hybrydowy: :metoda zdobywania wiedzy, która łączy nadzorowany i nienadzorowany trening systemów łącznikowych.
Synapsa: Specjalistyczne połączenia, przez które komórki układu nerwowego wysyłają sygnały do siebie nawzajem i do komórek nieneuronalnych, takich jak te w mięśniach lub gruczołach.
Reguła asocjacyjna: Implikacja postaci X ? Y w transakcyjnej bazie danych z parametrami wsparcia (s) i pewności (c). X i Y to zbiór elementów, s to ułamek transakcji zawierających X?Y, a c% transakcji zawierających X zawiera również Y.
Klasyfikacja: Technika eksploracji danych, która konstruuje model (klasyfikator) z danych historycznych (danych szkoleniowych) i używa go do przewidywania kategorii niewidzianych krotek.
Klastrowanie: Technika eksploracji danych w celu podziału obiektów danych na zbiór grup w taki sposób, aby maksymalizować podobieństwo wewnątrzgrupowe, a minimalizować podobieństwo międzygrupowe.
Eksploracja danych: Ekstrakcja interesujących, nietrywialnych, niejawnych, wcześniej nieznanych i potencjalnie przydatnych informacji lub wzorców z danych w dużych bazach danych.
Strumień danych: Ciągły przepływ danych ze źródła danych, np. czujnika, tickera giełdowego, urządzenia monitorującego itp. Strumień danych charakteryzuje się nieograniczonym rozmiarem. Opisowa technika eksploracji: technika eksploracji danych, która indukuje model opisujący cechy danych. Techniki te są zazwyczaj nienadzorowane i całkowicie oparte na danych.
Predykcyjna technika eksploracji: technika eksploracji danych, która indukuje model z danych historycznych w sposób nadzorowany i wykorzystuje model do przewidywania pewnych cech nowych danych.
Atak siłowy: Wyczerpująca technika kryptoanalityczna, która przeszukuje całą przestrzeń kluczy w celu znalezienia poprawnego klucza.
Kryptoanaliza: Jest to proces próby odszyfrowania danego tekstu zaszyfrowanego i/lub znalezienia klucza bez znajomości klucza lub z jego częściową znajomością. Jest to również obszar badawczy badający techniki kryptoanalizy. Przestrzeń kluczy: Zbiór wszystkich możliwych kluczy dla danego szyfrogramu. Przestrzeń kluczy może być ograniczona do podprzestrzeni całego K przez pewną wcześniejszą wiedzę.
Tekst jawny: Niezaszyfrowany tekst, ciąg liter z alfabetu P danego kryptosystemu.
Atak relaksacyjny: Technika kryptoanalityczna, która przeszukuje przestrzeń kluczy poprzez przyrostowe aktualizacje kluczy kandydujących. Zwykle stosuje wiedzę z poprzednich próbnych deszyfrowania, aby zmienić niektóre części klucza.
Sztuczna sieć neuronowa (ANN): Model matematyczny inspirowany biologicznymi sieciami neuronowymi. Jednostki te nazywane są neuronami połączonymi w różnych warstwach wejściowych, ukrytych i wyjściowych. W przypadku określonego bodźca (dane liczbowe w warstwie wejściowej) niektóre neurony są aktywowane zgodnie z funkcją aktywacji i generują numeryczne wyjście. W ten sposób ANN jest trenowana, przechowując nauczony model w macierzach wagowych neuronów. Wykazano, że tego rodzaju przetwarzanie jest odpowiednie do znajdowania nieliniowych relacji w danych, będąc bardziej elastycznym w niektórych zastosowaniach niż modele wyodrębnione za pomocą technik rozkładu liniowego.
Metoda elementów skończonych (MES): Jest to technika analizy numerycznej służąca do uzyskiwania rozwiązań równań różniczkowych, które opisują lub w przybliżeniu opisują szeroką gamę problemów. Podstawowe założenie MES głosi, że skomplikowaną domenę można podzielić na szereg mniejszych regionów (elementy skończone), w których równania różniczkowe są w przybliżeniu rozwiązywane. Poprzez złożenie zestawu równań dla każdego regionu określa się zachowanie w całej domenie problemu.
Badanie echa uderzeniowego: Nieniszcząca procedura oceny oparta na monitorowaniu ruchu powierzchni wynikającego z krótkotrwałego uderzenia mechanicznego. Na podstawie analiz drgań mierzonych przez czujniki można uzyskać diagnozę stanu materiału.
Ocena nieniszcząca (NDE): Techniki NDE, badania ND lub inspekcji ND są stosowane w kontroli jakości materiałów. Techniki te nie niszczą obiektu testowego i wydobywają informacje o wewnętrznej strukturze obiektu. Aby wykryć różne wady, takie jak pęknięcia i korozja, dostępne są różne metody testowania, takie jak prześwietlenie rentgenowskie (gdzie pęknięcia pojawiają się na filmie), ultradźwięki (gdzie pęknięcia pojawiają się jako echo na ekranie) i echo uderzeniowe (pęknięcia są wykrywane przez zmiany w trybach rezonansowych obiektu).
Rozpoznawanie wzorców: Ważny obszar badań dotyczący automatycznego odkrywania lub identyfikowania figur, znaków, kształtów, form i wzorów bez aktywnego udziału człowieka w procesie decyzyjnym. Jest również związany z klasyfikowaniem danych w kategoriach. Klasyfikacja polega na uczeniu się modelu rozdzielania kategorii danych, do tego rodzaju uczenia maszynowego można podejść, stosując techniki statystyczne (modele parametryczne lub nieparametryczne) lub heurystyczne. Jeśli w procesie uczenia podano pewne wcześniejsze informacje, nazywa się to nadzorowanym lub półnadzorowanym, w przeciwnym razie nazywa się to nienadzorowanym.
Analiza głównych składowych (PCA): Metoda osiągania redukcji wymiarowości. Reprezentuje zbiór danych N-wymiarowych za pomocą ich projekcji na zbiór r optymalnie zdefiniowanych osi (głównych składowych). Ponieważ osie te tworzą zestaw ortogonalny, PCA daje liniową transformację danych. Główne składowe reprezentują źródła wariancji w danych. Zatem najbardziej znaczące główne składowe pokazują te cechy danych, które najbardziej się zmieniają.
Widma sygnałów: Zbiór składowych częstotliwości rozłożonych z oryginalnego sygnału w dziedzinie czasu. Istnieje kilka technik mapowania funkcji w dziedzinie czasu na dziedzinę częstotliwości jako transformacje Fouriera i falkowe oraz jej odwrotne transformacje, które umożliwiają rekonstrukcję oryginalnego sygnału
Akcelerometr: Urządzenie mierzące przyspieszenie, które jest przekształcane na sygnał elektryczny przesyłany do sprzętu do akwizycji sygnału. W testach echa uderzeniowego zmierzone przyspieszenie odnosi się do przemieszczeń drgań spowodowanych wzbudzeniem krótkiego uderzenia.
Redukcja wymiarowości: Proces mający na celu zmniejszenie liczby zmiennych problemu. Wymiar problemu jest podany przez liczbę zmiennych (cech lub parametrów), które reprezentują dane. Po ekstrakcji cech sygnału (która zmniejsza oryginalną przestrzeń próbki sygnału), wymiarowość może zostać bardziej zredukowana za pomocą metod selekcji cech.
Szybka transformata Fouriera (FFT): Klasa algorytmów stosowanych w cyfrowym przetwarzaniu sygnałów do obliczania dyskretnej transformaty Fouriera (DFT) i jej odwrotności. Ma zdolność przenoszenia funkcji z dziedziny czasu do dziedziny częstotliwości. Uzyskane składowe częstotliwości są widmami sygnału.
Ekstrakcja cech (FE): Proces mapowania przestrzeni wielowymiarowej na przestrzeń o mniejszej liczbie wymiarów. W przetwarzaniu sygnałów, zamiast przetwarzania surowych sygnałów z tysiącami próbek, bardziej wydajne jest przetwarzanie cech wyodrębnionych z sygnałów, takich jak moc sygnału, częstotliwość główna i współczynnik tłumienia.
Wybór cech (FS): Technika, która wybiera podzbiór cech z danego zestawu cech, które reprezentują istotne właściwości danych. FS można również zdefiniować jako zadanie wyboru małego podzbioru cech, który jest wystarczający do dobrego przewidywania etykiet docelowych, co jest kluczowe dla efektywnego uczenia się. Istnieje kilka metod FS opartych na marginesach (np. relief, simba) lub teorii informacji (np. infogain). Nadzorowane metody FS wykorzystują wiedzę a priori na temat zmiennej klasyfikacji, aby wybrać zmienne silnie skorelowane ze znaną zmienną.
Pozostaw-Jedną-Poza: Metoda stosowana w klasyfikacji z następującymi krokami: i.) Oznacz przypadki bazy danych znanymi klasami. ii.) Wybierz przypadek bazy danych. iii.) Oszacuj klasę dla wybranego przypadku przez klasyfikator, używając pozostałych przypadków jako danych treningowych. iv.) Powtarzaj kroki ii i iii do końca przypadków. v.) Oblicz średni procent sukcesu dla wyników klasyfikacji.
Kondycjoner sygnału (SC): Urządzenie, które konwertuje jeden typ sygnału elektronicznego na inny typ sygnału. Jego głównym zastosowaniem jest konwersja sygnału, który może być trudny do odczytania przez konwencjonalne urządzenia pomiarowe, na format łatwiejszy do odczytania. Typowe funkcje SC to wzmocnienie, izolacja elektryczna i liniowość.
Sztuczne sieci neuronowe: Zestaw podstawowych jednostek przetwarzania, które komunikują się ze sobą za pomocą ważonych połączeń. Jednostki te dają początek równoległemu przetwarzaniu o szczególnych właściwościach, takich jak zdolność do adaptacji lub uczenia się, uogólniania, grupowania lub organizowania danych, aproksymacji funkcji nieliniowych. Każda jednostka otrzymuje dane wejściowe od sąsiadów lub zewnętrznych źródeł i wykorzystuje je do obliczenia sygnału wyjściowego. Taki sygnał jest propagowany do innych jednostek lub jest składnikiem wyjścia sieci. Aby zmapować zestaw wejściowy na wyjściowy, sieć neuronowa jest trenowana przez uczenie wzorców, zmieniając ich wagi zgodnie z właściwymi zasadami uczenia się.
Automatyczna kontrola wizualna: Automatyczna forma kontroli jakości, zwykle realizowana przy użyciu jednej lub więcej kamer podłączonych do jednostki przetwarzania. Automatyczna kontrola wizualna została zastosowana do szerokiej gamy produktów. Jej celem jest zminimalizowanie skutków zmęczenia wzroku operatorów, którzy wykonują wykrywanie defektów w środowisku linii produkcyjnej.
Komórkowe sieci neuronowe: Szczególna architektura obwodów, która posiada pewne kluczowe cechy sztucznych sieci neuronowych. Jej jednostki przetwarzania są rozmieszczone w siatce M×N. Podstawową jednostką sieci neuronowych komórkowych jest komórka, która zawiera liniowe i nieliniowe elementy obwodów. Każda komórka jest połączona tylko z sąsiednimi komórkami. Sąsiednie komórki mogą oddziaływać bezpośrednio na siebie, podczas gdy komórki niepołączone ze sobą bezpośrednio mogą wpływać na siebie pośrednio z powodu efektów propagacji ciągłej dynamiki czasu.
Wykrywanie defektów: Ekstrakcja informacji o obecności wystąpienia przypadku, w którym wymaganie nie jest spełnione w procesach przemysłowych. Celem wykrywania defektów jest wyróżnienie produktów, które są nieprawidłowe lub mają braki w funkcjonalności lub specyfikacjach.
Dopasowywanie obrazów: Ustalenie zgodności między każdą parą widocznych homologicznych punktów obrazu na danej parze obrazów, mające na celu ocenę nowości.
Kontrola przemysłowa: Analiza mająca na celu zapobieganie dotarciu niezadowalających produktów przemysłowych do klienta, w szczególności w sytuacjach, w których wadliwe produkty mogą spowodować obrażenia lub nawet zagrozić życiu.
Obszar zainteresowania: Wybrany podzbiór próbek w zestawie danych zidentyfikowanym w określonym celu. W przetwarzaniu obrazu obszar zainteresowania jest identyfikowany przez granice obiektu. Kodowanie Regionu Zainteresowania można osiągnąć, opierając jego wybór na:(a) wartości, która może lub nie może znajdować się poza normalnym zakresem występujących wartości; (b) czysto oddzielonych informacjach graficznych, takich jak elementy rysunkowe; (c) oddzielonych informacjach semantycznych, takich jak zestaw współrzędnych przestrzennych i/lub czasowych.
Sieci neuronowe komórkowe: Szczególna architektura obwodów, która posiada pewne kluczowe cechy sztucznych sieci neuronowych. Jej jednostki przetwarzające są rozmieszczone w siatce M×N. Podstawową jednostką sieci neuronowych komórkowych jest komórka, która zawiera liniowe i nieliniowe elementy obwodów. Każda komórka jest połączona tylko z sąsiednimi komórkami. Sąsiednie komórki mogą oddziaływać bezpośrednio ze sobą, podczas gdy komórki niepołączone bezpośrednio ze sobą mogą wpływać na siebie pośrednio z powodu efektów propagacji ciągłej dynamiki czasu.
Pamięć rozmyta asocjacyjna: Rodzaj pamięci adresowalnej treścią, w której przywołanie następuje poprawnie, jeśli dane wejściowe mieszczą się w określonym oknie składającym się z górnej i dolnej granicy przechowywanych wzorców. Pamięć rozmyta asocjacyjna jest identyfikowana przez macierz wartości rozmytych. Umożliwia mapowanie wejściowego zbioru rozmytego na wyjściowy zbiór rozmyty.
Rozciąganie histogramu: Proces punktowy, który obejmuje zastosowanie odpowiedniej funkcji transformacji do każdego piksela obrazu cyfrowego w celu redystrybucji informacji histogramu w kierunku skrajności zakresu poziomów szarości. Celem tej operacji jest zwiększenie kontrastu obrazów cyfrowych.
Dopasowywanie obrazów: Ustalenie korespondencji między każdą parą widocznych homologicznych punktów obrazu na danej parze obrazów, mające na celu ocenę nowości.
Główne głosowanie: Operacja mająca na celu podjęcie decyzji, czy sąsiedztwo piksela w obrazie cyfrowym zawiera więcej czarnych lub białych pikseli, czy też ich liczba jest równa. Efekt ten jest realizowany w dwóch krokach. Pierwszy z nich powoduje powstanie obrazu, w którym znak najbardziej prawego piksela odpowiada dominującemu kolorowi. Podczas drugiego kroku poziomy szarości najbardziej prawych pikseli są wprowadzane do wartości czarnych lub białych, w zależności od dominującego koloru, lub pozostają niezmienione w przeciwnym razie.
System czasu rzeczywistego: System, który musi spełniać wyraźne ograniczenia czasu reakcji, aby uniknąć awarii. Równoważnie, system czasu rzeczywistego to taki, którego logiczna poprawność opiera się zarówno na poprawności wyników, jak i ich terminowości. Ograniczenia terminowości lub terminy są na ogół odzwierciedleniem podstawowego kontrolowanego procesu fizycznego.
Region zainteresowania: Wybrany podzbiór próbek w zestawie danych zidentyfikowany dla określonego celu. W przetwarzaniu obrazu, region zainteresowania jest identyfikowany przez granice obiektu. Kodowanie regionu zainteresowania można osiągnąć, opierając jego wybór na: (a) wartości, która może lub nie może znajdować się poza normalnym zakresem występujących wartości; (b) czysto oddzielonych informacjach graficznych, takich jak elementy rysunkowe; (c) oddzielonych informacjach semantycznych, takich jak zestaw współrzędnych przestrzennych i/lub czasowych.
Reguła asocjacji: Reguła asocjacji jest implikacją postaci X →Y, gdzie X ⊂ I, Y ⊂ I i X ∩Y = ∅, I oznacza zbiór elementów.
Eksploracja danych: Ekstrakcja interesujących, nietrywialnych, niejawnych, wcześniej nieznanych i potencjalnie przydatnych informacji lub wzorców z danych w dużych bazach danych.
Koncepcja formalna: Kontekst formalny K = (G,M,I) składa się z dwóch zbiorów G (obiekty) i M (atrybuty) oraz relacji I między G i M. Dla zbioru A ⊆ G obiektów A′={meM | gIm dla wszystkich geA} (zbiór wszystkich atrybutów wspólnych dla obiektów w A). Odpowiednio, dla zbioru B atrybutów definiujemy B′ = {geG | gIm dla wszystkich meB} (zbiór obiektów wspólnych dla atrybutów w B). Formalną koncepcją kontekstu (G, M, I) jest para (A, B) z A?G, B?M, A'=B i B'=A A nazywane jest zakresem, a B jest intencją koncepcji (A, B).
Częsty zamknięty zestaw elementów: Zestaw elementów X jest zamkniętym zestawem elementów, jeśli nie istnieje zestaw elementów X′ taki, że:
i. X′ jest właściwym nadzbiór X,
ii. Każda transakcja zawierająca X zawiera również X′. Zamknięty zestaw elementów X jest częsty, jeśli jego wsparcie przekracza dany próg wsparcia.
Połączenie Galois: Niech D = (O, I, R) będzie kontekstem eksploracji danych, gdzie O i I są skończonymi zbiorami obiektów (transakcji) i elementów. R ⊆ O x I jest relacją binarną między obiektami i elementami. Dla O ⊆ O, i I ⊆ I, definiujemy jak pokazano w Załączniku C. f(O) kojarzy z O elementy wspólne dla wszystkich obiektów o ∈ O, a g(I) kojarzy z I obiekty powiązane ze wszystkimi elementami i ∈ I. Para zastosowań (f,g) jest połączeniem Galois pomiędzy zbiorem potęgowym O (tj. 2O) a zbiorem potęgowym I (tj. 2I). Operatory h = f o g w 2I i h′ = g o f w 2o są operatorami domknięcia Galois. Zbiór elementów C ⊆ I z D jest domkniętym zbiorem elementów wtedy i tylko wtedy, gdy h(C) = C.
Generator zbioru elementów: Generator p domkniętego zbioru elementów c jest jednym z najmniejszych zbiorów elementów, takim że h(p) = c.
Reguły asocjacji nieredundantnej : Niech Ri oznacza regułę X1i → X2i, gdzie X1,X2 ⊆ I. Reguła R1 jest bardziej ogólna niż reguła R2, pod warunkiem, że R2 można wygenerować, dodając dodatkowe elementy do poprzednika lub następnika R1. Reguły mające takie samo wsparcie i pewność jak reguły bardziej ogólne są regułami asocjacji redundantnej. Pozostałe reguły są regułami nieredundantnymi.
Atak siłowy: Wyczerpująca technika kryptoanalityczna, która przeszukuje całą przestrzeń kluczy w celu znalezienia poprawnego klucza.
Tekst kandydacki: Tekst uzyskany przez zastosowanie algorytmu deszyfrującego w tekście zaszyfrowanym przy użyciu pewnego klucza k ∈ K. Jeśli k jest poprawnym kluczem (lub kluczem równoważnym) K, to tekst kandydacki jest prawidłowym tekstem jawnym x, w przeciwnym razie jest tekstem zaszyfrowanym przez połączenie dk (eK(x)).
Szyfrogram: Zaszyfrowany tekst, ciąg liter alfabetu C danego kryptosystemu przy użyciu danego klucza K ∈ K.…
Klasyczny szyfr: Klasyczny system szyfru to pięciokrotność (P, C, K, E, D), gdzie P, C, definiują alfabet tekstu jawnego i szyfrogramu, K jest zbiorem możliwych kluczy, a dla każdego K ∈ K istnieje algorytm szyfrowania eK ∈ E i odpowiadający mu algorytm deszyfrowania dK ∈ D taki, że dK (eK(x)) = x dla każdego wejścia x ∈ P i K ∈ K….
Kryptoanaliza: Jest to proces próby odszyfrowania danego szyfrogramu i/lub znalezienia klucza bez znajomości klucza lub z jego częściową znajomością. Jest to również obszar badawczy badający techniki kryptoanalizy.
Przestrzeń kluczy: Zbiór wszystkich możliwych kluczy dla danego szyfrogramu. Przestrzeń kluczy może być ograniczona do podprzestrzeni całego K przez pewną wcześniejszą wiedzę. Tekst jawny: Niezaszyfrowany tekst, ciąg liter z alfabetu P danego kryptosystemu.
Filtr tekstów jawnych: Algorytm lub predykat używany do określania, które teksty nie są prawidłowymi tekstami jawnymi. Filtr idealnych tekstów jawnych nigdy nie zwraca odpowiedzi NIEPOPRAWNEJ dla poprawnego tekstu jawnego.
Funkcja punktacji: Funkcja punktacji jest używana do oceny przydatności tekstu kandydata do klucza k ∈ K. Idealna funkcja punktacji ma ekstremum globalne w poprawnym tekście jawnym, tj. gdy k = K.
Sztuczna sieć neuronowa (ANN): System składający się z połączonych ze sobą sztucznych neuronów lub węzłów (zwykle uproszczonych neuronów), które mogą mieć pewne właściwości biologicznych sieci neuronowych. Mogą być używane do zrozumienia biologicznych sieci neuronowych lub do rozwiązywania tradycyjnych zadań sztucznej inteligencji bez konieczności prób modelowania rzeczywistego systemu biologicznego. Dobrze znanymi przykładami ANN są modele Hopfielda, Kohonena i komórkowego (CNN).
Sprzężenie zwrotne: Sygnał, który jest zapętlany w celu kontrolowania systemu w sobie. Kiedy wyjście systemu jest sprzężone zwrotnie jako część wejścia systemu, nazywa się to pętlą sprzężenia zwrotnego. Prostym urządzeniem elektronicznym opartym na sprzężeniu zwrotnym jest oscylator elektroniczny. Pętla synchronizacji fazowej (PLL) jest przykładem złożonego systemu sprzężenia zwrotnego.
Neuromorficzny: Termin ukuty przez Carvera Meada pod koniec lat 80. XX wieku w celu opisania systemów VLSI zawierających elektroniczne obwody analogowe, które naśladują neurobiologiczne architektury obecne w układzie nerwowym. Niedawno jej definicja została rozszerzona o analogowe, cyfrowe i mieszane układy A/D VLSI, które implementują modele układów neuronowych, a także algorytmy programowe.
Funkcja liniowa kawałkowa: Funkcja f(x), którą można podzielić na szereg liniowych segmentów, z których każdy jest zdefiniowany dla nienakładającego się przedziału x. Splot przestrzenny: Termin używany do identyfikacji liniowej kombinacji szeregu dyskretnych danych 2D (obraz cyfrowy) z kilkoma współczynnikami lub wagami. W teorii Fouriera splot w przestrzeni jest równoważny (przestrzennemu) filtrowaniu częstotliwości.
Szablon: Znany również jako jądro lub jądro splotu, to zbiór współczynników używanych do wykonywania operacji filtrowania przestrzennego na obrazie cyfrowym za pośrednictwem operatora splotu przestrzennego.
Przejściowy: W elektronice układ przejściowy to krótkotrwałe drgania w układzie spowodowane nagłą zmianą napięcia, prądu lub obciążenia. Najczęściej występują one w wyniku działania przełączników. Sygnał wytwarzany przez proces przejściowy nazywany jest sygnałem przejściowym lub po prostu transjentem. Ponadto, transjent dynamicznego systemu można postrzegać jako jego ścieżkę do stabilnego wyjścia końcowego.
VLSI: Akronim oznaczający Very Large Scale Integration (bardzo dużą integrację). Jest to proces tworzenia układów scalonych poprzez łączenie tysięcy (obecnie setek milionów) układów opartych na tranzystorach w jednym układzie scalonym. Typowym urządzeniem VLSI jest mikroprocesor.
Sztuczne sieci neuronowe (ANN): Wysoce równoległe sieci połączonych ze sobą prostych elementów obliczeniowych, które wykonują elementarne operacje, takie jak sumowanie sygnałów wejściowych (sygnałów aferentnych) i wzmacnianie/progowanie sumy.
Wnioskowanie bayesowskie: Podejście do statystyki, w którym wszystkie formy niepewności są wyrażane w kategoriach prawdopodobieństwa.
Dekonwolucja: Algorytmiczna metoda eliminowania szumu i poprawy rozdzielczości danych cyfrowych poprzez odwrócenie efektów splotu na zarejestrowanych danych.
Obraz cyfrowy: Reprezentacja obrazu 2D/3D jako skończony zbiór wartości cyfrowych zwanych pikselami/wokselami, zwykle przechowywanych w pamięci komputera jako obraz rastrowy lub mapa rastrowa.
Entropia: Miara niepewności związanej ze zmienną losową. Entropia kwantyfikuje informacje w części danych.
Przywracanie obrazu: Rozmyty obraz można znacznie poprawić, dekonwoluując jego PSF w taki sposób, że wynik jest ostrzejszym i bardziej szczegółowym obrazem.
Funkcja rozproszenia punktu (PSF): wyjście systemu obrazowania dla źródła punktowego.
Wnioskowanie probabilistyczne: skuteczne podejście do przybliżonego rozumowania i uczenia się empirycznego w AI.
Sztuczna sieć neuronowa: Sztuczna sieć neuronowa (ANN), często nazywana po prostu "siecią neuronową" (NN), to połączona grupa sztucznych neuronów, która wykorzystuje model matematyczny lub model obliczeniowy do przetwarzania informacji w oparciu o podejście koneksjonistyczne do obliczeń.
Algorytm propagacji wstecznej: Technika uczenia nadzorowanego stosowana do trenowania sztucznych sieci neuronowych. Została po raz pierwszy opisana przez Paula Werbosa w 1974 r., a następnie rozwinięta przez Davida E. Rumelharta, Geoffreya E. Hintona i Ronalda J. Williamsa w 1986 r. Jest najbardziej przydatna w przypadku sieci typu feed-forward (sieci, które nie mają sprzężenia zwrotnego lub po prostu nie mają połączeń, które się zapętlają).
Klastrowanie: Klasyfikacja obiektów do różnych grup lub, dokładniej, partycjonowanie zbioru danych na podzbiory (klastry), tak aby dane w każdym podzbiorze (w idealnym przypadku) miały wspólną cechę - często bliskość zgodnie z określoną miarą odległości. Klastrowanie danych to powszechna technika statystycznej analizy danych, która jest wykorzystywana w wielu dziedzinach, w tym w uczeniu maszynowym, eksploracji danych, rozpoznawaniu wzorców, analizie obrazów i bioinformatyce.
Ulepszanie dokumentów: Podkreślenie pewnych pożądanych cech, co może ułatwić późniejsze etapy przetwarzania, takie jak segmentacja lub rozpoznawanie obiektów.
Hierarchiczne klasteryzacja aglomeracyjna: Algorytmy hierarchicznej klasteryzacji znajdują kolejne klastry przy użyciu wcześniej ustalonych klastrów. Algorytmy aglomeracyjne zaczynają od każdego elementu jako oddzielnego klastra i łączą je w kolejne większe klastry.
Perceptron wielowarstwowy (MLP): Ta klasa sztucznych sieci neuronowych składa się z wielu warstw jednostek obliczeniowych, zwykle połączonych w sposób wyprzedzający. Każdy neuron w jednej warstwie ma skierowane połączenia z neuronami kolejnej warstwy. W wielu zastosowaniach jednostki tych sieci stosują funkcję sigmoidalną jako funkcję aktywacji.
Rozpoznawanie znaków optycznych (OCR): Typ oprogramowania komputerowego zaprojektowanego do tłumaczenia obrazów tekstu pisanego odręcznie lub maszynowo (zwykle przechwytywanego przez skaner) na tekst edytowalny maszynowo lub do tłumaczenia obrazów znaków na standardowy schemat kodowania reprezentujący je (np. ASCII lub Unicode). OCR zaczęło się jako dziedzina badań nad rozpoznawaniem wzorców, sztuczną inteligencją i widzeniem maszynowym.
Uczenie nadzorowane: Technika uczenia maszynowego służąca do tworzenia funkcji z danych treningowych. Dane treningowe składają się z par obiektów wejściowych (zwykle wektorów) i pożądanych wyników. Wynik funkcji może być wartością ciągłą (nazywaną regresją) lub może przewidywać etykietę klasy obiektu wejściowego (nazywaną klasyfikacją). Zadaniem uczącego się nadzorowanego jest przewidywanie wartości funkcji dla dowolnego prawidłowego obiektu wejściowego po zobaczeniu szeregu przykładów treningowych (tj. par danych wejściowych i docelowych wyników).
Aminokwas: Jeden z 20 chemicznych bloków budulcowych, które są połączone wiązaniami amidowymi (peptydowymi), tworząc łańcuch polipeptydowy białka.
Sztuczny układ odpornościowy: Biologicznie inspirowane algorytmy komputerowe, które można stosować w różnych domenach, w tym wykrywanie błędów, optymalizacja funkcji i wykrywanie intruzji. Nazywany również komputerowym układem odpornościowym.
Elektroforeza: Zastosowanie zewnętrznego pola elektrycznego do rozdzielania dużych biocząsteczek na podstawie ich ładunku poprzez przepuszczanie ich przez akrylamid lub żel agarozowy.
RNA informacyjne: Komplementarna kopia DNA utworzona z jednoniciowego szablonu DNA podczas transkrypcji, która migruje z jądra do cytoplazmy, gdzie jest przetwarzana w sekwencję przenoszącą informacje w celu zakodowania domeny polipeptydowej.
Mikromacierz: 2D macierz, zwykle na szkle, filtrze lub płytce krzemowej, na której geny lub fragmenty genów są osadzane lub syntetyzowane w ustalonej kolejności przestrzennej, co umożliwia ich udostępnienie jako sond w sposób równoległy o wysokiej przepustowości.
Nukleotyd: Jednostka kwasu nukleinowego składająca się z pięciowęglowego cukru połączonego z grupą fosforanową i zasadą azotową.
Inteligencja roju: Technika sztucznej inteligencji oparta na badaniu zachowań zbiorowych w zdecentralizowanych, samoorganizujących się systemach.
Transkrypcja: Montaż komplementarnego jednoniciowego RNA na matrycy DNA. Translacja: Proces przekształcania RNA w białko poprzez montaż łańcucha polipeptydowego z cząsteczki mRNA w rybosomie.
Bioinformatyka: Zastosowanie matematyki stosowanej, informatyki, statystyki i informatyki do badania systemów biologicznych.
Ekspresja genów: Konwersja informacji z genu na białko poprzez transkrypcję i translację.
Mapowanie genów: Każda metoda stosowana do określania położenia względnej odległości między genami na chromosomie.
Sieć regulacji genów: Geny, które regulują lub ograniczają aktywność innych genów; w szczególności geny z kodem białek (represorów lub aktywatorów), które regulują transkrypcję genetyczną genów strukturalnych i/lub genów regulacyjnych.
Filogeneza: Ewolucyjne powiązania między organizmami. Wzory rozgałęzień linii genetycznie wytworzone przez prawdziwą historię ewolucyjną rozpatrywanego organizmu.
Dopasowanie sekwencji: Wynik porównania dwóch lub więcej sekwencji genów lub białek w celu określenia stopnia podobieństwa zasad lub aminokwasów. Dopasowania sekwencji są wykorzystywane do określania podobieństwa, homologii, funkcji lub innych stopni pokrewieństwa między dwoma lub więcej genami lub produktami genów.
Przewidywanie struktury: Algorytmy, które przewidują dwu- lub trójwymiarową strukturę białek lub cząsteczek DNA na podstawie ich sekwencji.
Pamięć asocjacyjna: Urządzenie matematyczne specjalnie zaprojektowane do przywoływania wzorców wyjściowych ze wzorców wejściowych, które mogą być zmienione przez szum.
Dynamiczna pamięć asocjacyjna: Specjalny typ pamięci asocjacyjnej złożony z dynamicznych synaps. Ta pamięć dostosowuje wartości swoich synaps podczas fazy przywoływania w odpowiedzi na bodźce wejściowe.
Dynamiczne synapsy: Synapsy, które modyfikowały swoje wartości w odpowiedzi na bodziec wejściowy również podczas faz przywoływania.
Filtr dolnoprzepustowy: Filtr, który usuwa wysokie częstotliwości z obrazu lub sygnału. Ten typ filtrów jest używany do symulacji układu wzrokowego niemowlęcia na wczesnych etapach. Przykładami tych filtrów są filtr średni lub filtr medianowy.
PCA: Analiza głównych składowych to technika stosowana w celu zredukowania wielowymiarowych zestawów danych do niższych wymiarów w celu analizy. PCA obejmuje obliczenie rozkładu wartości własnych zestawu danych, zwykle po wyśrodkowaniu średniej danych dla każdego atrybutu.
Losowy wybór: Wybór jednego lub większej liczby składników wektora w sposób losowy. Techniki losowego wyboru są używane do redukcji wielowymiarowych zestawów danych do niższych wymiarów w celu analizy.
Punkty stymulujące: Charakterystyczne punkty obiektu na obrazie używane podczas nauki i rozpoznawania, które przyciągają uwagę dziecka. Te punkty stymulujące są używane do trenowania dynamicznej pamięci asocjacyjnej.
Zachowanie adaptacyjne: Typ zachowania, który pozwala jednostce zastąpić zachowanie destrukcyjne czymś bardziej konstruktywnym i zdolnym do adaptacji do danej sytuacji.
Techniki inspirowane biologią: Systemy i narzędzia inspirowane biologią są w stanie łączyć wyniki z różnych dziedzin wiedzy, w tym biologii, inżynierii i innych nauk fizycznych, zainteresowanych badaniem i wykorzystywaniem modeli i technik inspirowanych lub stosowanychdo systemów biologicznych.
System obliczeniowy: Obliczenia to ogólny termin określający każdy rodzaj przetwarzania informacji, który można przedstawić matematycznie. Obejmuje to zjawiska od prostych obliczeń po ludzkie myślenie. Urządzenie zdolne do wykonywania obliczeń nazywa się systemem obliczeniowym.
Dynamiczne sieci rekurencyjne: Złożony nieliniowy układ dynamiczny opisany przez zestaw nieliniowych równań różniczkowych lub różnicowych z rozległymi wagami połączeń.
Orbity heterokliniczne: W portrecie fazowym układu dynamicznego orbita heterokliniczna (czasami nazywana połączeniem heteroklinicznym) jest ścieżką w przestrzeni fazowej, która łączy dwa różne punkty równowagi. Jeśli punkty równowagi na początku i na końcu orbity są takie same, orbita jest orbitą homokliniczną.
Dylemat stabilności-plastyczności: bada, w jaki sposób system uczący się pozostaje adaptacyjny (plastyczny) w odpowiedzi na znaczące dane wejściowe, a jednocześnie pozostaje stabilny w odpowiedzi na nieistotne dane wejściowe.
Proces konkurencji bez zwycięzcy: proces dynamiczny, którego głównym punktem jest transformacja przychodzącej tożsamości lub danych wejściowych przestrzennych w dane wyjściowe tożsamościowo-czasowe w oparciu o wewnętrzną dynamikę przełączania układu neuronowego.
Automatyczna identyfikacja: System musi ustalić, kim jest użytkownik.
Automatyczna weryfikacja: System musi ustalić, czy dana osoba jest tą, za którą się podaje.
Biometria behawioralna: Oparta na pomiarach i danych pochodzących z czynności wykonywanych przez użytkownika, a zatem pośrednio mierzy niektóre cechy ludzkiego ciała. Do tej grupy należą rozpoznawanie podpisu, chodu, gestów i uderzeń w klawisze.
Równy współczynnik błędów: Wydajność systemu, gdy współczynnik fałszywej akceptacji jest identyczny ze współczynnikiem fałszywego odrzucenia.
Współczynnik fałszywej akceptacji: Współczynnik oszustów, którym nieprawidłowo zezwolono na dostęp.
Współczynnik fałszywego odrzucenia: Współczynnik prawdziwych użytkowników, którym nieprawidłowo odmówiono dostępu.
Biometria fizjologiczna: Oparta na bezpośrednich pomiarach części ludzkiego ciała. Do tej grupy należą rozpoznawanie odcisków palców, twarzy, tęczówki oka i skanu dłoni.
Separacja ślepego źródła: Problem oddzielania od mieszanin sygnałów źródłowych, które je tworzą.
Problem imprezy koktajlowej: Szczególny przypadek separacji ślepego źródła, w którym mieszaniny są splotowe.
Mieszaniny splotowe: Mieszaniny, które nie są liniowe ze względu na echa i pogłosy, nie są całkowicie niezależne ze względu na propagację sygnału przez dynamiczne środowiska.
HOS (statystyki wyższego rzędu): Statystyka wyższego rzędu to dziedzina statystycznego przetwarzania sygnałów, która wykorzystuje więcej informacji niż funkcje autokorelacji i widmo. Wykorzystuje momenty, kumulanty i polispektra. Mogą być używane do uzyskiwania lepszych szacunków parametrów w zaszumionych sytuacjach lub do wykrywania nieliniowości w sygnałach.
ICA (niezależna analiza składowych): Techniki oparte na koncepcjach statystycznych, takich jak statystyki wyższego rzędu.
Mieszaniny liniowe: Mieszaniny, które są liniowymi kombinacjami różnych źródeł, które je tworzą.
Statystycznie niezależne: W przypadku dwóch zdarzeń, zajście jednego zdarzenia nie czyni bardziej ani mniej prawdopodobnym zajścia drugiego zdarzenia.
Sztuczne neurony / Neurony modelowe: Matematyczny opis neuronu biologicznego, w kontekście reprezentacji i przetwarzania informacji. Modele te to elementy przetwarzające, które tworzą sztuczną sieć neuronową. W kontekście chaotycznych sieci neuronowych, modele te obejmują reprezentację aspektów złożonej neurodynamiki.
Atraktory, odpychacze i cykle graniczne: Te trzy koncepcje są związane z koncepcją modalności dynamicznej i dotyczą długoterminowego zachowania układu dynamicznego. Atraktory to trajektorie zmiennej stanu układu, które pojawiają się w długim okresie, ze względną niezależnością względem dokładnych wartości warunków początkowych. Te długoterminowe trajektorie mogą być punktem w przestrzeni stanu (statyczne zachowanie asymptotyczne), nazywane punktami stałymi, wzorcem cyklicznym (nazywanym cyklem granicznym), a nawet trajektorią chaotyczną. Repelenty odpowiadają, jakościowo rzecz biorąc, odwrotnemu zachowaniu atraktorów: biorąc pod uwagę punkt stały lub cykliczną trajektorię układu dynamicznego, nazywa się je trajektoriami typu repelent, jeśli niewielkie zaburzenia mogą sprawić, że układ ewoluuje do trajektorii dalekich od pierwotnej.
Bifurkacja i zróżnicowana dynamika: Koncepcja bifurkacji, obecna w kontekście nieliniowych układów dynamicznych i teorii chaosu, odnosi się do przejścia między dwiema jakościowo różnymi modalnościami dynamicznymi; obie są prezentowane przez ten sam układ dynamiczny, a przejście (bifurkacja) jest promowane przez zmianę wartości odpowiedniego parametru numerycznego takiego układu. Taki parametr nazywa się "parametrem bifurkacji", a w wysoce nieliniowych układach dynamicznych jego zmiana może powodować dużą liczbę bifurkacji między różnymi modalnościami dynamicznymi, charakteryzującymi się samopodobieństwem i strukturą fraktalną. W wielu z tych układów mamy kaskadę niezliczonych bifurkacji, których kulminacją jest produkcja dynamiki chaotycznej.
Dynamika chaotyczna: Dynamika o specyficznych cechach wskazujących na złożone zachowanie, występująca jedynie w układach wysoce nieliniowych. Te charakterystyczne cechy, sformalizowane przez dyscyplinę "Teorii Chaosu", to wysoka wrażliwość na warunki początkowe, zachowanie nieokresowe i generowanie dużej liczby różnych trajektorii w przestrzeni stanów, zgodnie ze zmianą pewnego znaczącego parametru układu dynamicznego (patrz bifurkacja i dynamika zróżnicowana poniżej).
Neuronowe modele chaotyczne: Neurony modelowe, które uwzględniają aspekty złożonej dynamiki obserwowane w izolowanym neuronie biologicznym lub w zespołach kilku neuronów biologicznych. Niektóre z modeli o złożonej dynamice, wspomniane w tekście głównym tego artykułu, to neuron modelowy Aihary, neuron bifurkacyjny zaproponowany przez Nabila Farhata, sieci RPE, sieci CML Kaneko i zbiory K Waltera Freemana.
Przestrzenno-czasowe wzorce zbiorcze: Obserwowane dynamiczne konfiguracje zbiorczej zmiennej stanu w układzie wieloneuronowym (sieci). Aspekt czasowy wynika z faktu, że w chaotycznych sieciach neuronowych stany neuronów modelu ewoluują w czasie. Aspekt przestrzenny wynika z faktu, że neurony tworzące sieć można postrzegać jako punkty dyskretnej (siatkowej) struktury przestrzennej. Stabilność: Badanie odpychaczy i atraktorów przeprowadza się poprzez analizę stabilności, która określa ilościowo, w jaki sposób nieskończenie małe zaburzenia na danej trajektorii generowanej przez system są tłumione lub wzmacniane w czasie.
Atrybut: Każdy z komponentów tworzących wzorzec wejściowy.
Klasyfikator: Funkcja, która przypisuje klasę c do każdego interesującego wzorca wejściowego x. Klasyfikator można skonstruować bezpośrednio z zestawu przykładów wzorców wraz z ich klasami lub pośrednio z modelu statystycznego P∿(x, c).
EM (Algorytm Maksymalizacji Oczekiwania): standardowy algorytm iteracyjny do szacowania parametrów Θ parametrycznego modelu statystycznego. EM znajduje konkretne wartości parametrów, które maksymalizują prawdopodobieństwo obserwowanych danych D przy danym modelu statystycznym.
Brakująca wartość: Specjalna wartość atrybutu oznaczająca, że nie jest ona znana lub nie można jej zmierzyć. Uczenie półnadzorowane: Technika uczenia maszynowego wykorzystująca zarówno dane oznaczone, jak i nieoznaczone do konstrukcji modelu.
Model statystyczny: Funkcja matematyczna modelująca strukturę statystyczną problemu.
Uczenie nadzorowane: Rodzaj uczenia się, w którym celem jest nauczenie się funkcji, która wiąże pożądany wynik ("etykietę") z każdym wzorcem wejściowym. Techniki uczenia nadzorowanego wymagają zbioru danych treningowych przykładów z odpowiadającymi im pożądanymi wynikami. Uczenie nadzorowane tradycyjnie dzieli się na regresję (pożądanym wynikiem jest zmienna ciągła) i klasyfikację (pożądanym wynikiem jest etykieta klasy).
Zestawy treningowe/testowe: W kontekście tego rozdziału zbiór treningowy składa się ze wszystkich oznaczonych przykładów, które służą do budowy klasyfikatora. Zbiór testowy składa się z nowych, nieoznakowanych wzorców, których klasy powinny zostać przewidziane przez klasyfikator.
Klastrowanie BHC: Algorytm klasteryzacji oparty na hierarchicznym schemacie podziału binarnego. Algorytm działa poprzez podział klastra na dwie klasy, a następnie sprawdzenie poprawności podziału za pomocą analizy dyskryminacyjnej Fishera. Algorytm kończy działanie, gdy dalszy prawidłowy podział nie jest możliwy.
Biklasteryzacja: Nazywana również klasteryzacją dwukierunkową lub koklasteryzacją. W biklasteryzacji klasteryzowane są nie tylko obiekty, ale także ich cechy. Jeśli dane są reprezentowane w macierzy danych, wiersze i kolumny są klasteryzowane jednocześnie.
Analiza skupień: Eksploracyjna technika analizy danych, której celem jest znalezienie grup w danych, takich, w których obiekty w tej samej grupie są do siebie podobne, a obiekty w różnych grupach są niepodobne.
Technologia mikromacierzy DNA: Technologia umożliwiająca masowo równoległe, wysokoprzepustowe profilowanie ekspresji genów w całym genomie w pojedynczym eksperymencie hybrydyzacyjnym. Metoda ta opiera się na komplementarnej hybrydyzacji sekwencji DNA.
Ekspresja genów: Ekspresja genów to proces, w którym sekwencja DNA genu jest przekształcana w funkcjonalne białka. Niektóre geny są włączane (ekspresjonowane) lub wyłączane (represjonowane) pod wpływem zmiany warunków zewnętrznych lub bodźców.
Klastrowanie hierarchiczne: Metoda klasteryzacji, która znajduje kolejne klastry na podstawie wcześniej ustalonych klastrów. Algorytmy hierarchiczne mogą być aglomeracyjne (oddolne) lub dzielące (odgórne). Algorytmy aglomeracyjne rozpoczynają analizę każdego elementu jako oddzielnego klastra i łączą je w coraz większe klastry. Algorytmy dzielące rozpoczynają analizę od całego zbioru i dzielą go na coraz mniejsze klastry.
Klastrowanie metodą k-średnich: Klastrowanie metodą k-średnich to najpopularniejszy algorytm klasteryzacji oparty na partycjonowaniu. Algorytm rozpoczyna analizę od wybrania k początkowych centroidów, zazwyczaj losowo. Następnie algorytm naprzemiennie aktualizuje przypisanie klastrów do każdego punktu danych, kojarząc je z najbliższym centroidem, i aktualizuje centroidy na podstawie nowych klastrów, aż do momentu uzyskania konwergencji.
Klastrowanie SSMCL: Algorytm klastrowania oparty na partycjach, oparty na paradygmacie uczenia się OPTOC (one-prototype-take-onecluster). Uczenie OPTOC odbywa się poprzez konstruowanie dynamicznego sąsiedztwa, które faworyzuje wzorce wewnątrz sąsiedztwa. Ostatecznie prototyp osadza się w centrum naturalnego klastra, ignorując jednocześnie konkurencję ze strony innych klastrów. Wraz z procesem nadmiernego klastrowania i scalania, SSMCL jest w stanie znaleźć wszystkie naturalne klastry w danych.
Analiza skupień: Analiza skupień grupuje obiekty danych wyłącznie na podstawie informacji zawartych w danych, które opisują obiekty i ich relacje.
CAD: Algorytm klastrowania oparty na koncepcjach gęstości i gęstości osiągalności.
Klastry oparte na centrum: Każdy obiekt w klastrze opartym na centrum znajduje się bliżej środka klastra niż środków innych klastrów.
Klastry oparte na sąsiedztwie: Każdy obiekt w klastrze opartym na sąsiedztwie jest bliżej innego obiektu w klastrze niż dowolnego punktu w innym klastrze.
Klastry oparte na gęstości: Każdy obiekt w klastrze opartym na gęstości znajduje się bliżej innego obiektu w swoim sąsiedztwie Eps niż dowolnego obiektu spoza klastra, co powoduje, że gęste obszary obiektów są otoczone obszarami o mniejszej gęstości.
Eps: Maksymalny promień sąsiedztwa.
Dobrze oddzielony klaster: klaster to zbiór obiektów, w którym każdy obiekt jest znacznie bliżej (lub bardziej podobny) do każdego innego obiektu w klastrze niż do obiektu nienależącego do klastra.
Mikromacierz DNA: Zbiór mikroskopijnych plamek DNA, zazwyczaj reprezentujących pojedyncze geny, rozmieszczonych na stałej powierzchni poprzez kowalencyjne wiązanie z chemicznie odpowiednimi matrycami.
Współczynnik fałszywych odkryć (FDR): Kontroluje oczekiwany odsetek wyników fałszywie dodatnich, zamiast kontrolować prawdopodobieństwo wystąpienia jakichkolwiek wyników fałszywie dodatnich. Próg FDR jest określany na podstawie obserwowanego rozkładu wartości p z wielu testów pojedynczej hipotezy.
Badanie histologiczne: Badanie próbek tkanek pod mikroskopem.
Test Kruskala-Wallisa: Nieparametryczny test średniej, który można zastosować, jeśli liczba grup próbek jest większa niż dwie, w przeciwieństwie do testu sumy rang Wilcoxona.
Współrzędne równoległe: Schemat wizualizacji danych wykorzystujący zdolność człowieka do rozpoznawania wzorców 2D. Na tym wykresie osie są równomiernie rozmieszczone i ułożone równolegle do siebie, a nie prostopadle, jak w scenariuszu kartezjańskim.
Wartości q: Sposób pomiaru odsetka FDR, gdy dany test jest uznany za istotny.
Test sumy rang Wilcoxona: Nieparametryczna alternatywa dla dwupróbkowego testu t, oparta na kolejności, w jakiej występują obserwacje z dwóch prób.
Mapy samoorganizujące się (SOM): Metoda uczenia się grupowania wektorów wejściowych zgodnie z tym, jak są one naturalnie grupowane w przestrzeni wejściowej. W najprostszej postaci mapa składa się z regularnej siatki jednostek, a jednostki uczą się reprezentować dane statystyczne opisane przez wektory modeli. Każda jednostka mapy zawiera wektor używany do reprezentacji danych. W trakcie procesu uczenia wektory modeli są stopniowo zmieniane, a następnie mapa tworzy uporządkowaną nieliniową regresję wektorów modeli w przestrzeni danych.
Rozkład warunkowy p(y|x): Opisuje niepewność, że zmienna wejściowa x jest mapowana na zmienną wyjściową y, która przyjmuje jedną z kilku etykiet. W tym przypadku x jest klasyfikowane do etykiety klasy y z prawdopodobieństwem p(y|x). Ponadto y może być wektorem o wartościach rzeczywistych, dla którego x jest mapowane na y zgodnie z rozkładem gęstości p(y|x).
Kombinacja klasyfikatorów: Mając określoną liczbę klasyfikatorów, każdy klasyfikuje tę samą zmienną wejściową x do etykiety klasy, a etykiety mogą być różne dla różnych klasyfikatorów. Poszukujemy reguły M(x), która łączy te klasyfikatory w nową, działającą lepiej niż którykolwiek z nich.
Reguła sumy (głosowanie Bayesa): Klasyfikator klasyfikuje x do etykiety. Można uznać, że y oddaje jeden głos na tę etykietę. Najprostszą kombinacją jest zliczenie głosów otrzymanych przez każdą etykietę kandydacką. J-ty klasyfikator klasyfikuje x do etykiety y z prawdopodobieństwem p(y|x). j oznacza, że jeden głos jest dzielony na różnych kandydatów w ułamkach. Możemy podsumować:
ΣjPj(y|x)
aby zliczyć głosy na etykietę kandydata y, nazywamy to głosowaniem Bayesa, ponieważ p(y|x) jest zwykle nazywane prawdopodobieństwem Bayesa a posteriori.
Reguła iloczynu: Gdy k klasyfikatorów k {ej(x)}kj=1 jest wzajemnie niezależnych, kombinacja jest dana przez

lub zwięźle

co jest również nazywane regułą iloczynu.
Mieszanka ekspertów: Każdy ekspert jest opisany rozkładem warunkowym pj ( y | x) , gdzie y przyjmuje jedną z kilku etykiet w przypadku problemu klasyfikacji lub gdzie y jest wektorem o wartościach rzeczywistych w przypadku problemu regresji. Kombinację ekspertów podaje

co jest nazywane modelem mieszanki ekspertów. W szczególności, dla y w wektorze o wartościach rzeczywistych, jego postać regresji to:

f-Średnia: Dany jest zbiór liczb nieujemnych,bj ≥0 ; j = 1,…k; średnia f jest podana wzorem:

gdzie f(r) jest monotoniczną funkcją skalarną i

W szczególności jednym z najciekawszych przypadków szczególnych jest to, że f(r) spełnia

dla dowolnej skali c, co nazywa się fa-średnią.
Podejście oceny wydajności: Zwykle sprawdza się w literaturze dotyczącej klasyfikatora. Kombinacja, z wykresem przepływu, który uwzględnia zbiór klasyfikatorów {ej(x)}kj=1 projektowanie mechanizmu łączenia m(x) zgodnie z pewnymi zasadami -> empiryczna ocena wydajności kombinacji poprzez wskaźniki błędnej klasyfikacji, z wykorzystaniem próbek o znanych poprawnych etykietach.
Podejście redukcji błędów: Zwykle sprawdza się w literaturze dotyczącej uczenia się opartego na mieszance, gdzie należy wstępnie zaprojektować struktury klasyfikatorów lub ekspertów, a także strukturę łączenia M(x) z nieznanymi parametrami. Koszt lub miarę błędu ocenia się za pomocą zestawu próbek szkoleniowych, a następnie minimalizuje się ją poprzez naukę wszystkich nieznanych parametrów.
Systemy Utrzymywania Przekonań: Systemy logiki, które pozwalają na aktualizację twierdzeń w miarę pojawiania się nowej wiedzy.
Wiedza zdroworozsądkowa: Wiedza o podstawowych faktach i zachowaniach codziennego świata.
Modele dyspozycyjne: Reprezentacje rzeczy lub faktów.
Modele logistyczne: Zmodyfikowane logiki, które próbują przezwyciężyć problemy z reprezentacją wiedzy zdroworozsądkowej w klasycznym rachunku predykatów.
Monotoniczność: Cecha logiki, która zapobiega zmianom istniejących twierdzeń, gdy pojawiają się nowe informacje.
Logika niemonotoniczna: Logika, która próbuje przezwyciężyć ograniczenia monotoniczności.
Modele zdaniowe: Opisy reprezentacji rzeczy lub konkretnych faktów.
Formalizmy reprezentacyjne: Teoretyczne ramy reprezentacji wiedzy zdroworozsądkowej.
Wiedza zdroworozsądkowa: Wiedza o podstawowych faktach codziennego życia; wiedza, której posiadania oczekuje każdy uczestnik danej kultury od każdego innego uczestnika.
Baza wiedzy zdroworozsądkowej: Baza wiedzy zawierająca wiedzę zdroworozsądkową i mechanizmy wnioskowania lub przetwarzania języka naturalnego na podstawie tej wiedzy.
ConceptNet: Implementacja bazy wiedzy zdroworozsądkowej ustrukturyzowana jako sieć semantyczna.
Cyc: Duża implementacja bazy wiedzy zdroworozsądkowej wykorzystująca rachunek predykatów jako mechanizm reprezentacji.
Wiedza ekspercka: Wiedza posiadana przez ekspertów w danej dziedzinie. Systemy reprezentujące wiedzę ekspercką są zazwyczaj oparte na regułach.
Implementacja: Budowa skomputeryzowanego systemu do reprezentowania i manipulowania wiedzą zdroworozsądkową.
WordNet: Implementacja bazy wiedzy zdroworozsądkowej oparta na strukturze sieci semantycznej.
Adnotacja: Czynność polegająca na krótkim opisie lub wyjaśnieniu informacji. Może również obejmować podsumowanie lub ocenę treści.
Psychologia poznawcza: Nauka o poznaniu, taka jak procesy umysłowe opisujące ludzkie zachowanie, rozumienie percepcji, badanie pamięci, czasu skupienia uwagi, koncentracji i zapominania. Celem jest zrozumienie ludzi i sposobu, w jaki funkcjonują psychicznie.
Przetwarzanie informacji: Zdolność do przechwytywania, przechowywania i manipulowania informacjami. Składa się z dwóch głównych procesów: kodowania i przechowywania. Uczniowie sporządzają notatki na etapie kodowania, a następnie, w fazie przechowywania, dokonują przeglądu.
Metapoznanie: Zdolność i umiejętności uczniów do bycia świadomym i monitorowania procesów uczenia się.
Multimodalność: System elektroniczny, który zwiększa interaktywność poprzez łączenie metafor dźwiękowych, wizualnych i mowy.
Zasady pedagogiczne: Kluczowe zagadnienia dotyczące projektowania i rozwoju elektronicznego środowiska edukacyjnego.
Platforma: Framework komputerowy umożliwiający uruchamianie oprogramowania w określonym celu.
Tradycyjny sposób nauki: Zazwyczaj środowisko klasowe, w którym nauczyciel zapisuje treści na tablicy, a uczniowie używają długopisu i papieru do zapisywania treści jako własnych notatek. Nauczyciel dominuje w środowisku klasowym, w przeciwieństwie do nauczania elektronicznego, gdzie użytkownik ma poczucie kontroli dzięki elastyczności uczenia się.
Optymalizacja kombinatoryczna: Obszar teorii optymalizacji, którego głównym celem jest analiza i algorytmiczne rozwiązywanie problemów optymalizacji z ograniczeniami i zmiennymi dyskretnymi.
Harmonogram chłodzenia: Metoda sterowania temperaturą w algorytmie symulowanego wyżarzania. Musi ona określać temperaturę początkową T0, skończony ciąg malejących wartości temperatury oraz skończoną liczbę L przejść między stanami dla każdej wartości temperatury.
Algorytmy genetyczne i ewolucyjne: Algorytmy genetyczne (GA) to przybliżone algorytmy optymalizacyjne inspirowane genetyką i teorią ewolucji. Przestrzeń poszukiwań rozwiązań jest postrzegana jako zbiór organizmów pogrupowanych w populacje, które ewoluują w czasie za pomocą dwóch podstawowych technik: krzyżowania i mutacji. Algorytmy ewolucyjne (EA) to specjalne algorytmy genetyczne, które wykorzystują wyłącznie mutacje jako technikę generowania organizmów.
Przeszukiwanie lokalne: Przeszukiwanie lokalne (LS) to metaheurystyczna lub ogólna klasa przybliżonych algorytmów optymalizacyjnych, oparta na deterministycznej technice heurystycznego wyszukiwania zwanej wspinaczką górską.
Algorytmy memetyczne: Algorytmy memetyczne (MA) to techniki optymalizacji oparte na synergistycznym połączeniu idei zaczerpniętych z dwóch innych metaheurystyk: algorytmów genetycznych i wyszukiwania lokalnego.
Symulowane wyżarzanie: Symulowane wyżarzanie (SA) to odmiana metaheurystyki wyszukiwania lokalnego, która uwzględnia stochastyczne kryterium akceptacji rozwiązań o gorszej jakości, aby zapobiec przedwczesnemu uwięzieniu algorytmu w lokalnych optimach.
Przeszukiwanie tabu: Przeszukiwanie tabu (TS) to metaheurystyka nałożona na inną heurystykę (zwykle wyszukiwanie lokalne lub symulowane wyżarzanie), której celem jest unikanie cykli wyszukiwania poprzez zakazywanie lub karanie ruchów, które prowadzą rozwiązanie do punktów wcześniej odwiedzonych w przestrzeni rozwiązań.
Automat komórkowy: (liczba mnoga: automaty komórkowe). Automat komórkowy definiuje się jako sieć (kratkę) komórek (automatów), gdzie każdy automat zawiera zestaw zmiennych dyskretnych, które są aktualizowane zgodnie z lokalną regułą działającą ponad sąsiadami danej komórki w dyskretnych krokach czasowych. Automaty komórkowe są zazwyczaj używane jako uproszczone, ale nie proste modele systemów złożonych.
Uogólniony automat komórkowy: Opiera się na wykorzystaniu sieci zamiast regularnych krat.
Sieć złożona: Większość sieci biologicznych i społecznych odzwierciedla właściwości topologiczne nieobserwowane w sieciach prostych (regularnych, losowych). Dwoma przykładami są sieci małego świata i sieci bezskalowe.
System złożony: Typowy system złożony składa się z ogromnej liczby identycznych kopii kilku procesów generycznych, które działają i oddziałują tylko lokalnie lub z ograniczoną liczbą niekoniecznie bliskich sąsiadów. Z takimi systemami nie wiąże się żaden globalny lider ani kontroler, a wynikające z tego zachowanie jest zazwyczaj bardzo złożone.
Emergency: Emergency definiuje się jako występowanie nowych procesów działających na wyższym poziomie abstrakcji niż poziom, na którym obowiązują lokalne reguły. Typowym przykładem jest kolonia mrówek, w której ta duża, złożona struktura wyłania się poprzez lokalne interakcje mrówek. Na przykład, cała hierarchia emergentów istnieje i działa w ciele człowieka. Emergent jest produktem procesu emergencji.
Sieciowe automaty gazowe: Zazwyczaj jest to trójkątna sieć wierzchołków połączonych krawędziami, w których uogólnione cząsteczki cieczy poruszają się i zderzają. Uśrednione wielkości wynikające z takich symulacji odpowiadają rozwiązaniom równań Naviera-Stokesa.
Modelowanie: Jest to opis zjawisk obserwowanych w naturze za pomocą metod analitycznych, numerycznych i/lub obliczeniowych. Modelowanie obliczeniowe jest klasycznie stosowane w takich dziedzinach jak np. fizyka czy inżynieria. Jego znaczenie rośnie w innych dziedzinach, takich jak biologia, medycyna, socjologia i psychologia.
Sieć losowa: Sąsiedztwo wierzchołka jest tworzone przez zestaw losowo wybranych połączeń z sąsiednimi wierzchołkami (elementami) w sieci wierzchołków.
Sieć regularna: Idealnie regularne i jednorodne sąsiedztwo dla każdego elementu sieci zwanego komórką charakteryzuje takie sieci.
Samoorganizacja: Samoorganizacja to proces zachodzący zazwyczaj w złożonych systemach, gdzie system jest stale zasilany energią, która jest przekształcana w nowy stan systemu lub tryb działania poprzez rozproszenie energii i/lub informacji.
Krytyczność samoorganizująca: Złożony system wyrażający stan koherentny (SOC) jest stale zasilany energią, której uwalnianie jest dyskretne i zazwyczaj występuje w postaci lawin. Przez większość czasu stan koherentny (SOC) działa w punkcie krytycznym, w którym występują lawiny. Trzęsienia ziemi i erupcje wulkanów stanowią prototypowe przykłady SOC obserwowane w wielu naturalnie obserwowanych zjawiskach.
Sieć małego świata: Małe światy charakteryzują się połączeniem dwóch różnych typów połączeń w obrębie każdego sąsiedztwa. Zazwyczaj sąsiedztwo danego wierzchołka składa się z większej części sąsiadów posiadających regularną łączność krótkiego zasięgu (sieć regularna) i mniejszej części połączeń losowych (sieć losowa). Tego typu sąsiedztwo zapewnia unikalne właściwości każdemu modelowi zbudowanemu na jego bazie.
Sztuczna sieć neuronowa: Sieć złożona ze sztucznych neuronów. Sztuczne sieci neuronowe można trenować w celu znajdowania nieliniowych zależności w danych.
Algorytm propagacji wstecznej: Technika uczenia nadzorowanego stosowana do trenowania sieci neuronowych, oparta na minimalizacji błędu między rzeczywistymi wynikami a wynikami pożądanymi.
Algebry Clifforda: Algebra asocjacyjna, którą można traktować jako jedno z możliwych uogólnień liczb zespolonych i kwaternionów.
Liczba zespolona: Liczba w postaci a + ib, gdzie a i b są liczbami rzeczywistymi, a i jest jednostką urojoną taką, że i2 = - 1. a nazywa się częścią rzeczywistą, a b - częścią urojoną.
Granica decyzyjna: Granica, której klasyfikatory wzorców, takie jak sieci neuronowe o wartościach rzeczywistych, używają do klasyfikowania wzorców wejściowych na kilka klas. Zazwyczaj składa się z hiperpowierzchni.
Twierdzenie o identyczności: Twierdzenie o regularnych funkcjach zespolonych: dane są dwie funkcje regularne f i g na spójnym zbiorze otwartym D, jeśli f = g w pewnym otoczeniu z należącym do D, to f = g na D.
Kwaternion: Liczba czterowymiarowa będąca nieprzemiennym rozszerzeniem liczb zespolonych.
Regularna funkcja zespolona: Funkcja zespolona, która jest różniczkowalna w każdym punkcie.
Klasyfikator: Algorytm generujący etykiety klas jako wynik na podstawie zestawu cech obiektu. Klasyfikator służy na przykład do klasyfikowania pewnych cech wyodrębnionych z obrazu twarzy i dostarczania etykiety (tożsamości osoby).
Twarz własna: Wektor bazowy transformacji PCA, po zastosowaniu do obrazów twarzy.
Rozpoznawanie twarzy: Problem AV polegający na rozpoznawaniu osoby na podstawie jednego lub większej liczby obrazów jej twarzy.
Ekstrakcja cech: Proces, w którym nowy zestaw cech dyskryminacyjnych jest uzyskiwany z dostępnych. Klasyfikacja jest przeprowadzana z wykorzystaniem nowego zestawu cech.
Selekcja cech: Proces, w którym podzbiór dostępnych cech (zwykle najbardziej dyskryminacyjnych) jest wybierany do klasyfikacji.
Analiza niezależnych składowych: Technika ekstrakcji cech, w której maksymalizowana jest niezależność statystyczna danych.
Analiza głównych składowych: Technika ekstrakcji cech, w której maksymalizowana jest wariancja danych. Dostarcza ona nową przestrzeń cech, w której wymiary są uporządkowane według korelacji próbek. Można zatem wybrać podzbiór tych wymiarów, w którym próbki wykazują minimalną korelację.
Diagnostyka wspomagana komputerowo (CAD): Wykorzystanie komputerów do interpretacji obrazów medycznych. Automatyczna segmentacja jest jednym z kluczowych zadań każdego produktu CAD.
Detekcja krawędzi: Technika przetwarzania obrazu służąca do uwydatnienia punktów obrazu, w których natężenie światła gwałtownie się zmienia.
Elektroencefalografia (EEG): Nieinwazyjne narzędzie diagnostyczne rejestrujące aktywność elektryczną mózgu za pomocą elektrod powierzchniowych umieszczonych na czaszce.
Błędne postawienie: Matematyczna patologia problemów różniczkowych lub całkowych, w której rozwiązanie problemu nie istnieje dla wszystkich danych, nie jest jednoznaczne lub nie zależy w sposób ciągły od danych. W obliczeniach numeryczne efekty błędnego postawienia są redukowane za pomocą metod regularyzacji. Integracja obrazu: W obrazowaniu medycznym połączenie różnych obrazów tego samego pacjenta, uzyskanych za pomocą różnych modalności i/lub zgodnie z różnymi geometriami.
Obrazowanie metodą rezonansu magnetycznego (MRI): metoda obrazowania oparta na zasadach jądrowego rezonansu magnetycznego (NMR), technika spektroskopowa wykorzystywana do uzyskiwania mikroskopowych informacji chemicznych i fizycznych o cząsteczkach. MRI może być stosowane zarówno w warunkach funkcjonalnych, jak i anatomicznych.
Magnetoencefalografia (MEG): nieinwazyjne narzędzie diagnostyczne, które rejestruje aktywność magnetyczną mózgu za pomocą nadprzewodzących czujników umieszczonych na hełmie otaczającym mózg.
Segmentacja: technika przetwarzania obrazu służąca do rozróżniania różnych jednorodnych obszarów w obrazie.
Uczenie statystyczne: ramy matematyczne wykorzystujące narzędzia analizy funkcjonalnej i optymalizacji do badania problemu wnioskowania.
Tomografia: technika obrazowania zapewniająca dwuwymiarowy obraz obiektu. Metoda ta jest stosowana w wielu dyscyplinach i może wykorzystywać promieniowanie wejściowe o różnym charakterze i długości fali. Istnieją tomografie rentgenowskie, optyczne, mikrofalowe, dyfrakcyjne i impedancyjne.
Sztuczna komórka: Każdy z elementów przetwarzających polecenia zakodowane w DNA.
Sztuczna embriogeneza: Termin ten obejmuje wszystkie modele przetwarzania, które wykorzystują idee rozwoju biologicznego jako inspirację dla swojego funkcjonowania.
Cykl komórkowy: Jednostka czasu rozwoju komórkowego, która ogranicza liczbę bieżących etapów rozwoju komórkowego.
Cytoplazma: Część sztucznej komórki odpowiedzialna za zarządzanie sygnałami w kształcie białek.
DNA: Zestaw reguł odpowiedzialnych za zachowanie komórki.
Gen: Każda z reguł, która kodyfikuje jedno działanie komórki.
Białko: Termin ten identyfikuje każdy rodzaj sygnałów, które otrzymuje sztuczna komórka.
Zygota: Komórka początkowa, z której powstaje tkanka na podstawie informacji DNA.
Przestrzenie barw: (Konstantinos i Anastasios, 2000) dostarczają metody określania, sortowania i obsługi kolorów. Reprezentacje te odpowiadają n-wymiarowym sortowaniom wrażeń barwnych (wektor n-składnikowy). Kolory są reprezentowane za pomocą punktów w tych przestrzeniach. Istnieje wiele przestrzeni barw i wszystkie wychodzą z tej samej koncepcji, trójchromatycznej teorii kolorów podstawowych: czerwonego, zielonego i niebieskiego.
Dylatacja: Dylatacja obrazu o element strukturalny ′Y′ jest definiowana jako maksymalna wartość wszystkich pikseli znajdujących się pod elementem strukturalnym

Podstawowym efektem działania tego operatora morfologicznego na obrazie binarnym jest stopniowe powiększanie granic obszarów pikseli pierwszego planu (tj. zazwyczaj białych pikseli). W ten sposób obszary pikseli pierwszego planu rosną, a dziury w tych obszarach stają się mniejsze.
Erozja: Podstawowym efektem działania operatora na obrazie binarnym jest redukcja definicji obiektów. Erozja w punkcie (x,y) to minimalna wartość wszystkich punktów znajdujących się pod oknem, która jest definiowana przez element strukturalny "Y", który porusza się po obrazie:

Detektor naroży Harrisa: Popularny detektor punktów (Harris i Stephens, 1988) ze względu na jego silną niezmienność względem (Schmid, Mohr i Bauckhage, 2000): obrotu, skali, zmienności oświetlenia i szumu obrazu. Detektor naroży Harrisa opiera się na lokalnej funkcji autokorelacji sygnału; funkcja ta mierzy lokalne zmiany sygnału z łatkami przesuniętymi o niewielką wartość w różnych kierunkach.
Momenty obrazu: (Hu, 1963; Mukundan i Ramakrishman, 1998) to określone średnie ważone (momenty) intensywności pikseli obrazu lub funkcje tych momentów, zazwyczaj dobrane tak, aby miały jakąś atrakcyjną właściwość lub interpretację. Są one przydatne do opisu obiektów po segmentacji. Proste właściwości obrazu, które są znajdowane za pomocą momentów obrazu, obejmują obszar (lub całkowitą intensywność), jego środek ciężkości i informacje o jego orientacji.
Operatory morfologiczne: (Haralick i Shapiro, 1992; Vernon, 1991) Morfologia matematyczna to podejście teoriomnogościowe do wielowymiarowej analizy sygnału cyfrowego lub obrazu, oparte na kształcie. Sygnały są lokalnie porównywane z tzw. elementami strukturalnymi o dowolnym kształcie z punktem odniesienia.
Wideometria: (Tsai, 1987) może być luźno zdefiniowana jako wykorzystanie technologii obrazowania do wykonywania precyzyjnych i wiarygodnych pomiarów otoczenia.
Wnioskowanie bayesowskie: Reguły wnioskowania oparte na zastosowaniu twierdzenia Bayesa i podstawowych praw rachunku prawdopodobieństwa.
Cenzurowanie: Mechanizm, który uniemożliwia obserwację zdarzenia. Forma brakujących danych.
Hiperparametr: Parametr w hierarchicznym sformułowaniu problemu. W wnioskowaniu bayesowskim parametry a priori.
Sieci neuronowe: Graficzna reprezentacja funkcji nieliniowej. Zwykle reprezentowana jako skierowany graf acykliczny. Sieci neuronowe można trenować w celu znajdowania nieliniowych zależności w danych i są wykorzystywane w takich zastosowaniach jak robotyka, rozpoznawanie mowy, przetwarzanie sygnałów czy diagnostyka medyczna.
Rozkład a posteriori: Probabilistyczna reprezentacja wiedzy, wynikająca z połączenia wiedzy a priori i obserwacji danych.
Rozkład a priori: Probabilistyczna reprezentacja wiedzy a priori.
Zmienna losowa: Mierzalna funkcja z przestrzeni próby do mierzalnej przestrzeni możliwych wartości zmiennej.
Analiza przeżycia: Analiza statystyczna danych reprezentowanych w kategoriach realizacji zdarzeń punktowych. W zastosowaniach medycznych zdarzeniem punktowym jest zazwyczaj śmierć jednostki lub nawrót choroby.
Problem Spełnienia Ograniczeń (CSP): Problem Spełnienia Ograniczeń (CSP) jest definiowany przez skończony zbiór zmiennych, gdzie każda zmienna jest powiązana z dziedziną, oraz zbiór ograniczeń na podzbiór zmiennych, ograniczający możliwe kombinacje wartości, jakie mogą przyjmować zmienne w podzbiorze. Rozwiązaniem CSP jest przypisanie każdej zmiennej wartości zgodnej z ograniczeniami.
Logika Opisowa (DL): Logiki zaprojektowane do opisu pojęć i jednostek w bazach wiedzy. Początkowo zostały opracowane w celu zapewnienia precyzyjnej semantyki dla systemów ramowych i sieci semantycznych. Typowym wnioskowaniem dla pojęć jest sprawdzenie, czy dane pojęcie jest bardziej ogólne (tj. czy obejmuje) inne. Typowym wnioskowaniem dla jednostek jest sprawdzenie, czy jednostka jest instancją pojęcia. Wiele DL to fragmenty logiki pierwszego rzędu, podczas gdy niektóre z nich wykraczają poza pierwszy rząd.
Program logiczny: Teoria logiczna (ewentualnie zawierająca pewne operatory pozalogiczne), której można nadać znaczenie proceduralne, tak aby proces sprawdzania, czy formuła jest wyprowadzalna w teorii, można było postrzegać jako wykonywanie programu.
Masowa personalizacja: Strategia biznesowa łącząca paradygmat produkcji masowej z personalizacją produktu. Jest ona ściśle związana z modułowością w projektowaniu produktów. Ta strategia projektowania umożliwia przyjęcie modelu produkcji masowej dla standardowych modułów, ułatwia zarządzanie rodzinami i wariantami produktów oraz pozostawia miejsce na (różne rodzaje i stopnie) personalizacji.
System oparty na regułach produkcyjnych: System, w którym wiedza jest reprezentowana za pomocą reguł produkcyjnych. Reguła produkcyjna to stwierdzenie złożone z warunków i akcji. Jeśli dane w pamięci roboczej spełniają warunki, powiązane akcje mogą zostać wykonane, co skutkuje aktualizacją pamięci roboczej.
Spełnialność formuły w logice zdań: Zadanie polegające na sprawdzeniu, czy możliwe jest przypisanie wartości logicznej każdej zmiennej występującej w formule zdaniowej, tak aby wartość logiczna całej formuły była równa prawda.
Stabilny model Herbranda: Minimalny zbiór faktów spełniający program logiczny (teorię). Każdy fakt w modelu jest atomem bez zmiennych, którego argumentami są terminy zbudowane wyłącznie z symboli funkcji i stałych występujących w programie, a którego symbole predykatów również występują w programie. Fakty nie występujące w modelu są uznawane za fałszywe.
Problem optymalizacji z ograniczeniami (COP): Problem spełnienia ograniczeń rozszerzony o funkcję celu dla (podzbioru) zmiennych decyzyjnych. Zadaniem jest znalezienie rozwiązania CSP, które minimalizuje lub maksymalizuje wartość funkcji celu.
Ograniczenie: Dowolna relacja między podzbiorem zmiennych decyzyjnych. Może być wyrażona ekstensjonalnie, jako zbiór krotek wartości spełniających ograniczenie, lub celowo, za pomocą wzoru arytmetycznego lub logicznego między zmiennymi, na przykład A+B < C.
Problem spełnienia ograniczeń (CSP): Problem sformułowany za pomocą zbioru zmiennych decyzyjnych, ich dziedzin oraz ograniczeń między zmiennymi. Zadaniem jest znalezienie instancji zmiennych decyzyjnych według wartości z ich dziedzin w taki sposób, aby spełnione były wszystkie ograniczenia.
Techniki spójności: Techniki usuwające niespójne wartości (z domen zmiennych) lub krotki wartości, czyli wartości, których nie można przypisać danej zmiennej w żadnym rozwiązaniu. Spójność łukowa jest najpowszechniej stosowaną techniką spójności.
Zmienna decyzyjna: Zmienna modelująca pewną cechę problemu, na przykład czas rozpoczęcia działania, której wartości szukamy w taki sposób, aby spełnione były określone ograniczenia.
Dziedzina zmiennej: Zbiór możliwych wartości, które można przypisać zmiennej decyzyjnej, na przykład zbiór godzin, w których dane działanie może się rozpocząć. Przetwarzanie ograniczeń zazwyczaj zakłada tylko skończone domeny.
Przycinanie domen (filtrowanie): Proces usuwania wartości z domen zmiennych, które nie mogą brać udziału w żadnym rozwiązaniu. Zwykle, ze względu na problemy z wydajnością, przycinane są tylko wartości lokalnie naruszające jakieś ograniczenie. Jest to najpopularniejszy rodzaj techniki spójności.
Ograniczenie globalne: Ograniczenie n-arne modelujące podzbiór prostszych ograniczeń poprzez zapewnienie dedykowanego algorytmu filtrowania, który osiąga silniejsze lub szybsze przycinanie domen w porównaniu z zapewnieniem spójności prostszych ograniczeń (lokalnie). All-different jest przykładem ograniczenia globalnego.
Look Ahead: Najpopularniejsza technika integracji przeszukiwania w głąb z zachowaniem spójności. Za każdym razem, gdy podejmowana jest decyzja o wyszukiwaniu, jest ona propagowana w modelu problemu poprzez zapewnienie spójności modelu.
Algorytmy wyszukiwania: Algorytmy, które eksplorują przestrzeń możliwych (częściowych lub całkowitych) instancji zmiennych decyzyjnych w celu znalezienia instancji spełniającej wszystkie ograniczenia (i optymalizującej funkcję celu w przypadku COP).
Algorytm optymalizacji kolonii mrówek (ACO): inspirowany zachowaniem mrówek w poszukiwaniu ścieżek prowadzących z kolonii do pożywienia, jest probabilistyczną techniką rozwiązywania problemów obliczeniowych, którą można sprowadzić do znajdowania dobrych ścieżek za pomocą grafów. Krótsza ścieżka jest pokonywana szybciej, a zatem gęstość feromonów pozostaje wysoka, ponieważ są one układane na ścieżce tak szybko, jak szybko mogą wyparować.
Sztuczne sieci neuronowe (ANN): Sieć wielu prostych procesorów ("jednostek" lub "neuronów") imitująca biologiczną sieć neuronową. Jednostki są połączone jednokierunkowymi kanałami komunikacyjnymi, które przenoszą dane liczbowe.
Autoregresyjna zintegrowana średnia ruchoma (ARIMA): Uogólnienie modelu autoregresyjnej średniej ruchomej (ARMA). Modele te są dopasowywane do danych szeregów czasowych w celu lepszego zrozumienia danych lub przewidywania przyszłych punktów w szeregu. Model ten jest ogólnie określany jako model ARIMA(p, d, q), gdzie p, d i q są liczbami całkowitymi większymi lub równymi zeru i odnoszą się odpowiednio do kolejności części autoregresyjnej, zintegrowanej i średniej ruchomej modelu.
Algorytm ewolucyjny (EA): to ogólny metaheurystyczny algorytm optymalizacji oparty na populacji. EA wykorzystuje mechanizmy inspirowane ewolucją biologiczną: rozmnażanie, mutacje, rekombinację, dobór naturalny i przetrwanie najlepiej przystosowanych. Algorytmy ewolucyjne konsekwentnie dobrze aproksymują rozwiązania wszystkich typów problemów, ponieważ nie przyjmują żadnych założeń dotyczących podstawowego krajobrazu dostosowania.
Feromon: Feromon to substancja chemiczna, która wyzwala wrodzoną reakcję behawioralną u innego osobnika tego samego gatunku. Istnieją feromony alarmowe, feromony śladów pokarmowych, feromony płciowe i wiele innych, które wpływają na zachowanie lub fizjologię. W tym artykule wykorzystano feromony śladów pokarmowych, które są powszechne u owadów społecznych.
Sezonowa Autoregresyjna Zintegrowana Średnia Ruchoma (SARIMA): Rodzaj modelu ARIMA do przeprowadzania prognozowania, gdy podejrzewa się efekt sezonowy. Rozważmy na przykład model dziennego natężenia ruchu drogowego. Weekendy wyraźnie różnią się od dni roboczych. W takim przypadku często uważa się, że lepiej jest użyć modelu SARIMA (sezonowego ARIMA) niż zwiększać rząd części AR lub MA modelu.
Maszyny Wektorów Nośnych (SVM): Maszyny Wektorów Nośnych (SVM) zostały pierwotnie opracowane do rozwiązywania problemów rozpoznawania wzorców i klasyfikacji. Wraz z wprowadzeniem funkcji straty niewrażliwej na ε Vapnika, SVM zostały rozszerzone o rozwiązywanie problemów estymacji regresji nieliniowej, tzw. regresji wektorów nośnych (SVR). SVR stosuje zasadę minimalizacji ryzyka strukturalnego w celu zminimalizowania górnej granicy błędu generalizacji. SVR została wykorzystana do rozwiązywania problemów regresji nieliniowej i szeregów czasowych.
Eksploracja danych: Proces automatycznego przeszukiwania dużych wolumenów danych w poszukiwaniu wzorców. Eksploracja danych to stosunkowo nowy i współczesny temat w informatyce.
Wizualizacja danych: Technologia pomagająca użytkownikom dostrzegać wzorce i zależności w dużych zbiorach danych poprzez prezentację danych w formie graficznej.
Zmienne objaśniające: Używane zamiennie i odnoszące się do zmiennych, które wyjaśniają zmienność konkretnej zmiennej docelowej. Nazywane również zmiennymi sterującymi, opisowymi lub niezależnymi.
Spadek jakości informacji: Jakość niektórych danych spada, gdy fakty dotyczące obiektów ze świata rzeczywistego zmieniają się w czasie, ale te fakty nie są aktualizowane w bazie danych.
Wyszukiwanie informacji: Sztuka i nauka wyszukiwania informacji w dokumentach, wyszukiwania samych dokumentów, wyszukiwania metadanych opisujących dokumenty lub wyszukiwania w bazach danych, niezależnie od tego, czy są to relacyjne, autonomiczne bazy danych, czy hipertekstowe bazy danych, takie jak Internet lub intranet, w celu znalezienia tekstu, dźwięku, obrazu lub danych.
Uczenie maszynowe: Zajmuje się rozwojem algorytmów i technik, które pozwalają komputerom "uczyć się".
Sieci neuronowe: Nazywane również sztuczną inteligencją (AI), która wykorzystuje algorytmy predykcyjne.
Rozpoznawanie wzorców: Czynność pobierania surowych danych i podejmowania działań w oparciu o kategorię danych. Jest to dziedzina w ramach uczenia maszynowego.
Analiza predykcyjna: Wykorzystanie technik eksploracji danych, danych historycznych i założeń dotyczących przyszłych warunków do przewidywania skutków zdarzeń.
Segmentacja: Kolejna ważna grupa obejmująca eksplorację danych, wykorzystująca technologię, która identyfikuje nie tylko statystycznie istotne zależności między zmiennymi objaśniającymi a zmiennymi docelowymi, ale także określa istotne segmenty w ramach kategorii zmiennych, które ilustrują powszechny wpływ na zmienną docelową.
Wymiary: Są to perspektywy lub jednostki, w odniesieniu do których organizacja chce przechowywać dokumentację .
Model wymiarowy: Model zawierający centralną tabelę faktów i zestaw otaczających ją tabel wymiarów, z których każda odpowiada jednemu z komponentów lub wymiarów tabeli faktów.
Model danych relacji encji: Model, który reprezentuje schemat bazy danych jako zestaw jednostek i relacji między nimi.
Tabela faktów: Centralna tabela w schemacie gwiazdy, zawierająca nazwy faktów lub miar, a także klucze do każdej z powiązanych tabel wymiarów.
Projektowanie oparte na metrykach: Podejście do projektowania hurtowni danych, które rozpoczyna się od zdefiniowania kluczowych procesów biznesowych, które wymagają pomiaru i śledzenia w czasie. Następnie są one modelowane w modelu wymiarowym.
Przetwarzanie równoległe: Alokacja obciążenia obliczeniowego systemu operacyjnego na kilka procesorów
Schemat gwiazdy: Diagram modelowania zawierający dużą centralną tabelę (tabelę faktów) i zestaw mniejszych tabel towarzyszących (tabele wymiarów), z których każda jest reprezentowana przez tylko jedną tabelę zawierającą zestaw atrybutów.
Atrybuty: Predefiniowane zmienne w zbiorze danych.
Klasyfikacja: Przypisanie elementów lub obiektów do klas lub kategorii zgodnie z ich cechami.
Zarządzanie relacjami z klientami:Dynamiczny proces zarządzania relacjami między firmą a jej klientami, obejmujący gromadzenie, przechowywanie i analizowanie informacji o klientach.
Eksploracja danych: Znana również jako odkrywanie wiedzy w bazie danych (KDD), proces odkrywania wiedzy poprzez analizę danych i ekstrakcję informacji ze zbioru danych z wykorzystaniem technik uczenia maszynowego.
Drzewo decyzyjne: Model predykcyjny, który można wizualizować w strukturze hierarchicznej za pomocą liści i rozgałęzień.
Modelowanie drzewa decyzyjnego: Proces tworzenia modelu drzewa decyzyjnego.
Diagnostyka błędów: Działanie polegające na identyfikacji nieprawidłowo działającego systemu na podstawie obserwacji jego zachowania.
Zarządzanie wykrywaniem oszustw: Wykrywanie oszustw, zwłaszcza tych występujących w sprawozdaniach finansowych lub transakcjach biznesowych, w celu zmniejszenia ryzyka strat. Zarządzanie opieką zdrowotną: Czynność zapobiegania, leczenia i zarządzania chorobami, w tym ochrona zdrowia psychicznego i fizycznego poprzez usługi świadczone przez pracowników służby zdrowia.
Prognoza: Oświadczenie lub twierdzenie, że określone zdarzenie nastąpi w przyszłości.
Wiara: W teorii Dempstera-Shafera poziom reprezentowania pewności, że teza leży w elemencie ogniskowym lub jego dowolnym podzbiorze.
Dowód: W teorii Dempstera-Shafera seria elementów ogniskowych i powiązanych z nimi wartości masy.
Element ogniskowy: W teorii Dempstera-Shafera zbiór hipotez o dodatniej wartości masy w zbiorze dowodów.
Rama Rozróżnienia: W teorii Dempstera-Shafera zbiór wszystkich rozważanych hipotez.
Teoria Dempstera-Shafera: Ogólna metodologia, znana również jako teoria funkcji przekonań, której podstawy są ściśle związane z rozumowaniem niepewnym.
Ignorancja: W teorii Dempstera-Shafera poziom wartości masy nierozróżnialny wśród hipotez.
Wartość masy: W teorii Dempstera-Shafera poziom dokładnej wiary w element ogniskowy.
Niespecyficzność: W teorii Dempstera-Shafera średnia ważona wartości mas elementów ogniskowych w materiale dowodowym, postrzegana jako rodzaj o wyższym stopniu niepewności, ujęty w terminologii niejednoznaczności.
Prawdopodobieństwo: W teorii Dempstera-Shafera stopień, w jakim nie możemy odrzucić danego twierdzenia, leży w elemencie ogniskowym.
Korpus (corpora l.mn.): Zbiór materiałów pisanych lub mówionych w formie czytelnej dla maszyn.
Tłumaczenie maszynowe (MT): Czynność tłumaczenia czegoś za pomocą maszyny, zwłaszcza komputera.
Morfem: Najmniejsza jednostka znaczeniowa. Słowo może składać się z jednego morfemu (potrzeba), dwóch morfemów (potrzeba/mniej, potrzeba/ing) lub więcej (nie/szczęśliwość/bycie).
Drzewo struktury frazowej: Strukturalna reprezentacja zdania w postaci odwróconego drzewa, gdzie każdy węzeł drzewa jest oznaczony zgodnie z reprezentowanym przez niego składnikiem frazowym.
Parser oparty na regułach: Parser wykorzystujący reguły napisane ręcznie (zaprojektowane), w przeciwieństwie do reguł wyprowadzonych z danych.
Parser statystyczny: Grupa metod analizy składniowej w ramach przetwarzania języka naturalnego (NLP). Cechą wspólną tych metod jest wiązanie reguł gramatycznych z prawdopodobieństwem.
Bank drzew: Korpus tekstowy, w którym każde zdanie jest opatrzone adnotacjami dotyczącymi struktury składniowej.Strukturę składniową zazwyczaj przedstawia się w postaci struktury drzewa. Banki drzew mogą być wykorzystywane w lingwistyce korpusowej do badania zjawisk składniowych lub w lingwistyce obliczeniowej do szkolenia lub testowania parserów.
Łączenie zmiennych: Łączenie zmiennych to metoda redukcji liczby reguł w rozmytej bazie reguł. Zmienne są łączone (łączone) przed wprowadzeniem do silnika wnioskowania, co zmniejsza liczbę reguł w bazie wiedzy.
Logika rozmyta: Zbiory rozmyte i logika rozmyta zostały wprowadzone w 1965 roku przez Lotfiego Zadeha jako nowy sposób reprezentacji nieoznaczoności w zastosowaniach. Stanowią one uogólnienie zbiorów w konwencjonalnej teorii mnogości. Logika rozmyta (FL) ma na celu modelowanie nieprecyzyjnych modeli rozumowania, takich jak rozumowanie zdroworozsądkowe dla niepewnych, złożonych procesów. Przedstawiono system reprezentacji znaczenia nieprecyzyjnego twierdzenia leksykalnego w strukturze języka naturalnego poprzez przedstawienie twierdzenia jako rozmytych ograniczeń zmiennej. Sterowniki oparte na logice rozmytej zostały z powodzeniem zastosowane w wielu nieliniowych systemach sterowania. Do sterowania procesami stosuje się reguły lingwistyczne, a nie precyzyjne reguły numeryczne. Baza reguł rozmytych (reguły rozmyte if-then): Rozmyte if-then lub rozmyte instrukcje warunkowe to wyrażenia w postaci "Jeśli A, to B", gdzie A i B to etykiety zbiorów rozmytych charakteryzujących się odpowiednimi funkcjami przynależności. Ze względu na swoją zwięzłą formę, rozmyte reguły if-then są często stosowane w celu uchwycenia nieprecyzyjnych trybów rozumowania, które odgrywają istotną rolę w ludzkiej zdolności do podejmowania decyzji w środowisku niepewności i niedokładności. Zbiór reguł if-then, odnoszących się do systemu logiki rozmytej, które są przechowywane razem, nazywa się bazą reguł rozmytych.
Algorytmy genetyczne: Algorytmy genetyczne (GA) to algorytmy wykorzystujące operacje występujące w genetyce naturalnej do kierowania procesem wyszukiwania i są coraz częściej wykorzystywane w dziedzinie optymalizacji. Solidna natura i prosta mechanika algorytmów genetycznych sprawiają, że stanowią one atrakcyjne narzędzia do wyszukiwania, uczenia się i optymalizacji. Algorytmy genetyczne opierają się na modelach obliczeniowych fundamentalnych procesów ewolucyjnych, takich jak selekcja, rekombinacja i mutacja.
Elementy algorytmów genetycznych: W najprostszej postaci algorytm genetyczny składa się z następujących elementów:
1. Dostosowanie - dodatnia miara użyteczności, zwana dostosowaniem, jest określana dla osobników w populacji. Ta wartość dostosowania jest ilościową miarą tego, jak dobrze dany osobnik wypada w porównaniu z innymi w populacji.
2. Selekcja - osobnikom w populacji przypisuje się określoną liczbę kopii w puli par, która jest wykorzystywana do konstruowania nowej populacji. Im wyższe dostosowanie osobnika w populacji, tym więcej kopii w puli par otrzymuje.
3. Rekombinacja - osobniki z puli par są rekombinowane w celu utworzenia nowych osobników, zwanych dziećmi. Powszechną metodą rekombinacji jest krzyżowanie jednopunktowe.
4. Mutacja - każdy osobnik ulega mutacji z niewielkim prawdopodobieństwem << 1,0. Mutacja to mechanizm utrzymujący różnorodność w populacji.
Hierarchiczne systemy sterowania oparte na logice rozmytej: Idea hierarchicznych systemów sterowania opartych na logice rozmytej polega na umieszczeniu zmiennych wejściowych w zbiorze niskowymiarowych systemów sterowania opartych na logice rozmytej, zamiast tworzenia pojedynczej, wielowymiarowej bazy reguł dla systemu sterowania opartego na logice rozmytej. Każdy niskowymiarowy system sterowania oparty na logice rozmytej stanowi poziom w hierarchicznym systemie sterowania opartego na logice rozmytej. Hierarchiczne sterowanie oparte na logice rozmytej to jedno ze sposobów uniknięcia problemu eksplozji reguł. Ma ono tę właściwość, że liczba reguł potrzebnych do zbudowania systemu rozmytego rośnie liniowo wraz z liczbą zmiennych w systemie.
Uczenie się bez nadzoru: W uczeniu się bez nadzoru nie ma zewnętrznego nauczyciela ani krytyka nadzorującego proces uczenia. Innymi słowy, nie ma konkretnych przykładów funkcji, których system ma się nauczyć. Zamiast tego przewidziano niezależny od zadania pomiar jakości lub reprezentacji, której system ma się nauczyć. Oznacza to, że system uczy się statystycznych prawidłowości danych wejściowych i rozwija zdolność uczenia się cech danych wejściowych, a tym samym automatycznego tworzenia nowych klas.
Adaptacja: Odnosi się do szczególnych dostosowań, którym podlegają organizmy, aby poradzić sobie ze zmianami środowiskowymi i morfologicznymi. W biologii można wyróżnić cztery rodzaje adaptacji: ewolucyjną, fizjologiczną, sensoryczną i uczenia się.
Bootstrapping: Oznacza proces rozpoczynania od minimalnego zestawu funkcji i budowania coraz większej funkcjonalności krok po kroku na strukturach już istniejących w systemie.
Problem stopni swobody: Problem uczenia się, jak kontrolować system o bardzo dużej liczbie stopni swobody (znany również jako problem Bernsteina).
Ucieleśnienie: Odnosi się do faktu, że inteligencja wymaga ciała i nie może istnieć jedynie w formie abstrakcyjnego algorytmu.
Wyłanianie się: Proces, w którym zjawiska na pewnym poziomie powstają z interakcji na niższych poziomach. Termin ten jest czasami używany do określenia właściwości systemu, która nie jest zawarta w żadnej z jego części.
Rusztowanie: Obejmuje wszelkiego rodzaju zewnętrzne wsparcie i pomoce, które upraszczają uczenie się zadań i nabywanie nowych umiejętności. Dynamika semiotyczna: Dziedzina zajmująca się badaniem tego, w jaki sposób znaczące struktury symboliczne powstają, rozprzestrzeniają się i ewoluują z czasem w populacjach, poprzez łączenie lingwistyki i nauk kognitywnych z narzędziami teoretycznymi z zakresu systemów złożonych i informatyki.
Obwód: Sieć urządzeń.
Zliczanie (wyczerpujące): Działanie matematyczne wielokrotnego dodawania (wyczerpujące uwzględnia wszystkie możliwe kombinacje).
Urządzenie: Każdy byt fizyczny celowo oddziałujący na cząstkę przenoszącą informację (lub powiązane z nią pola) w pożądany sposób, zgodnie z zamierzoną funkcją obwodu.
Próg błędu: Prawdopodobieństwo awarii elementu (bramki, urządzenia), powyżej którego schemat multipleksowy nie jest w stanie poprawić samego elementu.
Wejście wielokanałowe: Liczba wejść (do bramki).
Odporność na błędy: Zdolność systemu (obwodu) do kontynuowania działania, zamiast całkowitej awarii (ewentualnie z obniżonym poziomem wydajności) w przypadku awarii niektórych jego elementów.
Bramka (logika): Funkcjonalny element konstrukcyjny (w logice cyfrowej bramka wykonuje operację logiczną na swoich wejściach logicznych).
Bramka większościowa (większość): Bramka logiczna o nieparzystych wejściach wielokanałowych, która generuje wartość logiczną równą wartości większości swoich wejść.
Monte Carlo: Klasa stochastycznych (z wykorzystaniem liczb pseudolosowych) algorytmów obliczeniowych do symulacji zachowania systemów fizycznych i matematycznych.
Multipleksowanie (von Neumann): Schemat niezawodnych obliczeń oparty na kolejnych etapach obliczeniowych naprzemiennie z etapami losowych połączeń (wprowadzony przez von Neumanna w 1952 roku).
Redundancja (czynnikowa): Multiplikatywny wzrost liczby (identycznych) komponentów (podsystemów, bloków, bramek, urządzeń), który może (automatycznie) zastąpić (lub uzupełnić) uszkodzony komponent/y.
Niezawodność: Zdolność układu (systemu, bramki, urządzenia) do wykonywania i utrzymywania swojej/swoich funkcji w danych (a także w niekorzystnych lub nieoczekiwanych) warunkach przez określony czas.
Tablica: Wspólne repozytorium problemów, częściowych rozwiązań, sugestii i informacji. Tablicę można postrzegać jako dynamiczną "bibliotekę" wkładów do bieżącego problemu, które zostały niedawno "opublikowane" przez inne źródła wiedzy.
Kooperacyjne metaheurystyki wielowyszukiwawcze: Strategia paralelizacji metaheurystyk, w której paralelizm uzyskuje się poprzez wielokrotne, równoczesne eksploracje przestrzeni rozwiązań i gdzie metaheurystyki wymieniają się informacjami podczas wykonywania, aby móc ze sobą współpracować.
Eksploracja danych: Najbardziej charakterystyczny etap procesu ekstrakcji wiedzy, którego celem jest wytworzenie nowej, użytecznej wiedzy poprzez zbudowanie modelu na podstawie danych zebranych w tym celu.
Reguły rozmyte: Lingwistyczne konstrukcje warunkowe typu "jeśli A, to B", które mają ogólną postać "jeśli A, to B", gdzie A i B to zbiory zdań zawierających zmienne lingwistyczne (A nazywane jest przesłanką, a B konsekwencją). Zastosowanie zmiennych lingwistycznych i rozmytych reguł warunkowych typu "jeśli-to" wykorzystuje tolerancję na nieprecyzyjność i niepewność.
Heurystyka: Metoda lub podejście, które próbuje zastosować wiedzę ekspercką w rozwiązaniu problemu w celu zwiększenia prawdopodobieństwa jego rozwiązania.
Ekstrakcja/Odkrywanie Wiedzy: Nietrywialny proces identyfikacji prawidłowych, nowych, potencjalnie użytecznych i ostatecznie zrozumiałych wzorców z dużych zbiorów danych. Ogólny proces i dyscyplina ekstrakcji użytecznej wiedzy, obejmująca zadania związane z magazynowaniem danych, ich oczyszczaniem i manipulacją, aż po interpretację i wykorzystanie wyników.
Metaheurystyka: Zaawansowana strategia rozwiązywania bardzo ogólnej klasy problemów obliczeniowych poprzez łączenie procedur typu "czarna skrzynka" (black-box) użytkownika - zazwyczaj heurystyk - w sposób, który ma szansę być efektywny.
Problem optymalizacyjny: Problem obliczeniowy, którego celem jest znalezienie najlepszego spośród wszystkich możliwych rozwiązań.
Metaheurystyki równoległe: Metaheurystyki, w których różne wątki przeszukują przestrzeń rozwiązań równolegle. Pojawiają się one naturalnie w rozwoju metaheurystyk jako sposób na poprawę współczynnika przyspieszenia w poszukiwaniu rozwiązań.
Instancja problemu: Konkretna reprezentacja problemu, mająca cechy odróżniające ją od pozostałych.
Obszar Przestrzeni Poszukiwań: Zbiór określonych zakresów lub wartości zmiennych wejściowych, które stanowią podzbiór przestrzeni przeszukiwania.
Parametr sterujący: Parametr sterujący określa zachowanie programu ewolucyjnego (np. wielkość populacji).
Ewolucja różnicowa: Algorytm ewolucyjny optymalizacji globalnej, który realizuje ewolucję populacji osobników w sposób wykorzystujący różnice między osobnikami.
Obliczenia ewolucyjne: Podejście do rozwiązania oparte na ewolucji biologicznej, które rozpoczyna się od potencjalnych modeli rozwiązań, a następnie iteracyjnie stosuje algorytmy w celu znalezienia najlepiej dopasowanych modeli ze zbioru, które służą jako dane wejściowe do kolejnej iteracji, ostatecznie prowadząc do modelu najlepiej reprezentującego dane.
Indywidualny: Indywiduum reprezentuje potencjalne rozwiązanie. W procesie optymalizacji algorytm ewolucyjny zazwyczaj wykorzystuje populację osobników do rozwiązania konkretnego problemu.
Przestrzeń Poszukiwań: Zbiór wszystkich możliwych sytuacji problemu optymalizacyjnego, który chcemy rozwiązać.
Samoadaptacja: Zdolność, która pozwala algorytmowi ewolucyjnemu dostosować się do dowolnej ogólnej klasy problemów poprzez odpowiednią rekonfigurację, bez interakcji z użytkownikiem.
Ontologia artykulacji: Ontologia artykulacji składa się z pojęć i relacji, które są identyfikowane jako łącznik między pojęciami zdefiniowanymi w dwóch oddzielnych ontologiach, znanych również jako reguły artykulacji.
Techniki uwzględniające kontekst: Techniki koncentrujące się na bliskości wagi przypisanej konkretnym relacjom między pojęciami, biorąc pod uwagę kontekst aplikacji jako podstawę mapowania.
Techniki uwzględniające rozszerzenie: Techniki koncentrujące się na znajdowaniu bliskości między cechami dostępnych instancji różnych ontologii do bazy form dla mapowania.
Techniki uwzględniające intencję: Oparte na teorii przepływu informacji, techniki koncentrujące się na znajdowaniu dwóch różnych tokenów (instancji) należących do oddzielnych ontologii, które są mapowane na jeden typ (pojęcie) jako podstawę mapowania.
Techniki podobieństwa językowego: Zestaw technik, które odnoszą się do bliskości językowej pojęć w postaci synonimów, hiperonimów i hiponimów poprzez odwoływanie się do powiązanych haseł w tezaurusie jako podstawy mapowania.
Dopasowanie ontologii: Dopasowanie ontologii to proces artykułowania podobieństwa w formie relacji równości jeden do jednego między wszystkimi elementami dwóch oddzielnych ontologii.
Integracja ontologii: Integracja ontologii to proces, który skutkuje wygenerowaniem nowej ontologii wyprowadzonej z połączenia dwóch lub więcej ontologii źródłowych o różnej, ale powiązanej domenie podmiotowej.
Mapowanie ontologii: Mapowanie ontologii to proces artykułowania podobieństw między koncepcjami należącymi do oddzielnych ontologii źródłowych.
Mediacja ontologii: Mediacja ontologii to proces, który uzgadnia różnice między oddzielnymi ontologiami w celu osiągnięcia interoperacyjności semantycznej poprzez wykonanie dopasowania, mapowania, scalania i innych wymaganych operacji.
Scalanie ontologii: Mapowanie ontologii to proces, który skutkuje wygenerowaniem nowej ontologii wyprowadzonej z połączenia dwóch lub więcej ontologii źródłowych o tej samej domenie podmiotowej.
Techniki podobieństwa semantycznego: Techniki koncentrujące się na spełnialności logicznej jako podstawie mapowania.
Techniki podobieństwa ciągów znaków: Zestaw technik wykorzystujących podobieństwo składniowe pojęć jako podstawę mapowania.
Techniki uwzględniające strukturę: Techniki uwzględniające również hierarchię strukturalną pojęć jako podstawę mapowania.
Opóźnione wykrywanie duplikatów: W przeciwieństwie do tablic skrótów, które eliminują zduplikowane stany "w locie" podczas eksploracji, proces wykrywania duplikatów można opóźnić do momentu uzyskania dużego zbioru stanów. Jest to bardzo skuteczne w wyszukiwaniu zewnętrznym, gdzie jest ono efektywnie realizowane poprzez zewnętrzne sortowanie i skanowanie.
Graf: Zbiór węzłów połączonych krawędziami. Węzeł na początku krawędzi nazywany jest celem, a na końcu - źródłem. Graf może być nieskierowany, tzn. zawsze można powrócić do źródła przez tę samą krawędź - odwrotnością jest graf skierowany. Jeśli jest on podany wcześniej w postaci list sąsiedztwa (np. sieć dróg), nazywamy go grafem jawnym. Grafy niejawne - inna nazwa "przestrzeni stanów" - są generowane "w locie" z węzła początkowego i zestawu reguł/akcji generujących nowe stany (np. gra w warcaby).
Funkcja heurystyczna: Funkcja, która przypisuje węzeł, czyli szacowaną odległość do węzła docelowego. Na przykład w planowaniu tras odległość euklidesowa może być używana jako funkcja heurystyczna. Funkcja heurystyczna jest dopuszczalna, jeśli nigdy nie przecenia najkrótszej odległości ścieżki. Jest również spójna, jeśli nigdy nie maleje na żadnej krawędzi bardziej niż waga krawędzi, tj. dla węzła n i jego następnika n', h(n) - h(n′) ? c(n,n').
Hierarchia pamięci: Współczesny sprzęt ma hierarchię nośników danych: począwszy od szybkich rejestrów, pamięci podręcznej L1 i L2, poprzez pamięć RAM, aż do wolnych dysków twardych i taśm. Czasy opóźnień na różnych poziomach różnią się znacznie, np. rejestry: 2 ns, pamięć podręczna: 20 ns, dysk twardy: 10 ms, taśma: 1 min.
Weryfikacja modelu: Jest to zautomatyzowany proces, który po otrzymaniu modelu systemu i specyfikacji właściwości sprawdza, czy właściwość jest spełniona przez system. Właściwości wymagające, aby "coś złego nigdy się nie wydarzyło" nazywane są właściwościami bezpieczeństwa, natomiast te, które wymagają, aby "coś dobrego w końcu się wydarzyło", nazywane są właściwościami żywotności.
Algorytm wyszukiwania: Algorytm, który po podaniu dwóch węzłów grafu, startowego i docelowego, zwraca sekwencję węzłów stanowiącą ścieżkę od startu do celu, o ile taka sekwencja istnieje. Algorytm wyszukiwania generuje następniki węzła poprzez proces ekspansji, po którym węzeł jest nazywany węzłem zamkniętym. Nowo wygenerowane następniki są sprawdzane pod kątem duplikatów, a po znalezieniu unikatowych, są dodawane do zbioru węzłów otwartych.
Iteracja wartości: Procedura obliczająca strategię (odwzorowanie stanów na działanie) dla probabilistycznego lub niedeterministycznego problemu wyszukiwania, najczęściej w formie problemu decyzyjnego Markowa (MDP).
Agent: Uczestnik obliczeń rozproszonych, mający własne ograniczenia.
Ograniczenie: Relacja między zmiennymi określająca niedozwolony podzbiór ich iloczynu kartezjańskiego. Opcjonalnie może również określać kary numeryczne dla tych krotek.
DisCOP: Struktura problemu optymalizacji rozproszonych ograniczeń (również DCOP).
DisCSP: Struktura problemu spełniania rozproszonych ograniczeń (również DCSP).
Nogood: Stwierdzenie logiczne dotyczące kombinacji zadań, które są karane z powodu pewnych ograniczeń.
Optymalność: Jakość algorytmu zwracającego wyłącznie rozwiązania co najmniej tak dobre, jak każde inne rozwiązanie.
Spokój: Stan nieaktywności. System nie zmieni się bez bodźca zewnętrznego.
Binarne Kody Rozpryskowe (BSC): VSA wykorzystująca wektory bitowe i operację wyłącznego OR (XOR) lub mnożenie elementów do wiązania ról/wypełniaczy.
Wiązanie: W najszerszym znaczeniu termin używany do opisania powiązania wartości ze zmiennymi. W sztucznej inteligencji i kognitywistyce zmienne są zazwyczaj zamkniętym zbiorem ról (AGENT, PACJENT, INSTRUMENT), a wartości otwartym zbiorem wypełniaczy (encji).
Pakowanie: Operacja VSA polegająca na łączeniu kilku elementów w jeden element poprzez dodawanie wektorów.
Pamięć Czyszcząca: Mechanizm wymagany do kompensacji szumu wprowadzanego przez kompresję stratną w VSA.
Reprezentacja Rozproszona: Ogólna metoda reprezentacji i przechowywania informacji, w której reprezentacja każdego elementu jest rozproszona w całej pamięci, każdy element pamięci jednocześnie przechowuje komponenty więcej niż jednego elementu, a elementy są pobierane na podstawie ich zawartości, a nie adresu. Holograficzna Reprezentacja Zredukowana (HRR): Najpopularniejsza odmiana VSA, wykorzystująca splot kołowy do wiązania wypełniaczy z rolami oraz korelację kołową do odzyskiwania wypełniaczy lub ról z powiązań.
Rekurencyjna Pamięć Autoasocjacyjna (RAAM): Architektura sieci neuronowej wykorzystująca mnożenie wektorów/macierzy do wiązania oraz iteracyjne uczenie się do kodowania struktur.
Iloczyny Tensorowe: Wczesna forma VSA, która wykorzystuje iloczyn zewnętrzny (tensorowy) jako operację wiązania, zwiększając w ten sposób wymiarowość reprezentacji bez ograniczeń.
Architektura Symboliczna Wektorowa (VSA): Ogólny termin określający reprezentacje wykorzystujące duże wektory liczb losowych dla ról i wypełniaczy oraz szybkie, stratne operacje kompresji do wiązania wypełniaczy z rolami.
Walidacja krzyżowa: Metoda szacowania błędu predykcyjnego induktorów. Procedura walidacji krzyżowej dzieli zbiór danych na k równych części zwanych fałdami. Buduje się k funkcji predykcyjnych, z których każda jest testowana na innej fałdzie po wytrenowaniu na pozostałych fałdach.
Algorytm ewolucyjny (EA): Metaheurystyczne podejście do optymalizacji inspirowane ewolucją naturalną, które rozpoczyna się od modeli potencjalnych rozwiązań, a następnie iteracyjnie stosuje algorytmy w celu znalezienia najlepiej dopasowanych modeli ze zbioru, które posłużą jako dane wejściowe do kolejnej iteracji, ostatecznie prowadząc do rozwiązania suboptymalnego, bliskiego optymalnemu.
Selekcja modelu: Selekcja modelu dla maszyn wektorów nośnych dotyczy dostrojenia hiperparametrów SVM, takich jak stała kompromisu C i parametry jądra.
Schemat kombinacji wieloklasowej: Połączenie kilku klasyfikatorów binarnych w celu rozwiązania danego problemu wieloklasowego.
Przestrzeń poszukiwań: Zbiór wszystkich możliwych sytuacji, w których może znajdować się problem, który chcemy rozwiązać.
Maszyna wektorów nośnych (SVM): SVM mapuje dane wejściowe w wielowymiarowej przestrzeni cech za pomocą funkcji nieliniowej i znajduje w tej przestrzeni cech optymalną hiperpłaszczyznę separującą, maksymalizującą margines (czyli odległość między hiperpłaszczyzną a najbliższymi punktami zbioru treningowego) i minimalizującą liczbę błędnie sklasyfikowanych wzorców.
Stała kompromisu SVM: Stała kompromisu, oznaczona jako C, pozwala określić znaczenie zwiększenia marginesu dla wyboru optymalnego hiperplanu w porównaniu ze zmniejszeniem błędów predykcyjnych (tj. przypadków, które nie respektują odległości marginesu od separatora hiperplanu).
Wytrzymałość na ściskanie: Zmierzona maksymalna wytrzymałość próbki betonu lub zaprawy na osiowe obciążenie ściskające; wyrażona jako siła na jednostkę pola przekroju poprzecznego; lub określona wytrzymałość stosowana w obliczeniach projektowych.
Belka-ściana: Element zginany, którego stosunek rozpiętości do wysokości jest zbyt niski, aby dokładnie zastosować zasady projektowania przekrojów poprzez właściwości przekroju i siły wewnętrzne. Wytrzymałość na ścinanie: Maksymalne naprężenie ścinające, jakie element zginany może przenieść w określonym miejscu, kontrolowane przez łączne działanie sił ścinających i momentu zginającego.
Beton wysokowytrzymały: Beton spełniający specjalne wymagania dotyczące właściwości użytkowych i jednorodności, których nie zawsze można osiągnąć rutynowo, stosując konwencjonalne składniki oraz standardowe metody mieszania, układania i pielęgnacji.
Proporcje mieszanki: Proporcje składników zapewniające najbardziej ekonomiczne wykorzystanie dostępnych materiałów do wytworzenia zaprawy lub betonu o wymaganych właściwościach.
Osiadanie: Miara konsystencji świeżo wymieszanego betonu, zaprawy lub tynku, równa osiadaniu mierzonemu z dokładnością do 6 mm (1/4 cala) uformowanej próbki bezpośrednio po usunięciu stożka osiadania.
Superplastyfikator lub domieszka redukująca zawartość wody w wysokim zakresie: Domieszka redukująca zawartość wody, która umożliwia znaczne zmniejszenie zawartości wody lub uzyskanie wysokiej płynności bez powodowania nadmiernego opóźnienia wiązania lub napowietrzenia zaprawy lub betonu.
Urabialność: Właściwość świeżo wymieszanego betonu lub zaprawy, która decyduje o łatwości jego mieszania, układania, zagęszczania i wykańczania do uzyskania jednorodnej konsystencji.
Najlepsze praktyki: Koncepcja zarządzania, która zakłada, że istnieje technika, metoda, proces, działanie, zachęta lub nagroda skuteczniejsza w osiąganiu określonego rezultatu niż jakakolwiek inna technika, metoda lub proces.
Gra komputerowa: Gra wideo rozgrywana na komputerze osobistym, a nie na konsoli do gier wideo lub automacie do gier.
Model komputerowy: Program komputerowy, który próbuje symulować abstrakcyjny model danego systemu.
E-learning: Nauka realizowana za pośrednictwem Internetu, sieci komputerowej, CD-ROM-u, telewizji interaktywnej lub transmisji satelitarnej.
Inteligentny agent: System oprogramowania czasu rzeczywistego, który współdziała z otoczeniem w celu wykonywania niepowtarzalnych zadań związanych z komputerem.
Zarządzanie wiedzą: Gromadzenie, organizacja, analiza i udostępnianie informacji przechowywanych przez pracowników i grupy w organizacji.
Uczyć się uczyć: W tym kontekście, nauczyć się zarządzać (wybierać, wyodrębniać, klasyfikować) ogromną ilością informacji istniejących w rzeczywistym społeczeństwie, aby zidentyfikować rzeczywistą i znaczącą wiedzę.
Nowe technologie: W tym kontekście technologie komputerowe, informacyjno-komunikacyjne.
Wirtualne: Niefizyczne.
Kontrola lotów: Usługa świadczona przez kontrolerów naziemnych, którzy kierują statkami powietrznymi na ziemi i w powietrzu. Głównym zadaniem kontrolera jest separacja poszczególnych statków powietrznych - zapobieganie ich nadmiernemu zbliżaniu się do siebie poprzez zastosowanie separacji bocznej, pionowej i podłużnej. Do zadań drugorzędnych należy zapewnienie uporządkowanego i sprawnego przepływu ruchu oraz dostarczanie pilotom informacji, takich jak pogoda, informacje nawigacyjne i NOTAM (Notices to Airmen).
Flocking: Komputerowy model skoordynowanego ruchu zwierząt, takich jak stada ptaków i ławice ryb. Zazwyczaj oparty na trójwymiarowej geometrii obliczeniowej, powszechnie stosowanej w animacji komputerowej lub projektowaniu wspomaganym komputerowo.
Inżynieria wiedzy: Inżynieria wiedzy to dziedzina sztucznej inteligencji, która rozwija systemy oparte na wiedzy. Takie systemy to programy komputerowe zawierające duże ilości wiedzy, reguł i mechanizmów wnioskowania, które dostarczają rozwiązań rzeczywistych problemów. Główną formą systemu opartego na wiedzy jest system ekspercki, zaprojektowany w celu emulowania procesów wnioskowania eksperta-praktyka (tj. osoby pełniącej funkcję zawodową przez wiele lat).
Środowiska wirtualne i immersyjne: Środowiska wirtualne w połączeniu z technologiami immersyjnymi zapewniają wrażenia sensoryczne przebywania w generowanej komputerowo, symulowanej przestrzeni. Mają one potencjalne zastosowania w różnych dziedzinach, od edukacji i szkoleń po projektowanie i prototypowanie.
Teatry wirtualne: Pojęcie "teatru wirtualnego" jest niejasne i wydaje się, że nie ma powszechnie akceptowanej definicji tego terminu. Można go zdefiniować jako wirtualny świat zamieszkany przez autonomiczne agenty, które działają i wchodzą w interakcje w sposób niezależny. Agenci ci mogą postępować zgodnie z ustalonym wcześniej schematem lub działać całkowicie z własnej inicjatywy.
Strategia eliminacji wstecznej: Chciwa metoda selekcji atrybutów, która ocenia efekt usunięcia jednego atrybutu ze zbioru danych. Atrybut, którego usunięcie poprawia wydajność zbioru danych, jest wybierany do usunięcia w następnej iteracji. Proces rozpoczyna się od pełnego zestawu atrybutów i kończy się, gdy usunięcie żadnego atrybutu nie poprawia wydajności.
Drzewa decyzyjne: Klasyfikator oparty na strukturze drzewiastej. Próbka testowa jest klasyfikowana poprzez jej ocenę w każdym węźle, zaczynając od najwyższego i wybierając konkretną gałąź w zależności od tej oceny. Klasyfikacja próbki to klasa przypisana w węźle najniższym.
Miara F1: Miara F1 to podejście polegające na połączeniu miar precyzji i czułości klasyfikatora za pomocą średniej harmonicznej obu z nich. Jej wyrażeniem jest: Miara F1 = (2×precyzja×czułość) / (precyzja+czułość).
Strategia selekcji w przód: Chciwa metoda selekcji atrybutów, która ocenia efekt dodania jednego atrybutu do zbioru danych. Atrybut, który poprawia wydajność zbioru danych, jest wybierany do dodania do zbioru danych w następnej iteracji. Proces rozpoczyna się bez atrybutów i kończy się, gdy dodanie nowych atrybutów nie powoduje poprawy wydajności.
Algorytm zachłanny: Algorytm - zwykle stosowany w problemach optymalizacyjnych - oparty na idei znalezienia globalnego rozwiązania problemu (pomimo że nie jest ono optymalne) poprzez wybór lokalnie optymalnych rozwiązań w różnych iteracjach.
Naiwny Bayes: Klasyfikator probabilistyczny oparty na regule Bayes′a, który zakłada, że wszystkie pary parametr-wartość definiujące przypadek są niezależne.
Precyzja: Miara wskazująca odsetek poprawnie sklasyfikowanych przypadków jednej klasy w odniesieniu do liczby przypadków sklasyfikowanych (poprawnie lub nie) jako członkowie tej klasy. Ta miara mówi, czy klasyfikator przyjmuje za członków jednej określonej klasy przypadki z innych, różnych klas.
Przypomnienie: Miara wskazująca odsetek poprawnie sklasyfikowanych przypadków jednej klasy w odniesieniu do całkowitej liczby przypadków, które faktycznie należą do tej klasy. Ta miara określa, czy klasyfikator ignoruje przypadki, które powinny zostać zaklasyfikowane jako członkowie jednej konkretnej klasy podczas klasyfikacji.
SVM: Skrót od Support Vector Machines (Maszyny Wektorów Wsparcia). SVM to modele umożliwiające rozróżnianie członków klas, których granice nie są liniowe. Jest to możliwe dzięki nieliniowej transformacji danych wejściowych, odwzorowującej je na przestrzeń o większej liczbie wymiarów, gdzie dane można łatwo podzielić przez hiperpłaszczyznę o maksymalnym marginesie.
Model aktywny: Technika numeryczna do śledzenia interfejsów i kształtów oparta na równaniach różniczkowych cząstkowych. Model to krzywa lub powierzchnia, która iteracyjnie deformuje się, dopasowując się do obiektu na obrazie.
Konwencjonalne modelowanie matematyczne: Stosowana nauka tworzenia modeli komputerowych. Jest to konstrukcja teoretyczna, która reprezentuje system złożony z zestawu obszarów zainteresowania, z zestawem parametrów, obiema zmiennymi wraz z logicznymi i ilościowymi relacjami między nimi, za pomocą języka matematycznego opisującego zachowanie systemu. Parametry są określane poprzez znalezienie krzywej w 2D lub powierzchni w 3D, której każdy fragment jest zdefiniowany przez siatkę krzywych w dwóch kierunkach parametrycznych, która odpowiada serii punktów danych i ewentualnie innym ograniczeniom.
Metoda elementów skończonych: Technika numeryczna stosowana do znajdowania przybliżonych rozwiązań równań różniczkowych cząstkowych (PDE), a także równań całkowych. Podejście do rozwiązania opiera się albo na całkowitym wyeliminowaniu równania różniczkowego (problemy stanu ustalonego), albo na przekształceniu równania różniczkowego cząstkowego w równoważne równanie różniczkowe zwyczajne, które następnie rozwiązuje się za pomocą standardowych technik, takich jak różnice skończone.
Krzywa geodezyjna: W obecności metryki, geodezyjne definiuje się jako (lokalnie) najkrótszą drogę między punktami w przestrzeni. W obecności połączenia afinicznego, geodezyjne definiuje się jako krzywe, których wektory styczne pozostają równoległe, jeśli są wzdłuż niej transportowane. rzywa geodezyjna opisuje ruch cząstek punktowych.
Karhunen-Loeve: Techniki matematyczne równoważne transformacji analizy głównych składowych, mające na celu redukcję wielowymiarowych zbiorów danych do niższych wymiarów w celu analizy ich wariancji.
Analiza modalna: Badanie właściwości dynamicznych i odpowiedzi struktur i/lub płynów pod wpływem wzbudzenia wibracyjnego. Typowe sygnały wzbudzenia można sklasyfikować jako impulsowe, szerokopasmowe, sinusoidalne, chirp i potencjalnie inne. Otrzymana odpowiedź pokaże jeden lub więcej rezonansów, których charakterystyczną masę, częstotliwość i tłumienie można oszacować na podstawie pomiarów.
Śledzenie: Śledzenie to proces lokalizowania poruszającego się obiektu (lub kilku obiektów) w czasie. Algorytm analizuje sekwencję obrazów i podaje lokalizację poruszających się celów na obrazie. System śledzenia wizualnego składa się z dwóch głównych komponentów: reprezentacji i lokalizacji celu oraz filtrowania i kojarzenia danych. Pierwszy z nich to proces oddolny, obejmujący segmentację i dopasowywanie. Drugi to proces odgórny, obejmujący włączanie wcześniejszych informacji o scenie lub obiekcie, analizę dynamiki obiektu i ocenę różnych hipotez.
Sztuczna Sieć Neuronowa: Struktura składa się z grupy połączonych ze sobą sztucznych neuronów lub jednostek. Celem sieci neuronowej jest przekształcenie danych wejściowych w sensowne dane wyjściowe.
Selekcja Cech oparta na Korelacji: Algorytm Selekcji Cech(*), który heurystycznie mierzy korelację między atrybutami i nagradza te podzbiory cech, w których każda cecha jest silnie skorelowana z klasą i nieskorelowana z cechami innych podzbiorów.
Selekcja Cech: Proces, powszechnie stosowany w uczeniu maszynowym, polegający na identyfikowaniu i usuwaniu jak największej ilości nieistotnych i zbędnych informacji.
Przestrzeń Cech: n-wymiarowa przestrzeń, w której każdy przykład (wzorzec) jest reprezentowany jako punkt. Wymiar tej przestrzeni jest równy liczbie cech użytych do opisu wzorców.
Układ FPGA (Field Programmable Array): Układ FPGA to układ scalony, który można programować w warunkach polowych po wyprodukowaniu.
Walidacja K-Cross: Metoda szacowania dokładności systemu klasyfikującego. W tym podejściu zbiór danych D jest losowo dzielony na K wzajemnie wykluczających się podzbiorów (foldów) o jednakowym rozmiarze (D1, D2,
, Dk) i budowany jest K klasyfikatorów. i-ty klasyfikator jest trenowany na sumie wszystkich Dj ? j?i i testowany na Di. Dokładność oszacowania to całkowita liczba poprawnych klasyfikacji podzielona przez liczbę wystąpień w zbiorze danych.
Uczenie maszynowe: Dziedzina informatyki skupiająca się na projektowaniu, analizie i implementacji algorytmów uczących się na podstawie doświadczenia.
Jeden przeciwko wszystkim: Podejście do rozwiązywania problemów klasyfikacji wieloklasowej, które tworzy jeden problem binarny dla każdej z K klas. Klasyfikator dla klasy i jest trenowany w celu odróżnienia przykładów z klasy i od wszystkich pozostałych przykładów.
Weka: Zbiór algorytmów uczenia maszynowego do rozwiązywania problemów eksploracji danych, zaimplementowanych w Javie i udostępnionych na licencji GPL.
Bootstrap: Technika ponownego próbkowania oparta na kilku losowych próbkach pobranych ze zwracaniem.
Niepodobieństwo: Miara bliskości, która nie spełnia nierówności trójkąta.
Jądro: Nieliniowa transformacja do przestrzeni cech o dużej liczbie wymiarów.
K-NN: Algorytm K-najbliższych sąsiadów do celów klasyfikacyjnych.
MDS: Wielowymiarowy algorytm skalowania stosowany do wizualizacji danych o dużej liczbie wymiarów.
SVD: Rozkład na wartości osobliwe. Operacja algebry liniowej wykorzystywana w wielu algorytmach optymalizacyjnych.
SVM: Klasyfikator maszyn wektorów nośnych.
UCE: Niezamówiona poczta komercyjna, znana również jako spam.
Chromosom: Określony wektor parametrów modelu czujnika (termin używany w terminologii ewolucyjnej dla osobników)
Funkcja kosztu: Kryterium oceniające poziom zgodności między wyjściem modelu czujnika a rzeczywistym wyjściem czujnika. W terminologii wykrywania błędów funkcja kosztu odpowiada terminowi "residuum" (lub funkcji resztowej).
Czas ewolucji: Liczba przypisana krokom w sekwencji iteracji wykonywanej podczas wyszukiwania parametrów modelu czujnika w oparciu o rozwój ewolucyjny.
Indywidualny: Wektor parametrów modelu czujnika w zbiorze możliwych wartości.
Początkowa temperatura wyżarzania: Początkowy parametr algorytmu. Temperatura wyżarzania jest używana jako miara postępu ewolucyjnego podczas symulowanego działania algorytmu wyżarzania.
Populacja: Zbiór wektorów parametrów modelu czujnika, przy których model czujnika ma szansę zbliżyć się do minimum funkcji resztowej.
Rozmiar populacji: Liczba wektorów parametrów modelu czujnika branych pod uwagę w populacji.
Niedokładność czujnika: Etap działania czujnika zmiennej sterowanej, na którym czujnik nie jest jeszcze całkowicie wyłączony, ale jego właściwości stopniowo zmieniają się w takim stopniu, że dane dostarczane przez czujnik są tak stronnicze, że tolerowana niedokładność zmiennej sterowanej przekracza dopuszczalny zakres i zwykle wiąże się z możliwymi efektami ubocznymi.
System adaptacyjny: System zdolny do dostosowywania swojego zachowania do zmian w otoczeniu lub w częściach samego systemu.
Sztuczne sieci neuronowe: Modele inspirowane pracą mózgu, rozpatrywane jako połączenie neuronów i połączeń synaptycznych, które są zdolne do przesyłania danych przez wiele warstw, dając systemowi możliwość rozwiązywania różnych problemów, takich jak rozpoznawanie i klasyfikacja wzorców.
Algorytm propagacji wstecznej: Technika uczenia nadzorowanego stosowana do trenowania sieci neuronowych. Opiera się na zestawie rekurencyjnych wzorów do obliczania wektora gradientu funkcji błędu, które można wykorzystać w metodzie pierwszego rzędu, takiej jak metoda gradientu prostego.
Propagacja wsteczna błędu: Zasadniczo procedura wyszukiwania, która próbuje zminimalizować funkcję błędu całej sieci, taką jak suma kwadratów błędu wyjścia sieci, na zestawie par wejścia/wyjścia treningowego.
Algorytmy ewolucyjne: Algorytmy oparte na modelach uwzględniających "sztuczną" lub "symulowaną" ewolucję genetyczną osobników w określonym środowisku. Stanowią one szeroką klasę stochastycznych algorytmów optymalizacyjnych, inspirowanych biologią, a w szczególności procesami biologicznymi, które pozwalają populacjom organizmów adaptować się do otaczającego środowiska: dziedziczenie genetyczne i przetrwanie najsilniejszych.
Ewolucyjne Sztuczne Sieci Neuronowe: Specjalna klasa sztucznych sieci neuronowych, w których ewolucja jest kolejną podstawową formą adaptacji, oprócz uczenia się. Są one reprezentowane przez inspirowane biologicznie modele obliczeniowe, które wykorzystują algorytmy ewolucyjne w połączeniu z sieciami neuronowymi do rozwiązywania problemów.
Ewolucyjne Obliczenia: W informatyce jest to poddziedzina sztucznej inteligencji (a dokładniej inteligencji obliczeniowej) obejmująca kombinatoryczne problemy optymalizacyjne. Ewolucyjne Obliczenia definiują dość młodą dziedzinę badań nad systemami obliczeniowymi opartą na idei naturalnej ewolucji i adaptacji.
Perceptrony Wielowarstwowe (MLP): Klasa sieci neuronowych, która składa się z w pełni połączonej sieci typu feed-forward z warstwą wejściową neuronów, jedną lub więcej warstw ukrytych oraz warstwą wyjściową. Wartość wyjściowa jest uzyskiwana poprzez sekwencję funkcji aktywacji zdefiniowanych w każdej warstwie ukrytej. Zazwyczaj w tego typu sieciach nadzorowanym procesem uczenia jest algorytm propagacji wstecznej.
Przestrzeń przeszukiwania: Zbiór wszystkich możliwych sytuacji, w których może znajdować się problem, który chcemy rozwiązać.
Absorbancja: Funkcja (zwykle logarytmiczna) procentowej transmisji długości fali światła przez ciecz.
Sztuczna sieć neuronowa: Połączona grupa sztucznych neuronów, która wykorzystuje matematyczny lub obliczeniowy model do przetwarzania informacji. Opiera się na funkcji neuronów biologicznych. Obejmuje grupę prostych elementów przetwarzających (neuronów), które mogą wykazywać złożone zachowania globalne w wyniku połączeń między neuronami.
Technika ewolucyjna: Technika dostarczająca rozwiązania problemu oparte na zasadach biologicznych, takich jak przetrwanie najsilniejszych. Techniki te rozpoczynają się od losowo wygenerowanej populacji, która ewoluuje za pomocą operacji krzyżowania i mutacji, aby zapewnić ostateczne rozwiązanie.
Ekstrakcja wiedzy: Wyjaśnienie wewnętrznej wiedzy systemu lub zbioru danych w sposób łatwy do interpretacji przez użytkownika.
Przestrzeń wyszukiwania: Zbiór wszystkich możliwych sytuacji, w których może się znaleźć problem, który chcemy rozwiązać. Kombinacja wszystkich możliwych wartości wszystkich zmiennych związanych z problemem.
Spektroskopia (spektrometria): Produkcja, pomiar i analiza widm elektromagnetycznych powstających w wyniku oddziaływań między promieniowaniem elektromagnetycznym a materią, takich jak emisja lub absorpcja energii.
Widmo: Natężenie promieniowania elektromagnetycznego w zakresie długości fal. Reprezentuje natężenie emitowanej lub transmitowanej energii w stosunku do energii światła odebranego.
Wybór zmiennych: Wybór podzbioru odpowiednich zmiennych (cech), które mogą opisywać zbiór danych.
Algorytmy inspirowane biologią: Grupa algorytmów wzorowanych na obserwowanych zjawiskach naturalnych, wykorzystywanych do rozwiązywania problemów matematycznych.
Chromosom: Proponowane rozwiązanie problemu, reprezentowane jako ciąg bitów i mogące mutować i krzyżować się, tworząc nowe rozwiązanie.
Klastrowanie: Grupowanie węzłów sieci ad hoc w taki sposób, że każda grupa stanowi samoorganizującą się jednostkę posiadającą głowę klastra, odpowiedzialną za formowanie i zarządzanie klastrem.
Krzyżowanie: Operacja genetyczna, która tworzy nowy chromosom poprzez połączenie genów dwóch lub więcej chromosomów macierzystych.
Funkcja dopasowania: Funkcja, która odwzorowuje subiektywną właściwość dopasowania rozwiązania na wartość obiektywną, która może być użyta do uporządkowania różnych rozwiązań według ich przydatności jako rozwiązania ostatecznego lub pośredniego.
Geny: Geny są elementami budulcowymi chromosomów i reprezentują parametry, które wymagają optymalizacji.
Algorytmy genetyczne: Algorytmy wzorowane na naturalnym procesie ewolucji. Algorytmy te wykorzystują metody takie jak krzyżowanie, mutacja i dobór naturalny i dostarczają najlepsze możliwe rozwiązania po przeanalizowaniu grupy suboptymalnych rozwiązań, które są dostarczane jako dane wejściowe.
Populacja początkowa: Zbiór suboptymalnych rozwiązań, które są dostarczane jako dane wejściowe do algorytmu genetycznego i z których ewoluuje rozwiązanie optymalne.
Sieć mobilna ad-hoc: Sieć wieloskokowa utworzona przez grupę węzłów mobilnych, które współpracują ze sobą w celu zapewnienia komunikacji, bez potrzeby stosowania żadnej infrastruktury wspomagającej.
Mutacja: Operacja genetyczna, która losowo zmienia chromosom w celu wytworzenia nowego chromosomu i dodania nowego rozwiązania do zbioru rozwiązań.
CYK: Algorytm Cocke′a-Youngera-Kasamiego używany do określenia, czy zdanie może zostać wygenerowane przez gramatykę.
Obliczenia ewolucyjne: Obszerna i zróżnicowana klasa algorytmów wyszukiwania opartych na populacji, inspirowana procesem ewolucji biologicznej poprzez selekcję, mutację i rekombinację. Są to algorytmy iteracyjne, które rozpoczynają od początkowej populacji rozwiązań kandydackich, a następnie wielokrotnie stosują serię operatorów genetycznych.
Automaty skończone: Model zachowania złożony ze skończonej liczby stanów, przejść między nimi oraz działań. Służą do rozpoznawania języków regularnych.
Algorytm genetyczny: Rodzaj ewolucyjnego algorytmu obliczeniowego, w którym rozwiązania kandydackie są reprezentowane zazwyczaj przez wektory liczb całkowitych lub ciągi bitów, czyli wektory wartości binarnych 0 i 1.
Heurystyka: Funkcja używana do podejmowania pewnych decyzji w ramach algorytmu; w kontekście algorytmów wyszukiwania, zazwyczaj używana do kierowania procesem wyszukiwania.
Wyszukiwanie lokalne: Rodzaj metody wyszukiwania, która rozpoczyna się w pewnym punkcie przestrzeni wyszukiwania i iteracyjnie przechodzi od pozycji do pozycji sąsiedniej, wykorzystując heurystykę.
Automaty ze stosem: Automat skończony, który może wykorzystywać stos zawierający dane. Służą do rozpoznawania języka bezkontekstowego.
Przestrzeń wyszukiwania: Zbiór wszystkich potencjalnych rozwiązań danej instancji problemu.
Sprzęt ewolucyjny: Układ rekonfigurowalny, który jest programowany przez algorytm ewolucyjny, taki jak algorytmy genetyczne. Do zewnętrznego, ewolucyjnego algorytmu sprzętowego, który jest uruchamiany na stacji hosta poza układem rekonfigurowalnym (komputerem). Do wewnętrznego, ewolucyjnego algorytmu sprzętowego, który jest uruchamiany w tym samym systemie z układem rekonfigurowalnym (nawet na tym samym chipie).
Algorytmy genetyczne (GA): Algorytm genetyczny (lub GA) to technika wyszukiwania stosowana w informatyce do znajdowania prawdziwych lub przybliżonych rozwiązań problemów optymalizacyjnych i wyszukiwania. Algorytmy genetyczne są klasyfikowane jako stochastyczna technika wyszukiwania lokalnego. Algorytmy genetyczne to szczególna klasa algorytmów ewolucyjnych, które wykorzystują techniki inspirowane biologią ewolucyjną, takie jak dziedziczenie, mutacja, selekcja i krzyżowanie (zwane również rekombinacją). Osobniki, ze schematem kodowania, są początkowymi wartościami losowymi. Wszystkie osobniki są, w pierwszej kolejności
Sprzęt ewolucyjny: Układ rekonfigurowalny, który jest programowany przez algorytm ewolucyjny, taki jak algorytmy genetyczne. Do zewnętrznego, ewolucyjnego algorytmu sprzętowego, który jest uruchamiany na stacji hosta poza układem rekonfigurowalnym (PC). Do wewnętrznego, ewolucyjnego algorytmu sprzętowego, który jest uruchamiany w tym samym systemie z układem rekonfigurowalnym (nawet na tym samym chipie).
Algorytmy genetyczne (GA): Algorytm genetyczny (lub GA) to technika wyszukiwania stosowana w informatyce do znajdowania prawdziwych lub przybliżonych rozwiązań problemów optymalizacyjnych i wyszukiwania. Algorytmy genetyczne są klasyfikowane jako stochastyczna technika wyszukiwania lokalnego. Algorytmy genetyczne to szczególna klasa algorytmów ewolucyjnych, które wykorzystują techniki inspirowane biologią ewolucyjną, takie jak dziedziczenie, mutacja, selekcja i krzyżowanie (zwane również rekombinacją). Osobniki, ze schematem kodowania, są początkowymi wartościami losowymi. Wszystkie osobniki są w pierwszym etapie algorytmu oceniane w celu uzyskania wartości dopasowania. W następnym etapie są sortowane według dopasowania i wybierane do operatorów genetycznych. Rodzicami są osobniki biorące udział w operatorach genetycznych, takich jak krzyżowanie lub mutacja. Potomstwo jest oceniane wspólnie z rodzicami, a algorytm powraca do pierwszego kroku. Pętla jest powtarzana, aż do znalezienia rozwiązania lub osiągnięcia limitu określonego przez programistę.
Genotyp: Opisuje konstytucję genetyczną osobnika, czyli specyficzny skład alleli osobnika. W przypadku ewoluującego sprzętu składa się on z wektora bitów konfiguracyjnych.
HGA: Sprzętowy algorytm genetyczny to sprzętowa implementacja algorytmu genetycznego. Implementacja sprzętowa zwiększa wydajność algorytmu poprzez zastąpienie szeregowych modułów programowych równoległym sprzętem.
Mikrostruktura: Integracja struktury w tym samym układzie scalonym. Ewoluująca mikrostruktura sprzętowa to wewnętrzny, ewoluujący sprzęt ze wszystkimi modułami w tym samym układzie scalonym.
Fenotyp: Opisuje jedną z cech osobnika, która jest mierzalna i wyrażana tylko u podzbioru osobników w danej populacji. W przypadku ewoluującego sprzętu fenotyp składa się z obwodu zakodowanego przez osobnika.
Obwód rekonfigurowalny: Struktura sprzętowa składa się z logicznej sieci komórkowej, która umożliwia konfigurację połączeń między komórkami.
Sztuczne sieci neuronowe: Połączony zbiór wielu prostych jednostek przetwarzających, powszechnie zwanych neuronami, wykorzystujący model matematyczny, który reprezentuje relację wejście/wyjście.
Algorytm propagacji wstecznej: Technika uczenia nadzorowanego stosowana w sieciach neuronowych, która iteracyjnie modyfikuje wagi połączeń sieci, tak aby błąd generowany przez sieć po porównaniu danych wyjściowych z wartością oczekiwaną zmniejszał się.
Obliczenia ewolucyjne: Zbiór technik sztucznej inteligencji stosowanych w problemach optymalizacyjnych, inspirowanych mechanizmami biologicznymi, takimi jak ewolucja naturalna.
Programowanie genetyczne: Technika uczenia maszynowego wykorzystująca algorytm ewolucyjny w celu optymalizacji populacji programów komputerowych zgodnie z funkcją dopasowania, która określa zdolność programu do wykonania danego zadania.
Genotyp: Reprezentacja osobnika na podstawie całego zbioru genów, do którego stosuje się operatory krzyżowania i mutacji.
Fenotyp: Ekspresja właściwości kodowanych przez genotyp osobnika.
Populacja: Grupa osobników o jednakowej lub podobnej strukturze genomu, co pozwala na zastosowanie operatorów genetycznych.
Przestrzeń poszukiwań: Zbiór wszystkich możliwych sytuacji, w których może się znaleźć problem, który chcemy rozwiązać.
Model deformowalny 3D: Model, który jest w stanie modyfikować swój kształt pod wpływem bodźców zewnętrznych. W rezultacie względne położenie dowolnego punktu na ciele deformowalnym może się zmieniać.
Modele Aktywnego Wyglądu (AAM): Algorytm widzenia komputerowego dopasowujący statystyczny model kształtu i wyglądu obiektu do nowego obrazu. To podejście jest szeroko stosowane do dopasowywania i śledzenia twarzy.
AIBO: Jeden z kilku typów robotycznych zwierząt domowych zaprojektowanych i wyprodukowanych przez Sony. Potrafią chodzić, "widzieć" otoczenie za pomocą kamery i rozpoznawać polecenia głosowe. Są uważane za roboty autonomiczne, ponieważ potrafią się uczyć i dojrzewać w oparciu o bodźce zewnętrzne pochodzące od właściciela lub otoczenia, lub od innych AIBO.
Modele autoregresyjne: Grupa liniowych formuł predykcyjnych, które próbują przewidzieć wyjście systemu na podstawie poprzednich danych wyjściowych i wejściowych.
System Rozpoznawania Mimiki Twarzy: Aplikacja sterowana komputerowo do automatycznego rozpoznawania mimiki twarzy osoby na podstawie cyfrowego zdjęcia lub obrazu wideo. Osiąga to poprzez porównanie wybranych cech twarzy na obrazie na żywo z bazą danych twarzy.
Ukryty model Markowa (HMM): Model statystyczny, w którym zakłada się, że modelowany system jest procesem Markowa o nieznanych parametrach, a wyzwaniem jest określenie ukrytych parametrów spośród parametrów obserwowalnych. Wyodrębnione parametry modelu można następnie wykorzystać do dalszej analizy, na przykład w aplikacjach rozpoznawania wzorców.
Interakcja człowiek-komputer (HCI): Badanie interakcji między ludźmi (użytkownikami) a komputerami. Jest to dziedzina interdyscyplinarna, łącząca informatykę z wieloma innymi dziedzinami nauki i badań (sztuczna inteligencja, psychologia, grafika komputerowa, projektowanie).
Robot społeczny: Autonomiczny robot, który wchodzi w interakcje i komunikuje się z ludźmi, przestrzegając społecznych reguł przypisanych do jego roli. Ta definicja implikuje, że robot społeczny ma fizyczne ucieleśnienie. Konsekwencją powyższych stwierdzeń jest to, że robot, który wchodzi w interakcje i komunikuje się tylko z innymi robotami, nie byłby uważany za robota społecznego.
Model szkieletowy: Reprezentacja wszystkich powierzchni obiektu trójwymiarowego w formie konturu.
Redukcja wymiarowości: Proces redukcji liczby rozpatrywanych cech. Proces ten można sklasyfikować pod kątem selekcji cech i ekstrakcji cech.
Ekstrakcja cech: Metoda redukcji wymiarowości, która znajduje zredukowany zbiór cech będących kombinacją cech oryginalnych.
Selekcja cech: Metoda redukcji wymiarowości polegająca na wyborze podzbioru odpowiednich cech z pełnego zbioru, ignorując pozostałe.
Metoda filtrowania: Metoda selekcji cech, która opiera się na ogólnej charakterystyce danych treningowych w celu selekcji i odrzucania cech. Można zastosować różne miary: odległość między klasami, entropię itp.
Metoda hybrydowa: Metoda selekcji cech, która łączy zalety metod wrapper i filtrów, aby radzić sobie z danymi o wysokiej wymiarowości.
Sekwencyjna selekcja wsteczna (w przód) (SBS/SFS): Metoda wyszukiwania, która rozpoczyna od wszystkich cech (pustego zbioru cech) i usuwa (dodaje) pojedynczą cechę na każdym etapie w celu poprawy - lub minimalnego pogorszenia - funkcji kosztu.
Metoda opakowująca: Metoda selekcji cech, która wykorzystuje maszynę uczącą się jako "czarną skrzynkę" do oceniania podzbiorów cech według ich wartości predykcyjnej.
Architektura: Liczba sztucznych neuronów, ich układ i łączność.
Sztuczna sieć neuronowa: Struktura przetwarzania informacji bez pamięci globalnej lub współdzielonej, przyjmująca postać grafu skierowanego, w którym każdy z elementów obliczeniowych ("neuronów") jest prostym procesorem z wewnętrznymi i regulowanymi parametrami, działającym tylko wtedy, gdy dostępne są wszystkie napływające do niego informacje.
Kompromis między obciążeniem a wariancją: Średni błąd kwadratowy (który należy zminimalizować) rozkłada się na sumę dwóch nieujemnych składników: kwadratu obciążenia i wariancji. Gdy estymator jest modyfikowany tak, że jeden składnik maleje, drugi zazwyczaj rośnie.
Sztuczna sieć neuronowa z sprzężeniem zwrotnym: Sztuczna sieć neuronowa, której graf nie ma cykli.
Algorytm uczenia się: Metoda lub algorytm, za pomocą którego sztuczna sieć neuronowa opracowuje reprezentację informacji zawartych w przykładach uczenia się poprzez modyfikację wag.
Model neuronu: Obliczenia sztucznego neuronu, wyrażone jako funkcja jego sygnału wejściowego, wektora wag i innych informacji lokalnych.
Waga: swobodny parametr sztucznej sieci neuronowej, który można modyfikować za pomocą algorytmu uczenia się w celu uzyskania pożądanych odpowiedzi na bodźce wejściowe.
Krzyżowanie: Operacja genetyczna włączona do technik ewolucyjnych, służąca do generowania potomstwa z obecnej populacji. Istnieją bardzo różne metody przeprowadzania krzyżowania, ale ogólna idea polega na łączeniu informacji genetycznej rodziców w potomstwie w celu uzyskania lepszych rozwiązań w miarę rozwoju pokoleń.
Technika ewolucyjna: Technika, która stara się znaleźć rozwiązania problemu, kierując się zasadami biologicznymi, takimi jak przetrwanie najlepiej przystosowanych. Tego rodzaju techniki zaczynają się od losowo wygenerowanej populacji, która ewoluuje za pomocą operacji krzyżowania i mutacji, aby znaleźć ostateczne rozwiązanie.
Algorytm genetyczny: Specjalny rodzaj techniki ewolucyjnej, który reprezentuje potencjalne rozwiązania problemu w obrębie chromosomów (zwykle zbiór wartości binarnych, naturalnych lub rzeczywistych).
Problemy multimodalne: Specjalny rodzaj problemów, w których nie istnieje jednoznaczne rozwiązanie globalne. Wokół przestrzeni poszukiwań można znaleźć kilka globalnych optimum lub jedno globalne optimum z kilkoma lokalnymi optimum (lub szczytami).
Mutacja: Inna operacja genetyczna włączona do technik ewolucyjnych, służąca do przeprowadzenia etapu reprodukcji. Operator mutacji wprowadza nowe informacje do systemu poprzez losowe zmiany wprowadzone w obrębie osobników genetycznych.
Przestrzeń poszukiwań: Zbiór wszystkich możliwych sytuacji, w których może się znaleźć problem, który chcemy rozwiązać. Kombinacja wszystkich możliwych wartości wszystkich zmiennych związanych z problemem.
Gatunek: W kontekście algorytmu genetycznego, podzbiór osobników genetycznych o podobnym genotypie (wartościach genetycznych), które eksplorują ten sam lub podobny obszar przestrzeni poszukiwań.
Silnik wyszukiwania pełnotekstowego (FTS): Moduł w systemie zarządzania bazą danych, który wspiera efektywne wyszukiwanie w tekstach swobodnych. Główne operacje obsługiwane przez silnik FTS to dopasowanie dokładne, dopasowanie oparte na pozycji, dopasowanie oparte na podobieństwie, dopasowanie oparte na gramatyce i dopasowanie oparte na semantyce.
Dopasowanie rozmyte: Specjalny rodzaj dopasowania, w którym podobieństwo dwóch terminów jest obliczane jako koszt transformacji jednego w drugi. Najpowszechniej stosowaną metodą obliczania kosztu jest metoda odległości edycyjnej.
Indeksator: Buduje jeden lub więcej indeksów w celu przyspieszenia wyszukiwania informacji z tekstu swobodnego. Indeksy te zazwyczaj zawierają następujące informacje: terminy (słowa), wystąpienia terminów, atrybuty formatu.
Indeks odwrócony: Struktura indeksu, w której każda wartość klucza (termin) jest powiązana z listą identyfikatorów obiektów (reprezentujących dokumenty). Lista zawiera obiekty zawierające daną wartość klucza.
Silnik Uściślania Zapytań: Komponent silnika FTS, który generuje nowe, uściślone zapytania do zapytania początkowego w celu zwiększenia wydajności wyszukiwania. Uściślone zapytania mogą być generowane na podstawie odpowiedzi użytkowników lub typowych wzorców z historii zapytań.
Silnik Rankingowy: Moduł w silniku FTS, który klasyfikuje dokumenty w zestawie wyników na podstawie ich trafności w odniesieniu do zapytania.
Sekcjer: Komponent silnika FTS, który dzieli tekst na większe jednostki zwane sekcjami. Typy wyodrębnionych sekcji są zazwyczaj określane przez typ dokumentu.
Stemmer: Jest to moduł zależny od języka, który określa formę rdzenia danego słowa. Forma rdzenia jest zazwyczaj identyczna z rdzeniem morfologicznym. Wymaga słownika językowego.
Tezaurus: Specjalne repozytorium terminów, które zawiera nie tylko same słowa, ale także podobieństwa, relacje generalizacji i specjalizacji. Opisuje kontekst słowa, ale nie podaje jego jednoznacznej definicji. Word-Braker: Komponent silnika pełnotekstowego, którego funkcją jest dzielenie tekstu na słowa i frazy.
Chemometria: Zastosowanie metod matematycznych lub statystycznych do danych chemicznych. Ściśle związana z monitorowaniem procesów chemicznych i projektowaniem instrumentów.
Klątwa wymiarowości: Teoretyczny wynik w uczeniu maszynowym, który stwierdza, że dolna granica błędu, jaką może osiągnąć maszyna adaptacyjna, rośnie wraz z wymiarem danych. Zatem wydajność będzie się pogarszać wraz ze wzrostem wymiaru danych.
Test delty: Nieparametryczna metoda estymacji szumu. Szacuje ilość szumu w zbiorze danych, tj. ilość informacji, której nie można wyjaśnić żadnym modelem. Dlatego test delty może byćużyty do uzyskania dolnej granicy błędu uczenia, którą można osiągnąć bez ryzyka nadmiernego dopasowania.
Funkcjonalna analiza danych: Podejście statystyczne, w którym dane wielowymiarowe traktowane są jako funkcje, a nie jako wektory dyskretne.
Maszyna wektorów nośnych metodą najmniejszych kwadratów: Modyfikacja maszyny wektorów nośnych metodą najmniejszych kwadratów, która prowadzi do rozwiązania liniowego układu równań. Jest również bardzo podobna do procesów gaussowskich.
Uczenie maszynowe: Dziedzina sztucznej inteligencji zajmująca się adaptacyjnymi metodami obliczeniowymi, takimi jak sztuczne sieci neuronowe i algorytmy genetyczne.
Nadmierne dopasowanie: Częsty problem w uczeniu maszynowym, w którym dane treningowe można dobrze wyjaśnić, ale model nie jest w stanie uogólnić ich na nowe dane wejściowe. Nadmierne dopasowanie jest związane ze złożonością modelu: każdy zbiór danych można idealnie zamodelować za pomocą modelu wystarczająco złożonego, ale wzrasta ryzyko uczenia się losowych cech zamiast sensownych cech przyczynowych.
Maszyna wektorów nośnych: Metoda uczenia nadzorowanego oparta na jądrze, stosowana do klasyfikacji i regresji. Punkty danych są rzutowane na przestrzeń o wyższym wymiarze, gdzie są liniowo separowalne. Rzut jest określany przez funkcję jądra i zestaw specjalnie dobranych wektorów nośnych. Proces uczenia obejmuje rozwiązanie problemu programowania kwadratowego.
Selekcja zmiennych: Proces, w którym niepowiązane zmienne wejściowe są usuwane ze zbioru danych. Selekcja zmiennych jest zazwyczaj oparta na korelacji lub estymatorach szumu par wejście-wyjście i może prowadzić do znacznej poprawy wydajności.
Systemy Zdarzeń Dyskretnych: Klasa systemów, których zachowanie charakteryzuje się sekwencjami stanów ograniczonymi zdarzeniami asynchronicznymi. Większość tych systemów została stworzona przez człowieka.
Logika rozmyta: Technika reprezentacji wiedzy i framework obliczeniowy, którego podejście opiera się na stopniach prawdziwości, a nie na typowych dla logiki klasycznej wartościach "prawda" lub "fałsz".
Rozmyte sieci Petriego: Rodzina formalizmów rozszerzających sieci Petriego o zbiory rozmyte, reprezentujące zazwyczaj niepewność upływu czasu.
Nieprecyzyjne znakowanie: Nieprecyzyjna lokalizacja tokenów w miejscach FTPN; obliczana jako rozkład prawdopodobieństwa.
Sieci Petriego: Rodzina formalizmów do modelowania i analizy współbieżnych DES, umożliwiająca intuicyjne opisy graficzne i zapewniająca proste, ale solidne wsparcie matematyczne. Czasowa sieć Petriego zawiera informacje o czasie trwania modelowanych działań. Graf oznaczony: Jest to podklasa sieci Petriego, w której każde miejsce ma tylko jedno przejście wejściowe i jedno przejście wyjściowe.
Estymacja stanu: Jest to proces wnioskowania, który określa aktualny stan systemu na podstawie znajomości sekwencji wejść i wyjść.
Maszyna stanów: Jest to podklasa sieci Petriego, w której każde przejście ma tylko jedno miejsce wejściowe i jedno miejsce wyjściowe.
Monitorowanie systemu: Jest to proces nadzoru mierzalnych zdarzeń i/lub wyjść systemu; często jest to model referencyjny, który określa rozsądne, prawidłowe zachowanie. Odchylenia od wartości referencyjnej są analizowane i określane, czy występuje błąd. Ten proces jest częścią procesu diagnostyki błędów.
Defuzzyfikacja: Proces przekształcający wyrażenia rozmyte w wyrażenia konwencjonalne kwantyfikowane za pomocą funkcji o wartościach rzeczywistych.
Fuzzyfikacja: Proces przekształcający wyrażenia konwencjonalne w wyrażenia rozmyte kwantyfikowane za pomocą funkcji przynależności rozmytej.
Sterowanie rozmyte: Metoda sterowania oparta na teoriach zbiorów rozmytych i logiki rozmytej.
Logika rozmyta: Logika przyjmująca wartości ciągłe z zakresu od 0 do 1.
Funkcja przynależności rozmytej: Funkcja zdefiniowana na zbiorze rozmytym i przyjmująca wartości ciągłe z zakresu od 0 do 1.
Zbiór rozmyty: Zbiór elementów z funkcją przynależności o wartościach rzeczywistych opisującą ich oceny.
System rozmyty: System sformułowany i opisany za pomocą funkcji o wartościach rzeczywistych opartych na zbiorach rozmytych.
Atrybut warunkowy: Atrybut opisujący obiekt. W drzewie decyzyjnym jest częścią węzła nieliściowego, więc pełni funkcję poprzednika w regułach decyzyjnych używanych do ostatecznej klasyfikacji obiektu.
Atrybut decyzyjny: Atrybut charakteryzujący obiekt. W drzewie decyzyjnym jest częścią węzła liściowego, więc pełni funkcję konsekwencję w regułach decyzyjnych, od ścieżek w dół drzewa do węzła liściowego.
Drzewo decyzyjne: Struktura przypominająca drzewo, reprezentująca zbiór hierarchicznych reguł decyzyjnych, które prowadzą do klasy lub wartości, zaczynając od węzła głównego i kończąc na serii węzłów liściowych.
Indukcja: Technika wnioskowania o uogólnieniach na podstawie informacji zawartych w danych.
Węzeł liściowy: Węzeł niepodlegający dalszemu podziałowi, grupa końcowa, w drzewie klasyfikacyjnym lub decyzyjnym.
Termin lingwistyczny: Jeden z zestawu terminów lingwistycznych, które są subiektywnymi kategoriami zmiennej lingwistycznej, z których każda jest opisana funkcją przynależności.
Zmienna lingwistyczna: Zmienna składająca się z pewnej liczby słów (terminów lingwistycznych) z powiązanymi stopniami przynależności.
Ścieżka: Ścieżka w dół drzewa od węzła głównego do węzła liścia, nazywana również gałęzią.
Funkcja przynależności: Funkcja kwantyfikująca stopień przynależności zmiennej do terminu lingwistycznego.
Węzeł: Punkt połączenia na ścieżce w drzewie decyzyjnym, opisujący warunek w regule decyzyjnej "jeśli-to". Od węzła bieżąca ścieżka może rozgałęziać się na dwie lub więcej ścieżek.
Węzeł główny: Węzeł na szczycie drzewa decyzyjnego, z którego wszystkie ścieżki wychodzą i prowadzą do węzła liścia.
Rozmycie: Proces rozkładu danych wejściowych i/lub wyjściowych systemu na jeden lub więcej zbiorów rozmytych. Można stosować wiele typów krzywych, ale najczęściej spotykane są funkcje przynależności o kształcie trójkątnym lub trapezowym.
Algorytm rozmyty: Uporządkowana sekwencja instrukcji, która może zawierać rozmyte przypisania, instrukcje warunkowe, instrukcje powtarzalne i operacje tradycyjne.
Systemy wnioskowania rozmytego: Sekwencja rozmytych instrukcji warunkowych, która może zawierać rozmyte przypisania i instrukcje warunkowe. Wykonywanie takich instrukcji podlega zasadzie wnioskowania kompozycyjnego oraz zasadzie przeważającej alternatywy.
Operator rozmyty: Operacje umożliwiające łączenie zbiorów rozmytych. Operator rozmyty łączy dwa zbiory rozmyte, tworząc nowy zbiór rozmyty. Najczęściej używanymi operatorami rozmytymi są: równość, zawieranie, dopełnienie, iloczyn i suma.
Obrazowanie medyczne: Specjalizacja medyczna wykorzystująca promieniowanie rentgenowskie, promieniowanie gamma, fale dźwiękowe o wysokiej częstotliwości i pola magnetyczne do tworzenia obrazów narządów i innych struktur wewnętrznych ciała. W radiologii diagnostycznej celem jest wykrywanie i diagnozowanie chorób, natomiast w radiologii interwencyjnej procedury obrazowania są łączone z innymi technikami w celu leczenia niektórych chorób i nieprawidłowości.
Funkcja przynależności: Określa stopień przynależności dowolnego elementu wszechświata dyskursu do zbioru rozmytego. Funkcja przynależności odwzorowuje elementy wszechświata na wartości liczbowe w przedziale [0, 1].
Segmentacja: Proces podziału obrazu cyfrowego na rozłączne (nienakładające się na siebie) obszary, wykorzystując zestaw cech lub charakterystyk. Wynikiem segmentacji jest zazwyczaj zestaw sklasyfikowanych elementów, takich jak obszary tkanek lub ich krawędzie
Rozmycie: Po obliczeniu reguł rozmytych i ocenie zmiennych rozmytych, system postępuje zgodnie z tym procesem, aby uzyskać nową funkcję przynależności dla każdej zmiennej wyjściowej.
Stopień prawdziwości: Oznacza stopień prawdziwości przyimka. Ważne jest, aby nie mylić go z pojęciem prawdopodobieństwa.
Logika rozmyta: Logika rozmyta wywodzi się z teorii zbiorów rozmytych, bazując na założeniu, że jest przybliżona, a nie precyzyjna, i wyprowadzona z typowej logiki predykatów.
Zbiory rozmyte: Zbiory rozmyte to zbiory, których elementy mają stopień przynależności. Zostały wprowadzone jako rozszerzenie zbiorów klasycznych, których przynależność elementów oceniano za pomocą liczb binarnych.
Rozmycie: Jest to proces definiowania stopnia przynależności wartości chrupki dla każdego zbioru rozmytego.
Reguły If-THEN: Są to typowe reguły stosowane w eksperckich systemach rozmytych. Część IF (jeśli) jest poprzednikiem, zwanym również przesłanką, a część THEN (wtedy) wnioskiem.
Zmienne lingwistyczne: Przyjmują wartości lingwistyczne, czyli słowa, z przypisanymi im stopniami przynależności do każdego zbioru.
Termin lingwistyczny: Jest to subiektywna kategoria zmiennej lingwistycznej. Każdy termin lingwistyczny jest powiązany ze zbiorem rozmytym.
Funkcja przynależności: Jest to funkcja, która podaje subiektywne miary dla terminów lingwistycznych.
α-Cut zbioru rozmytego: Jest to zbiór precyzyjny, który zawiera elementy zbioru rozmytego (w tym samym uniwersum dyskursu), którego stopień przynależności jest większy lub równy ?. (W przypadku "silnego" α-Cut musi być większy niż α.)
Podział rozmyty ε-Covering: Podział rozmyty (zbiór terminów lingwistycznych (zbiorów rozmytych)) ?-Covering obejmuje uniwersum dyskursu, jeśli dla wszystkich elementów uniwersum dyskursu istnieje termin lingwistyczny, któryma wartość przynależności większą lub równą ε.
Zupełna (lub gęsta) baza reguł rozmytych: Baza reguł rozmytych jest zupełna lub gęsta, jeśli wszystkie wszechświaty wejściowe są ?-Cut pokryte poprzednikami reguł, gdzie ?>0. W przypadku zupełnej bazy reguł rozmytych, dla wszystkich możliwychobserwacji wielowymiarowych musi istnieć poprzednik reguły, który ma niezerowy stopień aktywacji. Należy zauważyć, że zupełność bazy reguł rozmytych nie jest równoważna z pokryciem partycji rozmytych na każdym wszechświecie poprzedników (wymagane, ale niewystarczające w przypadku wielowymiarowym). Zwykle liczba reguł kompletnej bazy reguł wynosi O(MI), gdzie M to średnia liczba terminów lingwistycznych w partycjach rozmytych, a I to liczba wszechświatów wejściowych.
Zbiór rozmyty wypukły i normalny (CNF): Zbiór rozmyty zdefiniowany na wszechświecie dyskursu posiada całkowite uporządkowanie, którego wysokość (maksymalna wartość przynależności) jest równa jeden (tj. zbiór rozmyty normalny) i ma stopień przynależności dowolnych elementów pomiędzy dwoma dowolnymi elementami większy lub równy niższemu stopniowi przynależności dwóch dowolnych elementów brzegowych (tj. zbiór rozmyty wypukły).
Zasada wnioskowania kompozycyjnego rozmytego (CRI): Najpopularniejsza metoda wnioskowania rozmytego. Wniosek rozmyty oblicza się jako kompozycję rozmytą obserwacji rozmytej i relacji bazy reguł rozmytych (patrz reprezentacja reguł rozmytych za pomocą "rozmytej kropki"). W przypadku reguły wnioskowania kompozycyjnego max-min Zadeha-Mamdaniego-Larsena zastosowana kompozycja rozmyta jest kompozycją max-min relacji rozmytych ("max" oznacza zastosowaną normę s, a "min" - zastosowane operacje rozmyte t-normy).
Reprezentacja reguł rozmytych za pomocą "rozmytej kropki": Najczęstsze rozumienie reguł rozmytych if-then. Reguły rozmyte są reprezentowane jako relacja rozmyta pomiędzy poprzednikiem reguły i następnikiem reguły, terminami językowymi. W przypadku reguły wnioskowania kompozycyjnego Zadeha-Mamdaniego-Larsena relacje reguł rozmytych oblicza się jako rozmyte domknięcia cylindryczne (t-normę rozszerzeń cylindrycznych) terminów lingwistycznych poprzednika i następnika reguły.
Interpolacja reguł rozmytych: Sposób wnioskowania rozmytego poprzez interpolację istniejących reguł rozmytych w oparciu o różne miary odległości i podobieństwa zbiorów rozmytych. Odpowiednia metoda obsługi rzadkich baz reguł rozmytych, ponieważ metody FRI mogą dostarczać rozsądnych (interpolowanych/ekstrapolowanych) wniosków, nawet jeśli żadna z istniejących reguł nie spełnia się w bieżącej obserwacji.
Rzadka baza reguł rozmytych: Baza reguł rozmytych jest rzadka, jeśli może istnieć obserwacja, która nie spełnia żadnego poprzednika reguły. (Baza reguł nie jest kompletna.)
Reguła rozmyta: Reguła logiczna oparta na logice rozmytej.
System rozmyty: System sformułowany i opisany za pomocą funkcji o wartościach rzeczywistych opartych na zbiorach rozmytych.
Algorytm genetyczny: Schemat optymalizacji oparty na biologicznych zasadach ewolucji genetycznej.
Algorytm najmniejszych kwadratów: Schemat optymalizacji minimalizujący kwadrat sumy błędów aproksymacji.
Identyfikacja parametrów: Znalezienie odpowiednich wartości parametrów w modelu matematycznym.
Identyfikacja struktury: Znalezienie matematycznej reprezentacji struktury nieznanego systemu.
Modelowanie systemu: Matematyczne sformułowanie nieznanego układu fizycznego lub procesu.
Sztuczna komórka: Każdy z elementów przetwarzających polecenia zakodowane w DNA.
Sztuczna embriogeneza: Pod tym terminem kryją się wszystkie modele przetwarzania, które czerpią inspirację z idei rozwoju biologicznego.
Cytoplazma: Część sztucznej komórki odpowiedzialna za zarządzanie sygnałami w kształcie białek.
DNA: Zestaw reguł odpowiedzialnych za zachowanie komórki.
Gen: Każda z reguł, która kodyfikuje jedno działanie komórki.
Sieć regulacji genów: Termin określający połączenie między różnymi genami DNA. Połączenie identyfikuje geny niezbędne do transkrypcji innych genów.
Białko: Termin ten określa każdy rodzaj komunikatów odbieranych przez sztuczną komórkę.
Wybór partii: Wybór optymalnego zestawu produktów do wytworzenia, przy czym każdy produkt wymaga określonego zestawu zasobów, w ramach ograniczeń wydajności systemu.
Funkcje dopasowania: Funkcja celu algorytmu genetycznego służąca do oceny populacji rozwiązań.
Elastyczne systemy produkcyjne: System produkcyjny, który zachowuje elastyczność kolejności operacji i przydziału maszyn w reakcji na planowane lub nieplanowane zmiany w procesie produkcyjnym.
Algorytmy genetyczne: Stochastyczna metoda wyszukiwania, która stosuje operatory genetyczne do populacji rozwiązań w celu stopniowego generowania rozwiązań optymalnych lub prawie optymalnych.
Operatory genetyczne: Selekcja, krzyżowanie i mutacja, służące do łączenia i udoskonalania rozwiązań w populacji.
Ukryty paralelizm: Właściwość algorytmu genetycznego, która pozwala na jednoczesne dopasowanie schematu do wielu potencjalnych rozwiązań bez konieczności podejmowania jakichkolwiek prób.
Krajobraz: Wykres funkcji przedstawiający stan jako "lokalizację", a wartość funkcji celu jako "wysokość".
Uczenie się przez wzmacnianie: Metoda uczenia się, która interpretuje informacje zwrotne z otoczenia w celu poznania optymalnych zestawów relacji warunek/odpowiedź dla danego problemu. Rozwiązywanie w tym środowisku
Schemat: Ogólny wzór ciągów bitowych składający się z 1, 0 i #, używany jako element konstrukcyjny rozwiązań algorytmu genetycznego
Architektura oparta na klastrach: Architektura sieci czujników, w której komunikacja odbywa się między czujnikami klastra a wybranym elementem głównym klastra, który zbiera informacje uzyskane przez czujniki w swoim klastrze.
Element główny klastra: Węzeł czujników odpowiedzialny za gromadzenie danych z klastra czujników i przesyłanie ich do węzła odbiorczego.
Krzyżowanie: Operator genetyczny używany do zmiany programowania chromosomu lub chromosomów z pokolenia na pokolenie.
Parametry energetyczne: Parametry wpływające na zużycie baterii przez czujniki, w tym energię zużywaną na wykrywanie, komunikację i zadania obliczeniowe.
Funkcja dopasowania: Szczególny typ funkcji celu, która określa optymalność rozwiązania w algorytmie genetycznym.
Algorytmy genetyczne: Technika wyszukiwania stosowana w informatyce do znajdowania prawdziwych lub przybliżonych rozwiązań problemów optymalizacyjnych i wyszukiwania.
Mutacja: Sporadyczna (o niskim prawdopodobieństwie) zmiana pozycji bitu.
Czas życia sieci: Czas do wyczerpania energii pierwszego węzła czujnika lub grupy węzłów czujników w sieci.
Węzeł czujników: Węzeł sieciowy z komponentami do wykrywania, przetwarzania danych i komunikacji.
Bezprzewodowe sieci czujników: Sieć rozproszonych przestrzennie urządzeń wykorzystujących czujniki do monitorowania warunków w różnych lokalizacjach, takich jak temperatura, dźwięk, ciśnienie itp.
Fuzzyfikacja: ustanawia mapowanie od wyraźnych wartości wejściowych do zbioru rozmytego zdefiniowanego we wszechświecie dyskursu tego wejścia.
System rozmyty (FS): dowolny system oparty na FL, który albo wykorzystuje FL jako podstawę do reprezentacji różnych form wiedzy, albo do modelowania interakcji i relacji między zmiennymi systemowymi.
Algorytm genetyczny: Algorytmy wyszukiwania ogólnego przeznaczenia, które wykorzystują zasady naturalnej genetyki populacji w celu opracowania rozwiązań problemów
Genetyczny system rozmyty: system rozmyty wzmocniony ewolucyjnym procesem uczenia się.
Mamdani Fuzzy Rule-Based System: System oparty na regułach, w którym logika rozmyta (FL) jest używana jako narzędzie do reprezentowania różnych form wiedzy o danym problemie, a także do modelowania interakcji i relacji istniejących między jego zmiennymi.
System wnioskowania Mamdani: wyprowadza rozmyte wyniki z wejściowych zbiorów rozmytych zgodnie z relacją zdefiniowaną za pomocą reguł rozmytych. Ustala mapowanie pomiędzy zbiorami rozmytymi U = U1 x U2 x . . . x Un w dziedzinie wejściowej X1
, Xn i zbiory rozmyte V w dziedzinie wyjściowej Y. Schemat wnioskowania rozmytego wykorzystuje uogólniony modus ponens, będący rozszerzeniem klasycznego modus ponens (Zadeh, 1973).
Takagi-Sugeno-Kang Fuzzy System oparty na regułach: System oparty na regułach, którego poprzednik składa się ze zmiennych językowych, a następnik jest reprezentowany przez funkcję zmiennych wejściowych.
Gramatyka niejednoznaczna: dowolna gramatyka, w której różne drzewa derywacyjne mogą generować to samo zdanie.
Problem zamknięcia: Zjawisko polegające na generowaniu zawsze poprawnych składniowo jednostek.
Wzdęcie kodu: zjawisko, którego należy unikać w procesie konwergencji systemu programowania genetycznego, obejmującym niekontrolowany wzrost, pod względem wielkości i złożoności, jednostek w populacji
Zbieżność: proces, za pomocą którego algorytm (w tym przypadku system ewolucyjny) stopniowo zbliża się do rozwiązania. Mówi się, że system programowania genetycznego osiągnął konwergencję, gdy większość osobników w populacji jest równa lub gdy system nie może dalej ewoluować.
Sprawność: miara powiązana z osobnikami w populacji algorytmów ewolucyjnych, mająca na celu określenie, jak dobre rozwiązanie, które reprezentują, jest dla problemu.
Programowanie genetyczne: odmiana algorytmów genetycznych wykorzystująca symulowaną ewolucję do odkrywania programów funkcjonalnych w celu rozwiązania zadania.
Programowanie genetyczne oparte na gramatyce: zastosowanie metod i narzędzi analitycznych do danych w celu identyfikacji wzorców, relacji lub uzyskania systemów wykonujących przydatne zadania, takie jak klasyfikacja, przewidywanie, szacowanie lub grupowanie powinowactwa.
Intron: Segment kodu w obrębie pojedynczego osobnika (poddrzewa), który nie modyfikuje dopasowania, ale znajduje się po stronie procesu zbieżności.
Teoria zbiorów rozmytych: Teoria zbiorów rozmytych została wprowadzona przez Zaheda w 1965 roku. Główną ideą teorii zbiorów rozmytych jest to, że obiekt należy jednocześnie do więcej niż jednego zbioru. bliskość obiektu do zbioru jest wskazywana przez stopnie przynależności.
Uogólniona teoria niepewności (GTU): GTU to model, który uwzględnia każdy rodzaj niepewności (Zadeh 2006a). Podstawową ideą jest sformułowanie uogólnionych ograniczeń (takich jak possybilistyczne, probabilistyczne, werystyczne itp.). Celem GTU nie jest zastąpienie istniejących teorii, takich jak prawdopodobieństwo czy zbiory rozmyte, ale zapewnienie parasola, który pozwala na formułowanie dowolnego rodzaju niepewności w unikalny sposób.
Przetwarzanie granularne: Idea obliczeń granularnych sięga Zadeha (1979). Podstawową ideą obliczeń granularnych jest to, że obiekt opisuje się za pomocą zbioru wartości w możliwych wymiarach, takich jak nierozróżnialność rozpoznawalność, podobieństwo i bliskość. Jeśli ziarnistość jest oznaczona wyrażeniem językowym, nazywa się ją zmienną językową. Zahed (2006a) definiuje przetwarzanie granularne jako "tryb obliczeń, w którym przedmiotem obliczeń są uogólnione ograniczenia".
Hybrydyzacja: połączenie metod probabilistycznych, rozmytych, przybliżonych lub sieci neuronowych, np. podejścia rozmyte-zgrubne, zgrubne-rozmyte lub probabilistyczno-zgrubne lub rozmyte-neuralne.
Zmienna językowa: Zmienna językowa to wyrażenie językowe (jedno lub więcej słów) opisujące szczegółową informację. Na przykład funkcja członkostwa jest oznaczona wyrażeniami takimi jak "gorąca temperatura" lub "bogaty klient".
Funkcja przynależności: Funkcja przynależności pokazuje stopnie przynależności zmiennej do określonego zbioru. Na przykład temperatura t=30°C należy do ustalonej "temperatury gorącej" ze stopniem przynależności ?HT(30°)=0,8. Funkcje członkostwa nie są obiektywne, ale zależne od kontekstu i podmiotu.
Teoria zbiorów przybliżonych: Teoria zbiorów przybliżonych została wprowadzona przez Pawlaka w 1982 roku. Główną ideą zbiorów przybliżonych jest to, że niektóre obiekty można rozróżnić, a innych nie można od siebie odróżnić.
Obliczenia miękkie: W przeciwieństwie do obliczeń "twardych", obliczenia miękkie to zbiór metod (zbiory rozmyte, sieci neutralne zbiorów przybliżonych itp.) pozwalających radzić sobie z niejednoznacznymi sytuacjami, takimi jak nieprecyzyjność, niepewność, np.: ludzkie wyrażenia, takie jak "wysoki zysk przy rozsądnym ryzyku". Celem stosowania miękkiego przetwarzania danych jest uzyskanie solidnych rozwiązań przy rozsądnych kosztach.
Sztuczne sieci neuronowe: połączona grupa jednostek lub neuronów, która wykorzystuje model matematyczny do przetwarzania informacji w oparciu o koneksjonistyczne podejście do obliczeń.
Eksploracja danych: zastosowanie metod i narzędzi analitycznych do danych w celu identyfikacji wzorców, relacji lub uzyskania systemów wykonujących przydatne zadania, takie jak klasyfikacja, przewidywanie, szacowanie lub grupowanie powinowactwa.
Eksploracyjna analiza danych: filozofia dotycząca sposobu przeprowadzania analizy danych. Eksploracyjna analiza danych wykorzystuje różnorodne techniki (głównie graficzne) w celu wydobycia wiedzy zawartej w danych.
Rosnące Struktury Komórkowe: Rosnący wariant samoorganizującego się modelu mapy, charakteryzujący się dynamiczną adaptacją rozmiaru i połączeń warstwy wyjściowej do charakterystyki wzorców treningowych.
Wizualizacja wiedzy: tworzenie i przekazywanie wiedzy za pomocą komputerowych i niekomputerowych, uzupełniających się technik reprezentacji graficznej.
Mapa samoorganizująca się: podtyp sztucznej sieci neuronowej. Jest szkolony przy użyciu uczenia bez nadzoru w celu uzyskania niskowymiarowej reprezentacji próbek szkoleniowych, przy jednoczesnym zachowaniu właściwości topologicznych przestrzeni wejściowej
Uczenie się bez nadzoru: Metoda uczenia maszynowego, w której model dopasowuje się do obserwacji. Różni się od uczenia nadzorowanego tym, że nie ma wyników apriorycznych.
Korelacja: Statystyczny pomiar współzależności lub związku między dwiema zmiennymi jakościowymi. Typowe obliczenie wykonuje się poprzez pomnożenie sygnału przez inny sygnał (korelacja krzyżowa) lub przez opóźnioną wersję samego siebie (autokorelacja).
Cyfrowe Przetwarzanie Sygnałów (DSP): DSP, czyli Cyfrowe Przetwarzanie Sygnałów, jak sama nazwa wskazuje, to przetwarzanie sygnałów za pomocą środków cyfrowych. Przetwarzanie sygnału cyfrowego odbywa się poprzez wykonywanie obliczeń numerycznych.
Difon: Dźwięk składający się z dwóch fonemów: jednego, który wprowadza dźwięk, i drugiego, który go kończy. Np.: "cześć" cisza-h h-eh eh-l l-oe oe-cisza.
Algorytmy Ewolucyjne: Zbiorczy termin określający wszystkie warianty (probabilistycznych) algorytmów optymalizacji i aproksymacji inspirowanych ewolucją darwinowską. Stany optymalne są aproksymowane poprzez kolejne udoskonalenia w oparciu o paradygmat selekcji wariacji.
Generative Topographic Mapping (GTM): Technika modelowania gęstości i wizualizacji danych inspirowana SOM (patrz definicja SOM).
Współczynniki częstotliwości cepstralnej Mel (MFCC): MFCC to współczynniki cepstrum Mel. Melcepstrum to cepstrum obliczone na podstawie pasm Mel (skalowanych dla ludzkiego ucha), a nie widma Fouriera.
Przetwarzanie języka naturalnego (NLP): Komputerowe rozumienie, analiza, manipulacja i/lub generowanie języka naturalnego. Wysokość dźwięku: Miara intonacji podana w czasie sygnału.
Prozodia: Zbiór cech fonologicznych, w tym wysokości dźwięku, czasu trwania i akcentu, które definiują rytm języka mówionego.
Normalizacja tekstu: Proces przekształcania skrótów i symboli pisanych bez słów na słowa, które wypowiadałby mówca, czytając ten symbol na głos.
Synteza wyboru jednostek: Technika syntezy, w której odpowiednie jednostki są pobierane z dużych baz danych mowy naturalnej w celu generowania mowy syntetycznej.
Uczenie się bez nadzoru: Techniki uczenia się, które grupują instancje bez wstępnie określonego atrybutu zależnego. Algorytmy klastrowania to zazwyczaj nienadzorowane metody grupowania zbiorów danych.
Mapy samoorganizujące się: Mapy samoorganizujące się (SOM) to technika wizualizacji danych, która redukuje wymiary danych poprzez zastosowanie samoorganizujących się sieci neuronowych.
Sprawność zastępcza: Syntetyczna miara sprawności, która próbuje ocenić jedno rozwiązanie ewolucyjne w tych samych kategoriach, w jakich dokonałby tego jeden użytkownik percepcyjny.
Klasyfikacja: Podział zbioru danych na podzbiory, tak aby dane w każdym podzbiorze (idealnie) miały pewne wspólne cechy - często bliskość zgodnie z określoną miarą podobieństwa/odległości.
Eksploracja danych: Proces automatycznego przeszukiwania dużych wolumenów danych w celu znalezienia wzorców z wykorzystaniem narzędzi takich jak klasyfikacja, eksploracja reguł asocjacyjnych, klasteryzacja itp.
Reprezentacja binarna bazy danych: Reprezentacja, w której baza danych jest postrzegana jako dwuwymiarowa macierz, która wiąże encje (wiersze) z wartościami atrybutów (kolumny). Pozycje w macierzy mają wartość "1" lub "0", co oznacza, że dana encja ma lub nie ma danej wartości.
Logika rozmyta: Rozszerzenie logiki Boole′a dotyczące koncepcji prawdy cząstkowej. Logika rozmyta zastępuje wartości prawdy boolowskiej (0 lub 1, czarny lub biały, tak lub nie) stopniami prawdy.
Zbiór rozmyty: Rozszerzenie klasycznej teorii mnogości. Teoria zbiorów rozmytych stosowana w logice rozmytej pozwala na stopniową ocenę przynależności elementów w odniesieniu do zbioru.
Funkcja przynależności: Funkcja matematyczna definiująca stopień przynależności elementu do zbioru rozmytego. Funkcje przynależności zwracają wartość z zakresu [0,1], wskazującą stopień przynależności.
Podobieństwo: Liczbowa ocena różnicy lub odległości między dwoma elementami. Wartości podobieństwa mieszczą się w zakresie [0,1], wskazując stopień podobieństwa.
Obliczenia ewolucyjne: Podejście do rozwiązywania problemów oparte na ewolucji biologicznej, które rozpoczyna się od potencjalnych modeli rozwiązań, a następnie iteracyjnie stosuje algorytmy w celu znalezienia najlepiej dopasowanych modeli z zestawu, które posłużą jako dane wejściowe do kolejnej iteracji, ostatecznie prowadząc do modelu najlepiej reprezentującego dane.
Algorytm genetyczny: Technika poszukiwania dokładnych lub przybliżonych rozwiązań problemu optymalizacji lub wyszukiwania z wykorzystaniem zjawisk inspirowanych ewolucją, takich jak selekcja, krzyżowanie i mutacja. Algorytm genetyczny jest klasyfikowany jako globalny algorytm wyszukiwania.
Przeszukiwanie harmoniczne: Technika poszukiwania dokładnych lub przybliżonych rozwiązań problemu optymalizacji lub wyszukiwania z wykorzystaniem zjawisk inspirowanych muzyką (improwizacja). Przeszukiwanie harmoniczne składa się z trzech głównych operacji, takich jak losowy dobór, uwzględnianie pamięci i korekta wysokości dźwięku. Przeszukiwanie harmoniczne jest klasyfikowane jako globalny algorytm wyszukiwania.
Metaheurystyka: Technika znajdowania rozwiązań poprzez łączenie procedur czarnej skrzynki (heurystyki). W tym przypadku "meta" oznacza "poza", a "heurystyka" oznacza "znaleźć". Harmonogramowanie wielu zapór: Proces opracowywania indywidualnego harmonogramu zapór w systemie z wieloma zaporami. Harmonogram zawiera ilość uwalnianej wody w każdym okresie, przy jednoczesnym spełnieniu limitu uwalniania, limitu retencji i warunków ciągłości.
Optymalizacja: Proces dążenia do optymalizacji (minimalizacji lub maksymalizacji) funkcji celu przy jednoczesnym spełnieniu wszystkich ograniczeń problemu poprzez dobór wartości zmiennych ciągłych lub dyskretnych.
Miękkie obliczenia: Zbiór technik obliczeniowych w informatyce, zwłaszcza w dziedzinie sztucznej inteligencji, takich jak logika rozmyta, sieci neuronowe, teoria chaosu i algorytmy ewolucyjne.
Sztuczne sieci neuronowe: Składają się z kilku jednostek zwanych neuronami, połączonych za pomocą wag synaptycznych, które są iteracyjnie dostosowywane w celu uzyskania pożądanej odpowiedzi. Każdy neuron oblicza ważoną sumę swoich sygnałów wejściowych, która następnie przechodzi przez funkcję nieliniową, generującą sygnał wyjściowy. Sieci neuronowe (SN) potrafią wykonywać nieliniowe odwzorowanie między sygnałami wejściowymi i wyjściowymi, które jest uczone przez algorytm treningowy.
Bayesowskie sieci neuronowe: Wielowarstwowe sieci neuronowe wykorzystujące algorytmy treningowe oparte na statystycznym wnioskowaniu bayesowskim. Sieci neuronowe (SN) oferują szereg istotnych zalet w porównaniu ze standardowym algorytmem uczenia się wstecznej propagacji błędów, w tym: przedziały ufności można przypisać predykcjom generowanym przez sieć; umożliwiają one wybór wartości współczynników regularyzacji przy użyciu wyłącznie danych treningowych; podobnie, pozwalają na porównywanie różnych modeli przy użyciu wyłącznie danych treningowych, rozwiązując problem złożoności modelu bez konieczności stosowania walidacji krzyżowej.
Partycjonowanie przestrzeni binarnej: Przestrzeń jest sukcesywnie dzielona na dwa obszary w sposób rekurencyjny. Podział ten można przedstawić za pomocą drzewa binarnego, które ilustruje kolejne podziały przestrzeni n-wymiarowej na dwie wypukłe podprzestrzenie. Proces ten prowadzi do powstania dwóch nowych podprzestrzeni, które można później podzielić tą samą metodą.
Logika rozmyta: Może być używana do tłumaczenia, w kategoriach matematycznych, nieprecyzyjnych informacji wyrażonych za pomocą zestawu lingwistycznych reguł JEŻELI-TO. Logika rozmyta bada formalne zasady rozumowania przybliżonego i opiera się na teorii zbiorów rozmytych. Zajmuje się ona wewnętrzną niedokładnością, związaną z opisem właściwości zjawiska, a nie niedokładnością związaną z pomiarem samego zjawiska. Podczas gdy logika klasyczna ma charakter dwuwartościowy (prawda lub fałsz), logika rozmyta dopuszcza wielowartościowość.
Uczenie maszynowe: Zajmuje się projektowaniem i rozwojem algorytmów i technik, które pozwalają komputerom "uczyć się". Głównym celem badań nad uczeniem maszynowym jest automatyczne wyodrębnianie użytecznych informacji z danych historycznych za pomocą metod obliczeniowych i statystycznych.
Rozpoznawanie wzorców: Podtemat uczenia maszynowego, którego celem jest klasyfikowanie wzorców wejściowych do określonej klasy predefiniowanych grup. Klasyfikacja zazwyczaj opiera się na dostępności zestawu wzorców, które zostały już sklasyfikowane. W związku z tym strategia uczenia się opiera się na uczeniu nadzorowanym.
Uczenie nadzorowane: Technika uczenia maszynowego polegająca na tworzeniu funkcji na podstawie danych treningowych, które składają się z par wzorców wejściowych oraz pożądanych wyników. W związku z tym proces uczenia się zależy od istnienia "nauczyciela", który dostarcza każdemu wzorcowi wejściowemu rzeczywistą wartość wyjściową. Wynikiem funkcji może być wartość ciągła (nazywana regresją) lub etykieta klasy obiektu wejściowego (nazywana klasyfikacją).
Partycjonowanie przestrzeni binarnej: W tym typie partycjonowania przestrzeń jest sukcesywnie dzielona na dwa obszary w sposób rekurencyjny. Podział ten można przedstawić za pomocą drzewa binarnego, które ilustruje kolejne podpodziały przestrzeni n-wymiarowej na dwie wypukłe podprzestrzenie. Konstrukcja tego drzewa partycjonowania (drzewa BSP) to proces, w którym podprzestrzeń jest dzielona przez hiperplan równoległy do osi współrzędnych. Proces ten prowadzi do powstania dwóch nowych podprzestrzeni, które można później podzielić tą samą metodą.
Systemy wnioskowania rozmytego: Wnioskowanie rozmyte to proces mapowania danych wejściowych na dane wyjściowe za pomocą logiki rozmytej. Mapowanie to stanowi podstawę do podejmowania decyzji lub rozpoznawania wzorców. Systemy wnioskowania rozmytego zostały z powodzeniem zastosowane w takich dziedzinach jak automatyka, klasyfikacja danych i analiza decyzji.
Uczenie maszynowe: Zajmuje się projektowaniem i rozwojem algorytmów i technik, które pozwalają komputerom "uczyć się". Głównym celem badań nad uczeniem maszynowym jest automatyczne wyodrębnianie użytecznych informacji z danych historycznych za pomocą metod obliczeniowych i statystycznych.
Podział drzewa politree: Podział drzewa politree został zainspirowany strukturą drzewa czworokątnego, która jest szeroko stosowana w obszarze manipulacji obrazami i kompresji. W podziale drzewa politree podział przestrzeni n-wymiarowej jest realizowany przez podział m=2n. Podział drzewa politree można przedstawić za pomocą struktury drzewa, w której każdy węzeł jest podzielony na m liści (podział drzewa politree).
Podział drzewa czworokątnego: W tym typie podziału przestrzeń jest sukcesywnie dzielona na cztery regiony w sposób rekurencyjny. Podział ten można przedstawić za pomocą drzewa czworokątnego, które ilustruje kolejne podziały przestrzeni n-wymiarowej na cztery wypukłe podprzestrzenie. Konstrukcja tego drzewa podziału (drzewa czworokątnego) to proces, w którym podprzestrzeń jest dzielona przez dwa hiperplany równoległe do osi współrzędnych. Proces ten prowadzi do powstania czterech nowych podprzestrzeni, które można później podzielić tą samą metodą. Ograniczeniem partycjonowania Quadtree (stałego lub adaptacyjnego) jest fakt, że działa ono tylko w przestrzeniach dwuwymiarowych.
Uczenie przez wzmacnianie: Podobszar uczenia maszynowego zajmujący się tym, jak agent powinien podejmować działania w środowisku, aby zmaksymalizować pewne pojęcie długoterminowej nagrody. Algorytmy uczenia przez wzmacnianie starają się znaleźć strategię, która odwzorowuje stany świata na działania, które agent powinien podjąć w tych stanach. W przeciwieństwie do uczenia nadzorowanego, w tym przypadku nie ma wartości docelowej dla każdego wzorca wejściowego, a jedynie nagroda oparta na tym, jak dobre lub złe było działanie podjęte przez agenta w istniejącym środowisku.
SARSA: Jest to odmiana algorytmu Q-learning (uczenia przez wzmacnianie) oparta na estymacji strategii działań bez modelu. SARSA zakłada, że działania są wybierane losowo z predefiniowanym prawdopodobieństwem.
WoLF: ("Wygrywaj lub ucz się szybko") to metoda opracowana przez [Bowling, 2002], która pozwala na zmianę tempa uczenia się w celu zachęcenia do konwergencji w scenariuszu uczenia się wzmacniającego wielu agentów.
Proces decyzyjny Markowa ze stanem czynnikowym: Rozszerzenie formalizmu MDP stosowanego w hierarchicznym uczeniu maszynowym, w którym prawdopodobieństwo przejścia jest definiowane w kategoriach czynników, co pozwala reprezentacji ignorować pewne zmienne stanu w określonych kontekstach.
Hierarchiczne uczenie się przez wzmacnianie: Poddziedzina uczenia się przez wzmacnianie, zajmująca się odkrywaniem i wykorzystaniem dekompozycji zadań, kontroli hierarchicznej, abstrakcji czasowej i stanu .
Hierarchiczna dekompozycja zadań: Dekompozycja zadania na hierarchię mniejszych podzadań.
Proces decyzyjny Markowa: Najpopularniejszy formalizm dla środowisk stosowanych w uczeniu się przez wzmacnianie, w którym problem jest opisywany za pomocą skończonego zbioru stanów, skończonego zbioru działań, prawdopodobieństw przejść między stanami, sygnału nagrody i współczynnika dyskontowego.
Uczenie się przez wzmacnianie: Problem, z którym boryka się agent, który uczy się zachowania miary użyteczności na podstawie interakcji ze środowiskiem.
Proces decyzyjny Semi-Markowa: Rozszerzenie formalizmu MDP, które dotyczy działań rozciągniętych w czasie i/lub czasu ciągłego.
Generalizacja przestrzeni stanów: Technika grupowania stanów w podstawowym procesie MDP i traktowania ich jako równoważnych dla określonych celów.
ASIC: Skrót Application Specific Integrated Circuits (obwody scalone o specyficznym zastosowaniu)
CLB: Skrót Configurable Logic Blocs (konfigurowalne bloki logiczne)
FPGA: Field Programmable Gate Arrays (programowalne układy bramek)
Synteza wysokiego poziomu: Metodologia projektowania odgórnego, która przekształca poziom abstrakcyjny, taki jak język VHDL, w poziom implementacji fizycznej
Trening na chipie: Termin określający implementację trzech faz algorytmu propagacji wstecznej w jednym lub kilku chipach
Trening poza chipem: Trening sieci odbywa się za pomocą narzędzi programowych, takich jak MATLAB, a jedynie faza sprzężenia zwrotnego jest uważana za generalizację.
RTL: Skrót Register Transfer Level (poziom transferu rejestru)
Rekonfiguracja w czasie wykonania: Rozwiązanie pozwalające na użycie najmniejszego układu FPGA i wielokrotną rekonfigurację w trakcie przetwarzania. Rekonfiguracja w czasie wykonania może być częściowa lub globalna.
VHDL: Skrót Very high speed integrated circuits (język opisu sprzętu)
Kalibracja kamery: Procedura służąca do uzyskania informacji geometrycznych o powstawaniu obrazu w konkretnym aparacie, niezbędnych do powiązania odległości metrycznych na obrazie z odległościami w świecie rzeczywistym. Niemniej jednak, do rekonstrukcji trzeciego wymiaru z jednego obrazu potrzebna jest pewna informacja a priori.
Robot holonomiczny: Robot o nieograniczonej swobodzie ruchu bez preferowanego kierunku. Oznacza to, że z pozycji stojącej może poruszać się równie łatwo w dowolnym kierunku.
Odwrotne mapowanie perspektywy (IPM): Procedura umożliwiająca usunięcie efektu perspektywy z obrazu poprzez jednorodną redystrybucję zawartości informacyjnej płaszczyzny obrazu do nowej, dwuwymiarowej domeny.
Zniekształcenie obiektywu: Błędy optyczne w obiektywach aparatów fotograficznych, zazwyczaj wynikające z mechanicznego rozbieżności ich części, mogą powodować, że linie proste w obserwowanej scenie wydają się zakrzywione na zarejestrowanym obrazie. Odchylenie między obrazem teoretycznym a rzeczywistym wynika głównie ze zniekształcenia obiektywu.
Kamera otworkowa: Kamera wykorzystująca maleńki otwór (tzw. szpilka-otworek) do przekazywania wszystkich promieni z obserwowanej sceny na płaszczyznę obrazu. Im mniejszy otwór, tym ostrzejszy obraz. Kamery otworkowe osiągają potencjalnie nieskończoną głębię ostrości. Ze względu na swoją geometryczną prostotę, "model otworkowy" jest używany do opisu większości tradycyjnych kamer.
Ograniczenie pojedynczego punktu widzenia: Gdy wszystkie główne promienie światła padające na obiektyw przecinają się w jednym punkcie, uzyskuje się obraz o niezniekształconej zawartości metrycznej. W takim przypadku wszystkie informacje zawarte w tym obrazie są widziane z tego punktu widzenia.
Serwoobsługa wizualna: Podejście do sterowania robotem oparte na percepcji wzrokowej: system wizyjny pobiera informacje z otoczenia, aby zlokalizować robota i w konsekwencji określić jego położenie.
Kalibracja kamery: Procedura służąca do uzyskania informacji geometrycznych o powstawaniu obrazu w konkretnej kamerze. Po kalibracji możliwe jest powiązanie odległości metrycznych na obrazie z odległościami w świecie rzeczywistym. W każdym przypadku jeden obraz nie wystarcza do rekonstrukcji trzeciego wymiaru i do osiągnięcia tej możliwości potrzebne są pewne informacje a priori.
Kamera katadioptryczna: Kamera wykorzystująca w połączeniu soczewki katoptryczne, odbiciowe (zwierciadła) i soczewki dioptryczne, refrakcyjne. Zazwyczaj celem tych kamer jest uzyskanie szerszego pola widzenia niż to uzyskiwane przez klasyczne soczewki. Nawet jeśli pole widzenia soczewki można poprawić za pomocą dowolnego zwierciadła o powierzchni wypukłej, to bardziej interesujące są zwierciadła stożkowe, sferyczne, paraboliczne i hiperboliczne.
Kamera katadioptryczna centralna: Kamera łącząca soczewki i zwierciadła w celu uchwycenia szerokiego pola widzenia poprzez projekcję centralną (tj. pojedynczy punkt widzenia). Najczęściej wykorzystuje się zwierciadła paraboloidalne lub hiperboloidalne. W pierwszym przypadku do ogniskowania równoległych promieni odbitych od zwierciadła potrzebny jest obiektyw telecentryczny, a nie ma ograniczeń co do względnego położenia lustra względem kamery: wewnętrzne ognisko paraboli działa jako jedyny punkt widzenia; w drugim przypadku możliwe jest użycie zwykłego obiektywu, ale pozycjonowanie lustra względem kamery jest kluczowe dla uzyskania jednego punktu widzenia: konieczne jest, aby punkt główny soczewki pokrywał się z zewnętrznym ogniskiem hiperboloidy, aby wewnętrzny punkt widzenia był jedynym punktem widzenia dla obserwowanej sceny.
Kamera dookólna: Kamera zdolna do widzenia we wszystkich kierunkach. Istnieją zasadniczo dwie różne metody uzyskania bardzo szerokiego pola widzenia: starsza metoda polega na użyciu specjalnego rodzaju obiektywu, zwykle nazywanego obiektywem typu rybie oko, podczas gdy druga wykorzystuje połączenie soczewek prostoliniowych i zwierciadeł. Soczewki uzyskane w drugim przypadku nazywane są zazwyczaj soczewkami katadioptrycznymi, a zespół kamera-obiektyw nazywany jest kamerą katadioptryczną.
Kamera PTZ: Kamera z możliwością obrotu w lewo i w prawo, pochylania w górę i w dół oraz powiększania obrazu. Zazwyczaj możliwe jest swobodne sterowanie jej orientacją i stanem zoomu z odległości za pomocą komputera lub dedykowanego systemu sterowania.
Widzenie stereoskopowe: Proces percepcji wzrokowej wykorzystujący dwa różne punkty widzenia w celu uzyskania percepcji głębi. Różnica między dwoma obrazami, zwykle określana jako dysproporcja obuoczna, jest interpretowana przez mózg (lub sztuczną inteligencję) jako głębia.
Ograniczenie pojedynczego punktu widzenia: Aby uzyskać obraz o niezniekształconej zawartości metrycznej, konieczne jest, aby wszystkie główne promienie światła padające na obiektyw przecinały się w jednym punkcie. W takim przypadku uzyskuje się stały punkt widzenia, a wszystkie informacje zawarte w obrazie są widziane z tego punktu.
Współpraca: Praktyka polegająca na współpracy jednostek lub podmiotów w dążeniu do wspólnych celów, zamiast pracy w odosobnieniu, w której sukces jednej strony zależy od sukcesu drugiej.
Dynamiczne Systemy Harmonogramowania: Często podlegają różnym rodzajom zdarzeń losowych i perturbacji, takich jak pojawienie się nowych zleceń, awarie maszyn, choroby pracowników, anulowanie zleceń oraz zmiany w terminach i godzinach realizacji, co powoduje, że przygotowane harmonogramy łatwo się dezaktualizują i stają się nieodpowiednie.
Ewolucyjne Obliczenia: Poddziedzina sztucznej inteligencji, obejmująca techniki implementujące mechanizmy inspirowane ewolucją biologiczną, takie jak reprodukcja, mutacja, rekombinacja, dobór naturalny i przetrwanie najlepiej przystosowanych.
Algorytmy genetyczne: Szczególna klasa algorytmów ewolucyjnych, które wykorzystują techniki inspirowane biologią ewolucyjną, takie jak dziedziczenie, mutacja, selekcja i krzyżowanie.
Hybrydowe Systemy Inteligentne: Oznaczają system oprogramowania, który wykorzystuje kombinację modeli, metod i technik sztucznej inteligencji, takich jak obliczenia ewolucyjne, metaheurystyki, systemy wieloagentowe, systemy eksperckie i inne.
Metaheurystyki: Stanowią klasę potężnych i praktycznych technik rozwiązywania złożonych problemów kombinatorycznych o dużej skali, generujących wydajne i wysokiej jakości rozwiązania.
Systemy wieloagentowe: System złożony z kilku agentów, zdolnych wspólnie do rozwiązywania złożonych problemów w sposób rozproszony, bez konieczności znajomości przez każdego agenta całości rozwiązywanego problemu.
Harmonogramowanie: Można je postrzegać jako proces podejmowania decyzji dotyczących rozpoczęcia operacji i wykorzystania zasobów. Różnorodne cechy i ograniczenia związane z zadaniami i środowiskami maszyn (pojedyncza maszyna, maszyny równoległe, system typu flow-shop i system typu job-shop) mogą wpływać na decyzje dotyczące harmonogramowania.
Przeszukiwanie Tabu: Metoda aproksymacyjna, należąca do klasy technik wyszukiwania lokalnego, która zwiększa wydajność metody wyszukiwania lokalnego poprzez wykorzystanie struktur pamięci (lista Tabu).
Sztuczne sieci neuronowe: Sieć wielu prostych procesorów imitująca biologiczną sieć neuronową. Jednostki są połączone jednokierunkowymi kanałami komunikacyjnymi, które przenoszą dane numeryczne. Sieci neuronowe można trenować w celu znajdowania nieliniowych zależności w danych i są wykorzystywane w takich zastosowaniach jak robotyka, rozpoznawanie mowy, przetwarzanie sygnałów czy diagnostyka medyczna.
Automatyczne rozpoznawanie płaczu niemowląt (AICR): Proces, w którym sygnał płaczu jest automatycznie analizowany w celu wyodrębnienia cech akustycznych, co pozwala określić stan fizyczny niemowlęcia, przyczynę płaczu, a nawet wykryć patologie w bardzo wczesnych etapach życia.
Algorytm propagacji wstecznej: Algorytm uczenia się sieci neuronowych oparty na minimalizacji błędu uzyskanego z porównania wyników sieci po zastosowaniu zestawu danych wejściowych z wynikami, które powinna ona dawać (wyniki pożądane).
Rozmyta relacyjna sieć neuronowa (FRNN): Hybrydowy model klasyfikacji łączący zalety rozmytych relacji ze sztucznymi sieciami neuronowymi.
Zbiory rozmyte: Uogólnienie zbiorów zwykłych poprzez dopuszczenie stopnia przynależności ich elementów. Teorię tę zaproponował Lofti Zadeh w 1965 roku. Zbiory rozmyte stanowią podstawę logiki rozmytej.
Hybrydowy System Inteligentny: System programowy, który równolegle wykorzystuje kombinację metod i technik z zakresu informatyki miękkiej.
Etap uczenia się: Proces uczenia klasyfikatorów rozróżniania różnych typów wzorców.
Chromosom binarny: Schemat kodowania reprezentujący jedno potencjalne rozwiązanie problemu, w procesie wyszukiwania, za pomocą ciągu bitów.
Obliczenia ewolucyjne: Poddziedzina inteligencji obliczeniowej, która obejmuje kombinatoryczne problemy optymalizacji. Wykorzystuje iteracyjny postęp, taki jak wzrost lub rozwój populacji, który jest następnie wybierany w sterowanym losowym przeszukiwaniu w celu osiągnięcia pożądanego celu. Takie procesy są często inspirowane biologicznymi mechanizmami ewolucji.
Funkcja dopasowania: Jest to funkcja zdefiniowana na podstawie reprezentacji genetycznej i mierzy jakość reprezentowanego rozwiązania. Funkcja dopasowania jest zawsze zależna od problemu.
Algorytmy genetyczne: Rodzina modeli obliczeniowych inspirowanych ewolucją. Algorytmy te kodują potencjalne rozwiązanie konkretnego problemu w prostej strukturze danych przypominającej chromosom i stosują operatory rekombinacji do tych struktur, aby zachować kluczowe informacje. Algorytmy genetyczne są często postrzegane jako optymalizatory funkcji, chociaż zakres problemów, do których zastosowano algorytmy genetyczne, jest dość szeroki.
Hybrydowy System Inteligentny: System programowy, który wykorzystuje równolegle kombinację metod i technik, głównie z poddziedzin informatyki miękkiej.
Przetwarzanie sygnałów: Analiza, interpretacja i manipulacja sygnałami. Przetwarzanie takich sygnałów obejmuje przechowywanie i rekonstrukcję, oddzielanie informacji od szumu, kompresję i ekstrakcję cech.
Informatyka miękka: Połączenie technik, które w połączeniu są odporne na niedokładność, niepewność, częściową prawdę i aproksymację, a których wzorem jest ludzki umysł. Jego głównymi składnikami są logika rozmyta (FL), informatyka neuronowa (NC), obliczenia ewolucyjne (EC), uczenie maszynowe (ML) i rozumowanie probabilistyczne (PR).
Fragment: Potencjalny piksel zawierający wszystkie niezbędne informacje (kolor, głębię itp.) do wygenerowania ostatecznego koloru fragmentu.
Procesor fragmentów: Element systemu graficznego, który otrzymuje jako dane wejściowe zbiór fragmentów i przetwarza go w celu uzyskania pikseli, zapisując je w buforze docelowym. Obecne procesory graficzne (GPU) posiadają wiele procesorów fragmentów pracujących równolegle i mogą być programowane za pomocą programów fragmentów.
Potok graficzny: Trójwymiarowa architektura zorientowana na grafikę, złożona z kilku etapów, które działają sekwencyjnie.
Jednostka przetwarzania grafiki (GPU): Urządzenie elektroniczne przeznaczone do renderowania grafiki w komputerach. Jego architektura specjalizuje się w obliczeniach graficznych.
Obliczenia ogólnego przeznaczenia na procesorach graficznych (GP-GPU): Trend w urządzeniach obliczeniowych dedykowanych do implementacji algorytmów ogólnego przeznaczenia z wykorzystaniem układów graficznych, zwanych procesorami graficznymi (GPU). Obecnie wysoka programowalność i wydajność procesorów graficznych (GPU) pozwala programistom na uruchamianie klasycznych algorytmów na tych urządzeniach w celu przyspieszenia aplikacji niegraficznych, zwłaszcza tych o charakterze równoległym.
Piksel: Skrót elementu obrazu (Picture Element), używany do określenia punktów obrazu graficznego.
Rasterizer: Element potoku graficznego, który z prymitywów graficznych dostarcza odpowiednie fragmenty do bufora docelowego.
Render-to-Texture: Funkcja GPU umożliwiająca przechowywanie danych wyjściowych procesora fragmentów na teksturze zamiast w buforze ekranu.
Model programowania strumieniowego: Ten model programowania równoległego opiera się na definiowaniu, z jednej strony, zestawów danych wejściowych i wyjściowych, zwanych strumieniami, a z drugiej strony, intensywnych operacji obliczeniowych, zwanych funkcjami jądra, które mają być sekwencyjnie stosowane na strumieniach.
Tekstura: W grafice komputerowej odnosi się do obrazu cyfrowego używanego do modyfikacji wyglądu obiektu trójwymiarowego. Operacja nakładania tekstury na obiekt nazywa się mapowaniem tekstur. W odniesieniu do GP-GPU, teksturę można traktować jako strumień danych.
Werteks: W grafice komputerowej odnosi się do jasno określonego punktu w przestrzeni trójwymiarowej, który jest przetwarzany przez potok graficzny. Można ustanowić relacje między tymi wierzchołkami (jak trójkąty) a strukturami montażowymi, które definiują obiekt trójwymiarowy. Mówiąc o GPGPU, tablicę wierzchołków można traktować jako strumień danych.
Procesor wierzchołków: Komponent systemu graficznego, który odbiera jako dane wejściowe zestaw wierzchołków 3D i przetwarza je w celu uzyskania dwuwymiarowych pozycji ekranu. Współczesne procesory graficzne (GPU) posiadają wiele procesorów wierzchołków pracujących równolegle i mogą być programowane za pomocą programów wierzchołków.
Drzewa decyzyjne: Drzewo decyzyjne to klasyfikator w formie struktury drzewa, w której każdy węzeł jest albo węzłem liścia, albo węzłem decyzyjnym. Drzewo decyzyjne może być użyte do klasyfikacji instancji, zaczynając od korzenia drzewa i przechodząc przez nie aż do węzła liścia, który zapewnia klasyfikację instancji. Dobrze znanym i często stosowanym algorytmem drzewa decyzyjnego od lat jest C4.5.
Selekcja w przód i eliminacja wsteczna: Metoda selekcji w przód rozpoczyna się od zbioru pustego i sukcesywnie dodaje atrybuty, podczas gdy proces eliminacji wstecznej rozpoczyna się od pełnego zbioru i usuwa niechciane.
Przeszukiwanie zachłanne: W każdym punkcie przeszukiwania algorytm uwzględnia wszystkie lokalne zmiany w bieżącym zestawie atrybutów, dokonuje najlepszego wyboru i nigdy nie rozważa go ponownie.
Analiza niezależnych składowych (ICA): Analiza niezależnych składowych (ICA) to nowo opracowana technika znajdowania ukrytych czynników lub składowych w celu uzyskania nowej reprezentacji danych wielowymiarowych. ICA można traktować jako uogólnienie analizy PCA. PCA próbuje znaleźć nieskorelowane zmienne reprezentujące oryginalne dane wielowymiarowe, podczas gdy ICA próbuje uzyskać statystycznie niezależne zmienne reprezentujące oryginalne dane wielowymiarowe.
Naiwny klasyfikator Bayesa: Naiwny klasyfikator Bayesa, zwany również prostym klasyfikatorem bayesowskim, jest zasadniczo prostą siecią bayesowską (BN). W naiwnym klasyfikatorze Bayesa istnieją dwa założenia. Po pierwsze, wszystkie atrybuty są od siebie niezależne, biorąc pod uwagęzmienną klasyfikacyjną. Po drugie, wszystkie atrybuty są bezpośrednio zależne od zmiennej klasyfikacyjnej. Naiwny klasyfikator Bayesa oblicza wartość a posteriori zmiennej klasyfikacyjnej, biorąc pod uwagę zestaw atrybutów, stosując regułę Bayesa przy założeniu warunkowej niezależności.
Analiza głównych składowych (PCA): PCA to popularne narzędzie do analizy danych wielowymiarowych, ekstrakcji cech i kompresji danych. Biorąc pod uwagę zestaw pomiarów wielowymiarowych, celem PCA jest znalezienie zestawu zmiennych o mniejszej redundancji. Redundancja jest mierzona korelacjami między elementami danych. Repozytorium UCI: Jest to repozytorium baz danych, teorii dziedzin i generatorów danych, które są wykorzystywane przez społeczność zajmującą się uczeniem maszynowym do empirycznej analizy algorytmów uczenia maszynowego.
Reguły asocjacyjne: Techniki, które w bazie danych znajdują reguły implikacji koniunkcyjnej w postaci "X i Y implikują A i B".
Atrybut: Wielkość opisująca instancję. Atrybut ma dziedzinę zdefiniowaną przez typ atrybutu, który oznacza wartości, jakie może przyjmować atrybut.
Klasyfikator: Ustrukturyzowany model, który mapuje nieoznakowane instancje na skończony zbiór klas.
Klastrowanie: Proces grupowania instancji danych w podzbiory w taki sposób, że podobne instancje są grupowane w ten sam klaster, podczas gdy różne instancje należą do różnych klas.
Eksploracja danych: Rdzeń procesu KDD, obejmujący wnioskowanie algorytmów, które eksplorują dane, opracowują model i odkrywają nieznane wcześniej wzorce.
Logika rozmyta: Rodzaj logiki, który rozpoznaje więcej niż tylko wartości prawda i fałsz. Dzięki logice rozmytej zdania mogą być reprezentowane za pomocą stopni prawdziwości i fałszu, co pozwala jej radzić sobie z danymi nieprecyzyjnymi lub niejednoznacznymi. Logika Boole'a jest uważana za szczególny przypadek logiki rozmytej. Instancja: Pojedynczy obiekt świata, z którego model zostanie wyuczony lub na którym będzie używany.
Odkrywanie wiedzy w bazach danych (KDD): Nietrywialny proces eksploracyjny polegający na identyfikowaniu prawidłowych, nowych, użytecznych i zrozumiałych wzorców w dużych i złożonych repozytoriach danych.
Odległość Cauchy'ego-Schwartza: Miara odległości gęstości kątowej w przestrzeni euklidesowej funkcji gęstości prawdopodobieństwa, która aproksymuje dywergencje teorii informacji dla pobliskich gęstości.
Korentropia: Miara statystyczna, która szacuje podobieństwo między dwiema lub więcej zmiennymi losowymi poprzez całkowanie wspólnej funkcji gęstości prawdopodobieństwa wzdłuż głównej przekątnej przestrzeni wektorowej (linii wzdłuż jedności). Odnosi się do entropii Renyiego po uśrednieniu po opóźnieniach indeksu próbki.
Uczenie się teorii informacji: Technika wykorzystująca kryteria optymalności teorii informacji, takie jak entropia, dywergencja i informacja wzajemna, do uczenia się i adaptacji.
Potencjały i siły informacyjne: Fizycznie intuicyjne reguły interakcji cząstek parami, wynikające z kryteriów uczenia się teorii informacji i rządzące procesem uczenia się, w tym propagacją wsteczną w adaptacji systemów wielowarstwowych.
Oszacowanie gęstości jądra: Nieparametryczna technika estymacji funkcji gęstości prawdopodobieństwa.
Projekcje wzajemnej informacji: Maksymalnie dyskryminacyjne nieliniowe projekcje nieparametryczne do redukcji wymiarowości cech oparte na teorii jądra reprodukcyjnego przestrzeni Hilberta.
Entropia Renyiego: Uogólniona definicja entropii, wynikająca z modyfikacji postulatu addytywności, prowadząca do klasy miar teorii informacji, które zawierają definicje Shannona jako przypadki szczególne.
Stochastyczny gradient informacji: Stochastyczny gradient estymacji entropii nieparametrycznej oparty na estymacji gęstości jądra.
Arytmia: Arytmie to zaburzenia regularnego, rytmicznego bicia serca. Arytmie można podzielić na dwie kategorie: komorowe i nadkomorowe.
Migotanie przedsionków: Migotanie przedsionków (AF) to utrwalona arytmia, która najczęściej występuje w praktyce klinicznej i występuje u 0,4% populacji. Częstość występowania wzrasta wraz z wiekiem i obecnością strukturalnych zmian kardiopatologicznych. Migotanie przedsionków jest szczególnie powszechne u osób starszych, dotykając 2-5% populacji powyżej 60. roku życia i 10% osób powyżej 80. roku życia.
Elektrokardiogram: Elektrokardiogram (EKG) to narzędzie diagnostyczne mierzące i rejestrujące aktywność elektryczną serca.
Selekcjonowanie cech: Selekcja cech to proces często stosowany w algorytmach klasyfikacyjnych, w którym podzbiór cech dostępnych z danych jest wybierany do klasyfikatora. Najlepszy podzbiór zawiera najmniejszą liczbę wymiarów lub cech, które w największym stopniu przyczyniają się do prawidłowego procesu klasyfikacji.
Algorytm genetyczny: Algorytmy genetyczne (GA) to sposób rozwiązywania problemów poprzez naśladowanie procesów stosowanych przez naturę. Wykorzystują tę samą kombinację selekcji, rekombinacji i mutacji, aby wyewoluować rozwiązanie problemu.
Programowanie genetyczne: Programowanie genetyczne (GP) wyewoluowało rozwiązanie w postaci programu Lisp, wykorzystując ewolucyjny, oparty na populacji algorytm wyszukiwania, który rozszerzył koncepcje algorytmów genetycznych o stałej długości.
Miękkie obliczenia: Odnosi się do zbioru różnych paradygmatów (takich jak logika rozmyta, sieci neuronowe, symulowane wyżarzanie, algorytmy genetyczne i inne techniki obliczeniowe), które koncentrują się na analizie, modelowaniu i odkrywaniu informacji w bardzo złożonych problemach.
Maszyna wektorów nośnych (SVM): To specjalna sieć neuronowa, która przeprowadza klasyfikację poprzez konstruowanie hiperpłaszczyzny N-wymiarowej, która dzieli dane na dwie kategorie.
Sztuczna Sieć Neuronowa: Zorganizowany zbiór wielu prostych procesorów zwanych neuronami, który imituje biologiczną konfigurację neuronową.
FIPA: Skrót od "Foundation for Intelligent Physical Agents", organizacji normalizacyjnej IEEE Computer Society, która promuje technologię agentową i interoperacyjność jej standardów z innymi technologiami.
System wieloagentowy: System złożony z kilku agentów, zazwyczaj zaprojektowanych do współpracy w celu osiągnięcia celu.
Neuro-Fuzzy: Hybryda sztucznych sieci neuronowych i logiki rozmytej.
Ontologia: Zbiór klas, relacji, funkcji itp. reprezentujący wiedzę z danej dziedziny.
System czasu rzeczywistego: System z terminami operacyjnymi od zdarzenia do odpowiedzi systemu.
Regulator samostrojący: Rodzaj adaptacyjnego systemu sterowania składającego się z dwóch pętli: pętli wewnętrznej (procesowej i zwykłej liniowej regulacji ze sprzężeniem zwrotnym) oraz pętli zewnętrznej (rekurencyjny estymator parametrów i obliczenia projektowe, które dostosowują jego parametry).
Agent: System, który spełnia niezależne funkcje, postrzega świat zewnętrzny i ustanawia połączenia między agentami za pośrednictwem swojego oprogramowania.
Elastyczne zapytania: Zawiera elementy języka naturalnego, aby umożliwić proste i skuteczne wyrażanie subiektywnych potrzeb informacyjnych.
Fuzzy SQL (Structural Query Language): Jest rozszerzeniem języka SQL, które pozwala nam na zapisywanie elastycznych warunków w zapytaniach. FSQL pozwala nam na u
żywanie etykiet lingwistycznych zdefiniowanych dla dowolnego atrybutu.
Zapytanie Fuzzy SQL: Fuzzy SQL pozwala systemowi na tworzenie elastycznych zapytań dotyczących atrybutów ostrych lub rozmytych w rozmytych danych relacyjnych lub wiedzy.
Inteligentny agent: Składa się z zaawansowanego, inteligentnego programu komputerowego, który działa w sposób niezależny, reaktywny, proaktywny, elastyczny, odzyskuje dane po awarii i współpracuje z innymi agentami.
System wieloagentowy: Jest to elastyczna, zintegrowana sieć agentów programowych, które współpracują ze sobą w celu rozwiązywania problemów wykraczających poza indywidualne możliwości lub wiedzę każdego rozwiązującego problem.
Zapytanie: Przeprowadza skanowanie danych zgodnie z wymaganymi specyfikacjami.
Odpowiadanie na zapytania: Odpowiada na zapytania użytkownika za pomocą pojedynczej lub wielobazowej bazy danych w systemie wieloagentowym.
System: Zestaw komponentów traktowanych jako pojedyncza jednostka zorientowana na cel.
Sztuczne sieci neuronowe (ANN): Sieć wielu prostych procesorów ("jednostek" lub "neuronów") imitująca biologiczną sieć neuronową. Jednostki są połączone jednokierunkowymi kanałami komunikacyjnymi, które przenoszą dane numeryczne. Sieci neuronowe można trenować w celu znajdowania nieliniowych zależności w danych i są wykorzystywane w takich zastosowaniach jak robotyka, rozpoznawanie mowy, przetwarzanie sygnałów czy diagnostyka medyczna.
Algorytm propagacji wstecznej: Algorytm uczenia się ANN oparty na minimalizacji błędu uzyskanego z porównania wyników ANN po zastosowaniu zbioru danych wejściowych sieci i żądanych wyników. Aktualizacja wag odbywa się zgodnie z gradientem funkcji błędu obliczonej w punkcie przestrzeni wejściowej, który wskazuje dane wejściowe do ANN.
Ekstrakcja wiedzy: Wyjaśnienie wiedzy wewnętrznej systemu lub zbioru danych w sposób łatwy do interpretacji przez użytkownika.
Inteligencja: Jest to właściwość umysłu obejmująca wiele powiązanych zdolności, takich jak zdolność rozumowania, planowania, rozwiązywania problemów, myślenia abstrakcyjnego, rozumienia idei i języka oraz uczenia się.
Algorytm Levenberga-Marquardta: Podobny do algorytmu propagacji wstecznej, z tą różnicą, że błąd jest szacowany na podstawie macierzy hesjańskiej. Macierz ta dostarcza informacji o kilku kierunkach, w których należy podążać, aby znaleźć minimum funkcji błędu, zamiast minimum lokalnego, które daje algorytm propagacji wstecznej.
Funkcja gęstości prawdopodobieństwa: Funkcja statystyczna pokazująca rozkład gęstości możliwych obserwacji w populacji.
Radar: Jest to akronim od Radio Detection and Ranging (detekcja radiowa i pomiar odległości). Krótko mówiąc, radar emituje falę elektromagnetyczną, która jest odbijana przez cel i inne obiekty obecne w jego przestrzeni obserwacyjnej. Na koniec radar odbiera te odbite fale (echa), aby je przeanalizować i ustalić, czy cel jest obecny, czy nie.
Agent: System komputerowy umieszczony w określonym środowisku, zdolny do autonomicznego działania w tym środowisku w celu osiągnięcia zamierzonego celu.
E-commerce między firmami (Business-to-Business): Elektroniczne transakcje towarów lub usług między firmami, w odróżnieniu od transakcji między firmami a innymi grupami.
E-commerce między firmami a klientami (Business-to-Customer E-Commerce): Elektroniczne lub internetowe działania organizacji komercyjnych oferujących produkty i/lub usługi konsumentowi końcowemu. Termin ten jest zazwyczaj stosowany wyłącznie w handlu elektronicznym.
E-commerce między klientami (Customer-to-Customer E-Commerce): Transakcje online obejmujące transakcje między konsumentami, realizowane drogą elektroniczną, za pośrednictwem stron trzecich.
Handel elektroniczny (E-Commerce): Polega na kupowaniu i sprzedawaniu produktów lub usług za pośrednictwem systemów elektronicznych, takich jak Internet i inne sieci komputerowe. W ten sposób prowadzona jest szeroka gama transakcji, w tym elektroniczny transfer środków, zarządzanie łańcuchem dostaw, e-marketing, przetwarzanie transakcji online i zautomatyzowane systemy gromadzenia danych.
Inteligentny agent programowy: Agent programowy wykorzystujący sztuczną inteligencję (AI) do realizacji celów swoich klientów. Handel Wszechobecny (U-Commerce): Najdoskonalsza forma handlu elektronicznego i mobilnego w modelu "zawsze i wszędzie". Polega ona na wykorzystaniu sieci wszechobecnych do obsługi spersonalizowanej i nieprzerwanej komunikacji oraz transakcji o wartości znacznie przewyższającej handel tradycyjny.
Agent: System komputerowy umieszczony w określonym środowisku, zdolny do autonomicznego działania w tym środowisku w celu osiągnięcia zamierzonego celu.
E-commerce między firmami: Elektroniczne transakcje towarów lub usług między firmami, w odróżnieniu od transakcji między firmami a innymi grupami.
E-commerce między firmami a klientami: Elektroniczne lub internetowe działania organizacji komercyjnych oferujących produkty i/lub usługi konsumentom końcowym. Termin ten jest zazwyczaj stosowany wyłącznie w handlu elektronicznym.
E-commerce między klientami: Transakcje online obejmujące transakcje między konsumentami, realizowane drogą elektroniczną, za pośrednictwem stron trzecich.
Handel elektroniczny (e-commerce): Polega na kupowaniu i sprzedawaniu produktów lub usług za pośrednictwem systemów elektronicznych, takich jak Internet i inne sieci komputerowe. W ten sposób prowadzona jest szeroka gama form handlu, w tym elektroniczny transfer środków, zarządzanie łańcuchem dostaw, e-marketing, przetwarzanie transakcji online i zautomatyzowane systemy gromadzenia danych.
Inteligentny agent programowy: Agent programowy wykorzystujący sztuczną inteligencję (AI) do realizacji celów swoich klientów. Handel Wszechobecny (U-Commerce): Najdoskonalsza forma handlu elektronicznego i mobilnego w modelu "zawsze i wszędzie". Polega ona na wykorzystaniu sieci wszechobecnych do obsługi spersonalizowanej i nieprzerwanej komunikacji oraz transakcji o wartości znacznie przewyższającej handel tradycyjny.
Aktuatory: Komponent programowy i część agenta używana jako środek do wykonywania działań w środowisku agenta.
Autonomia agenta: Aktywne wykorzystanie przez agenta swoich możliwości do osiągnięcia celu, bez ingerencji innego agenta w proces decyzyjny służący określeniu sposobu realizacji tego celu .
Percepty agenta: Każda informacja, którą agent otrzymuje za pośrednictwem swoich czujników, o stanie środowiska lub jego części.
Inteligentny agent programowy: Zamknięty system komputerowy, który znajduje się w określonym środowisku i jest zdolny do elastycznego, autonomicznego działania w tym środowisku w celu spełnienia swoich celów projektowych .
Agenci pośredniczący: Agenci, którzy ułatwiają współpracę między innymi agentami i zazwyczaj łączą dostawców usług z osobami je zamawiającymi.
System wieloagentowy (MAS): System programowy złożony z kilku agentów, którzy współdziałają ze sobą w celu znalezienia rozwiązań złożonych problemów. Czujniki: komponent programowy i część agenta używana jako środek pozyskiwania informacji o aktualnym stanie środowiska agenta (tj. percepcji agenta).
Sztuczne sieci neuronowe (ANN): Sieć wielu prostych procesorów ("jednostek" lub "neuronów") imitująca biologiczną sieć neuronową. Jednostki są połączone jednokierunkowymi kanałami komunikacyjnymi, które przenoszą dane numeryczne. Sieci neuronowe można trenować w celu znajdowania nieliniowych zależności w danych i są wykorzystywane w takich zastosowaniach jak robotyka, rozpoznawanie mowy, przetwarzanie sygnałów czy diagnostyka medyczna.
Algorytm propagacji wstecznej: Algorytm uczenia się ANN, oparty na minimalizacji błędu uzyskanego z porównania wyników ANN po zastosowaniu zbioru danych wejściowych sieci i żądanych wyników. Aktualizacja wag odbywa się zgodnie z gradientem funkcji błędu obliczanej w punkcie przestrzeni wejściowej, który wskazuje dane wejściowe dla ANN.
Klasyfikacja: Czynność podziału obiektów na klasy lub kategorie tego samego typu.
Wykrywanie: Percepcja, że coś wystąpiło lub istnieje jakiś stan.
Ekstrakcja informacji: Uzyskanie istotnych aspektów zawartych w danych. Jest powszechnie stosowany w celu zmniejszenia przestrzeni wejściowej klasyfikatora.
Wzorzec: Wektor obserwacji, który ze względu na swoją istotność jest uważany za ważny przykład przestrzeni wejściowej.
Wstępne przetwarzanie: Operacja lub zestaw operacji zastosowany do sygnału w celu poprawy niektórych jego aspektów.
System interaktywny: System umożliwiający dialog między komputerem a użytkownikiem.
Systemy oparte na wiedzy: System komputerowy zaprogramowany do imitowania ludzkiego rozwiązywania problemów za pomocą sztucznej inteligencji i odwoływania się do bazy danych wiedzy na dany temat.
Reprezentacja wiedzy: Notacja lub formalizm używany do kodowania wiedzy, która ma być przechowywana w systemie opartym na wiedzy.
Stereotyp: Zbiór założeń opartych na konwencjonalnych, formułkowych i uproszczonych koncepcjach, opiniach na temat użytkownika, tworzony przez system interaktywny.
Niepewności: Potencjalny brak w dowolnej fazie lub czynności procesu modelowania, wynikający z braku wiedzy.
Model użytkownika: Zbiór informacji wnioskowanych lub gromadzonych przez system interaktywny, który służy do scharakteryzowania zadań, celów, wiedzy i preferencji użytkownika itp. w celu ułatwienia interakcji człowiek-komputer.
Zbiór chrupki: Zbiór zdefiniowany za pomocą funkcji charakterystycznej, która przypisuje wartość 0 lub 1 każdemu elementowi wszechświata, rozróżniając w ten sposób elementy rozpatrywanego zbioru chrupki od elementów niebędących jego elementami. W kontekście teorii zbiorów rozmytych zbiory chrupki często nazywamy zbiorami "klasycznymi" lub "zwykłymi".
Defuzyfikacja: Proces odwrotny do rozmycia. Odnosi się do przekształcania zbiorów rozmytych w liczby chrupki.
Fuzyfikacja: Proces przekształcania wartości chrupki w stopnie przynależności odpowiadające zbiorom rozmytym wyrażającym terminy lingwistyczne.
Logika rozmyta: Logika rozmyta jest rozszerzeniem tradycyjnej logiki Boole′a. Wywodzi się z teorii zbiorów rozmytych i zajmuje się koncepcjami częściowej prawdy oraz rozumowaniem przybliżonym, a nie precyzyjnym.
Zbiór rozmyty: Uogólnienie definicji zbioru klasycznego. Zbiór rozmyty charakteryzuje się funkcją przynależności, która odwzorowuje elementy wszechświata na przedział jednostkowy, przypisując w ten sposób elementom wszechświata stopnie przynależności do zbioru.
Przetwarzanie obrazu: Przetwarzanie obrazu obejmuje dowolną formę przetwarzania informacji, dla której dane wejściowe stanowią obraz, a dane wyjściowe - obraz lub odpowiadający mu zestaw cech.
Intuicjonistyczny wskaźnik rozmyty: Nazywany również "marginesem wahania" lub "wskaźnikiem nieokreśloności". Reprezentuje stopień nieokreśloności w odniesieniu do przypisania elementu wszechświata do danego zbioru. Jest obliczany jako różnica między jednością a sumą odpowiadających wartości przynależności i nienależenia.
Intuicjonistyczny zbiór rozmyty: Rozszerzenie zbioru rozmytego. Jest definiowany za pomocą dwóch funkcji charakterystycznych, przynależności i nienależenia, które niekoniecznie sumują się do jedności. Przypisują one każdemu elementowi wszechświata odpowiednie stopnie przynależności i nieprzynależności do rozpatrywanego zbioru.
Funkcja przynależności: Funkcja przynależności zbioru rozmytego jest uogólnieniem funkcji charakterystycznej zbiorów precyzyjnych. W logice rozmytej reprezentuje ona stopień prawdziwości jako rozszerzenie wartościowania.
Funkcja nie-przynależności: W kontekście intuicjonistycznego modelu zbiorów rozmytych Atanasowa reprezentuje ona stopień, w jakim element wszechświata nie należy do zbioru.
Komisja Zarządzania Wiedzą: Zespół odpowiedzialny za projekt zarządzania wiedzą. Pamięć korporacyjna: Fizyczne i trwałe przechowywanie wiedzy w organizacji. Jej struktura jest określona przez schemat formalizacji wiedzy.
Wiedza: Pragmatyczny poziom informacji wynikający z połączenia otrzymanych informacji z doświadczeniem jednostki.
Schemat formalizacji wiedzy: Zbiór atrybutów opisujących i formalizujących wiedzę.
Zarządzanie wiedzą: Dyscyplina, która stara się odpowiednio dostarczać adekwatne informacje i wiedzę wskazanym osobom, kiedykolwiek i jak ich potrzebują. W ten sposób osoby te będą miały wszystkie niezbędne elementy do jak najlepszego wykonywania swoich zadań.
System zarządzania wiedzą: System zarządzania wiedzą w organizacjach, wspierający dodawanie, przechowywanie, powiadamianie i lokalizację wiedzy specjalistycznej.
Ramy metodologiczne: Podejście do jasnego określenia i ustrukturyzowania sposobu wykonywania danego zadania.
Narzędzie komunikacji i współpracy: Systemy umożliwiające współpracę i komunikację między członkami organizacji (np. aplikacje czatowe, tablice interaktywne).
Zarządzanie dokumentami: Komputerowe zarządzanie dokumentami elektronicznymi i papierowymi.
Pamięć instytucjonalna: Fizyczne przechowywanie wiedzy wprowadzonej do organizacji.
Wiedza: Pragmatyczny poziom informacji, który zapewnia możliwość rozwiązania problemu lub podjęcia decyzji.
Zarządzanie wiedzą: Dyscyplina, której celem jest dostarczanie, na najbardziej odpowiednim poziomie, dokładnych informacji i wiedzy odpowiednim osobom, zawsze, gdy są potrzebne i w najlepszym dla nich czasie.
Narzędzie zarządzania wiedzą: System organizacyjny, który łączy ludzi z technologiami informacyjno-komunikacyjnymi w celu usprawnienia procesów udostępniania i dystrybucji wiedzy organizacyjnej.
Wyciągnięte wnioski: Konkretne doświadczenie, pozytywne lub negatywne, w danej dziedzinie. Jest ono zdobywane w kontekście praktycznym i może być wykorzystywane w przyszłych działaniach w podobnych kontekstach.
Żółta strona: Przechowuje informacje o źródle ludzkim lub nieludzkim, które posiada dodatkową i/lub specjalistyczną wiedzę na dany temat.
Łańcuchowanie wsteczne: Reguły są stosowane poprzez przeszukiwanie bazy reguł w głąb w celu ustalenia celu. Jeśli linia rozumowania zawodzi, silnik wnioskowania musi się cofnąć i przeszukać nową gałąź drzewa wyszukiwania. Ten proces jest powtarzany, aż cel zostanie ustalony lub wszystkie gałęzie zostaną zbadane.
Rozumowanie oparte na przypadkach: Rozwiązywanie nowych problemów poprzez adaptację rozwiązań, które zostały wcześniej użyte do rozwiązania starego problemu.
Założenie o zamkniętym świecie: Założenie, że cała wiedza o danej dziedzinie znajduje się w bazie wiedzy. Wszystko, co nie jest prawdą zgodnie z bazą wiedzy, jest uznawane za fałszywe.
Wiedza głęboka: Wiedza fundamentalna o ogólnym zastosowaniu, taka jak prawa fizyki, którą można wykorzystać w połączeniu z inną wiedzą głęboką w celu powiązania dowodów i wniosków.
Łańcuchowanie w przód: Reguły są stosowane iteracyjnie za każdym razem, gdy spełnione są ich warunki, z zastrzeżeniem mechanizmu selekcji znanego jako rozstrzyganie konfliktów, gdy spełnione są warunki wielu reguł.
Wiedza heurystyczna lub płytka: Wiedza, zazwyczaj w formie reguły, która łączy dowody i wnioski w ograniczonej dziedzinie. Heurystyki opierają się na obserwacji i doświadczeniu, bez żadnego uzasadnienia ani zrozumienia.
Sieć wnioskowania: Powiązania między zestawem warunków a wnioskami.
System oparty na wiedzy: System, w którym baza wiedzy jest wyraźnie oddzielona od silnika wnioskowania, który ją stosuje.
Rozumowanie oparte na modelu: Baza wiedzy obejmuje model obszaru problemowego, zbudowany z części składowych. Silnik wnioskowania rozumuje na podstawie świata rzeczywistego, badając zachowania modelu.
Reguła produkcji: Reguła w postaci: jeśli < warunek > to < wniosek >.
Punkt zmiany: Chwila czasu, w której zmieniają się podstawowe parametry szeregu czasowego (średnia i/lub wariancja); szereg można traktować jako proces stacjonarny, odcinkowo, między dwoma punktami zmiany.
Cena złota i srebra: Stosunek ceny rynkowej złota do ceny rynkowej srebra w jednym miejscu. Stabilność tego stosunku w czasie i zbieżność jego poziomów w różnych miejscach tworzących międzynarodowy bimetalizm (patrz definicja) są testami integracji tego systemu.
Arbitraż międzynarodowy: Działalność handlarzy złotem i srebrem oraz walutami obcymi, polegająca na porównywaniu ich cen w różnych miejscach oraz na odpowiednim przenoszeniu metali szlachetnych i weksli w celu osiągnięcia zysku. Arbitraż i reguły monetarne to dwa czynniki wyjaśniające funkcjonowanie międzynarodowego bimetalizmu (patrz definicja).
Międzynarodowy bimetalizm: Międzynarodowy system monetarny (zobacz tę definicję), który funkcjonował w latach 1821-1873. Opierał się na złocie i srebrze pełniących funkcję standardów monetarnych, stosowanych razem w tym samym kraju (np. we Francji) lub oddzielnie w różnych krajach (złoto w Anglii, srebro w Niemczech i krajach północnych). Integracja tego systemu znalazła odzwierciedlenie w stabilności i konwergencji obserwowanych poziomów względnej ceny złota do srebra (zobacz tę definicję) w Londynie, Paryżu i Hamburgu.
Międzynarodowy system monetarny: System łączący waluty różnych krajów, zapewniający stabilność kursów walutowych między nimi. Jego funkcjonowanie zależy od reguł monetarnych przyjętych w każdym kraju oraz od międzynarodowego arbitrażu (zobacz tę definicję) między rynkami walutowymi. Przykładami historycznymi są system standardu złota (1873-1914) i system z Bretton-Woods (1944-1976). W artykule przeanalizowano niektóre cechy innego historycznego przykładu: międzynarodowego bimetalizmu (zobacz tę definicję).
Model przełączania Markowa: Model autoregresyjny, w którym proces łączący wartość obecną z jej opóźnieniami jest ukrytym łańcuchem Markowa zdefiniowanym przez macierz przejść.
Algorytm SOM: Nienadzorowana technika klasyfikacji (Kohonen, 1984) łącząca adaptacyjne uczenie się i sąsiedztwo w celu skonstruowania bardzo stabilnej klasyfikacji, z prostszą interpretacją ("mapy Kohonena") niż inne techniki.
Sztuczna Sieć Neuronowa: Struktura przetwarzania informacji bez pamięci globalnej lub współdzielonej, przyjmująca postać grafu skierowanego, w którym każdy z elementów obliczeniowych ("neuronów") jest prostym procesorem z wewnętrznymi i regulowanymi parametrami, działającym tylko wtedy, gdy dostępne są wszystkie napływające do niego informacje.
Propagacja wsteczna: Algorytm dla wielowarstwowych sieci typu feed-forward, który umożliwia efektywne obliczanie wektora gradientu we wszystkich metodach pierwszego rzędu.
Sztuczna Sieć Neuronowa typu feed-forward: Sztuczna Sieć Neuronowa, której graf nie zawiera cykli.
Metoda pierwszego rzędu: Algorytm szkoleniowy wykorzystujący funkcję celu i jej wektor gradientu.
Algorytm uczenia się: Metoda lub algorytm, za pomocą którego sztuczna sieć neuronowa opracowuje reprezentację informacji zawartych w przykładach uczenia się poprzez modyfikację wag.
Metoda drugiego rzędu: Algorytm szkoleniowy wykorzystujący funkcję celu, jej wektor gradientu i macierz hesjańską.
Waga: swobodny parametr sztucznej sieci neuronowej, modyfikowany poprzez działanie algorytmu uczącego się w celu uzyskania pożądanych odpowiedzi na określone bodźce wejściowe.
Architektura: Liczba sztucznych neuronów, ich układ i łączność.
Sztuczna sieć neuronowa: Struktura przetwarzania informacji bez pamięci globalnej lub współdzielonej, przyjmująca postać grafu skierowanego, w którym każdy z elementów obliczeniowych ("neuronów") jest prostym procesorem z wewnętrznymi i regulowanymi parametrami, działającym tylko wtedy, gdy dostępne są wszystkie napływające do niego informacje.
Algorytm ewolucyjny: Symulacja komputerowa, w której populacja osobników (abstrakcyjne reprezentacje potencjalnych rozwiązań problemu optymalizacyjnego) jest losowo wybierana, rekombinowana, mutowana, a następnie usuwana lub zachowywana, w zależności od ich względnego dopasowania do problemu.
Sztuczna sieć neuronowa z wyprzedzeniem: Sztuczna sieć neuronowa, której graf nie ma cykli.
Algorytm uczenia się: Metoda lub algorytm, za pomocą którego sztuczna sieć neuronowa rozwija reprezentację informacji obecnych w przykładach uczenia się poprzez modyfikację wag.
Model neuronu: Obliczenia sztucznego neuronu, wyrażone jako funkcja jego sygnału wejściowego, wektora wag i innych informacji lokalnych. Waga: swobodny parametr sztucznej sieci neuronowej, który można modyfikować za pomocą algorytmu uczącego się w celu uzyskania pożądanych odpowiedzi na określone bodźce wejściowe.
Teoria złożoności obliczeniowej: Gałąź teorii obliczeń w informatyce, która bada, jak czas wykonania i wymagania pamięciowe algorytmu rosną wraz ze wzrostem rozmiaru danych wejściowych algorytmu.
Teoria gier: Gałąź matematyki stosowanej i ekonomii, która bada sytuacje (gry), w których gracze, działając w interesie własnym, działają w celu maksymalizacji zysków.
Heurystyka: W informatyce technika opracowana w celu rozwiązania problemu, która pozwala na uzyskanie wydajności obliczeniowej lub prostoty koncepcyjnej, potencjalnie kosztem dokładności i/lub precyzji dostarczonych rozwiązań samego problemu.
Równowaga Nasha: Koncepcja rozwiązania gry, w której żaden gracz nie może skorzystać ze zmiany strategii jednostronnie, tj. podczas gdy pozostali gracze zachowują swoje niezmienione strategie; ten zestaw strategii i odpowiadających im wypłat stanowi równowagę Nasha gry.
Problemy NP-trudne: Problemy, które są z natury trudniejsze niż te, które można rozwiązać za pomocą niedeterministycznej maszyny Turinga w czasie wielomianowym. Gry niekooperacyjne: Gra, w której wszelka współpraca między graczami musi być samonarzucająca się. Wygrane: Liczbowe reprezentacje użyteczności, jaką gracz może uzyskać dzięki różnym wynikom gry.
Reguła kontroli: Reguła JEŻELI-TO służąca do kierowania eksploracją drzewa poszukiwań planistycznych.
Predykat pochodny: Predykat używany do wzbogacenia opisu stanów, na który nie ma wpływu żadna z akcji domeny. Zamiast tego, wartości prawdy predykatu są wyprowadzane za pomocą zestawu reguł w postaci: jeśli formuła(x) to predykat(x).
Planista niezależny od domeny: System planowania, który rozwiązuje problemy bez szczegółowej wiedzy o domenie, w przeciwieństwie do planistów zależnych od domeny, które wykorzystują wiedzę specyficzną dla danej domeny.
Makroakcja: Działanie planistyczne wynikające z połączenia działań często używanych razem w danej domenie. Wykorzystywane jako wiedza kontrolna w celu przyspieszenia generowania planu.
Nauka online:Zdobywanie wiedzy podczas procesu rozwiązywania problemów w celu usprawnienia pozostałej części procesu.
Płaskowyż: Fragment drzewa poszukiwań planistycznych, w którym wartość heurystyczna węzłów jest stała lub nie ulega poprawie.
Polityka: Mapowanie między stanami świata a preferowaną akcją do wykonania w celu osiągnięcia danego zestawu celów. Wiedza na temat kontroli wyszukiwania: Dodatkowa wiedza wprowadzona do planisty w celu uproszczenia procesu wyszukiwania, głównie poprzez przycinanie nieeksplorowanych części przestrzeni wyszukiwania lub poprzez uporządkowanie węzłów do eksploracji.
Ścieżki kariery: Sekwencja miesięcznych pozycji wśród kilku predefiniowanych kategorii roboczych.
Równoważność dystrybucyjna: Właściwość odległości, która pozwala na grupowanie dwóch modalności tej samej zmiennej o identycznych profilach w nową modalność ważoną sumą obu wag.
Proces Markowa: Proces stochastyczny, w którym nowy stan układu zależy od poprzedniego stanu lub skończonego zbioru poprzednich stanów.
Dopasowanie optymalne: Metoda statystyczna pochodząca z biologii, która pozwala na porównanie dwóch sekwencji w oparciu o predefiniowany koszt substytucji.
Zachowanie topologii: Po uczeniu się, obserwacje powiązane z tą samą klasą lub z klasami "bliskimi" zgodnie z definicją sąsiedztwa i danymi przez strukturę sieci są "bliskie" zgodnie z odległością w przestrzeni wejściowej.
Mapy samoorganizujące Kohonena: Metoda kwantyzacji wektorowej bez nadzoru, oparta na sieciach neuronowych, szeroko stosowana w klasyfikacji. Mapy samoorganizujące się są cenione ze względu na zachowanie topologii i powiązany z nimi system reprezentacji danych. Te dwie addytywne właściwości wynikają z predefiniowanej organizacji sieci, która jednocześnie wspomaga uczenie się topologii i jej reprezentację.
Χ2Odległość: Odległość posiadająca określone właściwości, takie jak równoważność dystrybucyjna.
Teoria Bayesa: Znana również jako reguła Bayesa lub prawo Bayesa. Jest to wynik teorii prawdopodobieństwa, który wiąże warunkowy i brzegowy rozkład prawdopodobieństwa zmiennych losowych. W niektórych interpretacjach prawdopodobieństwa teoria Bayesa podpowiada, jak aktualizować lub korygować przekonania w świetle nowych dowodów.
Rozumowanie domyślne: Logika niemonotoniczna zaproponowana przez Raymonda Reitera w celu sformalizowania rozumowania z domyślnymi założeniami. Rozumowanie domyślne może wyrażać fakty takie jak "domyślnie coś jest prawdą"; natomiast logika standardowa może wyrażać jedynie, że coś jest prawdą lub że coś jest fałszem. Stanowi to problem, ponieważ rozumowanie często opiera się na faktach, które są prawdziwe w większości przypadków, ale nie zawsze. Klasycznym przykładem jest: "ptaki zazwyczaj latają". Regułę tę można wyrazić w logice standardowej albo jako "wszystkie ptaki latają", co jest sprzeczne z faktem, że pingwiny nie latają, albo jako "wszystkie ptaki, które nie są pingwinami i nie są strusiami i... latają", co wymaga określenia wszystkich wyjątków od reguły. Logika domyślna ma na celu formalizację reguł wnioskowania, takich jak ta, bez wyraźnego wymieniania wszystkich ich wyjątków.
Logika niemonotoniczna: Logika formalna, której relacja konsekwencji nie jest monotoniczna. Większość badanych logik formalnych ma monotoniczną relację konsekwencji, co oznacza, że dodanie wzoru do teorii nigdy nie powoduje redukcji jej zbioru konsekwencji. Intuicyjnie monotoniczność wskazuje, że poznanie nowej wiedzy nie może zredukować zbioru tego, co jest znane. Logika monotoniczna nie radzi sobie z różnymi zadaniami rozumowania, takimi jak rozumowanie domyślne.
Teoria możliwości: Teoria matematyczna służąca do radzenia sobie z pewnymi rodzajami niepewności i stanowiąca alternatywę dla teorii prawdopodobieństwa. Profesor Lotfi Zadeh po raz pierwszy przedstawił teorię możliwości w 1978 roku jako rozszerzenie swojej teorii zbiorów rozmytych i logiki rozmytej.
Teoria dowodów Shafera-Dempstera: Matematyczna teoria dowodów oparta na funkcjach przekonań i wnioskowaniu prawdopodobnym, która służy do łączenia oddzielnych informacji (dowodów) w celu obliczenia prawdopodobieństwa zdarzenia. Teorię tę opracowali Arthur P. Dempster i Glenn Shafer.
Teoria Potwierdzenia: Podejście do reprezentacji niepewności zaproponowane przez Cohena, oparte na jakościowej teorii "potwierdzenia". Według Cohena zapisy czynników związanych z pewnością danej osoby nazywane są potwierdzeniami. Model Potwierdzenia Cohena opiera się na jawnym rejestrowaniu uzasadnień stwierdzenia, co zazwyczaj wymaga złożonej struktury danych o źródle. Dlatego to podejście utrzymuje niepewność. Uzasadnienie jest klasyfikowane według rodzaju dowodu na poparcie tezy, możliwych działań wymaganych do rozwiązania niepewności tego dowodu i innych powiązanych cech.
System Utrzymywania Prawdy: Metoda reprezentacji wiedzy służąca do reprezentowania zarówno przekonań, jak i ich zależności. Nazwa "utrzymywanie prawdy" pochodzi od zdolności tych systemów do przywracania spójności. Istnieją dwa główne systemy utrzymywania prawdy: jednokontekstowy i wielokontekstowy. W systemach jednokontekstowych spójność jest utrzymywana między wszystkimi faktami w pamięci (bazie danych). Systemy wielokontekstowe pozwalają na zachowanie spójności podzbioru faktów w pamięci (kontekstu) zgodnie z historią wnioskowania logicznego. Osiąga się to poprzez oznaczenie każdego faktu lub dedukcji jego historią logiczną. Wieloagentowe systemy utrzymania prawdy realizują utrzymanie prawdy w wielu pamięciach, często zlokalizowanych na różnych maszynach.
Algorytmy ewolucyjne: Metody rozwiązywania inspirowane naturalnym procesem ewolucji, które rozwijają populację rozwiązań problemu optymalizacyjnego poprzez iteracyjne stosowanie losowych procesów rekombinacji i selekcji, aż do spełnienia kryterium zakończenia.
Problem wielokryterialny: Problem składający się z więcej niż 3-4 celów, które mają być jednocześnie maksymalizowane/minimalizowane.
Front Pareto: Obraz zbioru Pareto w przestrzeni wydajności (celów).v
Rozwiązanie optymalne w sensie Pareto: Rozwiązanie, które nie jest zdominowane przez żadne inne rozwiązanie wykonalne.
Zbiór Pareto: Zbiór rozwiązań optymalnych w sensie Pareto.
Schemat rankingowy: Schemat, który przypisuje każdemu rozwiązaniu populacji wynik będący miarą jego dopasowania w stosunku do pozostałych członków tej samej populacji.
Presja selekcyjna: Stosunek między liczbą oczekiwanych wyborów najlepszego rozwiązania a średnią liczbą wyborów najlepszego rozwiązania.
Ontologia: Jako środek konceptualizacji i strukturyzacji wiedzy, ontologie są postrzegane jako klucz do realizacji wizji sieci semantycznej.
Mapowanie ontologii: Mapowanie ontologii jest niezbędne do zapewnienia dzielenia się wiedzą i integracji semantycznej w środowisku z różnymi ontologiami bazowymi.
Precyzja: Stosunek liczby wyszukanych rekordów istotnych do całkowitej liczby wyszukanych rekordów istotnych i nieistotnych.
Przypomnienie: Stosunek liczby wyszukanych encji istotnych do całkowitej liczby encji istotnych.
Sieć semantyczna: W koncepcji Tima Bernersa-Lee sieć semantyczna jest uniwersalnym medium wymiany danych, informacji i wiedzy. Sugeruje adnotację zasobów sieciowych za pomocą metadanych przetwarzalnych maszynowo.
Miara podobieństwa: Metoda używana do obliczania stopnia podobieństwa między źródłami mapowania.
Tokenizacja: Tokenizacja wyodrębnia prawidłowe encje ontologii z opisów OWL. Wykres o strukturze drzewa: struktura graficzna przedstawiająca drzewo z węzłami i hierarchią jego krawędzi.
Sztuczne sieci neuronowe (ANN): Wysoce równoległe sieci połączonych ze sobą prostych elementów obliczeniowych (komórek, węzłów, neuronów, jednostek), które naśladują biologiczne sieci neuronowe.
Systemy złożone: Systemy złożone z kilku połączonych ze sobą prostych części, które łącznie wykazują wysoki stopień złożoności, z których każda wyłania zachowanie wyższego rzędu.
Wyłanianie się: Modalności, w których złożone systemy, takie jak ANN i wzorce, powstają z wielości stosunkowo prostych interakcji.
Reguła uczenia się (treningu): Iteracyjny proces aktualizacji wag na podstawie przypadków (instancji) wielokrotnie prezentowanych jako dane wejściowe. Uczenie się (adaptacja) jest niezbędne w PR, gdzie zbiór danych treningowych jest ograniczony, a nowe środowiska są stale napotykane.
Paradygmat sieci neuronowych: Zestaw (i) formy i funkcji jednostek przetwarzania wstępnego, (ii) topologii sieci opisującej liczbę warstw, liczbę węzłów na warstwę oraz wzorzec ważonych połączeń między węzłami, oraz (iii) reguły uczenia (treningu), która określa sposób, w jaki wagi powinny być dostosowywane w trakcie użytkowania w celu poprawy wydajności sieci.
Relaksacja: Proces, w którym sieci neuronowe minimalizują funkcję celu, wykorzystując metody półparametryczne lub nieparametryczne do iteracyjnej aktualizacji wag.
Odporność: Właściwość sieci neuronowych umożliwiająca niezawodne wykonywanie zadań podczas obsługi niekompletnych i/lub uszkodzonych danych. Ponadto wyniki powinny być spójne, nawet jeśli jakaś część sieci ulegnie uszkodzeniu.
Zasada samoorganizacji: Proces, w którym wewnętrzna organizacja systemu, który stale oddziałuje z otoczeniem, zwiększa swoją złożoność bez wpływu czynników zewnętrznych. Systemy samoorganizujące się zazwyczaj wykazują właściwości emergentne.
Bioinformatyka: Zastosowanie informatyki i technologii do zarządzania danymi biologicznymi oraz wykorzystania komputerów do przechowywania, porównywania, wyszukiwania, analizowania lub przewidywania składu struktury biocząsteczek.
Mikromacierz DNA: Zbiór mikroskopijnych plamek DNA przyczepionych do stałej powierzchni, tworzących macierz w celu profilowania ekspresji, monitorujących poziomy ekspresji tysięcy genów jednocześnie.
MAGE: Standardowy model danych mikromacierzy i format wymiany, który umożliwia przechwytywanie informacji określonych przez MIAME.
MGED: Ontologia eksperymentów mikromacierzowych, która ustanawia koncepcje, definicje, terminy i zasoby do standaryzowanego opisu eksperymentu mikromacierzowego na potrzeby MAGE.
MIAME: Standard oparty na XML do opisu eksperymentów mikromacierzowych, który oznacza Minimum Information About a Micro-array Experiment (Minimum Informacji o Eksperymencie Mikromacierzowym).
Ontologia: Specyfikacja konceptualizacji dziedziny wiedzy. To kontrolowany słownik, który formalnie opisuje obiekty i relacje między nimi, a także posiada gramatykę pozwalającą używać terminów słownikowych do wyrażania czegoś znaczącego w określonej dziedzinie zainteresowania.
Metodologia modelu informacji semantycznej: Zestaw działań, wraz z ich danymi wejściowymi i wyjściowymi, mający na celu przekształcenie zbioru źródeł danych mikromacierzowych w semantycznie zintegrowaną i ujednoliconą reprezentację informacji przechowywanych w tych źródłach.
Ujednolicony model informacji (UIM): Konstrukcja łącząca wszystkie fizyczne schematy danych powiązane ze źródłami danych, które mają zostać zintegrowane. Został on stworzony w celu reprezentowania uzgodnionego naukowego poglądu i słownictwa, które będą podstawą do zrozumienia danych.
Globalny Planer Ścieżki: Grupa algorytmów nawigacyjnych służących do planowania optymalnej ścieżki łączącej punkt początkowy z danym celem w znanym środowisku.
Krawędź grafu: Krawędź grafu jest zazwyczaj rysowana jako linia prosta na grafie, łącząca węzły. Służy do reprezentowania łączności między dwoma lub więcej węzłami i może zawierać dodatkowe informacje, takie jak odległość euklidesowa między węzłami.
Węzeł grafu: Węzeł grafu jest również znany jako wierzchołek grafu. Jest to punkt, w którym graf jest zdefiniowany i może być połączony krawędziami grafu.
Metody hybrydowe: Grupa metod nawigacyjnych łączących algorytmy globalnego planowania ścieżki i nawigacji lokalnej. Celem jest połączenie zalet i wyeliminowanie wad obu grup algorytmów.
Minima lokalne: Znane również jako minima względne. Minimum lokalne odnosi się do minimum w pewnym otoczeniu i może nie być minimum globalnym.
Metody nawigacji lokalnej: Grupa algorytmów nawigacyjnych, które nie wymagają dostarczenia robotowi znanej mapy otoczenia. Zamiast tego, metody nawigacji lokalnej opierają się na bieżących i lokalnych informacjach z czujników, aby umożliwić robotowi mobilnemu nawigację online.
Odległość Manhattan: Odległość między dwoma punktami mierzona wzdłuż osi prostopadłych. Na przykład, biorąc pod uwagę dwa punkty p1 i p2 na płaszczyźnie dwuwymiarowej odpowiednio w punktach (x1, y1) i (x2, y2), odległość Manhattan między p1 i p2 jest dana wzorem |x1 - x2| + |y1 - y2|.
Klątwa wymiarowości: Termin ten został po raz pierwszy użyty przez Richarda Bellmana. Odnosi się on do problemu wykładniczego wzrostu objętości związanego z dodawaniem dodatkowych wymiarów do przestrzeni matematycznej.
Rozkład Gaussa: Znany również jako rozkład normalny. Jest to rodzina ciągłych rozkładów prawdopodobieństwa, w których każdy element rodziny jest opisany dwoma parametrami: średnią i wariancją. Ta forma rozkładu jest wykorzystywana przez algorytm lokalizacji z rozszerzonym filtrem Kalmana do opisu a posteriori rozkładu przekonań pozycji robota.
Jakiańskie: Jakobian to pochodna cząstkowa pierwszego rzędu funkcji. Jego znaczenie polega na tym, że reprezentuje on najlepsze liniowe przybliżenie funkcji różniczkowalnej w pobliżu danego punktu.
Odometria: Metoda szacowania położenia pojazdu kołowego podczas nawigacji poprzez zliczanie liczby obrotów kół stykających się z podłożem.
Przekonanie a posteriori: Odnosi się do rozkładu prawdopodobieństwa oszacowania pozycji robota, uwarunkowanego informacjami takimi jak dane z czujników i dane z czujników. Rozszerzony filtr Kalmana i filtr cząsteczkowy to dwie różne metody obliczania przekonania a posteriori.
Przewidywane przekonanie: Znane również jako przekonanie a priori. Odnosi się do rozkładu prawdopodobieństwa oszacowania pozycji robota, interpretowanego na podstawie znanych danych sterujących przy braku danych pomiarowych z czujników.
Algorytm rekurencyjny: Odnosi się do rodzaju funkcji komputerowej stosowanej w ramach jej własnej definicji. Rozszerzony filtr Kalmana i filtr cząsteczkowy to algorytmy rekurencyjne, ponieważ dane wyjściowe filtrów w bieżącym kroku czasowym są wykorzystywane jako dane wejściowe w następnym kroku czasowym.
Środowisko: Oznaczony system przejść, który zapewnia interpretację logiki wiedzy, działań i czasu jednocześnie.
Oznaczony system przejść lub model Kripkego: Zorientowany graf oznaczony (być może nieskończony). Węzły grafu nazywane są stanami lub światami, niektóre z nich są oznaczone symbolami zdaniowymi, które są interpretowane jako ważne w tych węzłach. Krawędzie grafu są oznaczone symbolami relacyjnymi, które są interpretowane przez te krawędzie.
Logika działań: Logika polimodalna, która wiąże modalności takie jak "zawsze" i "czasami" z symbolami działań, które mają być interpretowane w oznaczonych systemach przejść poprzez przejścia. Tak zwana Elementarna Dynamiczna Logika Zdaniowa (EPDL) jest przykładową logiką działań.
Logika wiedzy lub logika epistemiczna: Logika polimodalna, która wiąże modalności takie jak "wiedzieć" i "przypuszczać" z wyliczonymi agentami lub grupami agentów. Agenci mają być interpretowani w oznaczonych systemach przejść poprzez równoważne relacje "nierozróżnialności". Tak zwana logika zdaniowa wiedzy n agentów (PLKn) jest przykładem logiki epistemicznej.
Logika czasu lub logika temporalna: Logika polimodalna z wieloma modalnościami odpowiadającymi "następnym razem", "zawsze", "czasami" i "aż do", które można interpretować w oznaczonych systemach przejściowych w dyskretnych porządkach częściowych. Na przykład liniowa logika temporalna (LTL) jest interpretowana w porządkach liniowych.
Problem weryfikacji modelu: Problem algorytmiczny mający na celu walidację lub obalenie właściwości (przedstawionej przez formułę) w stanie modelu (z klasy struktur Kripkego). Na przykład problem weryfikacji modelu dla połączonej logiki wiedzy, działań i czasu w stanach początkowych idealnego odwołania w skończenie generowanych środowiskach.
System wieloagentowy: Zbiór komunikujących się i współpracujących agentów, z których każdy posiada pewną wiedzę, intencje, zdolności i możliwe działania.
Środowisko Synchronicznego Przywołania Idealnego: Środowisko do modelowania zachowania synchronicznego systemu z idealnym przywołaniem.
System Synchronicznego Przywołania Idealnego: System wieloagentowy, w którym każdy agent zawsze rejestruje swoje obserwacje w każdym momencie działania systemu.