KLUCZOWE TERMINY



Heurystyczne aktywne uczenie się: Zbiór algorytmów aktywnego uczenia się, w którym kryteria wyboru próby opierają się na jakiejś heurystycznej funkcji celu. Na przykład aktywne uczenie się oparte na przestrzeni wersji polega na wybraniu próbki, która może zmniejszyć rozmiar przestrzeni wersji.
Przestrzeń hipotez: zbiór wszystkich hipotez, w którym zakłada się, że zostanie znaleziona hipoteza obiektywna.
Uczenie się częściowo nadzorowane: Zestaw algorytmów uczenia się, w którym zarówno oznakowane, jak i nieoznaczone dane w zbiorze danych uczących są bezpośrednio wykorzystywane do uczenia klasyfikatora.
Statystyczne aktywne uczenie się: Zbiór algorytmów aktywnego uczenia się, w którym kryteria doboru próby opierają się na pewnej statystycznej funkcji celu, takiej jak minimalizacja błędu uogólnienia, obciążenia systematycznego i wariancji. Statystyczne aktywne uczenie się jest zwykle statystycznie optymalne.
Uczenie się nadzorowane: Zbiór algorytmów uczenia się, w którym wszystkie próbki w zbiorze danych szkoleniowych są oznaczone etykietami.
Uczenie się bez nadzoru: Zbiór algorytmów uczenia się, w którym wszystkie próbki w zbiorze danych szkoleniowych są nieoznaczone.
Przestrzeń wersji: Podzbiór przestrzeni hipotez zgodny ze zbiorem uczącym.
Adaptacyjny model geometryczny (AGM): nowe podejście do obliczeń geometrycznych wykorzystujące paradygmat obliczeń adaptacyjnych. W modelu zastosowano kryteria ciągłego udoskonalania oparte na metryce błędu, aby optymalnie dostosować się do dokładniejszej reprezentacji.
Adaptacyjna technika wielu rozdzielczości (AMRT): Do wizualizacji terenu w czasie rzeczywistym jest to metoda, która wykorzystuje sprytny sposób dynamicznej optymalizacji siatki w celu zapewnienia płynnej i ciągłej wizualizacji z dużą wydajnością.
Adaptacyjna pamięć przestrzenna (ASM): Metoda hybrydowa oparta na połączeniu tradycyjnej hierarchicznej struktury drzewiastej z koncepcją rozwijania lub zwijania węzłów drzewa.
Technologia biometryczna (BT): obszar badań cech fizycznych i behawioralnych w celu uwierzytelnienia i identyfikacji osób.
Triangulacja Delaunaya (DT): struktura danych geometrii obliczeniowej podwójna do diagramu Woronoja.
Paradygmat ewolucyjny (EP): Zbiorcza nazwa szeregu metod rozwiązywania problemów wykorzystujących zasady ewolucji biologicznej, takie jak dobór naturalny i dziedziczenie genetyczne.
Inteligencja roju (SI): Właściwość systemu, dzięki której zbiorowe zachowania prostych agentów wchodzących w interakcję lokalnie ze swoim otoczeniem powodują wyłonienie się spójnych funkcjonalnych wzorców globalnych.
Techniki oparte na topologii (TBT): Grupa metod wykorzystujących właściwości geometryczne zbioru obiektów w przestrzeni i ich bliskość
Diagram Woronoja (VD): podstawowa struktura danych geometrii obliczeniowej, która przechowuje informacje topologiczne dla zbioru obiektów.
Adaptacyjna inteligencja biznesowa: dyscyplina polegająca na wykorzystaniu technik przewidywania i optymalizacji do budowania samouczących się systemów "decyzyjnych".
Business Intelligence: zbiór narzędzi, metod, technologii i procesów niezbędnych do przekształcenia danych w praktyczną wiedzę.
Dane: Elementy gromadzone codziennie w postaci bitów, liczb, symboli i "obiektów".
Eksploracja danych: zastosowanie metod i narzędzi analitycznych do danych w celu identyfikacji wzorców, relacji lub uzyskania systemów wykonujących przydatne zadania, takie jak klasyfikacja, przewidywanie, szacowanie lub grupowanie powinowactwa.
Informacja: "Zorganizowane dane", które są wstępnie przetwarzane, oczyszczane, układane w struktury i pozbawione nadmiarowości.
Wiedza: "zintegrowana informacja", która obejmuje fakty i relacje, które zostały dostrzeżone, odkryte lub wyuczone.
Optymalizacja: Proces znalezienia rozwiązania, które najlepiej pasuje do dostępnych zasobów.
Przewidywanie: stwierdzenie lub twierdzenie, że określone wydarzenie nastąpi w przyszłości.
Sztuczne sieci neuronowe (SSN): syntetyczny system przetwarzania informacji, składający się z kilku prostych nieliniowych jednostek przetwarzających, połączonych elementami posiadającymi funkcje przechowywania informacji i programowania, dostosowujące się i uczące na podstawie wzorców, co naśladuje biologiczną sieć neuronową.
Ślepa separacja źródeł (BSS): Separacja ukrytych, nieredundantnych (tj. wzajemnie statystycznie niezależnych lub dekorelowanych) sygnałów źródłowych ze zbioru mieszanin liniowych w taki sposób, że regularność każdego wynikowego sygnału jest maksymalizowana, a regularność między sygnałami jest minimalizowana (tj. niezależność statystyczna jest maksymalizowana) bez (prawie) jakichkolwiek informacji o źródłach.
Konfirmacyjna analiza danych (CDA): podejście, w którym po zebraniu danych następuje nałożenie wcześniejszego modelu oraz analiza, oszacowanie i przetestowanie parametrów modelu.
Eksploracyjna analiza danych (EDA): podejście polegające na umożliwieniu samym danym ujawnienia ich podstawowej struktury i modelu, w dużym stopniu wykorzystując zbiór technik zwanych grafiką statystyczną.
Niezależna analiza składowych (ICA): Eksploracyjna metoda rozdzielania liniowej mieszaniny ukrytych źródeł sygnału na niezależne składowe jako optymalne szacunki pierwotnych źródeł na podstawie ich wzajemnej niezależności statystycznej i niegaussa.
Reguła uczenia się: Strategia zmiany wagi w systemie koneksjonistycznym mająca na celu optymalizację określonej funkcji celu. Reguły uczenia się są stosowane iteracyjnie do danych wejściowych zbioru uczącego, przy czym błąd jest stopniowo zmniejszany w miarę dostosowywania się wag.
Analiza głównych składowych (PCA): ortogonalna transformacja liniowa oparta na dekompozycji wartości osobliwych, która rzutuje dane na podprzestrzeń zachowującą maksymalną wariancję.
Sztuczne sieci neuronowe (ANN): Sztuczna sieć neuronowa, często nazywana po prostu "siecią neuronową" (NN), to połączona grupa sztucznych neuronów, która wykorzystuje model matematyczny lub model obliczeniowy do przetwarzania informacji w oparciu o koneksjonistyczne podejście do obliczeń. Sieć nabywa wiedzę z otoczenia w procesie uczenia się, a siła połączeń międzyneuronowych (wagi synaptyczne) służy do przechowywania zdobytej wiedzy.
Ewoluująca rozmyta sieć neuronowa (EFuNN): Ewoluująca rozmyta sieć neuronowa to dynamiczna architektura, w której węzły reguł rosną w razie potrzeby i kurczą się w wyniku agregacji. Nowe jednostki reguł i połączenia można łatwo dodawać bez zakłócania istniejących węzłów. Schemat uczenia się często opiera się na koncepcji "węzła zwycięskiej reguły".
Logika rozmyta: Logika rozmyta to obszar zastosowań teorii zbiorów rozmytych, zajmujący się niepewnością w rozumowaniu. Wykorzystuje koncepcje, zasady i metody opracowane w ramach teorii zbiorów rozmytych do formułowania różnych form rozsądnego rozumowania przybliżonego. Logika rozmyta pozwala na ustawienie wartości członkostwa w zakresie (włącznie) od 0 do 1, a w swojej formie językowej pozwala na nieprecyzyjne pojęcia, takie jak "nieznacznie", "całkiem" i "bardzo". W szczególności umożliwia częściowe członkostwo w zestawie.
Rozmyte sieci neuronowe (FNN): to sieci neuronowe wzbogacone o możliwości logiki rozmytej, takie jak wykorzystanie danych rozmytych, reguł, zbiorów i wartości rozmytych. Systemy neurorozmyte (NFS): System neurorozmyty to system rozmyty, który wykorzystuje algorytm uczenia się wywodzący się z teorii sieci neuronowych lub inspirowany nią w celu określenia jego parametrów (zbiorów rozmytych i reguł rozmytych) poprzez przetwarzanie próbek danych.
Mapa samoorganizująca się (SOM): Samoorganizująca się mapa jest podtypem sztucznych sieci neuronowych. Jest szkolony przy użyciu uczenia się bez nadzoru w celu uzyskania niskowymiarowej reprezentacji próbek szkoleniowych, przy jednoczesnym zachowaniu właściwości topologicznych przestrzeni wejściowej. Samoorganizująca się mapa to jednowarstwowa sieć ze sprzężeniem zwrotnym, w której składnie wyjściowe są ułożone w niskowymiarową siatkę (zwykle 2D lub 3D). Każde wejście jest połączone ze wszystkimi neuronami wyjściowymi. Do każdego neuronu dołączony jest wektor wag o tej samej wymiarowości co wektory wejściowe. Liczba wymiarów wejściowych jest zwykle znacznie większa niż wymiar wyjściowy siatki. SOM są używane głównie do redukcji wymiarowości, a nie do rozszerzania.
Soft Computing: Soft Computing odnosi się do partnerstwa technik obliczeniowych w informatyce, sztucznej inteligencji, uczeniu maszynowym i niektórych dyscyplinach inżynieryjnych, które próbują badać, modelować i analizować złożone zjawiska. Głównymi partnerami w tym momencie są logika rozmyta, obliczenia neuronowe, rozumowanie probabilistyczne i algorytmy genetyczne. Zatem zasadą miękkiego przetwarzania danych jest wykorzystanie tolerancji na nieprecyzyjność, niepewność i częściową prawdę w celu osiągnięcia wykonalności, solidności, taniego rozwiązania i lepszego kontaktu z rzeczywistością.
Adaptacyjność: Właściwość struktur, które dynamicznie i autonomicznie zmieniają swoje zachowanie w odpowiedzi na bodźce wejściowe.
Adaptacyjny model obliczeniowy: abstrakcja o dużej mocy Turinga, która naśladuje zachowanie potencjalnie samomodyfikujących się złożonych systemów.
Urządzenie adaptacyjne: Struktura zachowująca się dynamicznie, z umieszczonym obok urządzeniem i mechanizmem adaptacyjnym.
Funkcje adaptacyjne i akcje adaptacyjne: Akcje adaptacyjne to wywołania funkcji adaptacyjnych, które mogą określić zmiany, jakie należy wprowadzić w zestawie reguł danej warstwy oraz w funkcjach adaptacyjnych warstwy znajdującej się bezpośrednio pod nimi.
Mechanizm adaptacyjny: dyscyplina zmian powiązana z zestawem reguł urządzenia adaptacyjnego, która zmienia zachowanie urządzenia znajdującego się obok niego poprzez wykonywanie działań adaptacyjnych.
Adaptacyjne urządzenie oparte na regułach: urządzenie adaptacyjne, którego zachowanie jest określone przez dynamicznie zmieniający się zestaw reguł, np.: automaty adaptacyjne, gramatyki adaptacyjne itp.
Zależność od kontekstu: reinterpretacja terminów ze względu na warunki występujące w innym miejscu zdania, np. zasady umowy w języku angielskim, sprawdzanie typu w Pascalu.
Formalizm kontekstowy (zależny): abstrakcja zdolna do reprezentowania języków Chomsky′ego typu 1 lub typu 0. Do wyrażania takich języków dobrze nadają się automaty adaptacyjne i adaptacyjne gramatyki bezkontekstowe.
Hierarchiczne (wielopoziomowe) urządzenie adaptacyjne: warstwowe struktury adaptacyjne, w których działania adaptacyjne warstwy mogą modyfikować zarówno reguły własnej warstwy, jak i funkcje adaptacyjne warstwy podstawowej.
Urządzenie sąsiadujące (lub bazowe): dowolne urządzenie wykorzystywane jako podstawa do formułowania urządzeń adaptacyjnych. Najbardziej wewnętrzna część wielopoziomowego urządzenia znajdującego się poniżej nie może być adaptacyjna
Bionika: zastosowanie metod i systemów występujących w przyrodzie do badania i projektowania systemów inżynieryjnych. Wydaje się, że słowo to powstało z połączenia "biologii" i "elektroniki" i zostało użyte po raz pierwszy przez J. E. Steele w 1958 roku.
Wielomian Czebyszewa: ważny rodzaj wielomianów stosowanych w interpolacji danych, zapewniający najlepsze przybliżenie funkcji ciągłej w ramach normy maksymalnej.
Zakres dynamiczny: Termin używany do opisania stosunku pomiędzy najmniejszymi i największymi możliwymi wartościami zmiennej wielkości.
FPGA: Akronim oznaczający Field-Programmable Gate Array, urządzenie półprzewodnikowe wynalezione w 1984 roku przez R. Freemana, które zawiera programowalne interfejsy i komponenty logiczne zwane "blokami logicznymi" służące do wykonywania funkcji podstawowych bramek logicznych (np. XOR) lub bardziej złożonych funkcje kombinowane, takie jak dekodery.
Odcinkowa funkcja liniowa: funkcja f(x), którą można podzielić na pewną liczbę odcinków liniowych, z których każdy jest zdefiniowany dla niezachodzącego na siebie przedziału x.
Splot przestrzenny: termin używany do określenia liniowej kombinacji serii dyskretnych danych 2D (obrazu cyfrowego) z kilkoma współczynnikami lub wagami. W teorii Fouriera splot w przestrzeni jest równoważny (przestrzennemu) filtrowaniu częstotliwości.
Szablon: Znany również jako jądro lub jądro splotu, to zestaw współczynników używanych do wykonywania operacji filtrowania przestrzennego na obrazie cyfrowym za pośrednictwem operatora splotu przestrzennego.
VLSI: Akronim oznaczający integrację na bardzo dużą skalę. Jest to proces tworzenia układów scalonych poprzez połączenie tysięcy (obecnie setek milionów) obwodów tranzystorowych w jeden układ scalony. Typowym urządzeniem VLSI jest mikroprocesor.
Modelowanie oparte na agentach: wykorzystanie inteligentnych agentów oraz ich działań i interakcji w danym środowisku do symulacji złożonej dynamiki systemu.
Dyfuzja innowacji: spopularyzowane przez Everetta Rogersa badanie procesu komunikowania i przyjmowania innowacji wśród członków systemu społecznego.
Inteligentny agent: autonomiczny program, który jest w stanie uczyć się i dostosowywać do swojego środowiska, aby wykonywać określone zadania powierzone mu przez jego mistrza.
Inteligentny system: system posiadający spójny zestaw komponentów i podsystemów współpracujących ze sobą w celu podejmowania działań zorientowanych na cel.
Inteligentne modelowanie systemów: proces konstruowania, kalibracji i walidacji modeli inteligentnych systemów.
System wieloagentowy: system rozproszony z grupą inteligentnych agentów, którzy komunikują się, targują, konkurują i współpracują z innymi agentami i otoczeniem, aby osiągnąć cele wyznaczone przez swoich mistrzów.
Inteligencja organizacyjna: zdolność organizacji do postrzegania, interpretowania i wybierania najwłaściwszej reakcji na otoczenie, aby osiągnąć swoje cele
Analiza kopuli: przekształca niegaussowskie rozkłady prawdopodobieństwa do wspólnej odpowiedniej przestrzeni (zwykle przestrzeni Gaussa), w której ma sens obliczanie korelacji jako momentów drugich.
DIME: Reprezentuje dyplomatyczne, informacyjne, wojskowe i ekonomiczne aspekty informacji, które należy połączyć w spójny wzór.
Globalna optymalizacja: odnosi się do zbioru algorytmów używanych do statystycznego próbkowania przestrzeni parametrów lub zmiennych w celu optymalizacji systemu, ale często jest również używany do próbkowania ogromnej przestrzeni w celu uzyskania informacji. Istnieje wiele wariantów, w tym symulowane wyżarzanie, algorytmy genetyczne, optymalizacja kolonii mrówek, wspinaczka po wzgórzach itp.
ISM: Anakronim dla Ideas by Statistical Mechanics w kontekście rzeczownika zdefiniowanego jako: Przekonanie (lub system przekonań) akceptowane jako autorytatywne przez jakąś grupę lub szkołę. Doktryna lub teoria; zwłaszcza teoria szalona lub wizjonerska. Charakterystyczna doktryna, teoria, system lub praktyka.
Meme: Nawiązuje do technologii pierwotnie zdefiniowanej w celu wyjaśnienia ewolucji społecznej, która została udoskonalona tak, aby oznaczała podobne do genu narzędzie analityczne do badania ewolucji kulturowej.
Pamięć: może mieć wiele form i mechanizmów. W tym przypadku w technologiach sztucznej inteligencji wykorzystywane są dwa główne procesy pamięci kory nowej, pamięć krótkotrwała (STM) i pamięć długoterminowa (LTM).
Symulowane wyżarzanie (SA): klasa algorytmów próbkowania z ogromnej przestrzeni, która ma matematyczny dowód zbieżności z globalnymi optymalnymi minimami. Większość algorytmów SA stosowanych w większości systemów nie wykorzystuje w pełni tego dowodu, ale dowód często jest przydatny, aby dać pewność, że system uniknie utknięcia na długi czas w lokalnych optymalnych regionach.
Mechanika statystyczna: Dział fizyki matematycznej zajmujący się układami o dużej liczbie stanów. Zastosowania nierównowagowej nieliniowej mechaniki statystycznej są obecnie powszechne w wielu dziedzinach, począwszy od nauk fizycznych i biologicznych, przez finanse, po informatykę itp.
Agent: W terminologii RL jest odpowiedzialny za podejmowanie decyzji zgodnie z obserwacjami swojego otoczenia.
Środowisko: W terminologii RL jest to każdy warunek zewnętrzny agenta.
Dylemat eksploracji-eksplotacji: Jest to klasyczny dylemat RL, w którym należy osiągnąć rozwiązanie kompromisowe. Eksploracja oznacza losowe poszukiwanie nowych działań w celu osiągnięcia prawdopodobnej (ale jeszcze nieznanej) lepszej nagrody niż wszystkie znane, podczas gdy eksploatacja koncentruje się na wykorzystaniu bieżącej wiedzy w celu maksymalizacji nagrody (podejście zachłanne).
Wartość w czasie życia: Jest to miara szeroko stosowana w aplikacjach marketingowych, która oferuje długoterminowy wynik, który należy zmaksymalizować.
Nagroda: W terminologii RL natychmiastowa nagroda to wartość zwracana przez otoczenie agentowi w zależności od podjętego działania. Długoterminowa nagroda to suma wszystkich natychmiastowych nagród w całym procesie decyzyjnym.
Wrażliwość: Podobna miara, która oferuje stosunek pozytywów, które są prawidłowo klasyfikowane przez model. Specyficzność: Miara wskaźnika sukcesu w problemie klasyfikacji. Jeśli istnieją dwie klasy (mianowicie, pozytywna i negatywna), specyficzność mierzy stosunek negatywów, które są poprawnie klasyfikowane przez model.
Sztuczne społeczeństwa: Złożone systemy, potencjalnie dużego, zbioru agentów, których interakcje są ograniczone normami i rolami, za które odpowiadają agenci.
Agenci poznawczy: Agenci oprogramowania obdarzeni wysokim poziomem postaw mentalnych, takimi jak przekonania, cele i plany.
Świadomość kontekstu: Odnosi się do idei, że komputery mogą zarówno wyczuwać, jak i reagować zgodnie ze stanem środowiska, w którym się znajdują. Urządzenia mogą posiadać informacje o okolicznościach, w których są w stanie działać i odpowiednio reagować.
Interakcja naturalna: Badanie relacji między ludźmi a maszynami mające na celu tworzenie interaktywnych artefaktów, które szanują i wykorzystują naturalną dynamikę, za pomocą której ludzie komunikują się i odkrywają prawdziwy świat.
Inteligentne domy: Domy wyposażone w inteligentne czujniki i urządzenia w ramach infrastruktury komunikacyjnej, która umożliwia różnym systemom i urządzeniom komunikowanie się ze sobą w celach monitorowania i konserwacji
Wszechobecne przetwarzanie: Model interakcji człowiek-komputer, w którym przetwarzanie informacji jest zintegrowane z codziennymi przedmiotami i czynnościami. W przeciwieństwie do paradygmatu pulpitu, w którym pojedynczy użytkownik wybiera interakcję z pojedynczym urządzeniem w wyspecjalizowanym celu, w przypadku przetwarzania wszechobecnego użytkownik wchodzi w interakcję z wieloma urządzeniami obliczeniowymi i systemami jednocześnie, w trakcie zwykłych czynności, i niekoniecznie musi być tego świadomy.
Sieci czujników bezprzewodowych: Sieci bezprzewodowe składające się z rozproszonych przestrzennie autonomicznych urządzeń wykorzystujących czujniki do wspólnego monitorowania warunków fizycznych lub środowiskowych, takich jak temperatura, dźwięk, wibracje, ciśnienie, ruch lub zanieczyszczenia, w różnych lokalizacjach.
Ambient Intelligence: Ambient Intelligence (AmI) zajmuje się nowym światem, w którym urządzenia komputerowe są wszędzie rozproszone, umożliwiając ludziom interakcję w środowiskach świata fizycznego w inteligentny i dyskretny sposób. Środowiska te powinny być świadome potrzeb ludzi, dostosowywać wymagania i prognozować zachowania.
Świadomość kontekstu: Świadomość kontekstu oznacza, że system jest świadomy bieżącej sytuacji, z którą mamy do czynienia.
Systemy wbudowane: Systemy wbudowane oznaczają, że urządzenia elektroniczne i komputerowe są osadzone w bieżących obiektach lub towarach.
Inteligentna sala decyzyjna: Przestrzeń podejmowania decyzji, np. sala konferencyjna lub centrum sterowania, wyposażona w inteligentne urządzenia i/lub systemy wspomagające procesy podejmowania decyzji.
Inteligentny dom: Dom wyposażony w kilka urządzeń elektronicznych i interaktywnych, które pomagają mieszkańcom w zarządzaniu konwencjonalnymi decyzjami domowymi.
Inteligentne systemy transportowe: Inteligentne systemy stosowane w obszarze transportu, a mianowicie w kwestiach ruchu drogowego i podróżowania.

Inteligentne pojazdy: Pojazd wyposażony w czujniki i komponenty wspomagające podejmowanie decyzji.
Wszechobecne przetwarzanie: Wszechobecne przetwarzanie jest powiązane ze wszystkimi fizycznymi częściami naszego życia, użytkownik może nie mieć pojęcia o urządzeniach obliczeniowych i szczegółach związanych z tymi fizycznymi częściami.
Wszechobecne przetwarzanie: Wszechobecne przetwarzanie oznacza, że mamy dostęp do urządzeń obliczeniowych w dowolnym miejscu w sposób zintegrowany i spójny.-
Automatyczne rozpoznawanie mowy: Rozpoznawanie maszynowe i konwersja wypowiedzianych słów na tekst.
Eksploracja danych: Zastosowanie metod analitycznych i narzędzi do danych w celu identyfikacji wzorców, relacji lub uzyskania systemów wykonujących przydatne zadania, takie jak klasyfikacja, przewidywanie, szacowanie lub grupowanie powinowactwa.
Ekstrakcja informacji: Automatyczne wyodrębnianie ustrukturyzowanej wiedzy z nieustrukturyzowanych dokumentów. Tekst zaszumiony: Tekst z jakąkolwiek różnicą w formie powierzchniowej od zamierzonego, poprawnego lub oryginalnego tekstu.
Optyczne rozpoznawanie znaków: Tłumaczenie obrazów tekstu pisanego odręcznie lub maszynowo (zwykle przechwytywanego przez skaner) na tekst edytowalny maszynowo.
Indukcja reguł: Proces uczenia się, z przypadków lub instancji, relacji reguł if-then, które składają się z poprzednika (część if, definiująca warunki wstępne lub zakres reguły) i następnika (część then, stwierdzająca klasyfikację, przewidywanie lub inne wyrażenie własności, która zachodzi dla przypadków zdefiniowanych w poprzedniku). Analiza tekstu: Proces wydobywania przydatnej i ustrukturyzowanej wiedzy z nieustrukturyzowanych dokumentów w celu znalezienia przydatnych skojarzeń i spostrzeżeń.
Klasyfikacja tekstu (lub kategoryzacja tekstu): Zadanie polega na uczeniu się modeli dla danego zestawu klas i stosowaniu tych modeli do nowych, niewidzianych dokumentów w celu przypisania do klasy.
Automatyczne rozpoznawanie mowy: Rozpoznawanie maszynowe i konwersja wypowiedzianych słów na tekst.
Eksploracja danych: Zastosowanie metod analitycznych i narzędzi do danych w celu identyfikacji wzorców, relacji lub uzyskania systemów wykonujących użyteczne zadania, takie jak klasyfikacja, przewidywanie, szacowanie lub grupowanie powinowactwa.
Ekstrakcja informacji: Automatyczne wyodrębnianie ustrukturyzowanej wiedzy z nieustrukturyzowanych dokumentów.
Ekstrakcja wiedzy: Wyjaśnienie wewnętrznej wiedzy systemu lub zestawu danych w sposób, który jest łatwy do zinterpretowania przez użytkownika.
Tekst zaszumiony: Tekst z jakąkolwiek różnicą w formie powierzchniowej od zamierzonego, poprawnego lub oryginalnego tekstu.
Optyczne rozpoznawanie znaków: Tłumaczenie obrazów tekstu pisanego ręcznie lub maszynowo (zwykle przechwytywanego przez skaner) na tekst edytowalny maszynowo.
Indukcja reguł: Proces uczenia się, z przypadków lub instancji, relacji reguł if-then, które składają się z poprzednika (część if, definiująca warunki wstępne lub zakres reguły) i następnika (część then, stwierdzająca klasyfikację, przewidywanie lub inne wyrażenie własności, która obowiązuje dla przypadków zdefiniowanych w poprzedniku).
Analiza tekstu: Proces wydobywania przydatnej i ustrukturyzowanej wiedzy z nieustrukturyzowanych dokumentów w celu znalezienia przydatnych skojarzeń i spostrzeżeń.
Angiografia: Obraz naczyń krwionośnych uzyskany dowolną możliwą procedurą.
Tętnica: Każde z naczyń, które transportują krew z serca do innych części ciała.
Tomografia komputerowa: Eksploracja promieni rentgenowskich, która tworzy szczegółowe obrazy przekrojów osiowych ciała. Tomografia komputerowa uzyskuje wiele obrazów poprzez obracanie się wokół ciała. Komputer łączy wszystkie te obrazy w ostateczny obraz, który przedstawia przekrój ciała jak plaster.
System ekspercki: Komputer lub program komputerowy, który może dawać odpowiedzi podobne do tych od eksperta.
Segmentacja: W wizji komputerowej segmentacja odnosi się do procesu podziału obrazu cyfrowego na wiele regionów. Celem segmentacji jest uproszczenie i/lub zmiana reprezentacji obrazu na coś, co jest bardziej znaczące i łatwiejsze do analizy. Segmentacja obrazu jest zwykle stosowana do lokalizowania obiektów i granic (struktur) na obrazach, w tym przypadku drzewa wieńcowego w ramach cyfrowej angiografii.
Zwężenie: Zwężenie to nieprawidłowe zwężenie w naczyniu krwionośnym lub innym narządzie lub strukturze rurowej. Tętnica wieńcowa, która jest zwężona lub zwężona, nazywana jest zwężoną. Nagromadzenie tłuszczu, cholesterolu i innych substancji z czasem może zatkać tętnicę. Wiele zawałów serca jest spowodowanych całkowitym zablokowaniem naczynia w sercu, zwanego tętnicą wieńcową.
Thresholding: Technika przetwarzania obrazów cyfrowych polegająca na stosowaniu określonej właściwości lub operacji do pikseli, których wartość intensywności przekracza określony próg.
Kompresja: Naprężenie generowane przez ściskanie lub ściskanie.
Konsystencja: Względna ruchliwość lub zdolność świeżo wymieszanego betonu lub zaprawy do płynięcia; typowym pomiarem betonu jest osiadanie, równe osiadaniu mierzonemu z dokładnością do 1/4 cala (6 mm) uformowanej próbki bezpośrednio po usunięciu stożka osiadania.
Ciągliwość: Ta właściwość materiału, dzięki której może on ulegać dużym trwałym odkształceniom bez pęknięcia.
Szalunek: Cały system podparcia świeżo położonego betonu, w tym forma lub poszycie, które stykają się z betonem, a także elementy nośne, osprzęt i niezbędne wzmocnienia; czasami nazywane szalunkiem w Wielkiej Brytanii.
Rozpiętość ścinania: Odległość między reakcją a najbliższym punktem obciążenia
Bezpieczeństwo konstrukcyjne: Reakcja konstrukcyjna silniejsza niż siły wewnętrzne wytwarzane przez obciążenie zewnętrzne.
Rozciąganie: Naprężenie wytwarzane przez rozciąganie.
Sztuczne sieci neuronowe: Połączony zestaw wielu prostych jednostek przetwarzających, powszechnie nazywanych neuronami, które wykorzystują model matematyczny, który reprezentuje relację wejścia/wyjścia
Algorytm propagacji wstecznej: Technika uczenia nadzorowanego stosowana przez sieci neuronowe, która iteracyjnie modyfikuje wagi połączeń sieci, tak aby błąd podawany przez sieć po porównaniu wyników z wynikami pożądanymi się zmniejszał.
Obliczenia ewolucyjne: Zestaw technik sztucznej inteligencji stosowanych w problemach optymalizacji, które są inspirowane mechanizmami biologicznymi, takimi jak naturalna ewolucja.
Programowanie genetyczne: Technika uczenia maszynowego wykorzystująca algorytm ewolucyjny w celu optymalizacji populacji programów komputerowych zgodnie z funkcją sprawności, która określa zdolność programu do wykonywania danego zadania.
Genotyp: Reprezentacja osobnika na całej kolekcji genów, do której stosuje się operatory krzyżowania i mutacji.
Fenotyp: Wyraz właściwości kodowanych przez genotyp osobnika. Populacja: Grupa osobników wykazujących takie same lub podobne struktury genomu, co pozwala na zastosowanie operatorów genetycznych.
Przestrzeń wyszukiwania: Zbiór wszystkich możliwych sytuacji, w których może znajdować się problem, który chcemy rozwiązać.
Sztuczne sieci neuronowe: Sieć wielu prostych procesorów ("jednostek" lub "neuronów"), która imituje biologiczną sieć neuronową. Jednostki są połączone jednokierunkowymi kanałami komunikacyjnymi, które przenoszą dane numeryczne. Sieci neuronowe można trenować w celu znajdowania nieliniowych relacji w danych i są wykorzystywane w takich zastosowaniach jak robotyka, rozpoznawanie mowy, przetwarzanie sygnałów lub diagnostyka medyczna.
Algorytm propagacji wstecznej: Algorytm uczenia się ANN, oparty na minimalizacji błędu uzyskanego z porównania między wyjściami, które sieć daje po zastosowaniu zestawu wejść sieciowych, a wyjściami, które powinna dać (pożądane wyjścia).
Klasyfikacja: Wpływ zjawiska na wstępnie zdefiniowaną klasę lub kategorię poprzez badanie jego charakterystycznych cech. W naszej pracy polega to na określeniu charakteru wykrytych defektów powierzchni urządzeń optycznych (na przykład "kurz" lub "inny rodzaj defektów").
Redukcja wymiarowości danych: Redukcja wymiarowości danych to przekształcenie danych wielowymiarowych w sensowną reprezentację zredukowanej wymiarowości. Celem jest znalezienie ważnych relacji między parametrami i odtworzenie tych relacji w przestrzeni o niższej wymiarowości. W idealnym przypadku uzyskana reprezentacja ma wymiarowość odpowiadającą wymiarowości wewnętrznej danych. Redukcja wymiarowości jest ważna w wielu dziedzinach, ponieważ ułatwia klasyfikację, wizualizację i kompresję danych o wysokiej wymiarowości. W naszej pracy jest ona wykonywana przy użyciu analizy odległości krzywoliniowej.
Wymiar wewnętrzny danych: gdy dane są opisywane wektorami (zbiorami wartości charakterystycznych), wymiar wewnętrzny danych jest efektywną liczbą stopni swobody zestawu wektorów. Zasadniczo wymiar ten jest mniejszy niż wymiar danych surowych, ponieważ mogą istnieć liniowe i/lub nieliniowe relacje między różnymi składnikami wektorów.
Wymiar danych surowych: gdy dane są opisywane wektorami (zbiorami wartości charakterystycznych), wymiar danych surowych jest po prostu liczbą składników tych wektorów.
Wykrywanie: identyfikacja zjawiska między innymi na podstawie szeregu cech charakterystycznych lub "symptomów". W naszej pracy polega to na identyfikowaniu nieregularności powierzchni na urządzeniach optycznych.
MLP (Multi Layer Perceptron): Ta szeroko stosowana sztuczna sieć neuronowa wykorzystuje perceptron jako prosty procesor. Model perceptronu, zaproponowany przez Rosenblatta, wygląda następująco:



Na tym schemacie X oznacza wejścia, a Y wyjście neuronu. Każde wejście jest mnożone przez wagę w, próg b jest odejmowany od wyniku, a na koniec Y jest przetwarzane przez zastosowanie funkcji aktywacji f. Wagi połączenia są dostosowywane podczas fazy uczenia się przy użyciu algorytmu propagacji wstecznej.
Automatyczne systemy oceny: Aplikacje skupiające się na ocenie mocnych i słabych stron uczniów w różnych działaniach edukacyjnych za pomocą testów oceniających.
Wspomagane komputerowo uczenie się współpracy (CSCL): Temat badawczy dotyczący wspierania metodologii uczenia się współpracy za pomocą komputerów i narzędzi współpracy.
Nauka oparta na grach: Nowy typ nauki, który łączy treści edukacyjne i gry komputerowe w celu poprawy satysfakcji i wyników uczniów podczas zdobywania nowej wiedzy i umiejętności.
Inteligentne systemy nauczania: Program komputerowy, który zapewnia uczniom spersonalizowane/adaptacyjne instrukcje bez ingerencji ludzi.
Ontologie: Zestaw pojęć w obrębie domeny, które przechwytują i reprezentują wiedzę konsensualną w sposób ogólny i mogą być ponownie wykorzystywane i udostępniane w aplikacjach oprogramowania.
Agenci oprogramowania: Jednostki oprogramowania, takie jak programy oprogramowania lub roboty, charakteryzujące się autonomią, współpracą i zdolnościami uczenia się.
Modele ucznia: Reprezentacja zachowania ucznia i stopnia kompetencji pod względem istniejącej wiedzy podstawowej na temat domeny.
Uszkodzenie pancerza: Wydobycie kamieni lub elementów betonowych z warstwy pancerza przez działanie fal.
Warstwa pancerza: Zewnętrzna warstwa falochronu z gruzu, składająca się z ciężkich kamieni lub bloków betonowych.
Sztuczne sieci neuronowe: Połączony zestaw wielu prostych jednostek przetwarzających, powszechnie nazywanych neuronami, które wykorzystują model matematyczny reprezentujący relację wejścia/wyjścia.
Algorytm propagacji wstecznej: Technika uczenia nadzorowanego stosowana przez sieci neuronowe, która iteracyjnie modyfikuje wagi połączeń sieci, tak aby błąd podawany przez sieć po porównaniu wyjść z pożądanym zmniejszał się.
Falochron: Konstrukcja przybrzeżna zbudowana w celu osłonięcia obszaru przed falami, zwykle do załadunku lub rozładunku statków.
Odbicie: Proces, w którym energia nadchodzących fal jest zwracana w kierunku morza.
Znaczna wysokość fali: W analizie zapisu fal, średnia wysokość najwyższej jednej trzeciej wybranej liczby fal.
Adaptacja: Adaptacja to proces modyfikacji oparty na danych wejściowych lub obserwacjach. System informacyjny powinien dostosowywać się do konkretnych potrzeb poszczególnych użytkowników w celu uzyskania zoptymalizowanych wyników.
Indeksowanie: Indeksowanie oznacza przypisanie terminów (słów), które reprezentują dokument w indeksie. Indeksowanie może być przeprowadzane ręcznie lub automatycznie. Automatyczne indeksowanie wymaga wyeliminowania słów pomijanych i stemmingu.
Pobieranie informacji: Pobieranie informacji dotyczy reprezentacji i wiedzy, a następnie wyszukiwania odpowiednich informacji w tych źródłach wiedzy. Pobieranie informacji zapewnia technologię stojącą za wyszukiwarkami.
Analiza linków: Linki między stronami w sieci stanowią duże źródło wiedzy, które jest wykorzystywane przez algorytmy analizy linków do wielu celów. Wiele algorytmów podobnych do PageRank określa wynik jakości lub autorytetu na podstawie liczby przychodzących linków strony. Ponadto analiza linków jest stosowana w celu identyfikacji tematycznych stron, społeczności internetowych i innych struktur społecznych.
Systemy rekomendacji: Działania lub treści są sugerowane użytkownikowi na podstawie wcześniejszych doświadczeń zebranych od innych użytkowników. Bardzo często dokumenty są rekomendowane na podstawie profili podobieństwa między użytkownikami.
Rozszerzenie terminu: Terminy nieobecne w oryginalnym zapytaniu do systemu wyszukiwania informacji wprowadzonym przez użytkownika są dodawane automatycznie. Rozszerzone zapytanie jest następnie ponownie wysyłane do systemu.
Ważenie: Ważenie określa ważność terminu dla dokumentu. Wagi są obliczane przy użyciu wielu różnych wzorów, które uwzględniają częstotliwość występowania każdego terminu w dokumencie i w zbiorze, a także długość dokumentu i średnią lub maksymalną długość dowolnego dokumentu w zbiorze.
Diagnostyka wspomagana komputerowo: Obszar badawczy obejmujący rozwój technik obliczeniowych i procedur wspomagających pracowników służby zdrowia w podejmowaniu decyzji dotyczących diagnostyki medycznej.
Redukcja wymiarowości: Znajdowanie zredukowanego zestawu danych, z możliwością mapowania większego zestawu.
Ekstrakcja cech: Znajdowanie reprezentatywnych cech określonego problemu z próbek o różnych cechach.
Obrazy medyczne: Obrazy generowane w specjalistycznym sprzęcie, wykorzystywane w celu wspomagania diagnostyki medycznej. Np.: obrazy rentgenowskie, tomografia komputerowa, obrazy rezonansu magnetycznego.
Rozpoznawanie wzorców: Obszar badawczy obejmujący rozwój metod i zautomatyzowanych technik identyfikacji i klasyfikacji próbek w określonych grupach, zgodnie z reprezentatywnymi cechami.
Diagnostyka radiologiczna: Diagnostyka medyczna oparta na analizie i interpretacji wzorców obserwowanych na obrazach medycznych.
Samouporządkowujące się mapy: Kategoria algorytmów opartych na sztucznych sieciach neuronowych, które wyszukują, za pomocą samouporządkowania, w celu utworzenia mapy cech reprezentujących zaangażowane próbki w określonym problemie.
Chiński pokój: W eksperymencie myślowym Searle′a, prosi nas, abyśmy wyobrazili sobie mężczyznę siedzącego w pokoju z wieloma księgami zasad. Do pokoju wprowadzono zestaw symboli. Mężczyzna przetwarza symbole zgodnie z księgami zasad i przekazuje nowy zestaw symboli poza pokój. Symbole umieszczone w pokoju odpowiadają chińskiemu pytaniu, a symbole, które przekazuje, są odpowiedzią na pytanie w języku chińskim. Jednak mężczyzna przestrzegający zasad nie zna chińskiego. Przykład sugeruje, że program komputerowy mógłby podobnie przestrzegać zasad, aby odpowiedzieć na pytanie bez żadnego zrozumienia.
Klasyczne przetwarzanie symboli: Klasyczny pogląd na poznanie był taki, że było ono analogiczne do symbolicznych obliczeń w komputerach cyfrowych. Informacje są reprezentowane jako ciągi symboli, a przetwarzanie poznawcze obejmuje manipulację tymi ciągami za pomocą zestawu reguł. Zgodnie z tym poglądem szczegóły dotyczące sposobu implementacji takich obliczeń nie są uważane za ważne.
Koneksjonizm: Koneksjonizm to termin używany do opisania zastosowania sztucznych sieci neuronowych w badaniu umysłu. W opisach koneksjonistycznych wiedza jest reprezentowana przez siłę połączeń między zestawem sztucznych neuronów.
Koneksjonizm eliminacyjny: Koneksjonista eliminacyjny stara się przedstawić opis poznania, który unika symboli i działa na poziomie subsymbolicznym. Na przykład koncepcja "psa" mogłaby zostać ujęta w rozproszonej reprezentacji jako szereg cech wejściowych (np. czworonożny, futrzasty, szczeka itp.), a następnie istniałaby w sieci w formie ważonych połączeń między jego jednostkami przypominającymi neurony.
Uogólnienie: Sztuczne sieci neuronowe, po wyszkoleniu, są w stanie uogólniać poza elementy, na których zostały wyszkolone, i generować podobne dane wyjściowe w odpowiedzi na dane wejściowe, które są podobne do tych napotkanych podczas szkolenia.
Koneksjonizm implementacyjny: W tej mniej ekstremalnej wersji koneksjonizmu celem jest znalezienie sposobu na wdrożenie klasycznego przetwarzania symboli przy użyciu sztucznych sieci - i znalezienie sposobu na uwzględnienie przetwarzania symboli na poziomie neuronów.
Decyzja leksykalna: Zadania decyzji leksykalnej to miara opracowana w celu zbadania procesów związanych z rozpoznawaniem słów. Prezentowane jest słowo lub pseudosłowo (bezsensowny ciąg liter zgodny z zasadami pisowni), a czytelnik jest proszony o naciśnięcie przycisku, aby wskazać, czy wyświetlane jest słowo, czy nie. Czas potrzebny na podjęcie decyzji jest rejestrowany w milisekundach. Miara może dostarczyć wskazówek dotyczących różnych aspektów przetwarzania tekstu - na przykład, jak znajome jest słowo czytelnikowi.
Sztuczna sieć neuronowa: Sieć wielu prostych procesorów ("jednostek" lub "neuronów"), która imituje biologiczną sieć neuronową. Jednostki są połączone jednokierunkowymi kanałami komunikacyjnymi, które przenoszą dane liczbowe. Sieci neuronowe można trenować, aby znajdowały nieliniowe relacje w danych i są wykorzystywane w takich zastosowaniach jak robotyka, rozpoznawanie mowy, przetwarzanie sygnałów lub diagnostyka medyczna.
Astrocyty: Astrocyty są podtypem komórek glejowych w mózgu. Pełnią wiele funkcji, w tym tworzenie bariery krew-mózg, dostarczanie składników odżywczych do tkanki nerwowej i odgrywają główną rolę w procesie naprawy i bliznowacenia w mózgu. Modulują transmisję synaptyczną, a ostatnio odkryto ich kluczową rolę w przetwarzaniu informacji.
Algorytm propagacji wstecznej: Technika uczenia nadzorowanego stosowana do trenowania sieci neuronowych, oparta na minimalizacji błędu uzyskanego z porównania wyników, które sieć daje po zastosowaniu zestawu danych wejściowych sieci, z wynikami, które powinna dać (pożądane wyniki).
Obliczenia ewolucyjne: Podejście do rozwiązania kierowane przez ewolucję biologiczną, która zaczyna się od potencjalnych modeli rozwiązań, a następnie iteracyjnie stosuje algorytmy w celu znalezienia najlepiej dostosowanych modeli z zestawu, które mają służyć jako dane wejściowe do następnej iteracji, co ostatecznie prowadzi do modelu najlepiej reprezentującego dane.
Algorytmy genetyczne: Algorytmy genetyczne (GA) to adaptacyjne algorytmy heurystyczne oparte na ewolucyjnych ideach doboru naturalnego i genetyki. Podstawowa koncepcja GA została zaprojektowana w celu symulacji procesów w naturalnym systemie niezbędnych do ewolucji, w szczególności tych, które podążają za zasadami po raz pierwszy określonymi przez Karola Darwina dotyczącymi przetrwania najsilniejszych. Jako takie stanowią one inteligentne wykorzystanie losowego wyszukiwania w określonej przestrzeni wyszukiwania w celu rozwiązania problemu.
System glejowy: Powszechnie nazywane gliami (po grecku "klej"), są komórkami nieneuronalnymi, które zapewniają wsparcie i odżywianie, utrzymują homeostazę, tworzą mielinę i uczestniczą w transmisji sygnałów w układzie nerwowym. Szacuje się, że w mózgu człowieka liczba komórek glejowych przewyższa liczbę neuronów w stosunku 10 do 1.
Trening hybrydowy: :metoda zdobywania wiedzy, która łączy nadzorowany i nienadzorowany trening systemów łącznikowych.
Synapsa: Specjalistyczne połączenia, przez które komórki układu nerwowego wysyłają sygnały do siebie nawzajem i do komórek nieneuronalnych, takich jak te w mięśniach lub gruczołach.
Reguła asocjacyjna: Implikacja postaci X ? Y w transakcyjnej bazie danych z parametrami wsparcia (s) i pewności (c). X i Y to zbiór elementów, s to ułamek transakcji zawierających X?Y, a c% transakcji zawierających X zawiera również Y.
Klasyfikacja: Technika eksploracji danych, która konstruuje model (klasyfikator) z danych historycznych (danych szkoleniowych) i używa go do przewidywania kategorii niewidzianych krotek.
Klastrowanie: Technika eksploracji danych w celu podziału obiektów danych na zbiór grup w taki sposób, aby maksymalizować podobieństwo wewnątrzgrupowe, a minimalizować podobieństwo międzygrupowe.
Eksploracja danych: Ekstrakcja interesujących, nietrywialnych, niejawnych, wcześniej nieznanych i potencjalnie przydatnych informacji lub wzorców z danych w dużych bazach danych.
Strumień danych: Ciągły przepływ danych ze źródła danych, np. czujnika, tickera giełdowego, urządzenia monitorującego itp. Strumień danych charakteryzuje się nieograniczonym rozmiarem. Opisowa technika eksploracji: technika eksploracji danych, która indukuje model opisujący cechy danych. Techniki te są zazwyczaj nienadzorowane i całkowicie oparte na danych.
Predykcyjna technika eksploracji: technika eksploracji danych, która indukuje model z danych historycznych w sposób nadzorowany i wykorzystuje model do przewidywania pewnych cech nowych danych.
Atak siłowy: Wyczerpująca technika kryptoanalityczna, która przeszukuje całą przestrzeń kluczy w celu znalezienia poprawnego klucza.
Kryptoanaliza: Jest to proces próby odszyfrowania danego tekstu zaszyfrowanego i/lub znalezienia klucza bez znajomości klucza lub z jego częściową znajomością. Jest to również obszar badawczy badający techniki kryptoanalizy. Przestrzeń kluczy: Zbiór wszystkich możliwych kluczy dla danego szyfrogramu. Przestrzeń kluczy może być ograniczona do podprzestrzeni całego K przez pewną wcześniejszą wiedzę.
Tekst jawny: Niezaszyfrowany tekst, ciąg liter z alfabetu P danego kryptosystemu.
Atak relaksacyjny: Technika kryptoanalityczna, która przeszukuje przestrzeń kluczy poprzez przyrostowe aktualizacje kluczy kandydujących. Zwykle stosuje wiedzę z poprzednich próbnych deszyfrowania, aby zmienić niektóre części klucza.
Sztuczna sieć neuronowa (ANN): Model matematyczny inspirowany biologicznymi sieciami neuronowymi. Jednostki te nazywane są neuronami połączonymi w różnych warstwach wejściowych, ukrytych i wyjściowych. W przypadku określonego bodźca (dane liczbowe w warstwie wejściowej) niektóre neurony są aktywowane zgodnie z funkcją aktywacji i generują numeryczne wyjście. W ten sposób ANN jest trenowana, przechowując nauczony model w macierzach wagowych neuronów. Wykazano, że tego rodzaju przetwarzanie jest odpowiednie do znajdowania nieliniowych relacji w danych, będąc bardziej elastycznym w niektórych zastosowaniach niż modele wyodrębnione za pomocą technik rozkładu liniowego.
Metoda elementów skończonych (MES): Jest to technika analizy numerycznej służąca do uzyskiwania rozwiązań równań różniczkowych, które opisują lub w przybliżeniu opisują szeroką gamę problemów. Podstawowe założenie MES głosi, że skomplikowaną domenę można podzielić na szereg mniejszych regionów (elementy skończone), w których równania różniczkowe są w przybliżeniu rozwiązywane. Poprzez złożenie zestawu równań dla każdego regionu określa się zachowanie w całej domenie problemu.
Badanie echa uderzeniowego: Nieniszcząca procedura oceny oparta na monitorowaniu ruchu powierzchni wynikającego z krótkotrwałego uderzenia mechanicznego. Na podstawie analiz drgań mierzonych przez czujniki można uzyskać diagnozę stanu materiału.
Ocena nieniszcząca (NDE): Techniki NDE, badania ND lub inspekcji ND są stosowane w kontroli jakości materiałów. Techniki te nie niszczą obiektu testowego i wydobywają informacje o wewnętrznej strukturze obiektu. Aby wykryć różne wady, takie jak pęknięcia i korozja, dostępne są różne metody testowania, takie jak prześwietlenie rentgenowskie (gdzie pęknięcia pojawiają się na filmie), ultradźwięki (gdzie pęknięcia pojawiają się jako echo na ekranie) i echo uderzeniowe (pęknięcia są wykrywane przez zmiany w trybach rezonansowych obiektu).
Rozpoznawanie wzorców: Ważny obszar badań dotyczący automatycznego odkrywania lub identyfikowania figur, znaków, kształtów, form i wzorów bez aktywnego udziału człowieka w procesie decyzyjnym. Jest również związany z klasyfikowaniem danych w kategoriach. Klasyfikacja polega na uczeniu się modelu rozdzielania kategorii danych, do tego rodzaju uczenia maszynowego można podejść, stosując techniki statystyczne (modele parametryczne lub nieparametryczne) lub heurystyczne. Jeśli w procesie uczenia podano pewne wcześniejsze informacje, nazywa się to nadzorowanym lub półnadzorowanym, w przeciwnym razie nazywa się to nienadzorowanym.
Analiza głównych składowych (PCA): Metoda osiągania redukcji wymiarowości. Reprezentuje zbiór danych N-wymiarowych za pomocą ich projekcji na zbiór r optymalnie zdefiniowanych osi (głównych składowych). Ponieważ osie te tworzą zestaw ortogonalny, PCA daje liniową transformację danych. Główne składowe reprezentują źródła wariancji w danych. Zatem najbardziej znaczące główne składowe pokazują te cechy danych, które najbardziej się zmieniają.
Widma sygnałów: Zbiór składowych częstotliwości rozłożonych z oryginalnego sygnału w dziedzinie czasu. Istnieje kilka technik mapowania funkcji w dziedzinie czasu na dziedzinę częstotliwości jako transformacje Fouriera i falkowe oraz jej odwrotne transformacje, które umożliwiają rekonstrukcję oryginalnego sygnału
Akcelerometr: Urządzenie mierzące przyspieszenie, które jest przekształcane na sygnał elektryczny przesyłany do sprzętu do akwizycji sygnału. W testach echa uderzeniowego zmierzone przyspieszenie odnosi się do przemieszczeń drgań spowodowanych wzbudzeniem krótkiego uderzenia.
Redukcja wymiarowości: Proces mający na celu zmniejszenie liczby zmiennych problemu. Wymiar problemu jest podany przez liczbę zmiennych (cech lub parametrów), które reprezentują dane. Po ekstrakcji cech sygnału (która zmniejsza oryginalną przestrzeń próbki sygnału), wymiarowość może zostać bardziej zredukowana za pomocą metod selekcji cech.
Szybka transformata Fouriera (FFT): Klasa algorytmów stosowanych w cyfrowym przetwarzaniu sygnałów do obliczania dyskretnej transformaty Fouriera (DFT) i jej odwrotności. Ma zdolność przenoszenia funkcji z dziedziny czasu do dziedziny częstotliwości. Uzyskane składowe częstotliwości są widmami sygnału.
Ekstrakcja cech (FE): Proces mapowania przestrzeni wielowymiarowej na przestrzeń o mniejszej liczbie wymiarów. W przetwarzaniu sygnałów, zamiast przetwarzania surowych sygnałów z tysiącami próbek, bardziej wydajne jest przetwarzanie cech wyodrębnionych z sygnałów, takich jak moc sygnału, częstotliwość główna i współczynnik tłumienia.
Wybór cech (FS): Technika, która wybiera podzbiór cech z danego zestawu cech, które reprezentują istotne właściwości danych. FS można również zdefiniować jako zadanie wyboru małego podzbioru cech, który jest wystarczający do dobrego przewidywania etykiet docelowych, co jest kluczowe dla efektywnego uczenia się. Istnieje kilka metod FS opartych na marginesach (np. relief, simba) lub teorii informacji (np. infogain). Nadzorowane metody FS wykorzystują wiedzę a priori na temat zmiennej klasyfikacji, aby wybrać zmienne silnie skorelowane ze znaną zmienną.
Pozostaw-Jedną-Poza: Metoda stosowana w klasyfikacji z następującymi krokami: i.) Oznacz przypadki bazy danych znanymi klasami. ii.) Wybierz przypadek bazy danych. iii.) Oszacuj klasę dla wybranego przypadku przez klasyfikator, używając pozostałych przypadków jako danych treningowych. iv.) Powtarzaj kroki ii i iii do końca przypadków. v.) Oblicz średni procent sukcesu dla wyników klasyfikacji.
Kondycjoner sygnału (SC): Urządzenie, które konwertuje jeden typ sygnału elektronicznego na inny typ sygnału. Jego głównym zastosowaniem jest konwersja sygnału, który może być trudny do odczytania przez konwencjonalne urządzenia pomiarowe, na format łatwiejszy do odczytania. Typowe funkcje SC to wzmocnienie, izolacja elektryczna i liniowość.
Sztuczne sieci neuronowe: Zestaw podstawowych jednostek przetwarzania, które komunikują się ze sobą za pomocą ważonych połączeń. Jednostki te dają początek równoległemu przetwarzaniu o szczególnych właściwościach, takich jak zdolność do adaptacji lub uczenia się, uogólniania, grupowania lub organizowania danych, aproksymacji funkcji nieliniowych. Każda jednostka otrzymuje dane wejściowe od sąsiadów lub zewnętrznych źródeł i wykorzystuje je do obliczenia sygnału wyjściowego. Taki sygnał jest propagowany do innych jednostek lub jest składnikiem wyjścia sieci. Aby zmapować zestaw wejściowy na wyjściowy, sieć neuronowa jest trenowana przez uczenie wzorców, zmieniając ich wagi zgodnie z właściwymi zasadami uczenia się.
Automatyczna kontrola wizualna: Automatyczna forma kontroli jakości, zwykle realizowana przy użyciu jednej lub więcej kamer podłączonych do jednostki przetwarzania. Automatyczna kontrola wizualna została zastosowana do szerokiej gamy produktów. Jej celem jest zminimalizowanie skutków zmęczenia wzroku operatorów, którzy wykonują wykrywanie defektów w środowisku linii produkcyjnej.
Komórkowe sieci neuronowe: Szczególna architektura obwodów, która posiada pewne kluczowe cechy sztucznych sieci neuronowych. Jej jednostki przetwarzania są rozmieszczone w siatce M×N. Podstawową jednostką sieci neuronowych komórkowych jest komórka, która zawiera liniowe i nieliniowe elementy obwodów. Każda komórka jest połączona tylko z sąsiednimi komórkami. Sąsiednie komórki mogą oddziaływać bezpośrednio na siebie, podczas gdy komórki niepołączone ze sobą bezpośrednio mogą wpływać na siebie pośrednio z powodu efektów propagacji ciągłej dynamiki czasu.
Wykrywanie defektów: Ekstrakcja informacji o obecności wystąpienia przypadku, w którym wymaganie nie jest spełnione w procesach przemysłowych. Celem wykrywania defektów jest wyróżnienie produktów, które są nieprawidłowe lub mają braki w funkcjonalności lub specyfikacjach. Dopasowywanie obrazów: Ustalenie zgodności między każdą parą widocznych homologicznych punktów obrazu na danej parze obrazów, mające na celu ocenę nowości.
Kontrola przemysłowa: Analiza mająca na celu zapobieganie dotarciu niezadowalających produktów przemysłowych do klienta, w szczególności w sytuacjach, w których wadliwe produkty mogą spowodować obrażenia lub nawet zagrozić życiu.
Obszar zainteresowania: Wybrany podzbiór próbek w zestawie danych zidentyfikowanym w określonym celu. W przetwarzaniu obrazu obszar zainteresowania jest identyfikowany przez granice obiektu. Kodowanie Regionu Zainteresowania można osiągnąć, opierając jego wybór na:(a) wartości, która może lub nie może znajdować się poza normalnym zakresem występujących wartości; (b) czysto oddzielonych informacjach graficznych, takich jak elementy rysunkowe; (c) oddzielonych informacjach semantycznych, takich jak zestaw współrzędnych przestrzennych i/lub czasowych.
Sieci neuronowe komórkowe: Szczególna architektura obwodów, która posiada pewne kluczowe cechy sztucznych sieci neuronowych. Jej jednostki przetwarzające są rozmieszczone w siatce M×N. Podstawową jednostką sieci neuronowych komórkowych jest komórka, która zawiera liniowe i nieliniowe elementy obwodów. Każda komórka jest połączona tylko z sąsiednimi komórkami. Sąsiednie komórki mogą oddziaływać bezpośrednio ze sobą, podczas gdy komórki niepołączone bezpośrednio ze sobą mogą wpływać na siebie pośrednio z powodu efektów propagacji ciągłej dynamiki czasu.
Pamięć rozmyta asocjacyjna: Rodzaj pamięci adresowalnej treścią, w której przywołanie następuje poprawnie, jeśli dane wejściowe mieszczą się w określonym oknie składającym się z górnej i dolnej granicy przechowywanych wzorców. Pamięć rozmyta asocjacyjna jest identyfikowana przez macierz wartości rozmytych. Umożliwia mapowanie wejściowego zbioru rozmytego na wyjściowy zbiór rozmyty.
Rozciąganie histogramu: Proces punktowy, który obejmuje zastosowanie odpowiedniej funkcji transformacji do każdego piksela obrazu cyfrowego w celu redystrybucji informacji histogramu w kierunku skrajności zakresu poziomów szarości. Celem tej operacji jest zwiększenie kontrastu obrazów cyfrowych.
Dopasowywanie obrazów: Ustalenie korespondencji między każdą parą widocznych homologicznych punktów obrazu na danej parze obrazów, mające na celu ocenę nowości.
Główne głosowanie: Operacja mająca na celu podjęcie decyzji, czy sąsiedztwo piksela w obrazie cyfrowym zawiera więcej czarnych lub białych pikseli, czy też ich liczba jest równa. Efekt ten jest realizowany w dwóch krokach. Pierwszy z nich powoduje powstanie obrazu, w którym znak najbardziej prawego piksela odpowiada dominującemu kolorowi. Podczas drugiego kroku poziomy szarości najbardziej prawych pikseli są wprowadzane do wartości czarnych lub białych, w zależności od dominującego koloru, lub pozostają niezmienione w przeciwnym razie.
System czasu rzeczywistego: System, który musi spełniać wyraźne ograniczenia czasu reakcji, aby uniknąć awarii. Równoważnie, system czasu rzeczywistego to taki, którego logiczna poprawność opiera się zarówno na poprawności wyników, jak i ich terminowości. Ograniczenia terminowości lub terminy są na ogół odzwierciedleniem podstawowego kontrolowanego procesu fizycznego.
Region zainteresowania: Wybrany podzbiór próbek w zestawie danych zidentyfikowany dla określonego celu. W przetwarzaniu obrazu, region zainteresowania jest identyfikowany przez granice obiektu. Kodowanie regionu zainteresowania można osiągnąć, opierając jego wybór na: (a) wartości, która może lub nie może znajdować się poza normalnym zakresem występujących wartości; (b) czysto oddzielonych informacjach graficznych, takich jak elementy rysunkowe; (c) oddzielonych informacjach semantycznych, takich jak zestaw współrzędnych przestrzennych i/lub czasowych.
Reguła asocjacji: Reguła asocjacji jest implikacją postaci X →Y, gdzie X ⊂ I, Y ⊂ I i X ∩Y = ∅, I oznacza zbiór elementów.
Eksploracja danych: Ekstrakcja interesujących, nietrywialnych, niejawnych, wcześniej nieznanych i potencjalnie przydatnych informacji lub wzorców z danych w dużych bazach danych.
Koncepcja formalna: Kontekst formalny K = (G,M,I) składa się z dwóch zbiorów G (obiekty) i M (atrybuty) oraz relacji I między G i M. Dla zbioru A ⊆ G obiektów A′={meM | gIm dla wszystkich geA} (zbiór wszystkich atrybutów wspólnych dla obiektów w A). Odpowiednio, dla zbioru B atrybutów definiujemy B′ = {geG | gIm dla wszystkich meB} (zbiór obiektów wspólnych dla atrybutów w B). Formalną koncepcją kontekstu (G, M, I) jest para (A, B) z A?G, B?M, A'=B i B'=A A nazywane jest zakresem, a B jest intencją koncepcji (A, B).
Częsty zamknięty zestaw elementów: Zestaw elementów X jest zamkniętym zestawem elementów, jeśli nie istnieje zestaw elementów X′ taki, że:
i. X′ jest właściwym nadzbiór X,
ii. Każda transakcja zawierająca X zawiera również X′. Zamknięty zestaw elementów X jest częsty, jeśli jego wsparcie przekracza dany próg wsparcia.
Połączenie Galois: Niech D = (O, I, R) będzie kontekstem eksploracji danych, gdzie O i I są skończonymi zbiorami obiektów (transakcji) i elementów. R ⊆ O x I jest relacją binarną między obiektami i elementami. Dla O ⊆ O, i I ⊆ I, definiujemy jak pokazano w Załączniku C. f(O) kojarzy z O elementy wspólne dla wszystkich obiektów o ∈ O, a g(I) kojarzy z I obiekty powiązane ze wszystkimi elementami i ∈ I. Para zastosowań (f,g) jest połączeniem Galois pomiędzy zbiorem potęgowym O (tj. 2O) a zbiorem potęgowym I (tj. 2I). Operatory h = f o g w 2I i h′ = g o f w 2o są operatorami domknięcia Galois. Zbiór elementów C ⊆ I z D jest domkniętym zbiorem elementów wtedy i tylko wtedy, gdy h(C) = C.
Generator zbioru elementów: Generator p domkniętego zbioru elementów c jest jednym z najmniejszych zbiorów elementów, takim że h(p) = c.
Reguły asocjacji nieredundantnej : Niech Ri oznacza regułę X1i → X2i, gdzie X1,X2 ⊆ I. Reguła R1 jest bardziej ogólna niż reguła R2, pod warunkiem, że R2 można wygenerować, dodając dodatkowe elementy do poprzednika lub następnika R1. Reguły mające takie samo wsparcie i pewność jak reguły bardziej ogólne są regułami asocjacji redundantnej. Pozostałe reguły są regułami nieredundantnymi.
Atak siłowy: Wyczerpująca technika kryptoanalityczna, która przeszukuje całą przestrzeń kluczy w celu znalezienia poprawnego klucza.
Tekst kandydacki: Tekst uzyskany przez zastosowanie algorytmu deszyfrującego w tekście zaszyfrowanym przy użyciu pewnego klucza k ∈ K. Jeśli k jest poprawnym kluczem (lub kluczem równoważnym) K, to tekst kandydacki jest prawidłowym tekstem jawnym x, w przeciwnym razie jest tekstem zaszyfrowanym przez połączenie dk (eK(x)).
Szyfrogram: Zaszyfrowany tekst, ciąg liter alfabetu C danego kryptosystemu przy użyciu danego klucza K ∈ K.…
Klasyczny szyfr: Klasyczny system szyfru to pięciokrotność (P, C, K, E, D), gdzie P, C, definiują alfabet tekstu jawnego i szyfrogramu, K jest zbiorem możliwych kluczy, a dla każdego K ∈ K istnieje algorytm szyfrowania eK ∈ E i odpowiadający mu algorytm deszyfrowania dK ∈ D taki, że dK (eK(x)) = x dla każdego wejścia x ∈ P i K ∈ K….
Kryptoanaliza: Jest to proces próby odszyfrowania danego szyfrogramu i/lub znalezienia klucza bez znajomości klucza lub z jego częściową znajomością. Jest to również obszar badawczy badający techniki kryptoanalizy.
Przestrzeń kluczy: Zbiór wszystkich możliwych kluczy dla danego szyfrogramu. Przestrzeń kluczy może być ograniczona do podprzestrzeni całego K przez pewną wcześniejszą wiedzę. Tekst jawny: Niezaszyfrowany tekst, ciąg liter z alfabetu P danego kryptosystemu.
Filtr tekstów jawnych: Algorytm lub predykat używany do określania, które teksty nie są prawidłowymi tekstami jawnymi. Filtr idealnych tekstów jawnych nigdy nie zwraca odpowiedzi NIEPOPRAWNEJ dla poprawnego tekstu jawnego.
Funkcja punktacji: Funkcja punktacji jest używana do oceny przydatności tekstu kandydata do klucza k ∈ K. Idealna funkcja punktacji ma ekstremum globalne w poprawnym tekście jawnym, tj. gdy k = K.
Sztuczna sieć neuronowa (ANN): System składający się z połączonych ze sobą sztucznych neuronów lub węzłów (zwykle uproszczonych neuronów), które mogą mieć pewne właściwości biologicznych sieci neuronowych. Mogą być używane do zrozumienia biologicznych sieci neuronowych lub do rozwiązywania tradycyjnych zadań sztucznej inteligencji bez konieczności prób modelowania rzeczywistego systemu biologicznego. Dobrze znanymi przykładami ANN są modele Hopfielda, Kohonena i komórkowego (CNN).
Sprzężenie zwrotne: Sygnał, który jest zapętlany w celu kontrolowania systemu w sobie. Kiedy wyjście systemu jest sprzężone zwrotnie jako część wejścia systemu, nazywa się to pętlą sprzężenia zwrotnego. Prostym urządzeniem elektronicznym opartym na sprzężeniu zwrotnym jest oscylator elektroniczny. Pętla synchronizacji fazowej (PLL) jest przykładem złożonego systemu sprzężenia zwrotnego.
Neuromorficzny: Termin ukuty przez Carvera Meada pod koniec lat 80. XX wieku w celu opisania systemów VLSI zawierających elektroniczne obwody analogowe, które naśladują neurobiologiczne architektury obecne w układzie nerwowym. Niedawno jej definicja została rozszerzona o analogowe, cyfrowe i mieszane układy A/D VLSI, które implementują modele układów neuronowych, a także algorytmy programowe.
Funkcja liniowa kawałkowa: Funkcja f(x), którą można podzielić na szereg liniowych segmentów, z których każdy jest zdefiniowany dla nienakładającego się przedziału x. Splot przestrzenny: Termin używany do identyfikacji liniowej kombinacji szeregu dyskretnych danych 2D (obraz cyfrowy) z kilkoma współczynnikami lub wagami. W teorii Fouriera splot w przestrzeni jest równoważny (przestrzennemu) filtrowaniu częstotliwości.
Szablon: Znany również jako jądro lub jądro splotu, to zbiór współczynników używanych do wykonywania operacji filtrowania przestrzennego na obrazie cyfrowym za pośrednictwem operatora splotu przestrzennego.
Przejściowy: W elektronice układ przejściowy to krótkotrwałe drgania w układzie spowodowane nagłą zmianą napięcia, prądu lub obciążenia. Najczęściej występują one w wyniku działania przełączników. Sygnał wytwarzany przez proces przejściowy nazywany jest sygnałem przejściowym lub po prostu transjentem. Ponadto, transjent dynamicznego systemu można postrzegać jako jego ścieżkę do stabilnego wyjścia końcowego.
VLSI: Akronim oznaczający Very Large Scale Integration (bardzo dużą integrację). Jest to proces tworzenia układów scalonych poprzez łączenie tysięcy (obecnie setek milionów) układów opartych na tranzystorach w jednym układzie scalonym. Typowym urządzeniem VLSI jest mikroprocesor.
Sztuczne sieci neuronowe (ANN): Wysoce równoległe sieci połączonych ze sobą prostych elementów obliczeniowych, które wykonują elementarne operacje, takie jak sumowanie sygnałów wejściowych (sygnałów aferentnych) i wzmacnianie/progowanie sumy.
Wnioskowanie bayesowskie: Podejście do statystyki, w którym wszystkie formy niepewności są wyrażane w kategoriach prawdopodobieństwa.
Dekonwolucja: Algorytmiczna metoda eliminowania szumu i poprawy rozdzielczości danych cyfrowych poprzez odwrócenie efektów splotu na zarejestrowanych danych.
Obraz cyfrowy: Reprezentacja obrazu 2D/3D jako skończony zbiór wartości cyfrowych zwanych pikselami/wokselami, zwykle przechowywanych w pamięci komputera jako obraz rastrowy lub mapa rastrowa.
Entropia: Miara niepewności związanej ze zmienną losową. Entropia kwantyfikuje informacje w części danych.
Przywracanie obrazu: Rozmyty obraz można znacznie poprawić, dekonwoluując jego PSF w taki sposób, że wynik jest ostrzejszym i bardziej szczegółowym obrazem.
Funkcja rozproszenia punktu (PSF): wyjście systemu obrazowania dla źródła punktowego.
Wnioskowanie probabilistyczne: skuteczne podejście do przybliżonego rozumowania i uczenia się empirycznego w AI.
Sztuczna sieć neuronowa: Sztuczna sieć neuronowa (ANN), często nazywana po prostu "siecią neuronową" (NN), to połączona grupa sztucznych neuronów, która wykorzystuje model matematyczny lub model obliczeniowy do przetwarzania informacji w oparciu o podejście koneksjonistyczne do obliczeń.
Algorytm propagacji wstecznej: Technika uczenia nadzorowanego stosowana do trenowania sztucznych sieci neuronowych. Została po raz pierwszy opisana przez Paula Werbosa w 1974 r., a następnie rozwinięta przez Davida E. Rumelharta, Geoffreya E. Hintona i Ronalda J. Williamsa w 1986 r. Jest najbardziej przydatna w przypadku sieci typu feed-forward (sieci, które nie mają sprzężenia zwrotnego lub po prostu nie mają połączeń, które się zapętlają).
Klastrowanie: Klasyfikacja obiektów do różnych grup lub, dokładniej, partycjonowanie zbioru danych na podzbiory (klastry), tak aby dane w każdym podzbiorze (w idealnym przypadku) miały wspólną cechę - często bliskość zgodnie z określoną miarą odległości. Klastrowanie danych to powszechna technika statystycznej analizy danych, która jest wykorzystywana w wielu dziedzinach, w tym w uczeniu maszynowym, eksploracji danych, rozpoznawaniu wzorców, analizie obrazów i bioinformatyce.
Ulepszanie dokumentów: Podkreślenie pewnych pożądanych cech, co może ułatwić późniejsze etapy przetwarzania, takie jak segmentacja lub rozpoznawanie obiektów.
Hierarchiczne klasteryzacja aglomeracyjna: Algorytmy hierarchicznej klasteryzacji znajdują kolejne klastry przy użyciu wcześniej ustalonych klastrów. Algorytmy aglomeracyjne zaczynają od każdego elementu jako oddzielnego klastra i łączą je w kolejne większe klastry.
Perceptron wielowarstwowy (MLP): Ta klasa sztucznych sieci neuronowych składa się z wielu warstw jednostek obliczeniowych, zwykle połączonych w sposób wyprzedzający. Każdy neuron w jednej warstwie ma skierowane połączenia z neuronami kolejnej warstwy. W wielu zastosowaniach jednostki tych sieci stosują funkcję sigmoidalną jako funkcję aktywacji.
Rozpoznawanie znaków optycznych (OCR): Typ oprogramowania komputerowego zaprojektowanego do tłumaczenia obrazów tekstu pisanego odręcznie lub maszynowo (zwykle przechwytywanego przez skaner) na tekst edytowalny maszynowo lub do tłumaczenia obrazów znaków na standardowy schemat kodowania reprezentujący je (np. ASCII lub Unicode). OCR zaczęło się jako dziedzina badań nad rozpoznawaniem wzorców, sztuczną inteligencją i widzeniem maszynowym.
Uczenie nadzorowane: Technika uczenia maszynowego służąca do tworzenia funkcji z danych treningowych. Dane treningowe składają się z par obiektów wejściowych (zwykle wektorów) i pożądanych wyników. Wynik funkcji może być wartością ciągłą (nazywaną regresją) lub może przewidywać etykietę klasy obiektu wejściowego (nazywaną klasyfikacją). Zadaniem uczącego się nadzorowanego jest przewidywanie wartości funkcji dla dowolnego prawidłowego obiektu wejściowego po zobaczeniu szeregu przykładów treningowych (tj. par danych wejściowych i docelowych wyników).
Aminokwas: Jeden z 20 chemicznych bloków budulcowych, które są połączone wiązaniami amidowymi (peptydowymi), tworząc łańcuch polipeptydowy białka.
Sztuczny układ odpornościowy: Biologicznie inspirowane algorytmy komputerowe, które można stosować w różnych domenach, w tym wykrywanie błędów, optymalizacja funkcji i wykrywanie intruzji. Nazywany również komputerowym układem odpornościowym.
Elektroforeza: Zastosowanie zewnętrznego pola elektrycznego do rozdzielania dużych biocząsteczek na podstawie ich ładunku poprzez przepuszczanie ich przez akrylamid lub żel agarozowy.
RNA informacyjne: Komplementarna kopia DNA utworzona z jednoniciowego szablonu DNA podczas transkrypcji, która migruje z jądra do cytoplazmy, gdzie jest przetwarzana w sekwencję przenoszącą informacje w celu zakodowania domeny polipeptydowej.
Mikromacierz: 2D macierz, zwykle na szkle, filtrze lub płytce krzemowej, na której geny lub fragmenty genów są osadzane lub syntetyzowane w ustalonej kolejności przestrzennej, co umożliwia ich udostępnienie jako sond w sposób równoległy o wysokiej przepustowości.
Nukleotyd: Jednostka kwasu nukleinowego składająca się z pięciowęglowego cukru połączonego z grupą fosforanową i zasadą azotową.
Inteligencja roju: Technika sztucznej inteligencji oparta na badaniu zachowań zbiorowych w zdecentralizowanych, samoorganizujących się systemach.
Transkrypcja: Montaż komplementarnego jednoniciowego RNA na matrycy DNA. Translacja: Proces przekształcania RNA w białko poprzez montaż łańcucha polipeptydowego z cząsteczki mRNA w rybosomie.
Bioinformatyka: Zastosowanie matematyki stosowanej, informatyki, statystyki i informatyki do badania systemów biologicznych.
Ekspresja genów: Konwersja informacji z genu na białko poprzez transkrypcję i translację.
Mapowanie genów: Każda metoda stosowana do określania położenia względnej odległości między genami na chromosomie.
Sieć regulacji genów: Geny, które regulują lub ograniczają aktywność innych genów; w szczególności geny z kodem białek (represorów lub aktywatorów), które regulują transkrypcję genetyczną genów strukturalnych i/lub genów regulacyjnych.
Filogeneza: Ewolucyjne powiązania między organizmami. Wzory rozgałęzień linii genetycznie wytworzone przez prawdziwą historię ewolucyjną rozpatrywanego organizmu.
Dopasowanie sekwencji: Wynik porównania dwóch lub więcej sekwencji genów lub białek w celu określenia stopnia podobieństwa zasad lub aminokwasów. Dopasowania sekwencji są wykorzystywane do określania podobieństwa, homologii, funkcji lub innych stopni pokrewieństwa między dwoma lub więcej genami lub produktami genów.
Przewidywanie struktury: Algorytmy, które przewidują dwu- lub trójwymiarową strukturę białek lub cząsteczek DNA na podstawie ich sekwencji.
Pamięć asocjacyjna: Urządzenie matematyczne specjalnie zaprojektowane do przywoływania wzorców wyjściowych ze wzorców wejściowych, które mogą być zmienione przez szum.
Dynamiczna pamięć asocjacyjna: Specjalny typ pamięci asocjacyjnej złożony z dynamicznych synaps. Ta pamięć dostosowuje wartości swoich synaps podczas fazy przywoływania w odpowiedzi na bodźce wejściowe.
Dynamiczne synapsy: Synapsy, które modyfikowały swoje wartości w odpowiedzi na bodziec wejściowy również podczas faz przywoływania.
Filtr dolnoprzepustowy: Filtr, który usuwa wysokie częstotliwości z obrazu lub sygnału. Ten typ filtrów jest używany do symulacji układu wzrokowego niemowlęcia na wczesnych etapach. Przykładami tych filtrów są filtr średni lub filtr medianowy.
PCA: Analiza głównych składowych to technika stosowana w celu zredukowania wielowymiarowych zestawów danych do niższych wymiarów w celu analizy. PCA obejmuje obliczenie rozkładu wartości własnych zestawu danych, zwykle po wyśrodkowaniu średniej danych dla każdego atrybutu.
Losowy wybór: Wybór jednego lub większej liczby składników wektora w sposób losowy. Techniki losowego wyboru są używane do redukcji wielowymiarowych zestawów danych do niższych wymiarów w celu analizy.
Punkty stymulujące: Charakterystyczne punkty obiektu na obrazie używane podczas nauki i rozpoznawania, które przyciągają uwagę dziecka. Te punkty stymulujące są używane do trenowania dynamicznej pamięci asocjacyjnej.
Zachowanie adaptacyjne: Typ zachowania, który pozwala jednostce zastąpić zachowanie destrukcyjne czymś bardziej konstruktywnym i zdolnym do adaptacji do danej sytuacji.
Techniki inspirowane biologią: Systemy i narzędzia inspirowane biologią są w stanie łączyć wyniki z różnych dziedzin wiedzy, w tym biologii, inżynierii i innych nauk fizycznych, zainteresowanych badaniem i wykorzystywaniem modeli i technik inspirowanych lub stosowanychdo systemów biologicznych.
System obliczeniowy: Obliczenia to ogólny termin określający każdy rodzaj przetwarzania informacji, który można przedstawić matematycznie. Obejmuje to zjawiska od prostych obliczeń po ludzkie myślenie. Urządzenie zdolne do wykonywania obliczeń nazywa się systemem obliczeniowym.
Dynamiczne sieci rekurencyjne: Złożony nieliniowy układ dynamiczny opisany przez zestaw nieliniowych równań różniczkowych lub różnicowych z rozległymi wagami połączeń.
Orbity heterokliniczne: W portrecie fazowym układu dynamicznego orbita heterokliniczna (czasami nazywana połączeniem heteroklinicznym) jest ścieżką w przestrzeni fazowej, która łączy dwa różne punkty równowagi. Jeśli punkty równowagi na początku i na końcu orbity są takie same, orbita jest orbitą homokliniczną.
Dylemat stabilności-plastyczności: bada, w jaki sposób system uczący się pozostaje adaptacyjny (plastyczny) w odpowiedzi na znaczące dane wejściowe, a jednocześnie pozostaje stabilny w odpowiedzi na nieistotne dane wejściowe.
Proces konkurencji bez zwycięzcy: proces dynamiczny, którego głównym punktem jest transformacja przychodzącej tożsamości lub danych wejściowych przestrzennych w dane wyjściowe tożsamościowo-czasowe w oparciu o wewnętrzną dynamikę przełączania układu neuronowego.
Automatyczna identyfikacja: System musi ustalić, kim jest użytkownik.
Automatyczna weryfikacja: System musi ustalić, czy dana osoba jest tą, za którą się podaje.
Biometria behawioralna: Oparta na pomiarach i danych pochodzących z czynności wykonywanych przez użytkownika, a zatem pośrednio mierzy niektóre cechy ludzkiego ciała. Do tej grupy należą rozpoznawanie podpisu, chodu, gestów i uderzeń w klawisze.
Równy współczynnik błędów: Wydajność systemu, gdy współczynnik fałszywej akceptacji jest identyczny ze współczynnikiem fałszywego odrzucenia.
Współczynnik fałszywej akceptacji: Współczynnik oszustów, którym nieprawidłowo zezwolono na dostęp.
Współczynnik fałszywego odrzucenia: Współczynnik prawdziwych użytkowników, którym nieprawidłowo odmówiono dostępu.
Biometria fizjologiczna: Oparta na bezpośrednich pomiarach części ludzkiego ciała. Do tej grupy należą rozpoznawanie odcisków palców, twarzy, tęczówki oka i skanu dłoni.
Separacja ślepego źródła: Problem oddzielania od mieszanin sygnałów źródłowych, które je tworzą.
Problem imprezy koktajlowej: Szczególny przypadek separacji ślepego źródła, w którym mieszaniny są splotowe.
Mieszaniny splotowe: Mieszaniny, które nie są liniowe ze względu na echa i pogłosy, nie są całkowicie niezależne ze względu na propagację sygnału przez dynamiczne środowiska.
HOS (statystyki wyższego rzędu): Statystyka wyższego rzędu to dziedzina statystycznego przetwarzania sygnałów, która wykorzystuje więcej informacji niż funkcje autokorelacji i widmo. Wykorzystuje momenty, kumulanty i polispektra. Mogą być używane do uzyskiwania lepszych szacunków parametrów w zaszumionych sytuacjach lub do wykrywania nieliniowości w sygnałach.
ICA (niezależna analiza składowych): Techniki oparte na koncepcjach statystycznych, takich jak statystyki wyższego rzędu.
Mieszaniny liniowe: Mieszaniny, które są liniowymi kombinacjami różnych źródeł, które je tworzą.
Statystycznie niezależne: W przypadku dwóch zdarzeń, zajście jednego zdarzenia nie czyni bardziej ani mniej prawdopodobnym zajścia drugiego zdarzenia.
Sztuczne neurony / Neurony modelowe: Matematyczny opis neuronu biologicznego, w kontekście reprezentacji i przetwarzania informacji. Modele te to elementy przetwarzające, które tworzą sztuczną sieć neuronową. W kontekście chaotycznych sieci neuronowych, modele te obejmują reprezentację aspektów złożonej neurodynamiki.
Atraktory, odpychacze i cykle graniczne: Te trzy koncepcje są związane z koncepcją modalności dynamicznej i dotyczą długoterminowego zachowania układu dynamicznego. Atraktory to trajektorie zmiennej stanu układu, które pojawiają się w długim okresie, ze względną niezależnością względem dokładnych wartości warunków początkowych. Te długoterminowe trajektorie mogą być punktem w przestrzeni stanu (statyczne zachowanie asymptotyczne), nazywane punktami stałymi, wzorcem cyklicznym (nazywanym cyklem granicznym), a nawet trajektorią chaotyczną. Repelenty odpowiadają, jakościowo rzecz biorąc, odwrotnemu zachowaniu atraktorów: biorąc pod uwagę punkt stały lub cykliczną trajektorię układu dynamicznego, nazywa się je trajektoriami typu repelent, jeśli niewielkie zaburzenia mogą sprawić, że układ ewoluuje do trajektorii dalekich od pierwotnej.
Bifurkacja i zróżnicowana dynamika: Koncepcja bifurkacji, obecna w kontekście nieliniowych układów dynamicznych i teorii chaosu, odnosi się do przejścia między dwiema jakościowo różnymi modalnościami dynamicznymi; obie są prezentowane przez ten sam układ dynamiczny, a przejście (bifurkacja) jest promowane przez zmianę wartości odpowiedniego parametru numerycznego takiego układu. Taki parametr nazywa się "parametrem bifurkacji", a w wysoce nieliniowych układach dynamicznych jego zmiana może powodować dużą liczbę bifurkacji między różnymi modalnościami dynamicznymi, charakteryzującymi się samopodobieństwem i strukturą fraktalną. W wielu z tych układów mamy kaskadę niezliczonych bifurkacji, których kulminacją jest produkcja dynamiki chaotycznej.
Dynamika chaotyczna: Dynamika o specyficznych cechach wskazujących na złożone zachowanie, występująca jedynie w układach wysoce nieliniowych. Te charakterystyczne cechy, sformalizowane przez dyscyplinę "Teorii Chaosu", to wysoka wrażliwość na warunki początkowe, zachowanie nieokresowe i generowanie dużej liczby różnych trajektorii w przestrzeni stanów, zgodnie ze zmianą pewnego znaczącego parametru układu dynamicznego (patrz bifurkacja i dynamika zróżnicowana poniżej).
Neuronowe modele chaotyczne: Neurony modelowe, które uwzględniają aspekty złożonej dynamiki obserwowane w izolowanym neuronie biologicznym lub w zespołach kilku neuronów biologicznych. Niektóre z modeli o złożonej dynamice, wspomniane w tekście głównym tego artykułu, to neuron modelowy Aihary, neuron bifurkacyjny zaproponowany przez Nabila Farhata, sieci RPE, sieci CML Kaneko i zbiory K Waltera Freemana.
Przestrzenno-czasowe wzorce zbiorcze: Obserwowane dynamiczne konfiguracje zbiorczej zmiennej stanu w układzie wieloneuronowym (sieci). Aspekt czasowy wynika z faktu, że w chaotycznych sieciach neuronowych stany neuronów modelu ewoluują w czasie. Aspekt przestrzenny wynika z faktu, że neurony tworzące sieć można postrzegać jako punkty dyskretnej (siatkowej) struktury przestrzennej. Stabilność: Badanie odpychaczy i atraktorów przeprowadza się poprzez analizę stabilności, która określa ilościowo, w jaki sposób nieskończenie małe zaburzenia na danej trajektorii generowanej przez system są tłumione lub wzmacniane w czasie.
Atrybut: Każdy z komponentów tworzących wzorzec wejściowy.
Klasyfikator: Funkcja, która przypisuje klasę c do każdego interesującego wzorca wejściowego x. Klasyfikator można skonstruować bezpośrednio z zestawu przykładów wzorców wraz z ich klasami lub pośrednio z modelu statystycznego P∿(x, c).
EM (Algorytm Maksymalizacji Oczekiwania): standardowy algorytm iteracyjny do szacowania parametrów Θ parametrycznego modelu statystycznego. EM znajduje konkretne wartości parametrów, które maksymalizują prawdopodobieństwo obserwowanych danych D przy danym modelu statystycznym.
Brakująca wartość: Specjalna wartość atrybutu oznaczająca, że nie jest ona znana lub nie można jej zmierzyć. Uczenie półnadzorowane: Technika uczenia maszynowego wykorzystująca zarówno dane oznaczone, jak i nieoznaczone do konstrukcji modelu.
Model statystyczny: Funkcja matematyczna modelująca strukturę statystyczną problemu.
Uczenie nadzorowane: Rodzaj uczenia się, w którym celem jest nauczenie się funkcji, która wiąże pożądany wynik ("etykietę") z każdym wzorcem wejściowym. Techniki uczenia nadzorowanego wymagają zbioru danych treningowych przykładów z odpowiadającymi im pożądanymi wynikami. Uczenie nadzorowane tradycyjnie dzieli się na regresję (pożądanym wynikiem jest zmienna ciągła) i klasyfikację (pożądanym wynikiem jest etykieta klasy).
Zestawy treningowe/testowe: W kontekście tego rozdziału zbiór treningowy składa się ze wszystkich oznaczonych przykładów, które służą do budowy klasyfikatora. Zbiór testowy składa się z nowych, nieoznakowanych wzorców, których klasy powinny zostać przewidziane przez klasyfikator.
Klastrowanie BHC: Algorytm klasteryzacji oparty na hierarchicznym schemacie podziału binarnego. Algorytm działa poprzez podział klastra na dwie klasy, a następnie sprawdzenie poprawności podziału za pomocą analizy dyskryminacyjnej Fishera. Algorytm kończy działanie, gdy dalszy prawidłowy podział nie jest możliwy.
Biklasteryzacja: Nazywana również klasteryzacją dwukierunkową lub koklasteryzacją. W biklasteryzacji klasteryzowane są nie tylko obiekty, ale także ich cechy. Jeśli dane są reprezentowane w macierzy danych, wiersze i kolumny są klasteryzowane jednocześnie.
Analiza skupień: Eksploracyjna technika analizy danych, której celem jest znalezienie grup w danych, takich, w których obiekty w tej samej grupie są do siebie podobne, a obiekty w różnych grupach są niepodobne.
Technologia mikromacierzy DNA: Technologia umożliwiająca masowo równoległe, wysokoprzepustowe profilowanie ekspresji genów w całym genomie w pojedynczym eksperymencie hybrydyzacyjnym. Metoda ta opiera się na komplementarnej hybrydyzacji sekwencji DNA.
Ekspresja genów: Ekspresja genów to proces, w którym sekwencja DNA genu jest przekształcana w funkcjonalne białka. Niektóre geny są włączane (ekspresjonowane) lub wyłączane (represjonowane) pod wpływem zmiany warunków zewnętrznych lub bodźców.
Klastrowanie hierarchiczne: Metoda klasteryzacji, która znajduje kolejne klastry na podstawie wcześniej ustalonych klastrów. Algorytmy hierarchiczne mogą być aglomeracyjne (oddolne) lub dzielące (odgórne). Algorytmy aglomeracyjne rozpoczynają analizę każdego elementu jako oddzielnego klastra i łączą je w coraz większe klastry. Algorytmy dzielące rozpoczynają analizę od całego zbioru i dzielą go na coraz mniejsze klastry.
Klastrowanie metodą k-średnich: Klastrowanie metodą k-średnich to najpopularniejszy algorytm klasteryzacji oparty na partycjonowaniu. Algorytm rozpoczyna analizę od wybrania k początkowych centroidów, zazwyczaj losowo. Następnie algorytm naprzemiennie aktualizuje przypisanie klastrów do każdego punktu danych, kojarząc je z najbliższym centroidem, i aktualizuje centroidy na podstawie nowych klastrów, aż do momentu uzyskania konwergencji.
Klastrowanie SSMCL: Algorytm klastrowania oparty na partycjach, oparty na paradygmacie uczenia się OPTOC (one-prototype-take-onecluster). Uczenie OPTOC odbywa się poprzez konstruowanie dynamicznego sąsiedztwa, które faworyzuje wzorce wewnątrz sąsiedztwa. Ostatecznie prototyp osadza się w centrum naturalnego klastra, ignorując jednocześnie konkurencję ze strony innych klastrów. Wraz z procesem nadmiernego klastrowania i scalania, SSMCL jest w stanie znaleźć wszystkie naturalne klastry w danych.
Analiza skupień: Analiza skupień grupuje obiekty danych wyłącznie na podstawie informacji zawartych w danych, które opisują obiekty i ich relacje.
CAD: Algorytm klastrowania oparty na koncepcjach gęstości i gęstości osiągalności.
Klastry oparte na centrum: Każdy obiekt w klastrze opartym na centrum znajduje się bliżej środka klastra niż środków innych klastrów.
Klastry oparte na sąsiedztwie: Każdy obiekt w klastrze opartym na sąsiedztwie jest bliżej innego obiektu w klastrze niż dowolnego punktu w innym klastrze.
Klastry oparte na gęstości: Każdy obiekt w klastrze opartym na gęstości znajduje się bliżej innego obiektu w swoim sąsiedztwie Eps niż dowolnego obiektu spoza klastra, co powoduje, że gęste obszary obiektów są otoczone obszarami o mniejszej gęstości.
Eps: Maksymalny promień sąsiedztwa.
Dobrze oddzielony klaster: klaster to zbiór obiektów, w którym każdy obiekt jest znacznie bliżej (lub bardziej podobny) do każdego innego obiektu w klastrze niż do obiektu nienależącego do klastra.
Mikromacierz DNA: Zbiór mikroskopijnych plamek DNA, zazwyczaj reprezentujących pojedyncze geny, rozmieszczonych na stałej powierzchni poprzez kowalencyjne wiązanie z chemicznie odpowiednimi matrycami.
Współczynnik fałszywych odkryć (FDR): Kontroluje oczekiwany odsetek wyników fałszywie dodatnich, zamiast kontrolować prawdopodobieństwo wystąpienia jakichkolwiek wyników fałszywie dodatnich. Próg FDR jest określany na podstawie obserwowanego rozkładu wartości p z wielu testów pojedynczej hipotezy.
Badanie histologiczne: Badanie próbek tkanek pod mikroskopem.
Test Kruskala-Wallisa: Nieparametryczny test średniej, który można zastosować, jeśli liczba grup próbek jest większa niż dwie, w przeciwieństwie do testu sumy rang Wilcoxona.
Współrzędne równoległe: Schemat wizualizacji danych wykorzystujący zdolność człowieka do rozpoznawania wzorców 2D. Na tym wykresie osie są równomiernie rozmieszczone i ułożone równolegle do siebie, a nie prostopadle, jak w scenariuszu kartezjańskim.
Wartości q: Sposób pomiaru odsetka FDR, gdy dany test jest uznany za istotny.
Test sumy rang Wilcoxona: Nieparametryczna alternatywa dla dwupróbkowego testu t, oparta na kolejności, w jakiej występują obserwacje z dwóch prób.
Mapy samoorganizujące się (SOM): Metoda uczenia się grupowania wektorów wejściowych zgodnie z tym, jak są one naturalnie grupowane w przestrzeni wejściowej. W najprostszej postaci mapa składa się z regularnej siatki jednostek, a jednostki uczą się reprezentować dane statystyczne opisane przez wektory modeli. Każda jednostka mapy zawiera wektor używany do reprezentacji danych. W trakcie procesu uczenia wektory modeli są stopniowo zmieniane, a następnie mapa tworzy uporządkowaną nieliniową regresję wektorów modeli w przestrzeni danych.
Rozkład warunkowy p(y|x): Opisuje niepewność, że zmienna wejściowa x jest mapowana na zmienną wyjściową y, która przyjmuje jedną z kilku etykiet. W tym przypadku x jest klasyfikowane do etykiety klasy y z prawdopodobieństwem p(y|x). Ponadto y może być wektorem o wartościach rzeczywistych, dla którego x jest mapowane na y zgodnie z rozkładem gęstości p(y|x).
Kombinacja klasyfikatorów: Mając określoną liczbę klasyfikatorów, każdy klasyfikuje tę samą zmienną wejściową x do etykiety klasy, a etykiety mogą być różne dla różnych klasyfikatorów. Poszukujemy reguły M(x), która łączy te klasyfikatory w nową, działającą lepiej niż którykolwiek z nich.
Reguła sumy (głosowanie Bayesa): Klasyfikator klasyfikuje x do etykiety. Można uznać, że y oddaje jeden głos na tę etykietę. Najprostszą kombinacją jest zliczenie głosów otrzymanych przez każdą etykietę kandydacką. J-ty klasyfikator klasyfikuje x do etykiety y z prawdopodobieństwem p(y|x). j oznacza, że jeden głos jest dzielony na różnych kandydatów w ułamkach. Możemy podsumować:

ΣjPj(y|x) aby zliczyć głosy na etykietę kandydata y, nazywamy to głosowaniem Bayesa, ponieważ p(y|x) jest zwykle nazywane prawdopodobieństwem Bayesa a posteriori.
Reguła iloczynu: Gdy k klasyfikatorów k {ej(x)}kj=1 jest wzajemnie niezależnych, kombinacja jest dana przez



lub zwięźle



co jest również nazywane regułą iloczynu.

Mieszanka ekspertów: Każdy ekspert jest opisany rozkładem warunkowym pj ( y | x) , gdzie y przyjmuje jedną z kilku etykiet w przypadku problemu klasyfikacji lub gdzie y jest wektorem o wartościach rzeczywistych w przypadku problemu regresji. Kombinację ekspertów podaje


co jest nazywane modelem mieszanki ekspertów. W szczególności, dla y w wektorze o wartościach rzeczywistych, jego postać regresji to:


f-Średnia: Dany jest zbiór liczb nieujemnych,bj ≥0 ; j = 1,…k; średnia f jest podana wzorem:


gdzie f(r) jest monotoniczną funkcją skalarną i


W szczególności jednym z najciekawszych przypadków szczególnych jest to, że f(r) spełnia


dla dowolnej skali c, co nazywa się fa-średnią.

Podejście oceny wydajności: Zwykle sprawdza się w literaturze dotyczącej klasyfikatora. Kombinacja, z wykresem przepływu, który uwzględnia zbiór klasyfikatorów {ej(x)}kj=1 projektowanie mechanizmu łączenia m(x) zgodnie z pewnymi zasadami -> empiryczna ocena wydajności kombinacji poprzez wskaźniki błędnej klasyfikacji, z wykorzystaniem próbek o znanych poprawnych etykietach.
Podejście redukcji błędów: Zwykle sprawdza się w literaturze dotyczącej uczenia się opartego na mieszance, gdzie należy wstępnie zaprojektować struktury klasyfikatorów lub ekspertów, a także strukturę łączenia M(x) z nieznanymi parametrami. Koszt lub miarę błędu ocenia się za pomocą zestawu próbek szkoleniowych, a następnie minimalizuje się ją poprzez naukę wszystkich nieznanych parametrów.
Systemy Utrzymywania Przekonań: Systemy logiki, które pozwalają na aktualizację twierdzeń w miarę pojawiania się nowej wiedzy.
Wiedza zdroworozsądkowa: Wiedza o podstawowych faktach i zachowaniach codziennego świata.
Modele dyspozycyjne: Reprezentacje rzeczy lub faktów.
Modele logistyczne: Zmodyfikowane logiki, które próbują przezwyciężyć problemy z reprezentacją wiedzy zdroworozsądkowej w klasycznym rachunku predykatów.
Monotoniczność: Cecha logiki, która zapobiega zmianom istniejących twierdzeń, gdy pojawiają się nowe informacje.
Logika niemonotoniczna: Logika, która próbuje przezwyciężyć ograniczenia monotoniczności.
Modele zdaniowe: Opisy reprezentacji rzeczy lub konkretnych faktów.
Formalizmy reprezentacyjne: Teoretyczne ramy reprezentacji wiedzy zdroworozsądkowej.
Wiedza zdroworozsądkowa: Wiedza o podstawowych faktach codziennego życia; wiedza, której posiadania oczekuje każdy uczestnik danej kultury od każdego innego uczestnika.
Baza wiedzy zdroworozsądkowej: Baza wiedzy zawierająca wiedzę zdroworozsądkową i mechanizmy wnioskowania lub przetwarzania języka naturalnego na podstawie tej wiedzy.
ConceptNet: Implementacja bazy wiedzy zdroworozsądkowej ustrukturyzowana jako sieć semantyczna.
Cyc: Duża implementacja bazy wiedzy zdroworozsądkowej wykorzystująca rachunek predykatów jako mechanizm reprezentacji.
Wiedza ekspercka: Wiedza posiadana przez ekspertów w danej dziedzinie. Systemy reprezentujące wiedzę ekspercką są zazwyczaj oparte na regułach.
Implementacja: Budowa skomputeryzowanego systemu do reprezentowania i manipulowania wiedzą zdroworozsądkową.
WordNet: Implementacja bazy wiedzy zdroworozsądkowej oparta na strukturze sieci semantycznej.
Adnotacja: Czynność polegająca na krótkim opisie lub wyjaśnieniu informacji. Może również obejmować podsumowanie lub ocenę treści.
Psychologia poznawcza: Nauka o poznaniu, taka jak procesy umysłowe opisujące ludzkie zachowanie, rozumienie percepcji, badanie pamięci, czasu skupienia uwagi, koncentracji i zapominania. Celem jest zrozumienie ludzi i sposobu, w jaki funkcjonują psychicznie.
Przetwarzanie informacji: Zdolność do przechwytywania, przechowywania i manipulowania informacjami. Składa się z dwóch głównych procesów: kodowania i przechowywania. Uczniowie sporządzają notatki na etapie kodowania, a następnie, w fazie przechowywania, dokonują przeglądu.
Metapoznanie: Zdolność i umiejętności uczniów do bycia świadomym i monitorowania procesów uczenia się.
Multimodalność: System elektroniczny, który zwiększa interaktywność poprzez łączenie metafor dźwiękowych, wizualnych i mowy.
Zasady pedagogiczne: Kluczowe zagadnienia dotyczące projektowania i rozwoju elektronicznego środowiska edukacyjnego.
Platforma: Framework komputerowy umożliwiający uruchamianie oprogramowania w określonym celu.
Tradycyjny sposób nauki: Zazwyczaj środowisko klasowe, w którym nauczyciel zapisuje treści na tablicy, a uczniowie używają długopisu i papieru do zapisywania treści jako własnych notatek. Nauczyciel dominuje w środowisku klasowym, w przeciwieństwie do nauczania elektronicznego, gdzie użytkownik ma poczucie kontroli dzięki elastyczności uczenia się.
Optymalizacja kombinatoryczna: Obszar teorii optymalizacji, którego głównym celem jest analiza i algorytmiczne rozwiązywanie problemów optymalizacji z ograniczeniami i zmiennymi dyskretnymi.
Harmonogram chłodzenia: Metoda sterowania temperaturą w algorytmie symulowanego wyżarzania. Musi ona określać temperaturę początkową T0, skończony ciąg malejących wartości temperatury oraz skończoną liczbę L przejść między stanami dla każdej wartości temperatury.
Algorytmy genetyczne i ewolucyjne: Algorytmy genetyczne (GA) to przybliżone algorytmy optymalizacyjne inspirowane genetyką i teorią ewolucji. Przestrzeń poszukiwań rozwiązań jest postrzegana jako zbiór organizmów pogrupowanych w populacje, które ewoluują w czasie za pomocą dwóch podstawowych technik: krzyżowania i mutacji. Algorytmy ewolucyjne (EA) to specjalne algorytmy genetyczne, które wykorzystują wyłącznie mutacje jako technikę generowania organizmów.
Przeszukiwanie lokalne: Przeszukiwanie lokalne (LS) to metaheurystyczna lub ogólna klasa przybliżonych algorytmów optymalizacyjnych, oparta na deterministycznej technice heurystycznego wyszukiwania zwanej wspinaczką górską.
Algorytmy memetyczne: Algorytmy memetyczne (MA) to techniki optymalizacji oparte na synergistycznym połączeniu idei zaczerpniętych z dwóch innych metaheurystyk: algorytmów genetycznych i wyszukiwania lokalnego.
Symulowane wyżarzanie: Symulowane wyżarzanie (SA) to odmiana metaheurystyki wyszukiwania lokalnego, która uwzględnia stochastyczne kryterium akceptacji rozwiązań o gorszej jakości, aby zapobiec przedwczesnemu uwięzieniu algorytmu w lokalnych optimach.
Przeszukiwanie tabu: Przeszukiwanie tabu (TS) to metaheurystyka nałożona na inną heurystykę (zwykle wyszukiwanie lokalne lub symulowane wyżarzanie), której celem jest unikanie cykli wyszukiwania poprzez zakazywanie lub karanie ruchów, które prowadzą rozwiązanie do punktów wcześniej odwiedzonych w przestrzeni rozwiązań.
Automat komórkowy: (liczba mnoga: automaty komórkowe). Automat komórkowy definiuje się jako sieć (kratkę) komórek (automatów), gdzie każdy automat zawiera zestaw zmiennych dyskretnych, które są aktualizowane zgodnie z lokalną regułą działającą ponad sąsiadami danej komórki w dyskretnych krokach czasowych. Automaty komórkowe są zazwyczaj używane jako uproszczone, ale nie proste modele systemów złożonych.
Uogólniony automat komórkowy: Opiera się na wykorzystaniu sieci zamiast regularnych krat.
Sieć złożona: Większość sieci biologicznych i społecznych odzwierciedla właściwości topologiczne nieobserwowane w sieciach prostych (regularnych, losowych). Dwoma przykładami są sieci małego świata i sieci bezskalowe.
System złożony: Typowy system złożony składa się z ogromnej liczby identycznych kopii kilku procesów generycznych, które działają i oddziałują tylko lokalnie lub z ograniczoną liczbą niekoniecznie bliskich sąsiadów. Z takimi systemami nie wiąże się żaden globalny lider ani kontroler, a wynikające z tego zachowanie jest zazwyczaj bardzo złożone.
Emergency: Emergency definiuje się jako występowanie nowych procesów działających na wyższym poziomie abstrakcji niż poziom, na którym obowiązują lokalne reguły. Typowym przykładem jest kolonia mrówek, w której ta duża, złożona struktura wyłania się poprzez lokalne interakcje mrówek. Na przykład, cała hierarchia emergentów istnieje i działa w ciele człowieka. Emergent jest produktem procesu emergencji.
Sieciowe automaty gazowe: Zazwyczaj jest to trójkątna sieć wierzchołków połączonych krawędziami, w których uogólnione cząsteczki cieczy poruszają się i zderzają. Uśrednione wielkości wynikające z takich symulacji odpowiadają rozwiązaniom równań Naviera-Stokesa.
Modelowanie: Jest to opis zjawisk obserwowanych w naturze za pomocą metod analitycznych, numerycznych i/lub obliczeniowych. Modelowanie obliczeniowe jest klasycznie stosowane w takich dziedzinach jak np. fizyka czy inżynieria. Jego znaczenie rośnie w innych dziedzinach, takich jak biologia, medycyna, socjologia i psychologia.
Sieć losowa: Sąsiedztwo wierzchołka jest tworzone przez zestaw losowo wybranych połączeń z sąsiednimi wierzchołkami (elementami) w sieci wierzchołków.
Sieć regularna: Idealnie regularne i jednorodne sąsiedztwo dla każdego elementu sieci zwanego komórką charakteryzuje takie sieci.
Samoorganizacja: Samoorganizacja to proces zachodzący zazwyczaj w złożonych systemach, gdzie system jest stale zasilany energią, która jest przekształcana w nowy stan systemu lub tryb działania poprzez rozproszenie energii i/lub informacji.
Krytyczność samoorganizująca: Złożony system wyrażający stan koherentny (SOC) jest stale zasilany energią, której uwalnianie jest dyskretne i zazwyczaj występuje w postaci lawin. Przez większość czasu stan koherentny (SOC) działa w punkcie krytycznym, w którym występują lawiny. Trzęsienia ziemi i erupcje wulkanów stanowią prototypowe przykłady SOC obserwowane w wielu naturalnie obserwowanych zjawiskach.
Sieć małego świata: Małe światy charakteryzują się połączeniem dwóch różnych typów połączeń w obrębie każdego sąsiedztwa. Zazwyczaj sąsiedztwo danego wierzchołka składa się z większej części sąsiadów posiadających regularną łączność krótkiego zasięgu (sieć regularna) i mniejszej części połączeń losowych (sieć losowa). Tego typu sąsiedztwo zapewnia unikalne właściwości każdemu modelowi zbudowanemu na jego bazie.
Sztuczna sieć neuronowa: Sieć złożona ze sztucznych neuronów. Sztuczne sieci neuronowe można trenować w celu znajdowania nieliniowych zależności w danych.
Algorytm propagacji wstecznej: Technika uczenia nadzorowanego stosowana do trenowania sieci neuronowych, oparta na minimalizacji błędu między rzeczywistymi wynikami a wynikami pożądanymi.
Algebry Clifforda: Algebra asocjacyjna, którą można traktować jako jedno z możliwych uogólnień liczb zespolonych i kwaternionów.
Liczba zespolona: Liczba w postaci a + ib, gdzie a i b są liczbami rzeczywistymi, a i jest jednostką urojoną taką, że i2 = - 1. a nazywa się częścią rzeczywistą, a b - częścią urojoną.
Granica decyzyjna: Granica, której klasyfikatory wzorców, takie jak sieci neuronowe o wartościach rzeczywistych, używają do klasyfikowania wzorców wejściowych na kilka klas. Zazwyczaj składa się z hiperpowierzchni.
Twierdzenie o identyczności: Twierdzenie o regularnych funkcjach zespolonych: dane są dwie funkcje regularne f i g na spójnym zbiorze otwartym D, jeśli f = g w pewnym otoczeniu z należącym do D, to f = g na D.
Kwaternion: Liczba czterowymiarowa będąca nieprzemiennym rozszerzeniem liczb zespolonych.
Regularna funkcja zespolona: Funkcja zespolona, która jest różniczkowalna w każdym punkcie.
Klasyfikator: Algorytm generujący etykiety klas jako wynik na podstawie zestawu cech obiektu. Klasyfikator służy na przykład do klasyfikowania pewnych cech wyodrębnionych z obrazu twarzy i dostarczania etykiety (tożsamości osoby).
Twarz własna: Wektor bazowy transformacji PCA, po zastosowaniu do obrazów twarzy.
Rozpoznawanie twarzy: Problem AV polegający na rozpoznawaniu osoby na podstawie jednego lub większej liczby obrazów jej twarzy.
Ekstrakcja cech: Proces, w którym nowy zestaw cech dyskryminacyjnych jest uzyskiwany z dostępnych. Klasyfikacja jest przeprowadzana z wykorzystaniem nowego zestawu cech.
Selekcja cech: Proces, w którym podzbiór dostępnych cech (zwykle najbardziej dyskryminacyjnych) jest wybierany do klasyfikacji.
Analiza niezależnych składowych: Technika ekstrakcji cech, w której maksymalizowana jest niezależność statystyczna danych.
Analiza głównych składowych: Technika ekstrakcji cech, w której maksymalizowana jest wariancja danych. Dostarcza ona nową przestrzeń cech, w której wymiary są uporządkowane według korelacji próbek. Można zatem wybrać podzbiór tych wymiarów, w którym próbki wykazują minimalną korelację.
Diagnostyka wspomagana komputerowo (CAD): Wykorzystanie komputerów do interpretacji obrazów medycznych. Automatyczna segmentacja jest jednym z kluczowych zadań każdego produktu CAD.
Detekcja krawędzi: Technika przetwarzania obrazu służąca do uwydatnienia punktów obrazu, w których natężenie światła gwałtownie się zmienia.
Elektroencefalografia (EEG): Nieinwazyjne narzędzie diagnostyczne rejestrujące aktywność elektryczną mózgu za pomocą elektrod powierzchniowych umieszczonych na czaszce.
Błędne postawienie: Matematyczna patologia problemów różniczkowych lub całkowych, w której rozwiązanie problemu nie istnieje dla wszystkich danych, nie jest jednoznaczne lub nie zależy w sposób ciągły od danych. W obliczeniach numeryczne efekty błędnego postawienia są redukowane za pomocą metod regularyzacji. Integracja obrazu: W obrazowaniu medycznym połączenie różnych obrazów tego samego pacjenta, uzyskanych za pomocą różnych modalności i/lub zgodnie z różnymi geometriami.
Obrazowanie metodą rezonansu magnetycznego (MRI): metoda obrazowania oparta na zasadach jądrowego rezonansu magnetycznego (NMR), technika spektroskopowa wykorzystywana do uzyskiwania mikroskopowych informacji chemicznych i fizycznych o cząsteczkach. MRI może być stosowane zarówno w warunkach funkcjonalnych, jak i anatomicznych.
Magnetoencefalografia (MEG): nieinwazyjne narzędzie diagnostyczne, które rejestruje aktywność magnetyczną mózgu za pomocą nadprzewodzących czujników umieszczonych na hełmie otaczającym mózg.
Segmentacja: technika przetwarzania obrazu służąca do rozróżniania różnych jednorodnych obszarów w obrazie.
Uczenie statystyczne: ramy matematyczne wykorzystujące narzędzia analizy funkcjonalnej i optymalizacji do badania problemu wnioskowania.
Tomografia: technika obrazowania zapewniająca dwuwymiarowy obraz obiektu. Metoda ta jest stosowana w wielu dyscyplinach i może wykorzystywać promieniowanie wejściowe o różnym charakterze i długości fali. Istnieją tomografie rentgenowskie, optyczne, mikrofalowe, dyfrakcyjne i impedancyjne.
Sztuczna komórka: Każdy z elementów przetwarzających polecenia zakodowane w DNA.
Sztuczna embriogeneza: Termin ten obejmuje wszystkie modele przetwarzania, które wykorzystują idee rozwoju biologicznego jako inspirację dla swojego funkcjonowania.
Cykl komórkowy: Jednostka czasu rozwoju komórkowego, która ogranicza liczbę bieżących etapów rozwoju komórkowego.
Cytoplazma: Część sztucznej komórki odpowiedzialna za zarządzanie sygnałami w kształcie białek.
DNA: Zestaw reguł odpowiedzialnych za zachowanie komórki.
Gen: Każda z reguł, która kodyfikuje jedno działanie komórki.
Białko: Termin ten identyfikuje każdy rodzaj sygnałów, które otrzymuje sztuczna komórka.
Zygota: Komórka początkowa, z której powstaje tkanka na podstawie informacji DNA.
Przestrzenie barw: (Konstantinos i Anastasios, 2000) dostarczają metody określania, sortowania i obsługi kolorów. Reprezentacje te odpowiadają n-wymiarowym sortowaniom wrażeń barwnych (wektor n-składnikowy). Kolory są reprezentowane za pomocą punktów w tych przestrzeniach. Istnieje wiele przestrzeni barw i wszystkie wychodzą z tej samej koncepcji, trójchromatycznej teorii kolorów podstawowych: czerwonego, zielonego i niebieskiego.
Dylatacja: Dylatacja obrazu o element strukturalny ′Y′ jest definiowana jako maksymalna wartość wszystkich pikseli znajdujących się pod elementem strukturalnym



Podstawowym efektem działania tego operatora morfologicznego na obrazie binarnym jest stopniowe powiększanie granic obszarów pikseli pierwszego planu (tj. zazwyczaj białych pikseli). W ten sposób obszary pikseli pierwszego planu rosną, a dziury w tych obszarach stają się mniejsze.
Erozja: Podstawowym efektem działania operatora na obrazie binarnym jest redukcja definicji obiektów. Erozja w punkcie (x,y) to minimalna wartość wszystkich punktów znajdujących się pod oknem, która jest definiowana przez element strukturalny "Y", który porusza się po obrazie:



Detektor naroży Harrisa: Popularny detektor punktów (Harris i Stephens, 1988) ze względu na jego silną niezmienność względem (Schmid, Mohr i Bauckhage, 2000): obrotu, skali, zmienności oświetlenia i szumu obrazu. Detektor naroży Harrisa opiera się na lokalnej funkcji autokorelacji sygnału; funkcja ta mierzy lokalne zmiany sygnału z łatkami przesuniętymi o niewielką wartość w różnych kierunkach.
Momenty obrazu: (Hu, 1963; Mukundan i Ramakrishman, 1998) to określone średnie ważone (momenty) intensywności pikseli obrazu lub funkcje tych momentów, zazwyczaj dobrane tak, aby miały jakąś atrakcyjną właściwość lub interpretację. Są one przydatne do opisu obiektów po segmentacji. Proste właściwości obrazu, które są znajdowane za pomocą momentów obrazu, obejmują obszar (lub całkowitą intensywność), jego środek ciężkości i informacje o jego orientacji.
Operatory morfologiczne: (Haralick i Shapiro, 1992; Vernon, 1991) Morfologia matematyczna to podejście teoriomnogościowe do wielowymiarowej analizy sygnału cyfrowego lub obrazu, oparte na kształcie. Sygnały są lokalnie porównywane z tzw. elementami strukturalnymi o dowolnym kształcie z punktem odniesienia.
Wideometria: (Tsai, 1987) może być luźno zdefiniowana jako wykorzystanie technologii obrazowania do wykonywania precyzyjnych i wiarygodnych pomiarów otoczenia.
Wnioskowanie bayesowskie: Reguły wnioskowania oparte na zastosowaniu twierdzenia Bayesa i podstawowych praw rachunku prawdopodobieństwa.
Cenzurowanie: Mechanizm, który uniemożliwia obserwację zdarzenia. Forma brakujących danych.
Hiperparametr: Parametr w hierarchicznym sformułowaniu problemu. W wnioskowaniu bayesowskim parametry a priori.
Sieci neuronowe: Graficzna reprezentacja funkcji nieliniowej. Zwykle reprezentowana jako skierowany graf acykliczny. Sieci neuronowe można trenować w celu znajdowania nieliniowych zależności w danych i są wykorzystywane w takich zastosowaniach jak robotyka, rozpoznawanie mowy, przetwarzanie sygnałów czy diagnostyka medyczna.
Rozkład a posteriori: Probabilistyczna reprezentacja wiedzy, wynikająca z połączenia wiedzy a priori i obserwacji danych.
Rozkład a priori: Probabilistyczna reprezentacja wiedzy a priori.
Zmienna losowa: Mierzalna funkcja z przestrzeni próby do mierzalnej przestrzeni możliwych wartości zmiennej.
Analiza przeżycia: Analiza statystyczna danych reprezentowanych w kategoriach realizacji zdarzeń punktowych. W zastosowaniach medycznych zdarzeniem punktowym jest zazwyczaj śmierć jednostki lub nawrót choroby.
Problem Spełnienia Ograniczeń (CSP): Problem Spełnienia Ograniczeń (CSP) jest definiowany przez skończony zbiór zmiennych, gdzie każda zmienna jest powiązana z dziedziną, oraz zbiór ograniczeń na podzbiór zmiennych, ograniczający możliwe kombinacje wartości, jakie mogą przyjmować zmienne w podzbiorze. Rozwiązaniem CSP jest przypisanie każdej zmiennej wartości zgodnej z ograniczeniami.
Logika Opisowa (DL): Logiki zaprojektowane do opisu pojęć i jednostek w bazach wiedzy. Początkowo zostały opracowane w celu zapewnienia precyzyjnej semantyki dla systemów ramowych i sieci semantycznych. Typowym wnioskowaniem dla pojęć jest sprawdzenie, czy dane pojęcie jest bardziej ogólne (tj. czy obejmuje) inne. Typowym wnioskowaniem dla jednostek jest sprawdzenie, czy jednostka jest instancją pojęcia. Wiele DL to fragmenty logiki pierwszego rzędu, podczas gdy niektóre z nich wykraczają poza pierwszy rząd.
Program logiczny: Teoria logiczna (ewentualnie zawierająca pewne operatory pozalogiczne), której można nadać znaczenie proceduralne, tak aby proces sprawdzania, czy formuła jest wyprowadzalna w teorii, można było postrzegać jako wykonywanie programu.
Masowa personalizacja: Strategia biznesowa łącząca paradygmat produkcji masowej z personalizacją produktu. Jest ona ściśle związana z modułowością w projektowaniu produktów. Ta strategia projektowania umożliwia przyjęcie modelu produkcji masowej dla standardowych modułów, ułatwia zarządzanie rodzinami i wariantami produktów oraz pozostawia miejsce na (różne rodzaje i stopnie) personalizacji.
System oparty na regułach produkcyjnych: System, w którym wiedza jest reprezentowana za pomocą reguł produkcyjnych. Reguła produkcyjna to stwierdzenie złożone z warunków i akcji. Jeśli dane w pamięci roboczej spełniają warunki, powiązane akcje mogą zostać wykonane, co skutkuje aktualizacją pamięci roboczej.
Spełnialność formuły w logice zdań: Zadanie polegające na sprawdzeniu, czy możliwe jest przypisanie wartości logicznej każdej zmiennej występującej w formule zdaniowej, tak aby wartość logiczna całej formuły była równa prawda.
Stabilny model Herbranda: Minimalny zbiór faktów spełniający program logiczny (teorię). Każdy fakt w modelu jest atomem bez zmiennych, którego argumentami są terminy zbudowane wyłącznie z symboli funkcji i stałych występujących w programie, a którego symbole predykatów również występują w programie. Fakty nie występujące w modelu są uznawane za fałszywe.
Problem optymalizacji z ograniczeniami (COP): Problem spełnienia ograniczeń rozszerzony o funkcję celu dla (podzbioru) zmiennych decyzyjnych. Zadaniem jest znalezienie rozwiązania CSP, które minimalizuje lub maksymalizuje wartość funkcji celu.
Ograniczenie: Dowolna relacja między podzbiorem zmiennych decyzyjnych. Może być wyrażona ekstensjonalnie, jako zbiór krotek wartości spełniających ograniczenie, lub celowo, za pomocą wzoru arytmetycznego lub logicznego między zmiennymi, na przykład A+B < C.
Problem spełnienia ograniczeń (CSP): Problem sformułowany za pomocą zbioru zmiennych decyzyjnych, ich dziedzin oraz ograniczeń między zmiennymi. Zadaniem jest znalezienie instancji zmiennych decyzyjnych według wartości z ich dziedzin w taki sposób, aby spełnione były wszystkie ograniczenia.
Techniki spójności: Techniki usuwające niespójne wartości (z domen zmiennych) lub krotki wartości, czyli wartości, których nie można przypisać danej zmiennej w żadnym rozwiązaniu. Spójność łukowa jest najpowszechniej stosowaną techniką spójności.
Zmienna decyzyjna: Zmienna modelująca pewną cechę problemu, na przykład czas rozpoczęcia działania, której wartości szukamy w taki sposób, aby spełnione były określone ograniczenia.
Dziedzina zmiennej: Zbiór możliwych wartości, które można przypisać zmiennej decyzyjnej, na przykład zbiór godzin, w których dane działanie może się rozpocząć. Przetwarzanie ograniczeń zazwyczaj zakłada tylko skończone domeny.
Przycinanie domen (filtrowanie): Proces usuwania wartości z domen zmiennych, które nie mogą brać udziału w żadnym rozwiązaniu. Zwykle, ze względu na problemy z wydajnością, przycinane są tylko wartości lokalnie naruszające jakieś ograniczenie. Jest to najpopularniejszy rodzaj techniki spójności.
Ograniczenie globalne: Ograniczenie n-arne modelujące podzbiór prostszych ograniczeń poprzez zapewnienie dedykowanego algorytmu filtrowania, który osiąga silniejsze lub szybsze przycinanie domen w porównaniu z zapewnieniem spójności prostszych ograniczeń (lokalnie). All-different jest przykładem ograniczenia globalnego.
Look Ahead: Najpopularniejsza technika integracji przeszukiwania w głąb z zachowaniem spójności. Za każdym razem, gdy podejmowana jest decyzja o wyszukiwaniu, jest ona propagowana w modelu problemu poprzez zapewnienie spójności modelu.
Algorytmy wyszukiwania: Algorytmy, które eksplorują przestrzeń możliwych (częściowych lub całkowitych) instancji zmiennych decyzyjnych w celu znalezienia instancji spełniającej wszystkie ograniczenia (i optymalizującej funkcję celu w przypadku COP).
Algorytm optymalizacji kolonii mrówek (ACO): inspirowany zachowaniem mrówek w poszukiwaniu ścieżek prowadzących z kolonii do pożywienia, jest probabilistyczną techniką rozwiązywania problemów obliczeniowych, którą można sprowadzić do znajdowania dobrych ścieżek za pomocą grafów. Krótsza ścieżka jest pokonywana szybciej, a zatem gęstość feromonów pozostaje wysoka, ponieważ są one układane na ścieżce tak szybko, jak szybko mogą wyparować.
Sztuczne sieci neuronowe (ANN): Sieć wielu prostych procesorów ("jednostek" lub "neuronów") imitująca biologiczną sieć neuronową. Jednostki są połączone jednokierunkowymi kanałami komunikacyjnymi, które przenoszą dane liczbowe.
Autoregresyjna zintegrowana średnia ruchoma (ARIMA): Uogólnienie modelu autoregresyjnej średniej ruchomej (ARMA). Modele te są dopasowywane do danych szeregów czasowych w celu lepszego zrozumienia danych lub przewidywania przyszłych punktów w szeregu. Model ten jest ogólnie określany jako model ARIMA(p, d, q), gdzie p, d i q są liczbami całkowitymi większymi lub równymi zeru i odnoszą się odpowiednio do kolejności części autoregresyjnej, zintegrowanej i średniej ruchomej modelu.
Algorytm ewolucyjny (EA): to ogólny metaheurystyczny algorytm optymalizacji oparty na populacji. EA wykorzystuje mechanizmy inspirowane ewolucją biologiczną: rozmnażanie, mutacje, rekombinację, dobór naturalny i przetrwanie najlepiej przystosowanych. Algorytmy ewolucyjne konsekwentnie dobrze aproksymują rozwiązania wszystkich typów problemów, ponieważ nie przyjmują żadnych założeń dotyczących podstawowego krajobrazu dostosowania.
Feromon: Feromon to substancja chemiczna, która wyzwala wrodzoną reakcję behawioralną u innego osobnika tego samego gatunku. Istnieją feromony alarmowe, feromony śladów pokarmowych, feromony płciowe i wiele innych, które wpływają na zachowanie lub fizjologię. W tym artykule wykorzystano feromony śladów pokarmowych, które są powszechne u owadów społecznych.
Sezonowa Autoregresyjna Zintegrowana Średnia Ruchoma (SARIMA): Rodzaj modelu ARIMA do przeprowadzania prognozowania, gdy podejrzewa się efekt sezonowy. Rozważmy na przykład model dziennego natężenia ruchu drogowego. Weekendy wyraźnie różnią się od dni roboczych. W takim przypadku często uważa się, że lepiej jest użyć modelu SARIMA (sezonowego ARIMA) niż zwiększać rząd części AR lub MA modelu.
Maszyny Wektorów Nośnych (SVM): Maszyny Wektorów Nośnych (SVM) zostały pierwotnie opracowane do rozwiązywania problemów rozpoznawania wzorców i klasyfikacji. Wraz z wprowadzeniem funkcji straty niewrażliwej na ε Vapnika, SVM zostały rozszerzone o rozwiązywanie problemów estymacji regresji nieliniowej, tzw. regresji wektorów nośnych (SVR). SVR stosuje zasadę minimalizacji ryzyka strukturalnego w celu zminimalizowania górnej granicy błędu generalizacji. SVR została wykorzystana do rozwiązywania problemów regresji nieliniowej i szeregów czasowych.
Eksploracja danych: Proces automatycznego przeszukiwania dużych wolumenów danych w poszukiwaniu wzorców. Eksploracja danych to stosunkowo nowy i współczesny temat w informatyce.
Wizualizacja danych: Technologia pomagająca użytkownikom dostrzegać wzorce i zależności w dużych zbiorach danych poprzez prezentację danych w formie graficznej.
Zmienne objaśniające: Używane zamiennie i odnoszące się do zmiennych, które wyjaśniają zmienność konkretnej zmiennej docelowej. Nazywane również zmiennymi sterującymi, opisowymi lub niezależnymi.
Spadek jakości informacji: Jakość niektórych danych spada, gdy fakty dotyczące obiektów ze świata rzeczywistego zmieniają się w czasie, ale te fakty nie są aktualizowane w bazie danych.
Wyszukiwanie informacji: Sztuka i nauka wyszukiwania informacji w dokumentach, wyszukiwania samych dokumentów, wyszukiwania metadanych opisujących dokumenty lub wyszukiwania w bazach danych, niezależnie od tego, czy są to relacyjne, autonomiczne bazy danych, czy hipertekstowe bazy danych, takie jak Internet lub intranet, w celu znalezienia tekstu, dźwięku, obrazu lub danych.
Uczenie maszynowe: Zajmuje się rozwojem algorytmów i technik, które pozwalają komputerom "uczyć się".
Sieci neuronowe: Nazywane również sztuczną inteligencją (AI), która wykorzystuje algorytmy predykcyjne.
Rozpoznawanie wzorców: Czynność pobierania surowych danych i podejmowania działań w oparciu o kategorię danych. Jest to dziedzina w ramach uczenia maszynowego.
Analiza predykcyjna: Wykorzystanie technik eksploracji danych, danych historycznych i założeń dotyczących przyszłych warunków do przewidywania skutków zdarzeń.
Segmentacja: Kolejna ważna grupa obejmująca eksplorację danych, wykorzystująca technologię, która identyfikuje nie tylko statystycznie istotne zależności między zmiennymi objaśniającymi a zmiennymi docelowymi, ale także określa istotne segmenty w ramach kategorii zmiennych, które ilustrują powszechny wpływ na zmienną docelową.
Wymiary: Są to perspektywy lub jednostki, w odniesieniu do których organizacja chce przechowywać dokumentację .
Model wymiarowy: Model zawierający centralną tabelę faktów i zestaw otaczających ją tabel wymiarów, z których każda odpowiada jednemu z komponentów lub wymiarów tabeli faktów.
Model danych relacji encji: Model, który reprezentuje schemat bazy danych jako zestaw jednostek i relacji między nimi.
Tabela faktów: Centralna tabela w schemacie gwiazdy, zawierająca nazwy faktów lub miar, a także klucze do każdej z powiązanych tabel wymiarów.
Projektowanie oparte na metrykach: Podejście do projektowania hurtowni danych, które rozpoczyna się od zdefiniowania kluczowych procesów biznesowych, które wymagają pomiaru i śledzenia w czasie. Następnie są one modelowane w modelu wymiarowym.
Przetwarzanie równoległe: Alokacja obciążenia obliczeniowego systemu operacyjnego na kilka procesorów
Schemat gwiazdy: Diagram modelowania zawierający dużą centralną tabelę (tabelę faktów) i zestaw mniejszych tabel towarzyszących (tabele wymiarów), z których każda jest reprezentowana przez tylko jedną tabelę zawierającą zestaw atrybutów.
Atrybuty: Predefiniowane zmienne w zbiorze danych.
Klasyfikacja: Przypisanie elementów lub obiektów do klas lub kategorii zgodnie z ich cechami.
Zarządzanie relacjami z klientami:Dynamiczny proces zarządzania relacjami między firmą a jej klientami, obejmujący gromadzenie, przechowywanie i analizowanie informacji o klientach.
Eksploracja danych: Znana również jako odkrywanie wiedzy w bazie danych (KDD), proces odkrywania wiedzy poprzez analizę danych i ekstrakcję informacji ze zbioru danych z wykorzystaniem technik uczenia maszynowego.
Drzewo decyzyjne: Model predykcyjny, który można wizualizować w strukturze hierarchicznej za pomocą liści i rozgałęzień.
Modelowanie drzewa decyzyjnego: Proces tworzenia modelu drzewa decyzyjnego.
Diagnostyka błędów: Działanie polegające na identyfikacji nieprawidłowo działającego systemu na podstawie obserwacji jego zachowania.
Zarządzanie wykrywaniem oszustw: Wykrywanie oszustw, zwłaszcza tych występujących w sprawozdaniach finansowych lub transakcjach biznesowych, w celu zmniejszenia ryzyka strat. Zarządzanie opieką zdrowotną: Czynność zapobiegania, leczenia i zarządzania chorobami, w tym ochrona zdrowia psychicznego i fizycznego poprzez usługi świadczone przez pracowników służby zdrowia.
Prognoza: Oświadczenie lub twierdzenie, że określone zdarzenie nastąpi w przyszłości.
Wiara: W teorii Dempstera-Shafera poziom reprezentowania pewności, że teza leży w elemencie ogniskowym lub jego dowolnym podzbiorze.
Dowód: W teorii Dempstera-Shafera seria elementów ogniskowych i powiązanych z nimi wartości masy.
Element ogniskowy: W teorii Dempstera-Shafera zbiór hipotez o dodatniej wartości masy w zbiorze dowodów.
Rama Rozróżnienia: W teorii Dempstera-Shafera zbiór wszystkich rozważanych hipotez.
Teoria Dempstera-Shafera: Ogólna metodologia, znana również jako teoria funkcji przekonań, której podstawy są ściśle związane z rozumowaniem niepewnym.
Ignorancja: W teorii Dempstera-Shafera poziom wartości masy nierozróżnialny wśród hipotez.
Wartość masy: W teorii Dempstera-Shafera poziom dokładnej wiary w element ogniskowy.
Niespecyficzność: W teorii Dempstera-Shafera średnia ważona wartości mas elementów ogniskowych w materiale dowodowym, postrzegana jako rodzaj o wyższym stopniu niepewności, ujęty w terminologii niejednoznaczności.
Prawdopodobieństwo: W teorii Dempstera-Shafera stopień, w jakim nie możemy odrzucić danego twierdzenia, leży w elemencie ogniskowym.
Korpus (corpora l.mn.): Zbiór materiałów pisanych lub mówionych w formie czytelnej dla maszyn.
Tłumaczenie maszynowe (MT): Czynność tłumaczenia czegoś za pomocą maszyny, zwłaszcza komputera.
Morfem: Najmniejsza jednostka znaczeniowa. Słowo może składać się z jednego morfemu (potrzeba), dwóch morfemów (potrzeba/mniej, potrzeba/ing) lub więcej (nie/szczęśliwość/bycie).
Drzewo struktury frazowej: Strukturalna reprezentacja zdania w postaci odwróconego drzewa, gdzie każdy węzeł drzewa jest oznaczony zgodnie z reprezentowanym przez niego składnikiem frazowym.
Parser oparty na regułach: Parser wykorzystujący reguły napisane ręcznie (zaprojektowane), w przeciwieństwie do reguł wyprowadzonych z danych.
Parser statystyczny: Grupa metod analizy składniowej w ramach przetwarzania języka naturalnego (NLP). Cechą wspólną tych metod jest wiązanie reguł gramatycznych z prawdopodobieństwem.
Bank drzew: Korpus tekstowy, w którym każde zdanie jest opatrzone adnotacjami dotyczącymi struktury składniowej.Strukturę składniową zazwyczaj przedstawia się w postaci struktury drzewa. Banki drzew mogą być wykorzystywane w lingwistyce korpusowej do badania zjawisk składniowych lub w lingwistyce obliczeniowej do szkolenia lub testowania parserów.
Łączenie zmiennych: Łączenie zmiennych to metoda redukcji liczby reguł w rozmytej bazie reguł. Zmienne są łączone (łączone) przed wprowadzeniem do silnika wnioskowania, co zmniejsza liczbę reguł w bazie wiedzy.
Logika rozmyta: Zbiory rozmyte i logika rozmyta zostały wprowadzone w 1965 roku przez Lotfiego Zadeha jako nowy sposób reprezentacji nieoznaczoności w zastosowaniach. Stanowią one uogólnienie zbiorów w konwencjonalnej teorii mnogości. Logika rozmyta (FL) ma na celu modelowanie nieprecyzyjnych modeli rozumowania, takich jak rozumowanie zdroworozsądkowe dla niepewnych, złożonych procesów. Przedstawiono system reprezentacji znaczenia nieprecyzyjnego twierdzenia leksykalnego w strukturze języka naturalnego poprzez przedstawienie twierdzenia jako rozmytych ograniczeń zmiennej. Sterowniki oparte na logice rozmytej zostały z powodzeniem zastosowane w wielu nieliniowych systemach sterowania. Do sterowania procesami stosuje się reguły lingwistyczne, a nie precyzyjne reguły numeryczne. Baza reguł rozmytych (reguły rozmyte if-then): Rozmyte if-then lub rozmyte instrukcje warunkowe to wyrażenia w postaci "Jeśli A, to B", gdzie A i B to etykiety zbiorów rozmytych charakteryzujących się odpowiednimi funkcjami przynależności. Ze względu na swoją zwięzłą formę, rozmyte reguły if-then są często stosowane w celu uchwycenia nieprecyzyjnych trybów rozumowania, które odgrywają istotną rolę w ludzkiej zdolności do podejmowania decyzji w środowisku niepewności i niedokładności. Zbiór reguł if-then, odnoszących się do systemu logiki rozmytej, które są przechowywane razem, nazywa się bazą reguł rozmytych.
Algorytmy genetyczne: Algorytmy genetyczne (GA) to algorytmy wykorzystujące operacje występujące w genetyce naturalnej do kierowania procesem wyszukiwania i są coraz częściej wykorzystywane w dziedzinie optymalizacji. Solidna natura i prosta mechanika algorytmów genetycznych sprawiają, że stanowią one atrakcyjne narzędzia do wyszukiwania, uczenia się i optymalizacji. Algorytmy genetyczne opierają się na modelach obliczeniowych fundamentalnych procesów ewolucyjnych, takich jak selekcja, rekombinacja i mutacja.
Elementy algorytmów genetycznych: W najprostszej postaci algorytm genetyczny składa się z następujących elementów:

1. Dostosowanie - dodatnia miara użyteczności, zwana dostosowaniem, jest określana dla osobników w populacji. Ta wartość dostosowania jest ilościową miarą tego, jak dobrze dany osobnik wypada w porównaniu z innymi w populacji.
2. Selekcja - osobnikom w populacji przypisuje się określoną liczbę kopii w puli par, która jest wykorzystywana do konstruowania nowej populacji. Im wyższe dostosowanie osobnika w populacji, tym więcej kopii w puli par otrzymuje.
3. Rekombinacja - osobniki z puli par są rekombinowane w celu utworzenia nowych osobników, zwanych dziećmi. Powszechną metodą rekombinacji jest krzyżowanie jednopunktowe.
4. Mutacja - każdy osobnik ulega mutacji z niewielkim prawdopodobieństwem << 1,0. Mutacja to mechanizm utrzymujący różnorodność w populacji.

Hierarchiczne systemy sterowania oparte na logice rozmytej: Idea hierarchicznych systemów sterowania opartych na logice rozmytej polega na umieszczeniu zmiennych wejściowych w zbiorze niskowymiarowych systemów sterowania opartych na logice rozmytej, zamiast tworzenia pojedynczej, wielowymiarowej bazy reguł dla systemu sterowania opartego na logice rozmytej. Każdy niskowymiarowy system sterowania oparty na logice rozmytej stanowi poziom w hierarchicznym systemie sterowania opartego na logice rozmytej. Hierarchiczne sterowanie oparte na logice rozmytej to jedno ze sposobów uniknięcia problemu eksplozji reguł. Ma ono tę właściwość, że liczba reguł potrzebnych do zbudowania systemu rozmytego rośnie liniowo wraz z liczbą zmiennych w systemie.
Uczenie się bez nadzoru: W uczeniu się bez nadzoru nie ma zewnętrznego nauczyciela ani krytyka nadzorującego proces uczenia. Innymi słowy, nie ma konkretnych przykładów funkcji, których system ma się nauczyć. Zamiast tego przewidziano niezależny od zadania pomiar jakości lub reprezentacji, której system ma się nauczyć. Oznacza to, że system uczy się statystycznych prawidłowości danych wejściowych i rozwija zdolność uczenia się cech danych wejściowych, a tym samym automatycznego tworzenia nowych klas.
Adaptacja: Odnosi się do szczególnych dostosowań, którym podlegają organizmy, aby poradzić sobie ze zmianami środowiskowymi i morfologicznymi. W biologii można wyróżnić cztery rodzaje adaptacji: ewolucyjną, fizjologiczną, sensoryczną i uczenia się.
Bootstrapping: Oznacza proces rozpoczynania od minimalnego zestawu funkcji i budowania coraz większej funkcjonalności krok po kroku na strukturach już istniejących w systemie.
Problem stopni swobody: Problem uczenia się, jak kontrolować system o bardzo dużej liczbie stopni swobody (znany również jako problem Bernsteina).
Ucieleśnienie: Odnosi się do faktu, że inteligencja wymaga ciała i nie może istnieć jedynie w formie abstrakcyjnego algorytmu.
Wyłanianie się: Proces, w którym zjawiska na pewnym poziomie powstają z interakcji na niższych poziomach. Termin ten jest czasami używany do określenia właściwości systemu, która nie jest zawarta w żadnej z jego części.
Rusztowanie: Obejmuje wszelkiego rodzaju zewnętrzne wsparcie i pomoce, które upraszczają uczenie się zadań i nabywanie nowych umiejętności. Dynamika semiotyczna: Dziedzina zajmująca się badaniem tego, w jaki sposób znaczące struktury symboliczne powstają, rozprzestrzeniają się i ewoluują z czasem w populacjach, poprzez łączenie lingwistyki i nauk kognitywnych z narzędziami teoretycznymi z zakresu systemów złożonych i informatyki.
Obwód: Sieć urządzeń.
Zliczanie (wyczerpujące): Działanie matematyczne wielokrotnego dodawania (wyczerpujące uwzględnia wszystkie możliwe kombinacje).
Urządzenie: Każdy byt fizyczny celowo oddziałujący na cząstkę przenoszącą informację (lub powiązane z nią pola) w pożądany sposób, zgodnie z zamierzoną funkcją obwodu.
Próg błędu: Prawdopodobieństwo awarii elementu (bramki, urządzenia), powyżej którego schemat multipleksowy nie jest w stanie poprawić samego elementu.
Wejście wielokanałowe: Liczba wejść (do bramki).
Odporność na błędy: Zdolność systemu (obwodu) do kontynuowania działania, zamiast całkowitej awarii (ewentualnie z obniżonym poziomem wydajności) w przypadku awarii niektórych jego elementów.
Bramka (logika): Funkcjonalny element konstrukcyjny (w logice cyfrowej bramka wykonuje operację logiczną na swoich wejściach logicznych).
Bramka większościowa (większość): Bramka logiczna o nieparzystych wejściach wielokanałowych, która generuje wartość logiczną równą wartości większości swoich wejść.
Monte Carlo: Klasa stochastycznych (z wykorzystaniem liczb pseudolosowych) algorytmów obliczeniowych do symulacji zachowania systemów fizycznych i matematycznych.
Multipleksowanie (von Neumann): Schemat niezawodnych obliczeń oparty na kolejnych etapach obliczeniowych naprzemiennie z etapami losowych połączeń (wprowadzony przez von Neumanna w 1952 roku).
Redundancja (czynnikowa): Multiplikatywny wzrost liczby (identycznych) komponentów (podsystemów, bloków, bramek, urządzeń), który może (automatycznie) zastąpić (lub uzupełnić) uszkodzony komponent/y.
Niezawodność: Zdolność układu (systemu, bramki, urządzenia) do wykonywania i utrzymywania swojej/swoich funkcji w danych (a także w niekorzystnych lub nieoczekiwanych) warunkach przez określony czas.
Tablica: Wspólne repozytorium problemów, częściowych rozwiązań, sugestii i informacji. Tablicę można postrzegać jako dynamiczną "bibliotekę" wkładów do bieżącego problemu, które zostały niedawno "opublikowane" przez inne źródła wiedzy.
Kooperacyjne metaheurystyki wielowyszukiwawcze: Strategia paralelizacji metaheurystyk, w której paralelizm uzyskuje się poprzez wielokrotne, równoczesne eksploracje przestrzeni rozwiązań i gdzie metaheurystyki wymieniają się informacjami podczas wykonywania, aby móc ze sobą współpracować.
Eksploracja danych: Najbardziej charakterystyczny etap procesu ekstrakcji wiedzy, którego celem jest wytworzenie nowej, użytecznej wiedzy poprzez zbudowanie modelu na podstawie danych zebranych w tym celu.
Reguły rozmyte: Lingwistyczne konstrukcje warunkowe typu "jeśli A, to B", które mają ogólną postać "jeśli A, to B", gdzie A i B to zbiory zdań zawierających zmienne lingwistyczne (A nazywane jest przesłanką, a B konsekwencją). Zastosowanie zmiennych lingwistycznych i rozmytych reguł warunkowych typu "jeśli-to" wykorzystuje tolerancję na nieprecyzyjność i niepewność.
Heurystyka: Metoda lub podejście, które próbuje zastosować wiedzę ekspercką w rozwiązaniu problemu w celu zwiększenia prawdopodobieństwa jego rozwiązania.
Ekstrakcja/Odkrywanie Wiedzy: Nietrywialny proces identyfikacji prawidłowych, nowych, potencjalnie użytecznych i ostatecznie zrozumiałych wzorców z dużych zbiorów danych. Ogólny proces i dyscyplina ekstrakcji użytecznej wiedzy, obejmująca zadania związane z magazynowaniem danych, ich oczyszczaniem i manipulacją, aż po interpretację i wykorzystanie wyników.
Metaheurystyka: Zaawansowana strategia rozwiązywania bardzo ogólnej klasy problemów obliczeniowych poprzez łączenie procedur typu "czarna skrzynka" (black-box) użytkownika - zazwyczaj heurystyk - w sposób, który ma szansę być efektywny.
Problem optymalizacyjny: Problem obliczeniowy, którego celem jest znalezienie najlepszego spośród wszystkich możliwych rozwiązań.
Metaheurystyki równoległe: Metaheurystyki, w których różne wątki przeszukują przestrzeń rozwiązań równolegle. Pojawiają się one naturalnie w rozwoju metaheurystyk jako sposób na poprawę współczynnika przyspieszenia w poszukiwaniu rozwiązań.
Instancja problemu: Konkretna reprezentacja problemu, mająca cechy odróżniające ją od pozostałych.
Obszar Przestrzeni Poszukiwań: Zbiór określonych zakresów lub wartości zmiennych wejściowych, które stanowią podzbiór przestrzeni przeszukiwania.
Parametr sterujący: Parametr sterujący określa zachowanie programu ewolucyjnego (np. wielkość populacji).
Ewolucja różnicowa: Algorytm ewolucyjny optymalizacji globalnej, który realizuje ewolucję populacji osobników w sposób wykorzystujący różnice między osobnikami.
Obliczenia ewolucyjne: Podejście do rozwiązania oparte na ewolucji biologicznej, które rozpoczyna się od potencjalnych modeli rozwiązań, a następnie iteracyjnie stosuje algorytmy w celu znalezienia najlepiej dopasowanych modeli ze zbioru, które służą jako dane wejściowe do kolejnej iteracji, ostatecznie prowadząc do modelu najlepiej reprezentującego dane.
Indywidualny: Indywiduum reprezentuje potencjalne rozwiązanie. W procesie optymalizacji algorytm ewolucyjny zazwyczaj wykorzystuje populację osobników do rozwiązania konkretnego problemu.
Przestrzeń Poszukiwań: Zbiór wszystkich możliwych sytuacji problemu optymalizacyjnego, który chcemy rozwiązać.
Samoadaptacja: Zdolność, która pozwala algorytmowi ewolucyjnemu dostosować się do dowolnej ogólnej klasy problemów poprzez odpowiednią rekonfigurację, bez interakcji z użytkownikiem.
Ontologia artykulacji: Ontologia artykulacji składa się z pojęć i relacji, które są identyfikowane jako łącznik między pojęciami zdefiniowanymi w dwóch oddzielnych ontologiach, znanych również jako reguły artykulacji.
Techniki uwzględniające kontekst: Techniki koncentrujące się na bliskości wagi przypisanej konkretnym relacjom między pojęciami, biorąc pod uwagę kontekst aplikacji jako podstawę mapowania.
Techniki uwzględniające rozszerzenie: Techniki koncentrujące się na znajdowaniu bliskości między cechami dostępnych instancji różnych ontologii do bazy form dla mapowania.
Techniki uwzględniające intencję: Oparte na teorii przepływu informacji, techniki koncentrujące się na znajdowaniu dwóch różnych tokenów (instancji) należących do oddzielnych ontologii, które są mapowane na jeden typ (pojęcie) jako podstawę mapowania.
Techniki podobieństwa językowego: Zestaw technik, które odnoszą się do bliskości językowej pojęć w postaci synonimów, hiperonimów i hiponimów poprzez odwoływanie się do powiązanych haseł w tezaurusie jako podstawy mapowania.
Dopasowanie ontologii: Dopasowanie ontologii to proces artykułowania podobieństwa w formie relacji równości jeden do jednego między wszystkimi elementami dwóch oddzielnych ontologii.
Integracja ontologii: Integracja ontologii to proces, który skutkuje wygenerowaniem nowej ontologii wyprowadzonej z połączenia dwóch lub więcej ontologii źródłowych o różnej, ale powiązanej domenie podmiotowej.
Mapowanie ontologii: Mapowanie ontologii to proces artykułowania podobieństw między koncepcjami należącymi do oddzielnych ontologii źródłowych.
Mediacja ontologii: Mediacja ontologii to proces, który uzgadnia różnice między oddzielnymi ontologiami w celu osiągnięcia interoperacyjności semantycznej poprzez wykonanie dopasowania, mapowania, scalania i innych wymaganych operacji.
Scalanie ontologii: Mapowanie ontologii to proces, który skutkuje wygenerowaniem nowej ontologii wyprowadzonej z połączenia dwóch lub więcej ontologii źródłowych o tej samej domenie podmiotowej.
Techniki podobieństwa semantycznego: Techniki koncentrujące się na spełnialności logicznej jako podstawie mapowania.
Techniki podobieństwa ciągów znaków: Zestaw technik wykorzystujących podobieństwo składniowe pojęć jako podstawę mapowania.
Techniki uwzględniające strukturę: Techniki uwzględniające również hierarchię strukturalną pojęć jako podstawę mapowania.
Opóźnione wykrywanie duplikatów: W przeciwieństwie do tablic skrótów, które eliminują zduplikowane stany "w locie" podczas eksploracji, proces wykrywania duplikatów można opóźnić do momentu uzyskania dużego zbioru stanów. Jest to bardzo skuteczne w wyszukiwaniu zewnętrznym, gdzie jest ono efektywnie realizowane poprzez zewnętrzne sortowanie i skanowanie.
Graf: Zbiór węzłów połączonych krawędziami. Węzeł na początku krawędzi nazywany jest celem, a na końcu - źródłem. Graf może być nieskierowany, tzn. zawsze można powrócić do źródła przez tę samą krawędź - odwrotnością jest graf skierowany. Jeśli jest on podany wcześniej w postaci list sąsiedztwa (np. sieć dróg), nazywamy go grafem jawnym. Grafy niejawne - inna nazwa "przestrzeni stanów" - są generowane "w locie" z węzła początkowego i zestawu reguł/akcji generujących nowe stany (np. gra w warcaby).
Funkcja heurystyczna: Funkcja, która przypisuje węzeł, czyli szacowaną odległość do węzła docelowego. Na przykład w planowaniu tras odległość euklidesowa może być używana jako funkcja heurystyczna. Funkcja heurystyczna jest dopuszczalna, jeśli nigdy nie przecenia najkrótszej odległości ścieżki. Jest również spójna, jeśli nigdy nie maleje na żadnej krawędzi bardziej niż waga krawędzi, tj. dla węzła n i jego następnika n', h(n) - h(n′) ? c(n,n').
Hierarchia pamięci: Współczesny sprzęt ma hierarchię nośników danych: począwszy od szybkich rejestrów, pamięci podręcznej L1 i L2, poprzez pamięć RAM, aż do wolnych dysków twardych i taśm. Czasy opóźnień na różnych poziomach różnią się znacznie, np. rejestry: 2 ns, pamięć podręczna: 20 ns, dysk twardy: 10 ms, taśma: 1 min.
Weryfikacja modelu: Jest to zautomatyzowany proces, który po otrzymaniu modelu systemu i specyfikacji właściwości sprawdza, czy właściwość jest spełniona przez system. Właściwości wymagające, aby "coś złego nigdy się nie wydarzyło" nazywane są właściwościami bezpieczeństwa, natomiast te, które wymagają, aby "coś dobrego w końcu się wydarzyło", nazywane są właściwościami żywotności.
Algorytm wyszukiwania: Algorytm, który po podaniu dwóch węzłów grafu, startowego i docelowego, zwraca sekwencję węzłów stanowiącą ścieżkę od startu do celu, o ile taka sekwencja istnieje. Algorytm wyszukiwania generuje następniki węzła poprzez proces ekspansji, po którym węzeł jest nazywany węzłem zamkniętym. Nowo wygenerowane następniki są sprawdzane pod kątem duplikatów, a po znalezieniu unikatowych, są dodawane do zbioru węzłów otwartych.
Iteracja wartości: Procedura obliczająca strategię (odwzorowanie stanów na działanie) dla probabilistycznego lub niedeterministycznego problemu wyszukiwania, najczęściej w formie problemu decyzyjnego Markowa (MDP).
Agent: Uczestnik obliczeń rozproszonych, mający własne ograniczenia.
Ograniczenie: Relacja między zmiennymi określająca niedozwolony podzbiór ich iloczynu kartezjańskiego. Opcjonalnie może również określać kary numeryczne dla tych krotek.
DisCOP: Struktura problemu optymalizacji rozproszonych ograniczeń (również DCOP).
DisCSP: Struktura problemu spełniania rozproszonych ograniczeń (również DCSP).
Nogood: Stwierdzenie logiczne dotyczące kombinacji zadań, które są karane z powodu pewnych ograniczeń.
Optymalność: Jakość algorytmu zwracającego wyłącznie rozwiązania co najmniej tak dobre, jak każde inne rozwiązanie.
Spokój: Stan nieaktywności. System nie zmieni się bez bodźca zewnętrznego.
Binarne Kody Rozpryskowe (BSC): VSA wykorzystująca wektory bitowe i operację wyłącznego OR (XOR) lub mnożenie elementów do wiązania ról/wypełniaczy.
Wiązanie: W najszerszym znaczeniu termin używany do opisania powiązania wartości ze zmiennymi. W sztucznej inteligencji i kognitywistyce zmienne są zazwyczaj zamkniętym zbiorem ról (AGENT, PACJENT, INSTRUMENT), a wartości otwartym zbiorem wypełniaczy (encji).
Pakowanie: Operacja VSA polegająca na łączeniu kilku elementów w jeden element poprzez dodawanie wektorów.
Pamięć Czyszcząca: Mechanizm wymagany do kompensacji szumu wprowadzanego przez kompresję stratną w VSA.
Reprezentacja Rozproszona: Ogólna metoda reprezentacji i przechowywania informacji, w której reprezentacja każdego elementu jest rozproszona w całej pamięci, każdy element pamięci jednocześnie przechowuje komponenty więcej niż jednego elementu, a elementy są pobierane na podstawie ich zawartości, a nie adresu. Holograficzna Reprezentacja Zredukowana (HRR): Najpopularniejsza odmiana VSA, wykorzystująca splot kołowy do wiązania wypełniaczy z rolami oraz korelację kołową do odzyskiwania wypełniaczy lub ról z powiązań.
Rekurencyjna Pamięć Autoasocjacyjna (RAAM): Architektura sieci neuronowej wykorzystująca mnożenie wektorów/macierzy do wiązania oraz iteracyjne uczenie się do kodowania struktur.
Iloczyny Tensorowe: Wczesna forma VSA, która wykorzystuje iloczyn zewnętrzny (tensorowy) jako operację wiązania, zwiększając w ten sposób wymiarowość reprezentacji bez ograniczeń.
Architektura Symboliczna Wektorowa (VSA): Ogólny termin określający reprezentacje wykorzystujące duże wektory liczb losowych dla ról i wypełniaczy oraz szybkie, stratne operacje kompresji do wiązania wypełniaczy z rolami.
Walidacja krzyżowa: Metoda szacowania błędu predykcyjnego induktorów. Procedura walidacji krzyżowej dzieli zbiór danych na k równych części zwanych fałdami. Buduje się k funkcji predykcyjnych, z których każda jest testowana na innej fałdzie po wytrenowaniu na pozostałych fałdach.
Algorytm ewolucyjny (EA): Metaheurystyczne podejście do optymalizacji inspirowane ewolucją naturalną, które rozpoczyna się od modeli potencjalnych rozwiązań, a następnie iteracyjnie stosuje algorytmy w celu znalezienia najlepiej dopasowanych modeli ze zbioru, które posłużą jako dane wejściowe do kolejnej iteracji, ostatecznie prowadząc do rozwiązania suboptymalnego, bliskiego optymalnemu.
Selekcja modelu: Selekcja modelu dla maszyn wektorów nośnych dotyczy dostrojenia hiperparametrów SVM, takich jak stała kompromisu C i parametry jądra.
Schemat kombinacji wieloklasowej: Połączenie kilku klasyfikatorów binarnych w celu rozwiązania danego problemu wieloklasowego.
Przestrzeń poszukiwań: Zbiór wszystkich możliwych sytuacji, w których może znajdować się problem, który chcemy rozwiązać.
Maszyna wektorów nośnych (SVM): SVM mapuje dane wejściowe w wielowymiarowej przestrzeni cech za pomocą funkcji nieliniowej i znajduje w tej przestrzeni cech optymalną hiperpłaszczyznę separującą, maksymalizującą margines (czyli odległość między hiperpłaszczyzną a najbliższymi punktami zbioru treningowego) i minimalizującą liczbę błędnie sklasyfikowanych wzorców.
Stała kompromisu SVM: Stała kompromisu, oznaczona jako C, pozwala określić znaczenie zwiększenia marginesu dla wyboru optymalnego hiperplanu w porównaniu ze zmniejszeniem błędów predykcyjnych (tj. przypadków, które nie respektują odległości marginesu od separatora hiperplanu).
Wytrzymałość na ściskanie: Zmierzona maksymalna wytrzymałość próbki betonu lub zaprawy na osiowe obciążenie ściskające; wyrażona jako siła na jednostkę pola przekroju poprzecznego; lub określona wytrzymałość stosowana w obliczeniach projektowych.
Belka-ściana: Element zginany, którego stosunek rozpiętości do wysokości jest zbyt niski, aby dokładnie zastosować zasady projektowania przekrojów poprzez właściwości przekroju i siły wewnętrzne. Wytrzymałość na ścinanie: Maksymalne naprężenie ścinające, jakie element zginany może przenieść w określonym miejscu, kontrolowane przez łączne działanie sił ścinających i momentu zginającego.
Beton wysokowytrzymały: Beton spełniający specjalne wymagania dotyczące właściwości użytkowych i jednorodności, których nie zawsze można osiągnąć rutynowo, stosując konwencjonalne składniki oraz standardowe metody mieszania, układania i pielęgnacji.
Proporcje mieszanki: Proporcje składników zapewniające najbardziej ekonomiczne wykorzystanie dostępnych materiałów do wytworzenia zaprawy lub betonu o wymaganych właściwościach.
Osiadanie: Miara konsystencji świeżo wymieszanego betonu, zaprawy lub tynku, równa osiadaniu mierzonemu z dokładnością do 6 mm (1/4 cala) uformowanej próbki bezpośrednio po usunięciu stożka osiadania.
Superplastyfikator lub domieszka redukująca zawartość wody w wysokim zakresie: Domieszka redukująca zawartość wody, która umożliwia znaczne zmniejszenie zawartości wody lub uzyskanie wysokiej płynności bez powodowania nadmiernego opóźnienia wiązania lub napowietrzenia zaprawy lub betonu.
Urabialność: Właściwość świeżo wymieszanego betonu lub zaprawy, która decyduje o łatwości jego mieszania, układania, zagęszczania i wykańczania do uzyskania jednorodnej konsystencji.
Najlepsze praktyki: Koncepcja zarządzania, która zakłada, że istnieje technika, metoda, proces, działanie, zachęta lub nagroda skuteczniejsza w osiąganiu określonego rezultatu niż jakakolwiek inna technika, metoda lub proces.
Gra komputerowa: Gra wideo rozgrywana na komputerze osobistym, a nie na konsoli do gier wideo lub automacie do gier.
Model komputerowy: Program komputerowy, który próbuje symulować abstrakcyjny model danego systemu.
E-learning: Nauka realizowana za pośrednictwem Internetu, sieci komputerowej, CD-ROM-u, telewizji interaktywnej lub transmisji satelitarnej.
Inteligentny agent: System oprogramowania czasu rzeczywistego, który współdziała z otoczeniem w celu wykonywania niepowtarzalnych zadań związanych z komputerem.
Zarządzanie wiedzą: Gromadzenie, organizacja, analiza i udostępnianie informacji przechowywanych przez pracowników i grupy w organizacji.
Uczyć się uczyć: W tym kontekście, nauczyć się zarządzać (wybierać, wyodrębniać, klasyfikować) ogromną ilością informacji istniejących w rzeczywistym społeczeństwie, aby zidentyfikować rzeczywistą i znaczącą wiedzę.
Nowe technologie: W tym kontekście technologie komputerowe, informacyjno-komunikacyjne.
Wirtualne: Niefizyczne.
Kontrola lotów: Usługa świadczona przez kontrolerów naziemnych, którzy kierują statkami powietrznymi na ziemi i w powietrzu. Głównym zadaniem kontrolera jest separacja poszczególnych statków powietrznych - zapobieganie ich nadmiernemu zbliżaniu się do siebie poprzez zastosowanie separacji bocznej, pionowej i podłużnej. Do zadań drugorzędnych należy zapewnienie uporządkowanego i sprawnego przepływu ruchu oraz dostarczanie pilotom informacji, takich jak pogoda, informacje nawigacyjne i NOTAM (Notices to Airmen).
Flocking: Komputerowy model skoordynowanego ruchu zwierząt, takich jak stada ptaków i ławice ryb. Zazwyczaj oparty na trójwymiarowej geometrii obliczeniowej, powszechnie stosowanej w animacji komputerowej lub projektowaniu wspomaganym komputerowo.
Inżynieria wiedzy: Inżynieria wiedzy to dziedzina sztucznej inteligencji, która rozwija systemy oparte na wiedzy. Takie systemy to programy komputerowe zawierające duże ilości wiedzy, reguł i mechanizmów wnioskowania, które dostarczają rozwiązań rzeczywistych problemów. Główną formą systemu opartego na wiedzy jest system ekspercki, zaprojektowany w celu emulowania procesów wnioskowania eksperta-praktyka (tj. osoby pełniącej funkcję zawodową przez wiele lat).
Środowiska wirtualne i immersyjne: Środowiska wirtualne w połączeniu z technologiami immersyjnymi zapewniają wrażenia sensoryczne przebywania w generowanej komputerowo, symulowanej przestrzeni. Mają one potencjalne zastosowania w różnych dziedzinach, od edukacji i szkoleń po projektowanie i prototypowanie.
Teatry wirtualne: Pojęcie "teatru wirtualnego" jest niejasne i wydaje się, że nie ma powszechnie akceptowanej definicji tego terminu. Można go zdefiniować jako wirtualny świat zamieszkany przez autonomiczne agenty, które działają i wchodzą w interakcje w sposób niezależny. Agenci ci mogą postępować zgodnie z ustalonym wcześniej schematem lub działać całkowicie z własnej inicjatywy.
Strategia eliminacji wstecznej: Chciwa metoda selekcji atrybutów, która ocenia efekt usunięcia jednego atrybutu ze zbioru danych. Atrybut, którego usunięcie poprawia wydajność zbioru danych, jest wybierany do usunięcia w następnej iteracji. Proces rozpoczyna się od pełnego zestawu atrybutów i kończy się, gdy usunięcie żadnego atrybutu nie poprawia wydajności.
Drzewa decyzyjne: Klasyfikator oparty na strukturze drzewiastej. Próbka testowa jest klasyfikowana poprzez jej ocenę w każdym węźle, zaczynając od najwyższego i wybierając konkretną gałąź w zależności od tej oceny. Klasyfikacja próbki to klasa przypisana w węźle najniższym.
Miara F1: Miara F1 to podejście polegające na połączeniu miar precyzji i czułości klasyfikatora za pomocą średniej harmonicznej obu z nich. Jej wyrażeniem jest: Miara F1 = (2×precyzja×czułość) / (precyzja+czułość).
Strategia selekcji w przód: Chciwa metoda selekcji atrybutów, która ocenia efekt dodania jednego atrybutu do zbioru danych. Atrybut, który poprawia wydajność zbioru danych, jest wybierany do dodania do zbioru danych w następnej iteracji. Proces rozpoczyna się bez atrybutów i kończy się, gdy dodanie nowych atrybutów nie powoduje poprawy wydajności.
Algorytm zachłanny: Algorytm - zwykle stosowany w problemach optymalizacyjnych - oparty na idei znalezienia globalnego rozwiązania problemu (pomimo że nie jest ono optymalne) poprzez wybór lokalnie optymalnych rozwiązań w różnych iteracjach.
Naiwny Bayes: Klasyfikator probabilistyczny oparty na regule Bayes′a, który zakłada, że wszystkie pary parametr-wartość definiujące przypadek są niezależne.
Precyzja: Miara wskazująca odsetek poprawnie sklasyfikowanych przypadków jednej klasy w odniesieniu do liczby przypadków sklasyfikowanych (poprawnie lub nie) jako członkowie tej klasy. Ta miara mówi, czy klasyfikator przyjmuje za członków jednej określonej klasy przypadki z innych, różnych klas.
Przypomnienie: Miara wskazująca odsetek poprawnie sklasyfikowanych przypadków jednej klasy w odniesieniu do całkowitej liczby przypadków, które faktycznie należą do tej klasy. Ta miara określa, czy klasyfikator ignoruje przypadki, które powinny zostać zaklasyfikowane jako członkowie jednej konkretnej klasy podczas klasyfikacji.
SVM: Skrót od Support Vector Machines (Maszyny Wektorów Wsparcia). SVM to modele umożliwiające rozróżnianie członków klas, których granice nie są liniowe. Jest to możliwe dzięki nieliniowej transformacji danych wejściowych, odwzorowującej je na przestrzeń o większej liczbie wymiarów, gdzie dane można łatwo podzielić przez hiperpłaszczyznę o maksymalnym marginesie.
Model aktywny: Technika numeryczna do śledzenia interfejsów i kształtów oparta na równaniach różniczkowych cząstkowych. Model to krzywa lub powierzchnia, która iteracyjnie deformuje się, dopasowując się do obiektu na obrazie.
Konwencjonalne modelowanie matematyczne: Stosowana nauka tworzenia modeli komputerowych. Jest to konstrukcja teoretyczna, która reprezentuje system złożony z zestawu obszarów zainteresowania, z zestawem parametrów, obiema zmiennymi wraz z logicznymi i ilościowymi relacjami między nimi, za pomocą języka matematycznego opisującego zachowanie systemu. Parametry są określane poprzez znalezienie krzywej w 2D lub powierzchni w 3D, której każdy fragment jest zdefiniowany przez siatkę krzywych w dwóch kierunkach parametrycznych, która odpowiada serii punktów danych i ewentualnie innym ograniczeniom.
Metoda elementów skończonych: Technika numeryczna stosowana do znajdowania przybliżonych rozwiązań równań różniczkowych cząstkowych (PDE), a także równań całkowych. Podejście do rozwiązania opiera się albo na całkowitym wyeliminowaniu równania różniczkowego (problemy stanu ustalonego), albo na przekształceniu równania różniczkowego cząstkowego w równoważne równanie różniczkowe zwyczajne, które następnie rozwiązuje się za pomocą standardowych technik, takich jak różnice skończone.
Krzywa geodezyjna: W obecności metryki, geodezyjne definiuje się jako (lokalnie) najkrótszą drogę między punktami w przestrzeni. W obecności połączenia afinicznego, geodezyjne definiuje się jako krzywe, których wektory styczne pozostają równoległe, jeśli są wzdłuż niej transportowane. rzywa geodezyjna opisuje ruch cząstek punktowych.
Karhunen-Loeve: Techniki matematyczne równoważne transformacji analizy głównych składowych, mające na celu redukcję wielowymiarowych zbiorów danych do niższych wymiarów w celu analizy ich wariancji.
Analiza modalna: Badanie właściwości dynamicznych i odpowiedzi struktur i/lub płynów pod wpływem wzbudzenia wibracyjnego. Typowe sygnały wzbudzenia można sklasyfikować jako impulsowe, szerokopasmowe, sinusoidalne, chirp i potencjalnie inne. Otrzymana odpowiedź pokaże jeden lub więcej rezonansów, których charakterystyczną masę, częstotliwość i tłumienie można oszacować na podstawie pomiarów.
Śledzenie: Śledzenie to proces lokalizowania poruszającego się obiektu (lub kilku obiektów) w czasie. Algorytm analizuje sekwencję obrazów i podaje lokalizację poruszających się celów na obrazie. System śledzenia wizualnego składa się z dwóch głównych komponentów: reprezentacji i lokalizacji celu oraz filtrowania i kojarzenia danych. Pierwszy z nich to proces oddolny, obejmujący segmentację i dopasowywanie. Drugi to proces odgórny, obejmujący włączanie wcześniejszych informacji o scenie lub obiekcie, analizę dynamiki obiektu i ocenę różnych hipotez.
Sztuczna Sieć Neuronowa: Struktura składa się z grupy połączonych ze sobą sztucznych neuronów lub jednostek. Celem sieci neuronowej jest przekształcenie danych wejściowych w sensowne dane wyjściowe.
Selekcja Cech oparta na Korelacji: Algorytm Selekcji Cech(*), który heurystycznie mierzy korelację między atrybutami i nagradza te podzbiory cech, w których każda cecha jest silnie skorelowana z klasą i nieskorelowana z cechami innych podzbiorów.
Selekcja Cech: Proces, powszechnie stosowany w uczeniu maszynowym, polegający na identyfikowaniu i usuwaniu jak największej ilości nieistotnych i zbędnych informacji.
Przestrzeń Cech: n-wymiarowa przestrzeń, w której każdy przykład (wzorzec) jest reprezentowany jako punkt. Wymiar tej przestrzeni jest równy liczbie cech użytych do opisu wzorców.
Układ FPGA (Field Programmable Array): Układ FPGA to układ scalony, który można programować w warunkach polowych po wyprodukowaniu.
Walidacja K-Cross: Metoda szacowania dokładności systemu klasyfikującego. W tym podejściu zbiór danych D jest losowo dzielony na K wzajemnie wykluczających się podzbiorów (foldów) o jednakowym rozmiarze (D1, D2, …, Dk) i budowany jest K klasyfikatorów. i-ty klasyfikator jest trenowany na sumie wszystkich Dj ? j?i i testowany na Di. Dokładność oszacowania to całkowita liczba poprawnych klasyfikacji podzielona przez liczbę wystąpień w zbiorze danych.
Uczenie maszynowe: Dziedzina informatyki skupiająca się na projektowaniu, analizie i implementacji algorytmów uczących się na podstawie doświadczenia.
Jeden przeciwko wszystkim: Podejście do rozwiązywania problemów klasyfikacji wieloklasowej, które tworzy jeden problem binarny dla każdej z K klas. Klasyfikator dla klasy i jest trenowany w celu odróżnienia przykładów z klasy i od wszystkich pozostałych przykładów.
Weka: Zbiór algorytmów uczenia maszynowego do rozwiązywania problemów eksploracji danych, zaimplementowanych w Javie i udostępnionych na licencji GPL.
Bootstrap: Technika ponownego próbkowania oparta na kilku losowych próbkach pobranych ze zwracaniem.
Niepodobieństwo: Miara bliskości, która nie spełnia nierówności trójkąta.
Jądro: Nieliniowa transformacja do przestrzeni cech o dużej liczbie wymiarów.
K-NN: Algorytm K-najbliższych sąsiadów do celów klasyfikacyjnych.
MDS: Wielowymiarowy algorytm skalowania stosowany do wizualizacji danych o dużej liczbie wymiarów.
SVD: Rozkład na wartości osobliwe. Operacja algebry liniowej wykorzystywana w wielu algorytmach optymalizacyjnych.
SVM: Klasyfikator maszyn wektorów nośnych.
UCE: Niezamówiona poczta komercyjna, znana również jako spam.
Chromosom: Określony wektor parametrów modelu czujnika (termin używany w terminologii ewolucyjnej dla osobników)
Funkcja kosztu: Kryterium oceniające poziom zgodności między wyjściem modelu czujnika a rzeczywistym wyjściem czujnika. W terminologii wykrywania błędów funkcja kosztu odpowiada terminowi "residuum" (lub funkcji resztowej).
Czas ewolucji: Liczba przypisana krokom w sekwencji iteracji wykonywanej podczas wyszukiwania parametrów modelu czujnika w oparciu o rozwój ewolucyjny.
Indywidualny: Wektor parametrów modelu czujnika w zbiorze możliwych wartości.
Początkowa temperatura wyżarzania: Początkowy parametr algorytmu. Temperatura wyżarzania jest używana jako miara postępu ewolucyjnego podczas symulowanego działania algorytmu wyżarzania.
Populacja: Zbiór wektorów parametrów modelu czujnika, przy których model czujnika ma szansę zbliżyć się do minimum funkcji resztowej.
Rozmiar populacji: Liczba wektorów parametrów modelu czujnika branych pod uwagę w populacji.
Niedokładność czujnika: Etap działania czujnika zmiennej sterowanej, na którym czujnik nie jest jeszcze całkowicie wyłączony, ale jego właściwości stopniowo zmieniają się w takim stopniu, że dane dostarczane przez czujnik są tak stronnicze, że tolerowana niedokładność zmiennej sterowanej przekracza dopuszczalny zakres i zwykle wiąże się z możliwymi efektami ubocznymi.
System adaptacyjny: System zdolny do dostosowywania swojego zachowania do zmian w otoczeniu lub w częściach samego systemu.
Sztuczne sieci neuronowe: Modele inspirowane pracą mózgu, rozpatrywane jako połączenie neuronów i połączeń synaptycznych, które są zdolne do przesyłania danych przez wiele warstw, dając systemowi możliwość rozwiązywania różnych problemów, takich jak rozpoznawanie i klasyfikacja wzorców.
Algorytm propagacji wstecznej: Technika uczenia nadzorowanego stosowana do trenowania sieci neuronowych. Opiera się na zestawie rekurencyjnych wzorów do obliczania wektora gradientu funkcji błędu, które można wykorzystać w metodzie pierwszego rzędu, takiej jak metoda gradientu prostego.
Propagacja wsteczna błędu: Zasadniczo procedura wyszukiwania, która próbuje zminimalizować funkcję błędu całej sieci, taką jak suma kwadratów błędu wyjścia sieci, na zestawie par wejścia/wyjścia treningowego.
Algorytmy ewolucyjne: Algorytmy oparte na modelach uwzględniających "sztuczną" lub "symulowaną" ewolucję genetyczną osobników w określonym środowisku. Stanowią one szeroką klasę stochastycznych algorytmów optymalizacyjnych, inspirowanych biologią, a w szczególności procesami biologicznymi, które pozwalają populacjom organizmów adaptować się do otaczającego środowiska: dziedziczenie genetyczne i przetrwanie najsilniejszych.
Ewolucyjne Sztuczne Sieci Neuronowe: Specjalna klasa sztucznych sieci neuronowych, w których ewolucja jest kolejną podstawową formą adaptacji, oprócz uczenia się. Są one reprezentowane przez inspirowane biologicznie modele obliczeniowe, które wykorzystują algorytmy ewolucyjne w połączeniu z sieciami neuronowymi do rozwiązywania problemów.
Ewolucyjne Obliczenia: W informatyce jest to poddziedzina sztucznej inteligencji (a dokładniej inteligencji obliczeniowej) obejmująca kombinatoryczne problemy optymalizacyjne. Ewolucyjne Obliczenia definiują dość młodą dziedzinę badań nad systemami obliczeniowymi opartą na idei naturalnej ewolucji i adaptacji.
Perceptrony Wielowarstwowe (MLP): Klasa sieci neuronowych, która składa się z w pełni połączonej sieci typu feed-forward z warstwą wejściową neuronów, jedną lub więcej warstw ukrytych oraz warstwą wyjściową. Wartość wyjściowa jest uzyskiwana poprzez sekwencję funkcji aktywacji zdefiniowanych w każdej warstwie ukrytej. Zazwyczaj w tego typu sieciach nadzorowanym procesem uczenia jest algorytm propagacji wstecznej.
Przestrzeń przeszukiwania: Zbiór wszystkich możliwych sytuacji, w których może znajdować się problem, który chcemy rozwiązać.
Absorbancja: Funkcja (zwykle logarytmiczna) procentowej transmisji długości fali światła przez ciecz.
Sztuczna sieć neuronowa: Połączona grupa sztucznych neuronów, która wykorzystuje matematyczny lub obliczeniowy model do przetwarzania informacji. Opiera się na funkcji neuronów biologicznych. Obejmuje grupę prostych elementów przetwarzających (neuronów), które mogą wykazywać złożone zachowania globalne w wyniku połączeń między neuronami.
Technika ewolucyjna: Technika dostarczająca rozwiązania problemu oparte na zasadach biologicznych, takich jak przetrwanie najsilniejszych. Techniki te rozpoczynają się od losowo wygenerowanej populacji, która ewoluuje za pomocą operacji krzyżowania i mutacji, aby zapewnić ostateczne rozwiązanie.
Ekstrakcja wiedzy: Wyjaśnienie wewnętrznej wiedzy systemu lub zbioru danych w sposób łatwy do interpretacji przez użytkownika.
Przestrzeń wyszukiwania: Zbiór wszystkich możliwych sytuacji, w których może się znaleźć problem, który chcemy rozwiązać. Kombinacja wszystkich możliwych wartości wszystkich zmiennych związanych z problemem.
Spektroskopia (spektrometria): Produkcja, pomiar i analiza widm elektromagnetycznych powstających w wyniku oddziaływań między promieniowaniem elektromagnetycznym a materią, takich jak emisja lub absorpcja energii.
Widmo: Natężenie promieniowania elektromagnetycznego w zakresie długości fal. Reprezentuje natężenie emitowanej lub transmitowanej energii w stosunku do energii światła odebranego.
Wybór zmiennych: Wybór podzbioru odpowiednich zmiennych (cech), które mogą opisywać zbiór danych.
Algorytmy inspirowane biologią: Grupa algorytmów wzorowanych na obserwowanych zjawiskach naturalnych, wykorzystywanych do rozwiązywania problemów matematycznych.
Chromosom: Proponowane rozwiązanie problemu, reprezentowane jako ciąg bitów i mogące mutować i krzyżować się, tworząc nowe rozwiązanie.
Klastrowanie: Grupowanie węzłów sieci ad hoc w taki sposób, że każda grupa stanowi samoorganizującą się jednostkę posiadającą głowę klastra, odpowiedzialną za formowanie i zarządzanie klastrem.
Krzyżowanie: Operacja genetyczna, która tworzy nowy chromosom poprzez połączenie genów dwóch lub więcej chromosomów macierzystych.
Funkcja dopasowania: Funkcja, która odwzorowuje subiektywną właściwość dopasowania rozwiązania na wartość obiektywną, która może być użyta do uporządkowania różnych rozwiązań według ich przydatności jako rozwiązania ostatecznego lub pośredniego.
Geny: Geny są elementami budulcowymi chromosomów i reprezentują parametry, które wymagają optymalizacji.
Algorytmy genetyczne: Algorytmy wzorowane na naturalnym procesie ewolucji. Algorytmy te wykorzystują metody takie jak krzyżowanie, mutacja i dobór naturalny i dostarczają najlepsze możliwe rozwiązania po przeanalizowaniu grupy suboptymalnych rozwiązań, które są dostarczane jako dane wejściowe.
Populacja początkowa: Zbiór suboptymalnych rozwiązań, które są dostarczane jako dane wejściowe do algorytmu genetycznego i z których ewoluuje rozwiązanie optymalne.
Sieć mobilna ad-hoc: Sieć wieloskokowa utworzona przez grupę węzłów mobilnych, które współpracują ze sobą w celu zapewnienia komunikacji, bez potrzeby stosowania żadnej infrastruktury wspomagającej.
Mutacja: Operacja genetyczna, która losowo zmienia chromosom w celu wytworzenia nowego chromosomu i dodania nowego rozwiązania do zbioru rozwiązań.
CYK: Algorytm Cocke′a-Youngera-Kasamiego używany do określenia, czy zdanie może zostać wygenerowane przez gramatykę.
Obliczenia ewolucyjne: Obszerna i zróżnicowana klasa algorytmów wyszukiwania opartych na populacji, inspirowana procesem ewolucji biologicznej poprzez selekcję, mutację i rekombinację. Są to algorytmy iteracyjne, które rozpoczynają od początkowej populacji rozwiązań kandydackich, a następnie wielokrotnie stosują serię operatorów genetycznych.
Automaty skończone: Model zachowania złożony ze skończonej liczby stanów, przejść między nimi oraz działań. Służą do rozpoznawania języków regularnych.
Algorytm genetyczny: Rodzaj ewolucyjnego algorytmu obliczeniowego, w którym rozwiązania kandydackie są reprezentowane zazwyczaj przez wektory liczb całkowitych lub ciągi bitów, czyli wektory wartości binarnych 0 i 1.
Heurystyka: Funkcja używana do podejmowania pewnych decyzji w ramach algorytmu; w kontekście algorytmów wyszukiwania, zazwyczaj używana do kierowania procesem wyszukiwania.
Wyszukiwanie lokalne: Rodzaj metody wyszukiwania, która rozpoczyna się w pewnym punkcie przestrzeni wyszukiwania i iteracyjnie przechodzi od pozycji do pozycji sąsiedniej, wykorzystując heurystykę.
Automaty ze stosem: Automat skończony, który może wykorzystywać stos zawierający dane. Służą do rozpoznawania języka bezkontekstowego.
Przestrzeń wyszukiwania: Zbiór wszystkich potencjalnych rozwiązań danej instancji problemu.
Sprzęt ewolucyjny: Układ rekonfigurowalny, który jest programowany przez algorytm ewolucyjny, taki jak algorytmy genetyczne. Do zewnętrznego, ewolucyjnego algorytmu sprzętowego, który jest uruchamiany na stacji hosta poza układem rekonfigurowalnym (komputerem). Do wewnętrznego, ewolucyjnego algorytmu sprzętowego, który jest uruchamiany w tym samym systemie z układem rekonfigurowalnym (nawet na tym samym chipie).
Algorytmy genetyczne (GA): Algorytm genetyczny (lub GA) to technika wyszukiwania stosowana w informatyce do znajdowania prawdziwych lub przybliżonych rozwiązań problemów optymalizacyjnych i wyszukiwania. Algorytmy genetyczne są klasyfikowane jako stochastyczna technika wyszukiwania lokalnego. Algorytmy genetyczne to szczególna klasa algorytmów ewolucyjnych, które wykorzystują techniki inspirowane biologią ewolucyjną, takie jak dziedziczenie, mutacja, selekcja i krzyżowanie (zwane również rekombinacją). Osobniki, ze schematem kodowania, są początkowymi wartościami losowymi. Wszystkie osobniki są, w pierwszej kolejności
Sprzęt ewolucyjny: Układ rekonfigurowalny, który jest programowany przez algorytm ewolucyjny, taki jak algorytmy genetyczne. Do zewnętrznego, ewolucyjnego algorytmu sprzętowego, który jest uruchamiany na stacji hosta poza układem rekonfigurowalnym (PC). Do wewnętrznego, ewolucyjnego algorytmu sprzętowego, który jest uruchamiany w tym samym systemie z układem rekonfigurowalnym (nawet na tym samym chipie).
Algorytmy genetyczne (GA): Algorytm genetyczny (lub GA) to technika wyszukiwania stosowana w informatyce do znajdowania prawdziwych lub przybliżonych rozwiązań problemów optymalizacyjnych i wyszukiwania. Algorytmy genetyczne są klasyfikowane jako stochastyczna technika wyszukiwania lokalnego. Algorytmy genetyczne to szczególna klasa algorytmów ewolucyjnych, które wykorzystują techniki inspirowane biologią ewolucyjną, takie jak dziedziczenie, mutacja, selekcja i krzyżowanie (zwane również rekombinacją). Osobniki, ze schematem kodowania, są początkowymi wartościami losowymi. Wszystkie osobniki są w pierwszym etapie algorytmu oceniane w celu uzyskania wartości dopasowania. W następnym etapie są sortowane według dopasowania i wybierane do operatorów genetycznych. Rodzicami są osobniki biorące udział w operatorach genetycznych, takich jak krzyżowanie lub mutacja. Potomstwo jest oceniane wspólnie z rodzicami, a algorytm powraca do pierwszego kroku. Pętla jest powtarzana, aż do znalezienia rozwiązania lub osiągnięcia limitu określonego przez programistę.
Genotyp: Opisuje konstytucję genetyczną osobnika, czyli specyficzny skład alleli osobnika. W przypadku ewoluującego sprzętu składa się on z wektora bitów konfiguracyjnych.
HGA: Sprzętowy algorytm genetyczny to sprzętowa implementacja algorytmu genetycznego. Implementacja sprzętowa zwiększa wydajność algorytmu poprzez zastąpienie szeregowych modułów programowych równoległym sprzętem.
Mikrostruktura: Integracja struktury w tym samym układzie scalonym. Ewoluująca mikrostruktura sprzętowa to wewnętrzny, ewoluujący sprzęt ze wszystkimi modułami w tym samym układzie scalonym.
Fenotyp: Opisuje jedną z cech osobnika, która jest mierzalna i wyrażana tylko u podzbioru osobników w danej populacji. W przypadku ewoluującego sprzętu fenotyp składa się z obwodu zakodowanego przez osobnika.
Obwód rekonfigurowalny: Struktura sprzętowa składa się z logicznej sieci komórkowej, która umożliwia konfigurację połączeń między komórkami.
Sztuczne sieci neuronowe: Połączony zbiór wielu prostych jednostek przetwarzających, powszechnie zwanych neuronami, wykorzystujący model matematyczny, który reprezentuje relację wejście/wyjście.
Algorytm propagacji wstecznej: Technika uczenia nadzorowanego stosowana w sieciach neuronowych, która iteracyjnie modyfikuje wagi połączeń sieci, tak aby błąd generowany przez sieć po porównaniu danych wyjściowych z wartością oczekiwaną zmniejszał się.
Obliczenia ewolucyjne: Zbiór technik sztucznej inteligencji stosowanych w problemach optymalizacyjnych, inspirowanych mechanizmami biologicznymi, takimi jak ewolucja naturalna.
Programowanie genetyczne: Technika uczenia maszynowego wykorzystująca algorytm ewolucyjny w celu optymalizacji populacji programów komputerowych zgodnie z funkcją dopasowania, która określa zdolność programu do wykonania danego zadania.
Genotyp: Reprezentacja osobnika na podstawie całego zbioru genów, do którego stosuje się operatory krzyżowania i mutacji.
Fenotyp: Ekspresja właściwości kodowanych przez genotyp osobnika.
Populacja: Grupa osobników o jednakowej lub podobnej strukturze genomu, co pozwala na zastosowanie operatorów genetycznych.
Przestrzeń poszukiwań: Zbiór wszystkich możliwych sytuacji, w których może się znaleźć problem, który chcemy rozwiązać.





[ 960 ]

















|