Głównie Chmura (Cloud)?

Cloud Computing

GPL: GNU General Public License. Licencja na prawa autorskie typu open source autorstwa Richarda Stallmana, która w najściślejszej formie wymaga przyjęcia programów zbudowanych na kodzie licencjonowanym na licencji GPL.

granularity (szczegółowość): Ważna koncepcja projektowania oprogramowania, szczególnie w odniesieniu do komponentów, odnosząca się do ilości szczegółów lub funkcjonalności – od drobnej do grubej – dostarczanych w komponencie usługowym. Jeden składnik oprogramowania może zrobić coś bardzo prostego, na przykład obliczyć pierwiastek kwadratowy; inny ma wiele szczegółów i funkcjonalności, które reprezentują złożoną regułę biznesową lub przepływ pracy. Pierwszy składnik jest drobnoziarnisty, a drugi gruboziarnisty. Programiści często łączą usługi drobnoziarniste w usługi gruboziarniste, aby stworzyć usługę biznesową.

grid computing (przetwarzanie sieciowe): krok poza przetwarzanie rozproszone, obejmujące dużą liczbę komputerów w sieci (często rozproszonych geograficznie i być może o różnych typach i możliwościach), które są wykorzystywane do rozwiązania typowego problemu. Chmury są zwykle zorganizowane jako siatka komputerowa.

ML Dla Hackerów : Środowisko R

Uczenie maszynowe istnieje na styku tradycyjnej matematyki i statystyki z inżynierią oprogramowania i informatyką. My opiszemy kilka narzędzi z tradycyjnych statystyk, które pozwalają zrozumieć świat. Statystyka prawie zawsze dotyczyły uczenia się czegoś, co można interpretować na podstawie danych, natomiast uczenie maszynowe dotyczyło przekształcania danych w coś praktycznego i użytecznego. Ten kontrast ułatwia zrozumienie pojęcia uczenia maszynowego: Uczenie maszynowe polega na uczeniu komputerów czegoś o świecie, aby mogły wykorzystać tę wiedzę do wykonywania innych zadań. Natomiast statystyka jest bardziej zainteresowana opracowaniem narzędzi do uczenia ludzi czegoś o świecie, aby mogli jaśniej myśleć o świecie i podejmować lepsze decyzje. W uczeniu maszynowym uczenie odbywa się poprzez wydobywanie jak największej ilości (lub rozsądnej) informacji z danych za pomocą algorytmów analizujących podstawową strukturę danych i odróżniających sygnał od szumu. Po znalezieniu sygnału lub wzoru algorytmy po prostu decydują, że wszystko, co zostało, to hałas. Z tego powodu techniki uczenia maszynowego są również nazywane algorytmami rozpoznawania wzorców. Możemy „szkolić” nasze maszyny, aby dowiedzieć się, w jaki sposób generowane są dane w danym kontekście, co pozwala nam używać tych algorytmów do automatyzacji wielu przydatnych zadań. Stąd pochodzi zestaw szkoleniowy, odnoszący się do zestawu danych użytych do zbudowania procesu uczenia maszynowego. Pojęcie obserwacji danych, uczenia się na ich podstawie, a następnie automatyzacji procesu rozpoznawania stanowi sedno uczenia maszynowego i stanowi nasz główny cel. Dwa szczególnie ważne typy wzorców stanowią podstawowe problemy, które zapewnimy Ci narzędzia do rozwiązania: problem klasyfikacji i problem regresji, które zostaną wprowadzone w trakcie tego tekstu. My  zakładamy stosunkowo wysoki poziom wiedzy w zakresie podstawowych technik programowania i paradygmatów algorytmicznych. To powiedziawszy, R pozostaje stosunkowo niszowym językiem, nawet wśród doświadczonych programistów. Aby ustalić ten sam punkt wyjścia dla wszystkich, ta sekcja zawiera podstawowe informacje na temat rozpoczęcia korzystania z języka R. Później przedstawimy obszerne studium przypadku dotyczące pracy z danymi w języku R. Jeśli nigdy wcześniej nie widziałeś języka R i jego składni, zalecamy zapoznanie się z tym wprowadzeniem, aby uzyskać trochę informacji. W przeciwieństwie do innych języków skryptowych wysokiego poziomu, takich jak Python lub Ruby, R ma unikalną i nieco kłującą składnię i zwykle ma bardziej stromą krzywą uczenia się niż inne języki. Jeśli używałeś R wcześniej, ale nie w kontekście uczenia maszynowego, warto poświęcić czas na przejrzenie tego przeglądu przed przejściem do studiów przypadków.

Fe,Chmuro (Cloud)

Cloud Computing

fault tolerance  (odporność na awarie): Zdolność systemu do zapewnienia nieprzerwanej usługi pomimo awarii jednego lub więcej elementów systemu.

federacja: połączenie różnorodnych rzeczy, które mogą działać jako jedność – w stanach federalnych, zarządzaniu danymi lub tożsamością – i upewniając się, że obowiązują wszystkie właściwe reguły.

framework: struktura wsparcia dla rozwoju oprogramowania

Inżynier S.T.E.M. : Machine Learning Dla Hackerów : Wstęp

Witam…zaczynajmy… 🙂

Cóż, pomocne będzie zdefiniowanie terminów uczenia maszynowego i hakerów.

Co to jest uczenie maszynowe? Na najwyższym poziomie abstrakcji możemy myśleć o uczeniu maszynowym jako o zestawie narzędzi i metod, które próbują wywnioskować wzorce i wyciągnąć wgląd z zapisu obserwowalnego świata. Na przykład, jeśli próbujemy nauczyć komputer rozpoznawania kodów pocztowych zapisanych na frontach kopert, nasze dane mogą składać się ze zdjęć kopert wraz z zapisem kodu pocztowego, do którego adresowana była każda koperta. Oznacza to, że w pewnym kontekście możemy wykonać rejestr działań naszych podmiotów, wyciągnąć wnioski z tego zapisu, a następnie stworzyć model tych działań, który poinformuje nas o zrozumieniu tego kontekstu w przyszłości. W praktyce wymaga to danych, a we współczesnych aplikacjach często oznacza to dużo danych (być może kilka terabajtów). Większość technik uczenia maszynowego uwzględnia dostępność takich danych, jak podano, co oznacza nowe możliwości ich zastosowania w świetle ilości danych, które są wytwarzane jako produkt prowadzony przez nowoczesne firmy.

Kto/Co to jest haker? Daleko od stylizowanych wizerunków nikczemnych nastolatków lub cyber-punków gibsonowskich przedstawianych w popkulturze, uważamy, że haker to ktoś, kto lubi rozwiązywać problemy i eksperymentować z nowymi technologiami. Jeśli kiedykolwiek usiadłeś z najnowszą książką o nowym języku programowania i rozpracowywałeś kod, dopóki nie „wyskoczyło” „Hello, World”, to jesteś hakerem. Lub jeśli zdemontowałeś nowy gadżet, dopóki nie zrozumiałeś całej architektury maszyn, prawdopodobnie mamy na myśli również ciebie. Dążenia te są często podejmowane tylko z tego powodu, że przeszły przez proces i zdobyły wiedzę na temat tego, jak i dlaczego działą nieznana technologia. Oprócz wrodzonej ciekawości działania i chęci budowania, haker komputerowy (w przeciwieństwie do hakera samochodowego, hakera życia, hakera żywności itp.) Ma doświadczenie w projektowaniu i rozwoju oprogramowania. To ktoś, kto pisał wcześniej programy, prawdopodobnie w wielu różnych językach. Dla hakera Unix nie jest czteroliterowym słowem, a nawigacja w wierszu poleceń i operacje bash mogą przychodzić tak naturalnie, jak praca z GUI. Używanie wyrażeń regularnych i narzędzi, takich jak sed, awk i grep, to pierwsza linia obrony hakera podczas pracy z tekstem.

Uczenie maszynowe łączy koncepcje i techniki z wielu różnych tradycyjnych dziedzin, takich jak matematyka, statystyka i informatyka. Jako taki istnieje wiele sposobów nauki dyscypliny. Biorąc pod uwagę jego teoretyczne podstawy matematyki i statystyki, nowi gracze dobrze by zrobili, aby osiągnąć pewien stopień opanowania formalnych specyfikacji podstawowych technik uczenia maszynowego. Istnieje wiele doskonałych książek, które koncentrują się na podstawach. Ale inną ważną częścią mantry hakerów jest uczenie się poprzez działanie. Wielu hakerów może wygodniej myśleć o problemach związanych z procesem uzyskiwania rozwiązania, niż o teoretycznych podstawach, z których pochodzi to rozwiązanie. Z tej perspektywy alternatywnym podejściem do nauczania uczenia maszynowego byłoby użycie przykładów w stylu „książki kucharskiej”. Na przykład, aby zrozumieć, jak działa system rekomendacji, możemy podać przykładowe dane szkoleniowe i wersję modelu oraz pokazać, jak ten drugi używa tego pierwszego. Istnieje również wiele przydatnych tekstów tego rodzaju, a kolektywna inteligencja programowa Segarana jest jednym z najnowszych przykładów. Taka dyskusja z pewnością dotyczyłaby sposobu uczenia się hakera, ale być może mniejszego powodu. Oprócz zrozumienia mechaniki metody możemy również chcieć dowiedzieć się, dlaczego jest ona używana w określonym kontekście lub rozwiązać konkretny problem. Aby zapewnić hakerom pełniejsze odniesienie do uczenia maszynowego, musimy iść na kompromis między dogłębnym przeglądem teoretycznych podstaw tej dyscypliny a szerokim zgłębianiem jej zastosowań. Aby to osiągnąć, będziemy się uczyć uczenia maszynowego poprzez wybrane studia przypadków. Najlepszym sposobem na naukę jest najpierw zastanowienie się nad problemem, a następnie skupienie się na nauce narzędzi używanych do jego rozwiązania. Jest to skutecznie mechanizm, za pomocą którego działają studia przypadków. Różnica polega na tym, że zamiast mieć jakiś problem, dla którego może nie być znanego rozwiązania, możemy skupić się na dobrze zrozumiałych i zbadanych problemach w uczeniu maszynowym i przedstawić konkretne przykłady przypadków, w których niektóre rozwiązania były doskonałe, a inne spektakularnie zawiodły. Z tego powodu każda sekcja jest samodzielnym studium przypadku koncentrującym się na konkretnym problemie w uczeniu maszynowym. Organizacja wczesnych przypadków przechodzi od klasyfikacji do regresji. Następnie badamy takie tematy, jak grupowanie, redukcja wymiarów i optymalizacja. Ważne jest, aby pamiętać, że nie wszystkie problemy mieszczą się równo w kategoriach klasyfikacji lub regresji, a niektóre studia przypadków przeanalizowane w tej książce będą zawierały aspekty obu (czasem wyraźnie, ale także w bardziej subtelny sposób, które przeanalizujemy). Poniżej znajdują się krótkie opisy wszystkich analiz przypadków jakie przeanalizujemy  w kolejności, w jakiej się pojawiają

Klasyfikacja tekstu: wykrywanie spamu

Przedstawiamy ideę klasyfikacji binarnej, która jest motywowana wykorzystaniem danych tekstowych e-mail. W tym przypadku zajmujemy się klasycznym problemem uczenia maszynowego polegającym na klasyfikowaniu niektórych danych wejściowych jako jednego z dwóch typów, którym w tym przypadku jest szynka (legalny e-mail) lub spam (niechciany e-mail).

Pozycje w rankingu: priorytetowa skrzynka odbiorcza

Korzystając z tych samych danych tekstowych wiadomości e-mail, co w poprzednim studium przypadku, przechodzimy poza klasyfikację binarną do dyskretnego zestawu typów. W szczególności musimy zidentyfikować odpowiednie funkcje do wyodrębnienia z wiadomości e-mail, które najlepiej informują o jej „priorytetowej” pozycji wśród wszystkich wiadomości e-mail.

Modele regresji: przewidywanie wyświetleń strony

Wprowadzamy teraz drugie podstawowe narzędzie uczenia maszynowego, regresję liniową. Tutaj eksplorujemy dane, których relacje w przybliżeniu zbliżają się do linii prostej. W tym studium przypadku jesteśmy zainteresowani prognozowaniem liczby odsłon stron w 1000 najlepszych witryn internetowych r.

Regularyzacja: regresja tekstu

Czasami relacje w naszych danych nie są dobrze opisane linią prostą. Aby opisać relację, może być konieczne dopasowanie innej funkcji; musimy jednak również uważać, aby się nie przełożyć. Tutaj przedstawiamy koncepcję regularyzacji w celu przezwyciężenia tego problemu i motywujemy ją poprzez studium przypadku, koncentrując się na zrozumieniu związku między słowami w tekście z opisów książek.

Optymalizacja: łamanie kodu

Wychodząc poza modele regresji, prawie każdy algorytm uczenia maszynowego może być postrzegany jako problem optymalizacji, w którym próbujemy zminimalizować pewną miarę błędu prognozowania. Przedstawiamy klasyczne algorytmy przeprowadzania tej optymalizacji i próbujemy złamać prosty szyfr literowy za pomocą tych technik.

Nauka bez nadzoru: budowanie indeksu giełdowego

Do tego momentu omawialiśmy tylko nadzorowane techniki uczenia się. Przedstawiamy jego metodologiczny odpowiednik: uczenie się bez nadzoru. Ważną różnicą jest to, że w uczeniu nadzorowanym chcemy wykorzystywać strukturę naszych danych do prognozowania, podczas gdy w uczeniu się bez nadzoru chcemy odkrywać strukturę naszych danych dla samej struktury. W takim przypadku wykorzystamy dane giełdowe do stworzenia indeksu, który opisuje, jak dobrze radzi sobie cały rynek.

Podobieństwo przestrzenne: grupowanie amerykańskich senatorów według zapisów z głosowania

Wprowadzamy tutaj pojęcie odległości przestrzennych między obserwacjami. W tym celu określamy miary odległości i opisujemy metody grupowania obserwacji w oparciu o ich odległości przestrzenne. Używamy danych z głosowania imiennego senatora USA, aby grupować tych ustawodawców na podstawie ich głosów.

System rekomendacji: sugerowanie użytkownikom pakietów R.

Aby pogłębić dyskusję na temat podobieństw przestrzennych, omawiamy, jak zbudować system rekomendacji oparty na bliskości obserwacji w przestrzeni. Przedstawiamy algorytm k-najbliższych sąsiadów i używamy go do sugerowania programistom pakietów R na podstawie ich aktualnie zainstalowanych pakietów.

Analiza sieci społecznościowych: kogo obserwować na Twitterze

W tym miejscu próbujemy połączyć wiele wcześniej omówionych koncepcji, a także wprowadzić kilka nowych, aby zaprojektować i zbudować system rekomendacji „kogo śledzić” na Twitterze. W tym przypadku budujemy system pobierania danych z sieci Twitter, odkrywamy społeczności w strukturze i zalecamy nowym użytkownikom korzystanie z podstawowych technik analizy sieci społecznościowych.

Porównanie modeli: znalezienie najlepszego algorytmu dla twojego problemu

Na koniec omawiamy techniki wyboru algorytmu uczenia maszynowego do rozwiązania problemu. Przedstawiamy nasz ostateczny algorytm, maszynę wektorów pomocniczych i porównujemy jego wydajność na danych spamowych z sekcji 3 z wydajnością innych algorytmów, które wprowadziliśmy wcześniej.

Ejżesz Chmuro(Cloudo)…

Cloud Computing

early binding (wczesne wiązanie): Nawiązywanie niezbędnych połączeń między komponentami oprogramowania podczas budowania systemu oprogramowania

EC2: Elastyczna chmura obliczeniowa od Amazon. Jest to komercyjna usługa internetowa Amazon Infrastructure as a Service (IaaS), która jest pionierem przetwarzania w chmurze.

elastyczność: zdolność do powiększania lub zmniejszania zasobów obliczeniowych w czasie rzeczywistym, w zależności od potrzeb.

ERP: Planowanie zasobów przedsiębiorstwa. Spakowany zestaw aplikacji biznesowych, który łączy reguły biznesowe, procesy i zarządzanie danymi w jednym zintegrowanym środowisku wspierającym firmę.

ESB: magistrala usług dla przedsiębiorstw. Rozproszony system oprogramowania pośredniego, który umożliwia aplikacjom komputerowym komunikację w znormalizowany sposób.

eSCM: Model zdolności eSourcing. Ramy opracowane na Carnegie Mellon University w celu zapewnienia modelu najlepszych praktyk w celu poprawy relacji między klientami a dostawcami w umowach outsourcingowych.

ETL: Wyodrębnij – Przekształć – Załaduj. Narzędzia do lokalizowania i uzyskiwania dostępu do danych z magazynu danych (ekstrakcja danych), zmiany struktury lub formatu danych, aby mogły być używane  przez aplikację biznesową (transformacja danych) i wysyłania danych do aplikacji biznesowej (ładowanie danych).

eTOM: ulepszona mapa operacji telekomunikacyjnych. Ramy zapewniające model procesu biznesowego dla branży telekomunikacyjnej

Dlaczego Chmura (Cloud)…????

Cloud Computing

data cleaning (czyszczenie danych): Oprogramowanie służące do identyfikowania potencjalnych problemów z jakością danych. Jeśli klient jest wielokrotnie wymieniony w bazie danych klientów z powodu różnic w pisowni jej imienia, oprogramowanie do czyszczenia danych wprowadza poprawki, aby pomóc w standaryzacji danych.

danych sieć: Część sieci komputerowej poświęcona transmisjom.

danych federacja: dostęp do różnych magazynów danych, przy użyciu spójnych reguł i definicji, które umożliwiają traktowanie wszystkich magazynów danych jako jednego zasobu.

danych profilowanie: technika lub proces, który pomaga zrozumieć treść, strukturę i relacje między danymi. Ten proces pomaga również zweryfikować dane pod kątem zgodności z regułami technicznymi i biznesowymi.

danych jakość: cechy charakterystyczne danych, takie jak spójność, dokładność, niezawodność, kompletność, terminowość, racjonalność i ważność. Oprogramowanie jakości danych zapewnia spójną reprezentację elementów danych w różnych magazynach danych lub systemach, dzięki czemu dane są bardziej wiarygodne w całym przedsiębiorstwie.

danych transformacja: proces, w którym format danych jest zmieniany, aby mogły być używane przez różne aplikacje.

danych hurtownia: duży magazyn danych zawierający dane historyczne organizacji, wykorzystywany głównie do analizy danych i eksploracji danych.

danych baza: system komputerowy przeznaczony do niezawodnego przechowywania dużej ilości informacji w zorganizowany sposób. Większość baz danych zapewnia użytkownikom wygodny dostęp do danych oraz pomocne funkcje wyszukiwania.

dedykowany hosting: Hosting dedykowany to miejsce, w którym klient otrzymuje pełną kontrolę nad serwerem hostowanym w chmurze. Kontrastuje to z zarządzaniem hostingiem, gdzie zarządzanie jest obowiązkiem firmy hostingowej.

dedykowany serwer: serwer dedykowany to taki, którego klient nie udostępnia innym użytkownikom usługi hostingowej w chmurze.

directory (katalog): słowo to jest używane zarówno w komputerach, jak i telefonii, aby wskazać zorganizowaną mapę urządzeń, plików lub osób.

distributed processing (przetwarzanie rozproszone): Rozłożenie pracy aplikacji przetwarzającej informacje na kilka komputerów.

Czyżby to była Chmura (Cloud)?

Cloud Computing

centrum doskonałości: grupa kluczowych osób ze wszystkich obszarów działalności i działalności, która koncentruje się na najlepszych praktykach. Centrum doskonałości umożliwia grupom w firmie  współpracę. Ta grupa staje się również siłą napędową zmian, ponieważ może wykorzystać swoją rosnącą wiedzę, aby pomóc jednostkom biznesowym czerpać korzyści z doświadczenia.

change management (zarządzanie zmianami): zarządzanie zmianami w procesach operacyjnych i aplikacjach.

client/server (klient / serwer): model przetwarzania danych, w którym różne procesy są klasyfikowane jako konsumenci usług (klienci) lub dostawcy usług (serwery). Ta klasyfikacja była kiedyś używana jako podstawa do dzielenia procesów między dostępne procesory.

cloud computing (przetwarzanie w chmurze): model obliczeniowy, który udostępnia zasoby IT, takie jak serwery, oprogramowanie pośrednie i aplikacje, przez Internet jako usługi dla organizacji biznesowych w sposób samoobsługowy.

CMDB: baza danych zarządzania konfiguracją. Ogólnie repozytorium danych zarządzania usługami.

CMMI: Integracja modelu dojrzałości zdolności. Najlepsza praktyka usprawniania procesów wykorzystywana do ulepszania procesów w projekcie lub ogólnie. Instytut Inżynierii Oprogramowania Uniwersytetu Carnegie Mellon wraz z przedstawicielami przemysłu i rządu opracował CMMI.COBIT: Cele kontrolne w zakresie technologii informacyjnych i pokrewnych. Ramy IT z naciskiem na zarządzanie i zarządzanie ryzykiem technicznym i biznesowym.

component (komponent): oprogramowanie komputerowe, które może być wykorzystane jako element składowy w większych systemach. Komponenty mogą być częściami aplikacji biznesowych, które zostały udostępnione za pośrednictwem standardów i technologii związanych z usługami internetowymi.

compute unit (jednostka obliczeniowa): w ramach usługi EC2 Amazon używa jednostek komputerowych do pomiaru infrastruktury używanej przez instancje serwerów wirtualnych. Obecnie jedna jednostka obliczeniowa EC2 zapewnia równoważną moc obliczeniową procesora 1,0–1,2 GHz 2007 Opteron lub 2007 Xeon. Inni dostawcy IaaS mają również jednostki do pomiaru zużycia zasobów.

configuration (konfiguracja): Pełny opis sposobu wzajemnego powiązania elementów oprogramowania lub systemu, zarówno pod względem funkcjonalnym, jak i fizycznym.

configuration management (zarządzanie konfiguracją): zarządzanie konfiguracjami, zwykle obejmujące przechowywanie danych konfiguracyjnych w bazie danych, aby dane mogły być zarządzane i zmieniane w razie potrzeby.

container (kontener): w programowaniu komputerowym: struktura danych lub obiekt używany do zarządzania kolekcjami innych obiektów w zorganizowany sposób.

CRM: zarządzanie relacjami z klientem. Oprogramowanie, które ma pomóc w prowadzeniu operacji sprzedaży i obsługi klienta.

Być może to Chmura (Cloud)…

Cloud Computing

backup (kopia zapasowa): narzędzie, które kopiuje bazy danych, pliki lub podzbiory baz danych i plików na nośnik pamięci. Tej kopii można użyć do przywrócenia danych w przypadku poważnej awarii.

bandwidth (szerokość pasma): Technicznie zakres częstotliwości, na których urządzenie może wysyłać lub odbierać sygnały. Termin ten jest również używany do oznaczenia maksymalnej szybkości przesyłania danych, mierzonej w bitach na sekundę (bps), którą może obsłużyć kanał komunikacyjny.

Basel II: Znany bardziej formalnie jako Międzynarodowa Konwergencja Pomiaru Kapitału i Standardy Kapitałowe – Zmienione Ramy. Bazylea II jest uznanym na całym świecie zbiorem zasad oceny finansów banku w świetle różnych rodzajów ryzyka. Jest to również jeden z dużych przepisów dotyczących zgodności, który zmusza organizacje do robienia rzeczy, do których inaczej nie czułyby się zobowiązane.

batch (wsad): nieinteraktywny proces uruchamiany w kolejce, zwykle gdy obciążenie systemu jest najniższe; zwykle używany do przetwarzania partii informacji w sposób szeregowy i zwykle skuteczny. Wczesne komputery były zdolne tylko do przetwarzania wsadowego.

best practice (najlepsza praktyka): skuteczny sposób na zrobienie czegoś. Może odnosić się do wszystkiego, od pisania kodu programu do zarządzania IT.

binding (powiązanie): Nawiązywanie niezbędnych połączeń między komponentami oprogramowania, aby mogły one ze sobą współdziałać.

biometria: wykorzystanie unikalnych cech fizycznych osoby w celu udowodnienia jej tożsamości na komputerze – na przykład za pomocą skanera linii papilarnych lub analizatora głosu.

black box (czarna skrzynka): Element lub urządzenie z wejściem i wyjściem, którego wewnętrzne funkcjonowanie nie musi być zrozumiałe dla użytkownika lub dostępne dla użytkownika.

BPaaS: Proces biznesowy jako usługa. Cały proces biznesowy jest świadczony jako usługa obejmująca niewiele więcej niż interfejs oprogramowania, na przykład usługa dostarczania paczek.

BPEL: Język wykonywania procesów biznesowych. Język komputerowy oparty na WSDL (Web Services Description Language, format XML opisujący usługi sieciowe) i zaprojektowany do programowania zarządzania usługami biznesowymi.

BPM: zarządzanie procesami biznesowymi. Technologia i metodologia kontroli działań – zarówno automatycznych, jak i ręcznych – niezbędnych do funkcjonowania firmy.

broker: W programowaniu komputerowym program, który przyjmuje żądania z jednej warstwy oprogramowania lub komponentu i tłumaczy je na formę zrozumiałą dla innej warstwy lub komponentu.

browser (przeglądarka): program umożliwiający dostęp do informacji w Internecie. Przeglądarki są na komputerach, telefonach komórkowych i osobistych asystentach cyfrowych, a wkrótce pojawią się na lodówkach.

bus (magistrala): technologia, która łączy wiele komponentów, aby mogły ze sobą rozmawiać. Zasadniczo magistrala to możliwość połączenia. Magistrala może być oprogramowaniem (takim jak magistrala usług korporacyjnych) lub sprzętem (takim jak magistrala pamięci).

biznesowy proces: systematyczne ustalanie zasad i praktyk stanowiących działalność gospodarczą.

biznesowych procesów modelowanie: technika przekształcania sposobu działania firmy w systematyczne uporządkowanie kodu źródłowego w celu umożliwienia jego przetłumaczenia na oprogramowanie.

biznesowe reguły: Ograniczenia lub działania, które odnoszą się do rzeczywistego świata komercyjnego, ale mogą wymagać zastosowania w zarządzaniu usługami lub aplikacjach biznesowych.

biznesowa usługa: indywidualna funkcja lub działanie, które jest bezpośrednio przydatne dla firmy.

A może to Chmura (Cloud)?

Cloud Computing

access control (kontrola dostępu): Określanie, kto lub co może mieć dostęp do czego oraz kiedy i jak mogą uzyskać do niego dostęp.

ACID [atomicity, consistency, isolation, i durability] : atomowość, konsystencja, izolacja i trwałość. Są to główne wymagania dotyczące prawidłowego przetwarzania transakcji.

API: interfejs programowania aplikacji. Zbiór wywołań podprogramów, które umożliwiają programom komputerowym korzystanie z systemu oprogramowania.

aplikacji hosting: występuje w kilku modelach. Jeden model wymaga od dostawcy uruchomienia całej aplikacji dla klienta. Software as a Service (SaaS) to kolejna forma hostingu aplikacji.

architektura: w przetwarzaniu informacji podejście projektowe zastosowane przy opracowywaniu programu lub systemu.

archiwizacja: proces, w którym dane bazy danych lub plików, które są rzadko używane lub są nieaktualne, ale są wymagane ze względów historycznych lub kontrolnych, są kopiowane do tańszej formy przechowywania. Nośnikiem pamięci może być tryb online, taśma lub dysk optyczny.

ASP.NET: jest to platforma aplikacji internetowych firmy Microsoft, której programiści używają do tworzenia aplikacji i usług sieciowych. Jest wszechstronny, ponieważ pozwala programistom pisać kod ASP.NET przy użyciu dowolnego obsługiwanego języka .NET.

asset management (zarządzanie zasobami): oprogramowanie, które umożliwia organizacjom rejestrowanie wszystkich informacji o ich sprzęcie i oprogramowaniu. Większość takich aplikacji przechwytuje informacje o kosztach, informacje o licencji i tak dalej. Takie informacje należą do bazy danych zarządzania konfiguracją.

audyt: kontrola skuteczności zadania lub zestawu zadań oraz sposobu zarządzania i dokumentowania zadań.

audytu ścieżka: ślad sekwencji zdarzeń w systemie biurowym lub komputerowym. Audyt zwykle identyfikuje utworzenie lub modyfikację dowolnego elementu w systemie, kto to zrobił, i (ewentualnie) dlaczego to zrobiono.

authentication (uwierzytelnianie): proces, za pomocą którego weryfikowana jest tożsamość osoby lub proces komputerowy.

AWS: Amazon Web Services. Zestaw usług internetowych oferowanych przez Amazon, aby pomóc programistom w tworzeniu aplikacji internetowych i korzystaniu ze środowiska przetwarzania w chmurze Amazon.

Azure: Windows Azure to system operacyjny do przetwarzania w chmurze firmy Microsoft. Środowisko hostingu i zarządzania jest utrzymywane w centrach danych Microsoft, więc nie trzeba używać wewnętrznych zasobów centrum danych podczas opracowywania aplikacji na platformie Azure.

Kiedy toster powie Ci… “spie……” !!!

Internet of Things

5G:

(znane również jako sieci komórkowe 5 generacji lub systemy bezprzewodowe piątej generacji) to projekt nowej generacji sieci komórkowych, który rozwiązuje kluczowe przypadki użycia Internetu przedmiotów

Aparat:

mechaniczne urządzenie odpowiedzialne za poruszanie lub kontrolowanie mechanizmu lub systemu

Analityka:

odkrywanie, interpretacja i przekazywanie znaczących wzorców w danych, które zapewniają inteligencję biznesową i przewidują prawdopodobne przyszłe scenariusze

Anti-Spoofing:

technika przeciwdziałania atakom sieciowym, w których osoba lub program przyjmuje tożsamość innej osoby lub programu do nielegalnych celów

API , Interfejs programowania aplikacji:

zestaw procedur, protokołów i narzędzi używanych przez aplikacje do interakcji z innymi podmiotami

Autonomiczny pojazd:

(znany również jako samochód bez kierowcy, samochód z napędem własnym lub samochód z robotem) pojazd, który może obsługiwać i nawigować bez udziału człowieka; zdefiniowano wiele poziomów automatyzacji

Automatyka budynkowa:

automatyczne scentralizowane sterowanie ogrzewaniem, wentylacją, klimatyzacją, oświetleniem, bezpieczeństwem i innymi systemami budynku za pomocą systemu automatyki budynku

Automatyka przemysłowa:

wykorzystanie technologii w procesach przemysłowych, aby były bardziej wydajne i bezpieczniejsze

AVnu Alliance:

konsorcjum firm współpracujących w celu ustanowienia i certyfikowania interoperacyjności otwartych mostów audio i sieciowych standardów czasu

Bezpieczeństwo cybernetyczne:

gromadzenie narzędzi i procesów, które chronią systemy informatyczne i dane elektroniczne przed kryminalnym lub nieautoryzowanym użyciem

Big Data:

bardzo duże zbiory danych w różnych formach, które wymagają nowych technik do właściwej i terminowej analizy danych

Blockchain:

rozproszona publiczna lub prywatna baza danych została zabezpieczona przed manipulacją i zmianą, która umożliwia bezpieczną wymianę wartości między podmiotami

Bluetooth Low Energy:

(znany również jako Bluetooth LE lub BLE) bezprzewodowej sieci osobistej krótkiego zasięgu zoptymalizowanej do zastosowań IoT o małej mocy

Brązowe pole:

środowisko, w którym nowa technologia musi zostać zintegrowana z dotychczasowymi systemami. W przeciwieństwie do greenfield

Centrum danych:

zakład lub dział, w którym znajdują się systemy komputerowe i powiązane elementy, takie jak telekomunikacja i systemy pamięci masowej

Chmura obliczeniowa:

rodzaj komputerowych systemów komputerowych zapewniających przetwarzanie zasobów i danych na urządzenia

Czas pracy:

czas, w którym działa maszyna lub zestaw maszyn

Czas rzeczywisty (analityka, przetwarzanie):

zdolność, dzięki której dane wejściowe są przetwarzane lub analizowane bez opóźnień

Czujnik:

obiekt, którego celem jest wykrywanie zdarzeń lub zmian w jego otoczeniu, a następnie dostarczanie odpowiedniego wyjścia

Dostawca usługi:

firma zapewniająca abonentom dostęp do Internetu

Ethernet:

rodzina technologii sieci komputerowych wykorzystywanych do tworzenia sieci lokalnej (LAN)

Ewolucja długookresowa (LTE):

standard szybkiej komunikacji bezprzewodowej dla telefonów komórkowych i terminali danych.

Identyfikacja radiowa (RFID):

wykorzystanie fal radiowych do odczytywania i przechwytywania informacji przechowywanych na metce dołączonej do obiektu

Internet of Things (IoT):

następna fala Internetu, w której każde urządzenie jest połączone z innymi urządzeniami i chmurą; nowa wartość jest dostarczana przez rozwiązania analizujące dane generowane przez te urządzenia i aplikacje optymalizujące procesy biznesowe

Internet Engineering Task Force (IETF):

organizacja otwartego standardu, która rozwija i promuje dobrowolne standardy internetowe, w szczególności standardy, które składają się na TCP / IP

Internet of Everything (IoE):

łączy ludzi, procesy, dane i rzeczy, aby połączenia sieciowe były bardziej adekwatne i cenne niż kiedykolwiek wcześniej (w tej książce użyłem IoE jako synonim IoT.)

Industrial Internet Consortium (IIC):

otwarte konsorcjum członkowskie, które wyznacza ramy architektoniczne i kierunek dla Internetu przemysłowego. Misją konsorcjum jest koordynowanie rozległych inicjatyw ekosystemowych w celu łączenia i integrowania obiektów z ludźmi, procesami i danymi przy użyciu wspólnych architektur, interoperacyjności i otwartych standardów.

IPv6:

Kluczowy włącznik IoT, Internet Protocol Version 6 to najnowsza wersja protokołu internetowego, która znacznie zwiększyła liczbę dostępnych adresów IP, umożliwiając podłączenie każdego urządzenia

ISA100:

standard technologii sieci bezprzewodowych opracowany przez International Society of Automation (ISA) w celu zapewnienia łączności z czujnikami bezprzewodowymi i innymi urządzeniami końcowymi. Oficjalny opis to “Systemy bezprzewodowe do automatyki przemysłowej: kontrola procesu i powiązane aplikacje.” Jeden ze standardów oparty na technologii radiowej IEEE 802.15.4

Komunikacja Power-Line (PLC):

protokół komunikacyjny wykorzystujący przewody elektryczne do równoczesnego przenoszenia zarówno transmisji danych, jak i prądu przemiennego (AC) lub dystrybucji energii elektrycznej

Konsorcjum OpenFog (OFC):

konsorcjum skoncentrowało się na kierowaniu przemysłem i przywództwem akademickim w architekturze przeciwmgielnej, opracowaniu platformy testowej i różnorodności elementów interoperacyjności i składalności, które płynnie wykorzystują architekturę chmurową i krawędziową, aby umożliwić kompleksowe scenariusze IoT

Linia biznesu (LOB):

funkcja odpowiedzialna za działanie lub “prowadzenie” podstawowej działalności w organizacji

LoRa:

standard sieci o małym poborze mocy (LPWAN) przeznaczony do podłączania bezprzewodowych urządzeń IoT zasilanych z baterii

Machine to Machine (M2M):

W świecie dostawców usług systemy komunikacyjne, które łączą urządzenia z urządzeniami innymi niż telefony komórkowe

Międzynarodowa Organizacja Normalizacyjna (ISO):

międzynarodowy organ ustanawiający standardy składający się z przedstawicieli różnych krajowych organizacji normalizacyjnych

Międzynarodowa Unia Telekomunikacyjna (ITU):

wyspecjalizowana agencja Narodów Zjednoczonych (ONZ) odpowiedzialna za kwestie dotyczące technologii informacyjnych i komunikacyjnych

 

Narodowy Instytut Standardów i Technologii (NIST):

laboratorium norm pomiarowych oraz agencja nieregulacyjna Departamentu Handlu Stanów Zjednoczonych

Nauczanie maszynowe:

rodzaj sztucznej inteligencji (AI), która zapewnia komputerom możliwość uczenia się bez wyraźnego zaprogramowania. Kluczowy zestaw technologii zapewniających zaawansowane funkcje analityki predykcyjnej i możliwości konserwacji

ODVA:

Pionier systemów otwartych w automatyce przemysłowej, organizacji zajmujących się opracowywaniem norm i organizacją handlu, mających na celu rozwój i promocję otwartych, interoperacyjnych technologii informacyjnych i komunikacyjnych w automatyce przemysłowej

Operator sieci komórkowej:

(znany również jako dostawca usług bezprzewodowych, operator sieci komórkowej, firma komórkowa lub operator sieci komórkowej) zapewnia klientom bezprzewodowe usługi transmisji głosu  i danych oraz kontroluje wszystkie elementy niezbędne do sprzedaży i dostarczania takich usług

Operator wirtualnej sieci mobilnej (MVNO):

(znany również jako mobilny inny licencjonowany operator [MOLO]) dostawca usług łączności bezprzewodowej, który nie jest właścicielem infrastruktury sieci bezprzewodowej, nad którą świadczy usługi swoim klientom

 

Open Connectivity Foundation (OCF):

fundament, który tworzy specyfikację i sponsoruje projekt typu open source, aby umożliwić miliardom podłączonych urządzeń komunikowanie się ze sobą niezależnie od producenta, systemu operacyjnego, chipsetu czy fizycznego transportu

Pierwsza faza Internetu:

wstępna faza komercyjnego Internetu, którego celem jest zapewnienie ludziom dostępu do informacji i do siebie nawzajem

Połączony pojazd:

pojazd wyposażony w dostęp do Internetu i łączność w pojeździe, umożliwiający pojazdowi, jego systemom i urządzeniom współdziałanie ze sobą i usługami zewnętrznymi

Programowalny sterownik logiczny (PLC):

komputer cyfrowy używany do automatyzacji procesów przemysłowych, takich jak sterowanie maszynami na liniach montażowych fabryki, przejażdżki rozrywkowe lub oświetlenie

Protokół internetowy (IP):

jeden z podstawowych protokołów Internetu, protokół komunikacyjny, który zapewnia system identyfikacji i lokalizacji dla komputerów w sieci i kieruje ruchem w Internecie

Przewidywana konserwacja:

techniki zaprojektowane w celu określenia stanu wyposażenia w celu przewidywania, kiedy należy przeprowadzić konserwację

Przemysł 4.0:

Niemiecka inicjatywa przemysłowa i rządowa zmierzająca do zdefiniowania i przyjęcia inteligentnej fabryki lub fabryki przyszłości, skoncentrowana na interoperacyjności, przejrzystości informacji, pomocy technicznej i zdecentralizowanych decyzjach Instytut Inżynierów Elektryków i Elektroników (IEEE): globalna organizacja techniczna, która, między innymi zaowocowały kluczowymi standardami łączności

Przetwarzanie strumienia zdarzeń:

zestaw technologii opracowanych do przetwarzania danych w czasie rzeczywistym

Przetwarzanie mgły:

znajduje się na krawędzi sieci w pobliżu źródeł danych, rozszerza możliwości przetwarzania w chmurze, zapewniając warstwę usług obliczeniowych, przechowywania, sieci i przetwarzania danych

Przejście:

urządzenie wzajemnego połączenia, które łączy zróżnicowany dostęp oparty na standardach i dotychczasowy oraz sieci obiektowe; często początkowy element sieciowy łączący wiele czujników i urządzeń krawędziowych z siecią, w której można wdrożyć spójne usługi IP

Przetwarzanie danych:

seria operacji na danych w celu pobrania, transformacji lub klasyfikacji istotnych informacji

Sieć samokształcenia:

rozwiązanie łączące funkcje analityczne i uczenie maszynowe w celu umożliwienia inteligentnej, adaptacyjnej, proaktywnej i predykcyjnej sieci

Shadow IT:

termin używany do opisywania systemów i rozwiązań informatycznych tworzonych i używanych wewnątrz organizacji bez wyraźnej zgody funkcji informatycznej

Smart City:

miasto, w którym inwestycje w infrastrukturę technologiczną i rozwiązania przyczyniają się do zrównoważonego rozwoju gospodarczego i poprawy jakości życia

Technologia operacyjna (OT):

organizacje i technologie obsługujące procesy produkcyjne i systemy kontroli przemysłowej

Tożsamość:

zestaw atrybutów związanych z osobą, urządzeniem lub kombinacją obu używanych do rozpoznawania ich przez systemy komputerowe

Warkot:

bezzałogowy statek powietrzny sterowany pilotem lub komputerami pokładowymi

Wirtualna sieć prywatna (VPN):

możliwość łączenia się z prywatną siecią firmy za pomocą publicznego Internetu i wykonywania zadań tak, jakby komputer był bezpośrednio podłączony do sieci przedsiębiorstwa

 

Wi-Fi:

technologia sieci bezprzewodowych, która umożliwia urządzeniom łączenie się z lokalnymi sieciami

WirelessHART:

technologia sieci bezprzewodowych oparta na protokole HART (Highway Addressable Remote Transducer Protocol) oraz protokołach komunikacyjnych IEEE 802.15.4 używanych do łączenia czujników bezprzewodowych i innych urządzeń końcowych

Wspólny protokół przemysłowy (CIP):

przemysłowy protokół obiektowy dla aplikacji automatyki przemysłowej obsługiwany przez ODVA

Zdalne zarządzanie zasobami:

zestaw narzędzi, które umożliwiają inżynierom kontrolowanie, monitorowanie, rozwiązywanie problemów i poprawne działanie zasobów fizycznych zdalnie

Zdatny do noszenia:

odzież lub akcesoria, które zawierają komputer i zaawansowane technologie elektroniczne i są zazwyczaj podłączone do sieci

Zielone pole:

projekt pozbawiony ograniczeń nałożonych przez poprzednią pracę. Kontrast z brownfield

ZigBee:

specyfikacja IEEE 802.15.4 dla zestawu wysokopoziomowych protokołów komunikacyjnych używanych do tworzenia sieci osobistych z małymi radiostacjami cyfrowymi o małej mocy