Mail:







Wczoraj , Dziś … Jutro







Odwiedzin: 25636
Dzisiaj: 13
On-line: 1
Strona istnieje: 1357 dni
Ładowanie: 0.412 sek


[ 7762 ]



Zrozumieć Sztuczną Inteligencję



Wstęp

Powstanie nowej technologii sztucznej inteligencji (AI) - sieci neuronowych (NN) rozpoczyna czwartą rewolucję przemysłową (Przemysł 4.0). Rewolucja przemysłowa rozpoczęła się od maszyny parowej, która zastąpiła siłę roboczą maszyną i zmechanizowaną produkcją. Pod koniec XIX wieku elektryczność zmodernizowała świat za sprawą żarówek, telefonu i telewizji. Doprowadziło to do masowej produkcji przemysłowej. Komputer kupił inną rewolucję cyfrową, aby zautomatyzować produkcję i poprawić nasze życie. Czwarta rewolucja przemysłowa przekształca świat cyfrowy w inteligentną erę dzięki NN. W porównaniu z tradycyjnym podejściem programowanie algorytmiczne nie jest już wymagane. Duża ilość ustrukturyzowanych lub nieustrukturyzowanych danych jest bezpośrednio wprowadzana do sieci NN, która automatycznie identyfikuje, klasyfikuje i przewiduje wyniki. Połączenie sztucznej inteligencji z Big Data (BD) i internetem rzeczy (IoT) całkowicie zmienia nasze codzienne życie, takie jak autonomiczne pojazdy (Tesla), asystenci głosowi (Google Home) i dostawy dronami (Amazon Prime Air). Co to jest sztuczna inteligencja? Sztuczna inteligencja jest podzielona na trzy różne poziomy: sztuczna inteligencja, uczenie maszynowe (ML) i uczenie głębokie (DL).

o Sztuczna inteligencja została po raz pierwszy zaproponowana w latach pięćdziesiątych XX wieku i umożliwia komputerowi naśladowanie ludzkiej inteligencji w celu rozwiązania problemu.
o ML to podzbiór sztucznej inteligencji, który uczy komputer uczenia się i podejmowania decyzji.
o DL to podzbiór uczenia maszynowego, który wyodrębnia cechy obiektów z dużej ilości danych, a następnie identyfikuje i klasyfikuje informacje.

W 2012 roku naukowcy z University of Toronto zaproponowali konwolucyjną sieć neuronową (CNN) - AlexNet , aby wygrać konkurs ImageNet Large Scale Visual Recognition Challenge (ILSVRC 2012). Z powodzeniem zidentyfikował obiekt, a najwyższy wskaźnik błędów wynoszący 5% jest o 10% niższy niż w przypadku tradycyjnego algorytmicznego programowania widzenia komputerowej. To ważny kamień milowy w rozwoju sztucznej inteligencji. W oparciu o CNN, szybko rozwijane są różne modele NN do różnych zastosowań. Przez mniej niż pięć lat ResNet wykazywał mniej niż 5% wskaźnika błędów identyfikacji obiektów w ILSVRC 2015, co jest wynikiem lepszym niż poziom dokładności ludzkiej. W 2016 roku Google AlphaGo zdobyło tytuł mistrza świata GO dzięki uczeniu się przez wzmacnianie (RL), co jest kolejnym przełomem NN. AlphaGo reaguje inaczej na każdy ruch w grze GO, aby zmaksymalizować szansę na wygraną. RL dodatkowo umożliwia inteligentną automatyzację robotów w przemyśle wytwórczym. Sztuczna inteligencja jest obecnie szeroko stosowana w naszym codziennym życiu, opiece zdrowotnej, finansach, handlu detalicznym, produkcji, rolnictwie, inteligentnych miastach i administracji. Autopilot Tesli prowadzi kierowcę przy zmianie pasa ruchu, nawigowaniu po skrzyżowaniach i zjazdach z autostrady. Wkrótce będzie wspierać rozpoznawanie znaków drogowych i autonomiczną jazdę po mieście. Oprócz aplikacji do widzenia maszynowego Google Home stosuje podejście do przetwarzania języka naturalnego (NLP) do sterowania urządzeniami domowymi, odtwarzania muzyki i odpowiadania na proste pytania. Amazon Prime Air1 wykorzystuje drony do dostarczania małych paczek na obszarach wiejskich. Znacznie zmniejsza koszty dostawy i oszczędza czas. Amazon Prime Air otrzymał zgodę Federalnej Administracji Lotnictwa (FAA) na dostarczanie paczek za pomocą bezzałogowego statku powietrznego, drona w sierpniu 2020 r. Sztuczna inteligencja zastąpi 75 milionów miejsc pracy, ale wygeneruje 133 miliony nowych na całym świecie do 2022 r. Podobnie jak maszynistka została zastąpiona wprowadzaniem danych w w erze komputerów wprowadzanie danych stwarza więcej możliwości zatrudnienia. Książka pokazuje czytelnikom, jak przygotować się do nowych wyzwań.

Historia rozwoju

Sieć neuronowa rozwijana była od dawna. W 1943 roku na Uniwersytecie w Pensylwanii skonstruowano pierwszy komputerowy elektroniczny integrator numeryczny i kalkulator (ENIAC). W tym samym czasie neurofizjolog Warren McCulloch i matematyk Walter Pitts opisali, jak mogą działać neurony, i stworzyli model prostej sieci neuronowej za pomocą obwodu elektrycznego. W 1949 roku Donald Hebb napisał książkę The Organization of Behaviour, w której wskazał, w jaki sposób NN wzmacnia się poprzez praktykę. W latach pięćdziesiątych Nathanial Rochester przeprowadził symulację pierwszego NN w IBM Research Laboratory. W 1956 roku Dartmouth Summer Research Project on Artificial Intelligence połączył sztuczną inteligencję z NN w celu wspólnego opracowania projektu. W następnym roku John von Neumann zasugerował wdrożenie prostych funkcji neuronowych za pomocą przekaźników telegraficznych lub lamp próżniowych. Neurobiolog z Cornell University, Frank Rosenblatt, pracował nad Perceptronem, jednowarstwowym perceptronem do klasyfikowania wyników dwóch klas. Percepcja oblicza ważoną sumę danych wejściowych i odejmuje próg, a następnie wyprowadza jeden z dwóch możliwych wyników. Percepcja jest najstarszym modelem NN używanym do dziś. Jednak Marvin Minsky i Seymour Papert opublikowali książkę Perceptron, aby pokazać ograniczenia percepcji w 1969 roku. W 1959 roku Bernard Widrow i Marcian Hoff z Uniwersytetu Stanforda opracowali wiele adaptacyjnych elementów liniowych o nazwie ADALINE i MADALINE, które były adaptacyjnymi filtrami eliminującymi odbija się echem w linii telefonicznej. Ze względu na niedojrzałą elektronikę i strach przed wpływem maszyny na ludzi, rozwój NN został wstrzymany na dekadę. Do 1982 roku John Hopfield prezentował w National Academy of Sciences nowy model NN, Hopfield NN. W tym samym czasie Stany Zjednoczone zaczęły finansować badania NN, aby konkurować z Japonią po tym, jak Japonia ogłosiła badania nad sztuczną inteligencją piątej generacji na wspólnej konferencji USA-Japan Cooperative/Competitive Neural Networks. W 1985 roku Amerykański Instytut Fizyki rozpoczął doroczne spotkanie Neural Network for Computing. W 1987 roku odbyła się pierwsza międzynarodowa konferencja IEEE Neural Network, w której uczestniczyło 1800 osób. W 1997 roku Schmidhuber i Hochreiter zaproponowali rekurencyjny model NN z pamięcią długo-krótkoterminową (LSTM) przydatny do przetwarzania mowy w przyszłych szeregach czasowych. W 1997 roku Yann LeCun opublikował uczenie oparte na gradientach stosowane do rozpoznawania dokumentów, które wprowadziło CNN, które położyło podwaliny pod nowoczesny, głęboki rozwój NN. Podczas konkursu ImageNet Large Scale Visual Recognition Challenge (ILSVRC 2012) badacze z University of Toronto zastosowali model głębokiej konwolucyjnej sieci neuronowej (DCNN), AlexNet, z powodzeniem rozpoznali obiekt i osiągnęli współczynnik błędów w pierwszej piątce o 10% lepszy niż w przypadku tradycyjnych algorytmów widzenia komputerowego . W przypadku ILSVRC istnieje ponad 14 milionów obrazów z 21 000 klas i ponad 1 milion obrazów z ramkami ograniczającymi. Rywalizacja skupiała się na 1000 klas z okrojoną bazą danych do klasyfikacji obrazów i detekcji obiektów. W przypadku klasyfikacji obrazu etykieta klasy jest przypisywana do obiektu na obrazach i lokalizuje obiekt za pomocą obwiedni w celu wykrycia obiektu. Wraz z ewolucją głębokich modeli NN, Clarifia, V-GG-16, GoogleNet, wskaźnik błędów został szybko zmniejszony. W 2015 roku ResNet wykazał poziom błędu poniżej 5% dokładności na poziomie człowieka. Szybki rozwój głębokiego uczenia się zmienia nasz świat

Model sieci neuronowej

NN modeluje neuron w ludzkim mózgu. Mózg składa się z 86 miliardów neuronów, a każdy neuron ma ciało komórkowe (lub somę), które kontroluje funkcję neuronu. Dendryty to przypominające rozgałęzienia struktury rozciągające się od ciała komórki odpowiedzialne za komunikację między neuronami. Odbiera wiadomość od innych neuronów i pozwala jej dotrzeć do ciała komórki. Akson przenosi impuls elektryczny z ciała komórki do przeciwległego końca neuronu. Zakończenie aksonu przekazuje impuls do innego neuronu. Synapsa to chemiczne połączenie między zakończeniem aksonu a innymi dendrytami, w których zachodzi reakcja chemiczna. Decyduje o sposobie przekazywania wiadomości między neuronami poprzez operacje wzbudzone i zahamowane. Neuron pozwala mózgowi wysłać wiadomość do reszty ciała i kontrolować wszystkie działania ciała. NN składa się z węzła, wagi i aktywacji. Węzeł (ciało komórki) kontroluje funkcję sieci i wykonuje obliczenia. Ciężar (akson) łączy się z pojedynczym węzłem lub wieloma węzłami w celu przesyłania sygnału. Aktywacja (synapsa) decyduje o przekazaniu sygnału z jednego węzła do drugiego.



Popularna sieć neuronowa

W tym rozdziale przedstawiono trzy popularne modele NN: CNN, rekurencyjną sieć neuronową (RNN) i RL.

Konwolucyjna sieć neuronowa

CNN,



jest szeroko stosowany do klasyfikacji i wykrywania obiektów. Składa się z wejścia, wyjścia i wielu warstw ukrytych. Obraz i wideo są najpierw wprowadzane do warstwy wejściowej w celu przetwarzania neuronowego. Warstwy ukryte składają się z warstw konwolucyjnych, aktywacji, puli, odrzucania iw pełni połączonych. Warstwa konwolucyjna wyodrębnia cechy obiektu i ewoluuje funkcje od prostych do złożonych. Warstwa aktywacyjna odfiltrowuje nieistniejące cechy i eliminuje niepotrzebne operacje. Warstwa puli upraszcza obliczenia i zachowuje rozsądny rozmiar funkcji. Przewiduje wyniki przy użyciu w pełni połączonej warstwy. CNN jest dalej podzielony na DCNN, konwolucyjną sieć neuronową opartą na regionie (RCNN), szybką sieć neuronową opartą na regionie (Fast-RCNN), szybszą sieć neuronową opartą na regionie (Faster-RCNN) i modele Yolo. Z wyjątkiem DCNN, wszystkie inne modele identyfikują obiekt i zapewniają ramkę ograniczającą, aby pokazać rozmiar i położenie obiektu. Jest szeroko stosowany w pojazdach autonomicznych.

Powtarzająca się sieć neuronowa

RNN ,



celuje w NLP, a architektura jest podobna do CNN. Język składa się ze słów i są one powiązane z innymi, zwanymi szeregami czasowymi. Dane są podawane sekwencyjnie do RNN w celu wykonania obliczeń. Zmodyfikowany LSTM z dodatkową pamięcią przechowuje bieżące i poprzednie wejścia. Może poprawić dokładność przetwarzania języka. Wspólny RNN obejmuje sieć LSTM, sieć Hopfielda i dwukierunkową sieć asocjacyjną (BAM). Sieć LSTM jest zwykle zintegrowana z asystentami głosowymi, takimi jak Google Home i Amazon Alexa.

Uczenie się ze wzmocnieniem

RL,



różni się od CNN, ponieważ składa się z agentów i otoczenia. W zależności od aktualnego stanu i zmian środowiskowych. Agent reaguje inaczej, aby zmaksymalizować kumulatywną nagrodę. RL jest szeroko stosowany w projektowaniu gier wideo i sterowaniu robotami. Typowy RL obejmuje głęboką sieć Q (DQN) i asynchroniczną przewagę aktora-krytyka (A3C).

Klasyfikacja sieci neuronowych

NN dzieli się na uczenie nadzorowane, częściowo nadzorowane i nienadzorowane w oparciu o mechanizm uczenia.

Nadzorowana nauka

Uczenie nadzorowane wyznacza cel i trenuje z określonym wejściowym zestawem danych, aby zminimalizować błąd między oczekiwanymi a przewidywanymi wynikami. Po treningu sieć może z powodzeniem przewidywać wyniki dla nieznanych danych wejściowych. Popularnymi nadzorowanymi modelami są CNN i RNN, które obejmują sieć LSTM. Regresja ,



jest zwykle stosowana w przypadku uczenia nadzorowanego; znajduje związek między wejściem a wyjściem i przewiduje wartość na podstawie wejściowego zestawu danych. Powszechną regresją jest regresja liniowa (LR).

Uczenie się częściowo nadzorowane

Uczenie częściowo nadzorowane jest oparte na częściowych danych wyjściowych do szkolenia, gdzie RL jest najlepszym przykładem. Nieoznaczone dane są mieszane z niewielką ilością danych oznaczonych, co może poprawić dokładność uczenia się w różnych środowiskach.

Uczenie się bez nadzoru

Uczenie bez nadzoru to sieć, która uczy się ważnych cech ze zbioru danych, która wykorzystuje relacje między danymi wejściowymi poprzez grupowanie, redukcję wymiarów i techniki generatywne. Przykłady obejmują automatyczny koder (AE), ograniczoną maszynę Boltzmanna (RBM) i sieć głębokich przekonań (DBN). Grupowanie



jest użyteczną techniką uczenia się bez nadzoru. Dzieli zbiór danych na wiele grup, w których punkty danych są do siebie podobne w tej samej grupie. Popularnym algorytmem grupowania jest technika k-średnich.

Działanie sieci neuronowej

Operacja NN jest zasadniczo podzielona na dwie podstawowe operacje: szkolenie i wnioskowanie.

Szkolenie

Jako istota ludzka ,potrzeba czasu, aby wyszkolić NN w rozpoznawaniu cech obiektu. Szkolenie przekazuje zestaw danych do NN, a parametry sieci są aktualizowane, aby zminimalizować błąd między pożądanymi a przewidywanymi wynikami. Szkolenie jest procedurą wymagającą dużej mocy obliczeniowej i stosuje obliczenia zmiennoprzecinkowe w celu zwiększenia dokładności. Wyszkolenie sieci za pomocą przetwarzania w chmurze lub procesorów o wysokiej wydajności (HPC) zajmuje od kilku godzin do kilku dni.

Wnioskowanie

Po zakończeniu szkolenia wyszkolona NN może przewidzieć wyniki; ta operacja nazywa się wnioskowaniem. Przewidywanie zajmuje tylko kilka sekund do minuty. Większość akceleratorów głębokiego uczenia się jest zoptymalizowana pod kątem wnioskowania w aplikacjach wbudowanych, zwłaszcza w IoT. Upraszcza obliczenia za pomocą obliczeń punktu stałego i pomija elementy zerowe poprzez przycinanie sieci, aby przyspieszyć ogólne operacje.

Rozwój aplikacji W tej sekcji opisano cykl tworzenia aplikacji AI ,



od planowania biznesowego, projektowania sieci, inżynierii danych i walidacji do ostatecznego wdrożenia. Nie tylko rozwiązuje problemy techniczne, ale także bierze pod uwagę czynnik ludzki. Próbuje zminimalizować konflikty człowiek-maszyna. Podejście to zostało z powodzeniem zastosowane w opiece zdrowotnej, finansach, handlu detalicznym, produkcji, rolnictwie, inteligentnych miastach i administracji



Planowanie biznesu

W przypadku tworzenia aplikacji analitycy biznesowi najpierw opracowują wizję sztucznej inteligencji, rozumieją problem, korzyści i kompromis technologiczny, a następnie definiują długoterminową strategię inwestycyjną w sztuczną inteligencję. Analitycy nie skupiają się tylko na kwestiach technicznych, ale także biorą pod uwagę kulturę firmy, personel i kierownictwo, a następnie decydują, jak zintegrować sztuczną inteligencję z obecnym środowiskiem biznesowym. W trakcie rozwoju powinni zaoferować pracownikom program szkoleń z wdrażania AI w środowisku pracy. Ponadto analitycy współpracują z programistami, aby zdefiniować specyfikację systemu, wymagania dotyczące migracji i miarę wydajności. Analitycy monitorują również postęp prac rozwojowych pod kątem przyszłych ulepszeń.

Projektowanie sieci

Architekci AI współpracują z analitykami biznesowymi, aby zrozumieć problemy i wymagania. Badają różne podejścia i różne architektury NN. Po wstępnej ocenie architekci wybierają najlepszą do wdrożenia architekturę NN. Architekci określają również kryteria wejściowe i pożądane wyniki, a następnie udoskonalają projekt, aby osiągnąć optymalną wydajność.

Inżynieria danych

Inżynierowie danych zbierają dane strukturalne i niestrukturalne, a następnie tłumaczą je na odpowiedni format do szkolenia modeli. Odpowiadają również za optymalizację intensywnego obliczeniowo procesu szkoleniowego i skrócenie czasu szkolenia. Łatwo jest wprowadzić dane do treningu, aby poprawić dokładność modelu. Inżynierowie weryfikują również wyniki wyjściowe ze specyfikacją projektową w celu dokładnego przewidywania. Ponadto inżynierowie aktualizują model poddany ocenie zwrotnej i zmianom wymagań. Inżynierowie modyfikują również NN, aby jeszcze bardziej poprawić ogólną wydajność.

Integracja systemu

Inżynierowie systemowi w końcu integrują aplikację ze środowiskiem biznesowym za pomocą przyjaznego dla użytkownika interfejsu człowiek-maszyna. Inżynierowie dbają o to, aby aplikacje AI były w pełni kompatybilne z innymi aplikacjami biznesowymi. Odpowiadają za codzienne operacje i aktualizują system na podstawie opinii użytkowników. Na koniec przesyłają informacje zwrotne do programistów w celu przyszłego ulepszenia.

Ćwiczenia

1. Jak rewolucje przemysłowe zmieniają świat?
2. Jak opiszesz różnicę między AI, ML i DL?
3. Dlaczego ludzie boją się rozwoju sztucznej inteligencji?
4. Czy powinniśmy martwić się o świadomą sztuczną inteligencję?
5. Jaki wpływ AI ma na opiekę zdrowotną, finanse, handel detaliczny, produkcję, rolnictwo, inteligentne miasta i administrację?
6.Jak AI wpływa na przyszły rynek pracy?
7. W jaki sposób NN wywodzi się z ludzkiego neuronu?
8. Jakie są trzy popularne NN i ich funkcje?
9. Jak klasyfikujesz NN z przykładami?
10.Jakie są podstawowe operacje, trening i wnioskowanie NN?
11. Jak tworzysz aplikacje AI?

Sieć neuronowa

W tej sekcji przedstawiono klasyczny model sieci neuronowej AlexNet



, składający się z ośmiu warstw sieci. Pierwsze pięć warstw to warstwa splotowa z nieliniową warstwą aktywującą, rektyfikowaną jednostką liniową (ReLU). Po niej następuje warstwa max-poolingu w celu zmniejszenia rozmiaru jądra oraz warstwa normalizacji odpowiedzi lokalnej (LRN) w celu poprawy stabilności obliczeń. Ostatnie trzy warstwy to w pełni połączone warstwy służące do klasyfikacji obiektów. Głębszy i szerszy model sieci neuronowej umożliwia ewolucję prostych funkcji do pełnej [17] i osiąga lepszą predykcję.



Wadą uczenia głębokiego jest intensywność obliczeń. Do aktualizacji parametrów modelu wymagane jest wykonanie miliardów operacji. Dlatego do laboratoriów wprowadzana jest jednostka przetwarzania neuronowego (NPU) firmy Kneron. Konwertuje operacje zmiennoprzecinkowe na operacje stałoprzecinkowe, oczyszcza sieć i pomija nieskuteczne operacje zerowe, aby przyspieszyć wnioskowanie.

Warstwa konwolucyjna

Warstwa konwolucyjna ma na celu ekstrakcję cech obiektu poprzez splot.



Obraz wejściowy (zwany wejściową mapą cech) jest splatany z filtrem w celu wyodrębnienia cech obiektu ze wszystkich kanałów obrazu1. Filtr przesuwa się po pikselu obrazu, mnoży odpowiedni piksel obrazu i sumuje wyniki. Proces jest powtarzany, aż wszystkie piksele obrazu zostaną przetworzone. Obraz wejściowy jest przetwarzany razem jako partia, aby poprawić ponowne wykorzystanie filte. Dane wyjściowe są nazywane wyjściowymi mapami obiektów. W przypadku niektórych modeli sieci przesunięcie odchylenia jest wprowadzane z zerowymi wypełnieniami do filtrowania krawędzi bez redukcji rozmiaru elementu. Krok jest przeznaczony do przesuwnego okna, aby uniknąć dużych map funkcji wyjściowych.



gdzie

y jest wyjściową mapą cech
x to obraz wejściowy
w jest wagą filtra

Warstwa aktywacji

y = max(0, x) )

gdzie

y jest wyjściem aktywacji
x to wejście aktywacji

Nieliniowa warstwa aktywacji (zwana także funkcją progową)



jest nakładana po warstwie splotowej lub w pełni połączonej. Koryguje negatywne wyniki splotu i ustawia je na zero. Negatywne wyniki splotu oznaczają, że wyodrębnione cechy nie istnieją i wprowadzają rzadkość sieci. Rzadkość sieci ma kluczowe znaczenie dla przetwarzania neuronowego; marnuje zasoby obliczeniowe, aby obliczyć zerowe wyniki. Dlatego metody przycinania sieci i nieskutecznego pomijania są szeroko stosowane w celu wyeliminowania operacji zerowych, co przyspiesza ogólne obliczenia. Istnieje wiele nieliniowych funkcji aktywacji, a ReLU jest najbardziej popularną.

Warstwa puli



gdzie

y to wynik łączenia
x jest wejściem puli

Łączenie zmniejsza wymiar map obiektów, czyniąc sieć bardziej niezawodną i niezmienną w stosunku do małych przesunięć i odmian. Łączenie dzieli się dalej na maksymalne i średnie łączenie

.

Pula maksymalna wybiera maksimum z grupy wejść, a pula średnia to średnia ze wszystkich wartości. Wartość maksymalna jest preferowana w stosunku do średniej, ponieważ umożliwia rozróżnienie małych obiektów na wejściowych mapach obiektów.

Normalizacja wsadowa

Dane wyjściowe warstwy są przekazywane do danych wejściowych następnej warstwy, wpływając na przesunięcie kowariancji i przyczynowo odnoszą się do dokładności predykcji. Normalizacja wsadowa (BN) służy do kontrolowania zniekształceń wejściowych z zerową średnią i jednostkowym odchyleniem standardowym. Dzięki temu sieć jest bardziej odporna na inicjalizację wagi i przesunięcie kowariancji poprzez normalizację i skalowanie. Przyspiesza również trening z większą dokładnością. Obecnie BN zastępuje oryginalny LRN, gdzie normalizacja może być dalej skalowana i przesuwana.

Warstwa odrzucania

Podczas treningu warstwa odrzucająca



losowo ignoruje aktywację, aby zapobiec problemowi nadmiernego dopasowania poprzez zmniejszenie korelacji neuronów.

W pełni połączona warstwa

W pełni połączona warstwa służy do klasyfikacji obiektów. Jest postrzegana jako warstwa splotowa bez podziału wagi i ponownie wykorzystuje warstwę splotową do obliczeń.



gdzie

y to w pełni połączone wyjście warstwy
x to w pełni połączone wejście warstwy

Ćwiczenia

1. Dlaczego szersza i głębsza konwolucyjna sieć neuronowa zapewnia lepsze wyniki predykcji?
2. Jaka jest wada szerszej i głębszej sieci neuronowej?
3. Dlaczego warstwa splotowa ma większe znaczenie dla głębokiego uczenia się?
4. Jaki jest cel warstwy aktywacyjnej?
5. Jaka jest wada warstwy aktywacyjnej?
6. Dlaczego maksymalna pula jest preferowana zamiast średniej?
7. Co to jest BN?
8. Co oznacza skrót BN i jaka jest jego funkcja?
9. W jaki sposób warstwa splotowa jest modyfikowana dla warstwy w pełni połączonej?

Widzenie maszynowe

Tu opisano widzenie maszynowe i skupiono się na rozpoznawaniu obiektów. Uczy maszynę rozpoznawania obiektów i reagowania w różny sposób w zależności od klas obiektów. W porównaniu z tradycyjnym algorytmicznym podejściem komputerowym, trudno jest objąć ekstrakcję wszystkich cech za pomocą podejścia algorytmicznego, ponieważ podobne obiekty mogą mieć różne cechy. Sieć neuronowa głębokiego splotu (DCNN) nie wymaga definiowania cech rozpoznawania obiektów. DCNN automatycznie aktualizuje parametry modelu w celu wyodrębnienia cech podczas szkolenia. Upraszcza rozpoznawanie obiektów i poprawia ogólną dokładność. Dzięki szkoleniu łatwo jest skierować model na rozpoznawanie innych obiektów. W tym rozdziale przedstawiono również kilka aplikacji widzenia maszynowego, diagnostyki medycznej, aplikacji detalicznych i bezpieczeństwa na lotniskach.

Rozpoznawanie obiektów

Rozpoznawanie obiektów





dzieli się dalej na klasyfikację obrazów, lokalizację obiektów i wykrywanie obiektów. Klasyfikacja obrazu rozpoznaje obiekty na obrazie, a następnie przypisuje im etykiety klas. Lokalizacja obiektu lokalizuje obiekty na obrazie i rysuje obwiednię wokół obiektów. Wykrywanie obiektów łączy w sobie zarówno klasyfikację obrazu, jak i lokalizację obiektów. Może wykryć wiele obiektów na obrazie, oszacować ich rozmiar i położenie, a następnie narysować obwiednię wokół obiektów. Wykrywanie obiektów może również generować pikselową maskę nad obiektem, aby określić dokładny kształt obiektu i nazywać to segmentacją instancji.



Może dodatkowo oznaczać każdy piksel na obrazie, w tym tło, i nazywa się segmentacją semantyczną.



Dopasowanie funkcji

Dlaczego rozpoznawanie obiektów osiąga lepszą wydajność dzięki konwolucyjnej sieci neuronowej (CNN)? W porównaniu z tradycyjnym algorytmicznym podejściem do wizji komputerowej, CNN nie wymaga definiowania cech obiektu i przeprowadzania dopasowywania jeden do jednego. Oferuje lepszą ekstrakcję i dopasowywanie cech niż strategie algorytmiczne. W tej samej klasie obiektów cechy mogą się nieznacznie różnić i trudno jest zdefiniować wszystkie cechy za pomocą programowania. W przypadku CNN obrazy kota i psa są splecione z filtrem i wydobywają cechy (oczy, uszy, nos i usta) z obrazu. Następnie odfiltrowuje nieistniejące funkcje przez warstwę aktywacji i ulepsza mapy funkcji za pomocą maksymalnego puli. Mapy cech są wprowadzane do następnej warstwy splotowej, a mapy cech (oczy, uszy, nos i usta) są łączone w celu utworzenia twarzy kota i psa. Powtórz tę samą procedurę. Przechodzi przez ten sam proces (pierwszy, drugi, trzeci splot...); ostatecznie tworzy obrazy kota i psa.



Ponieważ kluczowe cechy (oczy, uszy, nos i usta) różnią się między kotem a psem, może zidentyfikować kota i psa na obrazie. Wyjaśnia również, dlaczego do rozpoznawania obiektów wymagany jest szeroki i głęboki CNN. Łączy wiele małych funkcji (szerokie) i zasila wiele splotowych warstw (głębokie), tworząc kompletne obrazy kotów i psów. Model nie ogranicza się do konkretnych gatunków kotów i psów. Można go aktualizować poprzez szkolenie z różnymi obrazami kotów i psów. W przeciwieństwie do podejścia algorytmicznego, wymagane jest przepisanie programu o dodatkowe funkcje kota i psa. To marnuje ogromny wysiłek na utrzymanie programu.

Rozpoznawanie twarzy

Rozpoznawanie twarzy jest jedną z ważnych aplikacji rozpoznawania obiektów. Służy do identyfikacji osób za pomocą wyrazu twarzy i emocji.





Podejście to nie ogranicza się już do nadzoru i bezpieczeństwa; w ostatnich latach jest dalej rozszerzany na zastosowania detaliczne i marketingowe. Może przewidzieć reakcję klienta na produkt poprzez ekspresję emocjonalną, co pozwala zaoszczędzić ogromny czas i wysiłek, aby zrozumieć zapotrzebowanie na produkt. Przewiduje się, że do 2022 r. rynek rozpoznawania twarzy będzie wart około 9,8 miliarda dolarów przy złożonej rocznej stopie wzrostu (CAGR) na poziomie 21,3%. Rozpoznawanie twarzy identyfikuje osoby na zdjęciach lub filmach. Składa się z kilku głównych zadań, wykrywania, ustawiania, ekstrakcji i rozpoznawania.

o Funkcja wykrywania twarzy identyfikuje jedną lub więcej osób na obrazach lub filmach.
o Wyrównanie twarzy normalizuje twarz, aby była spójna z bazą danych twarzy.
o Ekstrakcja cech wyodrębnia cechy twarzy (tj. oko, ucho, nos i usta) w celu ich rozpoznania.
o Funkcja rozpoznawania twarzy dopasowuje twarz do znanych osób w bazie danych twarzy.

Wraz z przełomem AlexNet w 2012 roku, w latach 2014-2015 zaproponowano wiele modeli sieci neuronowych, Deep Face, DeepID, VGGFace i FaceNet. Zastosowali głębokie uczenie się, aby uprościć rozpoznawanie twarzy i osiągnęli dokładność 99,15%, która jest lepsza niż dokładność człowieka 97,53%. Sukces rozpoznawania twarzy jest obecnie szeroko stosowany do uwierzytelniania, weryfikacji, identyfikacji i wykrywania emocji. Oprogramowanie emocji Affdex może wykryć reakcję klienta na produkty na podstawie 20 wyrazów twarzy i siedmiu emocji (gniew, pogarda, obrzydzenie, strach, radość, smutek i zaskoczenie). Może określać wiek, płeć, status etniczny i społeczny klienta. Na podstawie wyników wykrywania może zrozumieć zapotrzebowanie na produkt, co jest ważne w badaniach marketingu detalicznego.

Rozpoznawanie gestów

Oczekuje się, że rozpoznawanie gestów



na rynku detalicznym wzrośnie o 27,54% w latach 2018-2023. Interfejs oparty na gestach umożliwia użytkownikowi sterowanie różnymi urządzeniami za pomocą ruchu dłoni lub ciała. Najpierw rejestruje ruch dłoni lub ciała przez kamerę, a następnie analizuje ruch w każdej klatce. Dzięki modelowi uczenia maszynowego rozpoznaje różne ruchy i identyfikuje gest, po którym następują odpowiednie działania. Jest szeroko stosowany w automatyce domowej, a ludzie mogą sterować urządzeniami domowymi za pomocą gestów, włączać światło, regulować temperaturę w pomieszczeniu i włączać/wyłączać system muzyczny. Może rozpoznawać poszczególnych członków rodziny i wykonywać predefiniowane działania w oparciu o historię osobistą.

Aplikacje widzenia maszynowego

Tu przedstawiono kilka ważnych zastosowań widzenia maszynowego w różnych obszarach, w tym w diagnostyce medycznej, zastosowaniach w handlu detalicznym i bezpieczeństwie na lotniskach.

Diagnoza medyczna

Obrazowanie medyczne (USG, zdjęcia rentgenowskie, tomografia komputerowa - tomografia komputerowa i rezonans magnetyczny - MRI) jest użytecznym narzędziem w diagnostyce raka. Lekarz spędza znaczną ilość czasu na badaniu obrazów medycznych i identyfikowaniu możliwego raka. Przegląd wszystkich obrazów medycznych zajmuje kilka godzin lub dni Wizja maszynowa może szybko wykryć i zidentyfikować powiązane subtelności z rakiem. Odfiltrowuje obrazy i podświetla obszary guza różnymi kolorami. Lekarz skupia się tylko na przefiltrowanych obrazach, aby potwierdzić raka lub nie. Oszczędza to dużo czasu i odciąża lekarza. Szybka diagnoza zapewnia lepsze leczenie we wczesnym stadium raka i zwiększa szansę na przeżycie i wyleczenie. Firma Microsoft oferuje oprogramowanie InnerEye



do wizualnej identyfikacji i zaznaczania możliwego guza na zdjęciach rentgenowskich. Radiolog przesyła zdjęcia rentgenowskie do systemu. Oprogramowanie skanuje różne części narządu lub więzadła na zdjęciu rentgenowskim, podkreślając obszary różnymi kolorami, aby pokazać możliwe guzy lub inne anomalie. Lekarz nie traci czasu na badanie wszystkich zdjęć rentgenowskich i skupia się na wynikach InnerEye. Oferuje pacjentowi szybkie i prawidłowe leczenie.

Aplikacje detaliczne

Handel detaliczny korzysta również z widzenia maszynowego, które uczy maszynę rozpoznawania przedmiotów na obrazach i filmach. Pomaga detalistom sprzedawać produkty z lepszą kontrolą zapasów. Obecnie 43% aplikacji sztucznej inteligencji w handlu detalicznym jest związanych z widzeniem maszynowym. Sklepy Amazon Go wykorzystują wizję maszynową z technologią "Just Walk Out". W przejściach i na półkach umieszczono wiele kamer.



Identyfikuje, kto bierze artykuł z półki i łączy go z wirtualnym koszykiem klienta. Usuwa również pozycję z wirtualnego koszyka, jeśli pozycja zostanie zwrócona z półki. Kamery cały czas monitorują klientów w sklepie. Wysyła rachunek do klientów, gdy wychodzą ze sklepu. Technologia Just Walk Out upraszcza zakupy dzięki lepszej kontroli zapasów. Dane są bezpośrednio raportowane do bazy sprzedaży. Powiadamia również klienta, gdy podobne artykuły są dostępne. Pomaga detalistom sprzedawać produkty z lepszą kontrolą zapasów i prognozami na przyszłość.

Ochrona na lotnisku

Rozpoznawanie twarzy to ważna aplikacja bezpieczeństwa na lotniskach, szczególnie do obsługi pasażerów. Szybko rozpoznaje i weryfikuje tożsamość pasażera oraz ostrzega władze lotniska o naruszeniach bezpieczeństwa. Usługi komputerowe Aurora oferują silnik obrazowania i rozpoznawania (AIR) Aurora ,



który jest zintegrowany z systemem skanowania pasażerów za pomocą zestawu programistycznego (SDK). System jest szkolony przez algorytm uczenia maszynowego za pomocą obrazów w podczerwieni. Rozpoznaje rysy twarzy pod różnymi kątami iw różnych warunkach oświetleniowych. System może rozpoznać tożsamość pasażera, dopasowując jeden obraz do innych z podobną twarzą i przeprowadzając identyfikację najlepiej pasującą. System ostrzega władze lotniska o możliwym niezgodności tożsamości pasażera i tożsamości. Firma Atkins Global zintegrowała silnik AIR z systemem skanowania uwierzytelniającego pasażerów (PASS 2) i przeszła standard bezpieczeństwa brytyjskiej służby granicznej w zakresie zarządzania pasażerami podczas prób na lotnisku Heathrow.

Ćwiczenia

1. Dlaczego rozpoznawanie obiektów osiąga lepsze wyniki przy użyciu CNN?
2. Jakie są trzy główne techniki rozpoznawania obiektów?
3. Dlaczego wykrywanie obiektów jest ważne dla widzenia maszynowego?
4. Jaka jest różnica między segmentacją instancyjną a segmentacją semantyczną?
5. Dlaczego dla pojazdów autonomicznych wybrano segmentację semantyczną?
6. W jaki sposób CNN rozpoznaje różne obiekty na obrazach?
7. Jakie są główne etapy rozpoznawania twarzy?
8. Czym są aplikacje do rozpoznawania gestów?
9. Dlaczego sklepy Amazon Go są znaczącym przełomem w branży detalicznej?
10. Czy możesz zaproponować więcej aplikacji widzenia maszynowego?

Przetwarzanie języka naturalnego

Rynek przetwarzania języka naturalnego (NLP)



szybko rośnie w ostatnich latach; Zarówno rynek oprogramowania, sprzętu, jak i usług podskoczył z 5 miliardów dolarów w 2020 roku do 22,3 miliarda dolarów do 2025 roku). Technologia pozwala maszynie przetwarzać i rozumieć zarówno języki mówione, jak i pisane. Wykonuje również złożone zadania, tłumaczenie maszynowe i generowanie dialogów. Jednak NLP napotyka różne poziomy wyzwań związanych z niejednoznacznością.

o Wieloznaczność na poziomie słowa jest związana ze słowem. Nie jest łatwo traktować skrócenie "nie będzie" jako pojedynczego słowa lub dwóch różnych słów "nie będzie".
o Wieloznaczność na poziomie zdania jest związana z wieloznacznością słów w zdaniu. Dobrym przykładem jest "Czas leci jak strzała"; trudno połączyć ze sobą dwa różne byty, "Czas leci" ze "strzałą". Czas to pojęcie abstrakcyjne, a strzała to przedmiot rzeczywisty.
o Niejednoznaczność na poziomie znaczenia pokazuje, że słowo ma kilka różnych znaczeń. Istnieją różne znaczenia słowa "krawat". Słowo "krawat" oznacza ubranie lub sznurek (rzeczownik). Oznacza to również dołączanie, mocowanie lub osiąganie tego samego celu/punktacji (czasownik). Trudno jest zdefiniować słowo "krawat" w zdaniu.

Model sieci neuronowej

Wraz z rozwojem sztucznej inteligencji NLP jest realizowane przy użyciu różnych sieci neuronowych. W przeciwieństwie do tradycyjnego programowania algorytmicznego, sieci neuronowe nie wymagają predefiniowanych funkcji do rozpoznawania języka. Są szkoleni na przykładach zdań w zakresie rozpoznawania języka. Różne sieci neuronowe są wykorzystywane do różnych zastosowań NLP, w tym splotowych sieci neuronowych (CNN), rekurencyjnych sieci neuronowych (RNN), rekurencyjnych sieci neuronowych i modeli uczenia się przez wzmacnianie (RL).

Konwolucyjna sieć neuronowa

CNN jest zmodyfikowany dla NLP.



Zdanie jest najpierw dzielone na tokeny na słowa, a następnie przekształcane w macierz osadzania słów za pomocą tabeli przeglądowej. Splata macierz z filtrem, aby utworzyć mapy obiektów i wprowadza je do maksymalnej puli, po czym następuje w pełni połączona warstwa w celu wygenerowania reprezentacji zdania. CNN jest przeznaczony do przewidywania opartego na słowach i innych zadań językowych, takich jak rozpoznawanie jednostek nazw (NER), części mowy (POS) i wykrywanie aspektów. Działa z podejściem opartym na oknach, w którym każde słowo jest powiązane z oknem o stałym rozmiarze sąsiednich słów. Jest dodatkowo ulepszany przez dynamiczną splotową sieć neuronową (DCNN) z dynamiczną strategią k-maxpooling do obsługi zmiennego zakresu słów. CNN służy nie tylko do modelowania zdań, ale także do wykrywania aspektów, analizy nastrojów, kategoryzacji krótkich tekstów i wykrywania sarkazmu.

Powtarzająca się sieć neuronowa

RNN jest przydatny do przetwarzania ludzkiego języka zależnego od kontekstu,



ponieważ słowa w zdaniu są ze sobą powiązane. Wykonuje obliczenia na bieżących danych, jak również na poprzednich wynikach i stosuje model sekwencja do sekwencji (seq2seq) do tłumaczenia językowego. Jest całkiem odpowiedni do klasyfikacji na poziomie słów, klasyfikacji na poziomie zdań, dopasowania semantycznego, tłumaczenia maszynowego i podpisów obrazów.





Wadą RNN jest problem znikającego gradientu. Jeżeli wagi sieci neuronowej są małe, to kolejne wagi stają się mniejsze i bliskie zeru. Skutkuje to powolnym trenowaniem i błędami przewidywania. Dlatego do rozwiązania tego problemu proponuje się pamięć długoterminową (LSTM).

Sieć pamięci długoterminowej i krótkotrwałej

LSTM



jest zmodyfikowaną wersją RNN z wieloma bramkami, bramką wejściową, bramką zapominania i bramką wyjściową.

o Bramka wejściowa steruje danymi wejściowymi przesyłanymi do pamięci.
o Forget gate steruje przechowywanymi danymi do obliczeń.
o Bramka wyjściowa steruje danymi wyjściowymi do predykcji.

Sieć LSTM wprowadza dodatkowe bramki, które zachowują i zapominają dane. Kontroluje dane wprowadzane do sieci w celu działania i oblicza wartość stanu ukrytego poprzez kombinację trzech bramek, co daje następujące równania. Eliminuje problem zależny od danych i rozwiązuje problem znikania gradientu.





Sieć LSTM jest odpowiednia do tłumaczenia maszynowego, streszczania tekstu, rozmów międzyludzkich i zadań z odpowiedziami na pytania.

Rekurencyjna sieć neuronowa

Rekurencyjna sieć neuronowa



jest używana do modelowania ludzkiego języka, w którym słowa i podzwroty składają się na frazę wyższego poziomu w strukturze hierarchicznej. Słowa są przechowywane w węzłach potomnych i grupowane w celu utworzenia fraz podrzędnych; podzwroty są przegrupowywane rekurencyjnie, aby utworzyć ostateczną reprezentację zdania. Rekurencyjne sieci neuronowe są stosowane do analizy składniowej, analizy sentymentalnej i powiązań zdań.

Uczenie się ze wzmocnieniem

RL



jest przydatny do generowania dialogów. Stosuje model generatywny oparty na RNN (agent), aby odpowiedzieć na słowo wejściowe (środowisko zewnętrzne) i przewiduje następne słowo zdania (akcja), aby zmaksymalizować nagrodę. W każdym cyklu aktualizuje również wewnętrzne stany modelu. Proces jest kontynuowany do końca zdania dla generowania dialogów. Wymagana jest odpowiednia obsługa stanów i działań w celu zapewnienia prawidłowej predykcji, a następnie stosuje się trening kontradyktoryjny. Uczy generator tworzenia sekwencji słów maszynowych i sprawia, że dyskryminator nie rozróżnia sekwencji słów maszynowych i ludzkich, a następnie uzyskuje dokładne przewidywanie.

Aplikacje do przetwarzania języka naturalnego

W tym rozdziale wymieniono kilka interesujących aplikacji NLP, wirtualnego asystenta, tłumaczenie językowe i transkrypcję maszynową.

Wirtualny asystent

Wirtualni asystenci



(tj. Google Home i Amazon Alexa) są szeroko wykorzystywani w życiu codziennym, kontrolując urządzenia domowe (żarówki, gniazdka elektryczne, termostat), uzyskując dostęp do informacji publicznych (wiadomości, pogoda, rozkład jazdy autobusów, nadchodzące wydarzenie) i cieszyć się rozrywką (muzyka, film, wideo). Amazon Alexa oferuje dodatkową możliwość programowania, zestaw umiejętności Alexa (ASK), która jest platformą programistyczną. Pozwala użytkownikom na tworzenie interaktywnych aplikacji głosowych (zwanych umiejętnościami) do wykonywania codziennych zadań. Opracowano ponad 30 000 umiejętności kontrolowania różnych urządzeń. Amazon promuje również strategię "Alexa Everywhere". Współpracuje z Google, Apple, Microsoft i innymi firmami w celu opracowywania produktów zaprojektowanych do obserwowania, słuchania i podążania za Tobą. Wirtualni asystenci obsługują również wiele aplikacji biznesowych, takich jak opieka zdrowotna, finanse i handel detaliczny. United Bank of Switzerland AG (UBS) współpracuje z IBM, oferując klientom wirtualnego asystenta finansowego. Asystent w pełni wykorzystuje technologię zamiany mowy na tekst i zamiany tekstu na mowę. Najpierw konwertuje rozmowy klientów na tekst i wyszukuje odpowiednie odpowiedzi w bazie danych, a następnie konwertuje je z powrotem na mowę i odpowiada na pytania klientów. UBS oferuje dwóch wirtualnych asystentów finansowych, Fina i Daniela. Fin służy do zarządzania prostymi zadaniami, odpowiadania na proste zapytania oraz wymiany/anulowania kart kredytowych. Daniel jest stworzony do profesjonalnego zarządzania finansami, które pomaga klientom zarządzać inwestycją. Odpowiada na pytania inwestycyjne i dostarcza wskazówek giełdowych opartych na danych historycznych.

Tłumaczenie językowe

Wraz z rozwojem sztucznej inteligencji tłumaczenie językowe



osiąga większą dokładność dzięki neuronowemu tłumaczeniu maszynowemu (NMT) . Tłumacz jest szkolony przez wiele przetłumaczonych zdań, a tłumaczenie opiera się na kontekście zdania, a nie na regułach gramatycznych i dwujęzycznym słowniku. Wielu tłumaczy biznesowych jest dodatkowo dostosowywanych do obsługi terminologii zawodowej (opieka zdrowotna, finanse, prawo) poprzez dane szkoleniowe, ponieważ zwykły tłumacz nie jest w stanie poprawnie przetłumaczyć terminów zawodowych. Obecnie Tłumacz Google jest najważniejszym graczem w tłumaczeniu biznes-konsument (B2C). Wykorzystuje neuronowe tłumaczenie maszynowe Google (GNMT), który traktuje zdanie wejściowe jako pojedynczą jednostkę do tłumaczenia, zamiast dzielić je na poszczególne słowa. W przypadku tłumaczenia z chińskiego na angielski koduje chińskie słowa jako listę wektorów, a każdy wektor reprezentuje znaczenie słów (enkoder). Po przeczytaniu całego zdania dekoduje zdanie i generuje angielską frazę.

Transkrypcja maszynowa

Transkrypcja maszynowa odgrywa ważną rolę w aplikacjach sztucznej inteligencji ,



które analizują duże ilości danych (tekst i mowa) w celu przewidywania. Transkrypcja maszynowa musi sprostać wielu wyzwaniom, różnym głosom, różnym językom, mocnym akcentom i hałasowi w tle. Branża opieki zdrowotnej wykazuje rosnące zainteresowanie transkrypcją maszynową, ponieważ lekarze spędzają 49% godzin pracy na wykonywaniu zadań administracyjnych, zwłaszcza w zakresie elektronicznej dokumentacji medycznej (EHR). Transkrypcja maszynowa może zautomatyzować proces dokumentacji klinicznej. Przechwytuje terminologię medyczną i integruje ją z systemem EHR, który zawiera notatkę w dokumentacji pacjenta na potrzeby przyszłego leczenia. Robin Healthcare oferuje oprogramowanie Robin, które jest zintegrowane z inteligentnymi głośnikami w klinice. Kiedy lekarze komunikują się z pacjentami, mówcy automatycznie nagrywają rozmowę i przepisują ją na tekst bez słów budzących i szczególnej dykcji. Ładnie formatuje również transkrypcję i przenosi ją do kartoteki pacjentów w systemie EHR.

Ćwiczenia

1. Jakie są główne wyzwania NLP?
2. W jaki sposób CNN jest modyfikowany pod kątem NLP?
3. Dlaczego RNN jest ważny dla NLP?
4. W jaki sposób sieć LSTM rozwiązuje problemy RNN?
5. Jak rekurencyjna sieć neuronowa radzi sobie z NLP?
6. Dlaczego RL jest przydatny do generowania dialogów?
7. W jaki sposób wirtualny asystent wspiera klientów w bankowości?
8. W jaki sposób Tłumacz Google wykonuje tłumaczenie językowe?
9. W jaki sposób transkrypcja medyczna zmniejsza obciążenie lekarza?
10. Czy możesz zaproponować więcej aplikacji NLP?

Autonomiczny pojazd

Po kilku latach rozwoju pojazd autonomiczny



staje się dojrzały. Producenci samochodów wypuszczają różne poziomy autonomicznych pojazdów. Szacuje się, że światowy rynek pojazdów autonomicznych wzrósł z 54,23 mld USD w 2019 r. do 556,67 mld USD do 2026 r., przy rocznej stopie wzrostu na poziomie 39,47%. Sukces pojazdu autonomicznego zależy od przełomu w dziedzinie sztucznej inteligencji, widzenia maszynowego i dojrzałości Internetu rzeczy (IoT). W tym rozdziale przedstawiono podstawową technologię pojazdów autonomicznych, strategie komunikacji, ustawodawstwo i przyszłe wyzwania.

Poziomy automatyzacji jazdy

Według stowarzyszenia inżynierów motoryzacyjnych (SAE) International pojazd autonomiczny dzieli się na pięć poziomów automatyzacji:



o Poziom 0 (bez automatyzacji) - kierowca ręcznie steruje pojazdem i wykonuje wszystkie czynności związane z prowadzeniem pojazdu, w tym kierowanie, przyspieszanie, hamowanie itp.
o Poziom 1 (wspomaganie jazdy) - pojazd oferuje podstawowe funkcje ułatwiające prowadzenie pojazdu. Adaptacyjny tempomat (ACC) kontroluje silnik i hamulec w celu zmiany prędkości. Nadal wymaga od kierowcy ciągłej kontroli nad jazdą.
o Poziom 2 (częściowa automatyzacja) - zaawansowane wspomaganie kierowcy (ADA) odpowiada za przyspieszanie, hamowanie i kierowanie. Wymaga od kierowcy monitoro
wania jazdy i przejmowania kontroli w dowolnym momencie. o Poziom 3 (automatyzacja warunkowa) - pojazd może wykonywać większość zadań związanych z prowadzeniem pojazdu w określonych warunkach. Wymaga od kierowcy zastąpienia jazdy w przypadku zmian środowiskowych.
o Poziom 4 (wysoka automatyzacja) - pojazd bezpiecznie wykonuje wszystkie zadania związane z prowadzeniem pojazdu w określonych okolicznościach dzięki geofencingowi. Jest to opcja dla kierowcy, aby zastąpić zadania związane z prowadzeniem pojazdu.
o Poziom 5 (pełna automatyzacja) - pojazd wykonuje wszystkie zadania związane z prowadzeniem pojazdu bez udziału kierowcy.

Technologia autonomiczna

Pojazd autonomiczny wykorzystuje różne technologie wspierające automatyzację jazdy, w tym widzenie komputerowe, fuzję czujników, lokalizację, planowanie trasy i kontrolę jazdy.



Widzenie komputerowe

Widzenie komputerowe



jest kluczową cechą pojazdu autonomicznego. Może wykrywać statyczne i poruszające się obiekty, takie jak piesi, rowerzyści, pojazdy, sygnalizacja świetlna i znaki drogowe, dzięki 360-stopniowemu widokowi otoczenia. Po przechwyceniu przez kamerę tych obrazów są one przekazywane do algorytmu uczenia maszynowego w celu identyfikacji obiektów i określenia odpowiednich działań. Na przykład, jeśli pojazd wykryje, że sygnalizacja świetlna została zmieniona z zielonej na żółtą, zwalnia pojazd i zatrzymuje się przed sygnalizacją świetlną. Jeśli dziecko nagle przejdzie przez ulicę, natychmiast uruchamia hamulec, aby uniknąć kolizji. Autonomiczny pojazd nie tylko wykorzystuje widzenie komputerowe do wykrywania obiektów, ale także wykorzystuje technologię rozpoznawania dźwięku. Rozpoznaje dźwięki pojazdów uprzywilejowanych (karetka, radiowóz, wóz strażacki) i toruje drogę tym pojazdom. Dzięki komputerowemu rozpoznawaniu obrazu i dźwięku pomaga kierowcy w wykonywaniu zadań związanych z prowadzeniem pojazdu. Wadą tych technologii jest słaba celność i precyzja w złych warunkach atmosferycznych (deszcz, burza, mgła, śnieg). Trudno jest zidentyfikować obiekty podczas burzy. Dlatego fuzja czujników jest wykorzystywana do zwiększania bezpieczeństwa pojazdów autonomicznych.


Fuzja czujników

Większość pojazdów autonomicznych jest wyposażona w czujniki ultradźwiękowe do wykrywania obiektów w niewielkiej odległości oraz radar do wykrywania obiektów w dużym zasięgu .



Wiąże się to z wynikami wykrywania obiektów dla pomiaru odległości.

: Ultradźwięki : Radar: Lidar

Koszt : Niski : Średni : Wysoki
Rozmiar : Mały : Mały/Średni : Średni/Dużyv Szybkość wykrywania : Niska : Wysoka : Średnia
Czułość kolorów : Nie : Nie : Nie
Odporność na warunki atmosferyczne : Wysoka : Wysoka: Średnia
Wsparcie dzień/noc : Wysokie : Wysokie : Wysokie
Rozdzielczość : Niska : Średnia : Wysoka
Zasięg : Krótki : Krótki/Średni/Długi : Długi

Pojazd Tesli jest wyposażony w osiem kamer zapewniających widok 360 stopni o zasięgu pomiarowym 250 m. Wykorzystuje dwanaście czujników ultradźwiękowych do wykrywania obiektów i wykorzystuje dodatkowy radar, aby pojazd mógł widzieć przez ulewny deszcz, mgłę, kurz i samochód z przodu. Technologia wykrywania i określania odległości światła (LIDAR) dodatkowo usprawnia pomiar odległości, który wykorzystuje impulsowy laser do pomiaru odległości i tworzy dokładny widok 3D otaczających obiektów. Jednak zła pogoda może rozpraszać światło lasera, powodując fałszywy odczyt. Nowa technologia, Hemera, pokonuje ograniczenia; skutecznie wykrywa obiekty oddalone o 54 m. Skaner LIDAR jest stosunkowo duży i drogi i nie został jeszcze przyjęty przez wszystkie pojazdy autonomiczne.

Lokalizacja

Autonomiczny pojazd widzi i słyszy. Ważne jest również, aby wiedzieć, gdzie się jest. Lokalizacja jest realizowana za pomocą globalnego systemu pozycjonowania (GPS) ze szczegółowymi mapami .



Pokazuje dokładną lokalizację i skrzyżowania, co zapewnia kierowcom pełną listę interesujących miejsc (sklepy, restauracje, stacje benzynowe, szkoły i parki). Kierowcy wiedzą, dokąd jadą. Mogą zaplanować podróż i obliczyć czas podróży. Co więcej, pojazd autonomiczny otrzymuje również dodatkowe informacje o ruchu drogowym za pośrednictwem komunikacji pojazd-pojazd (V2V) i pojazd-infrastruktura (V2I). Pozwala autonomicznemu pojazdowi zmienić trasę, aby uniknąć korków i wypadków samochodowych. Przy wsparciu wizji komputerowej i technologii czujników kalibruje pozycję pojazdu poprzez pomiar odległości między otaczającymi punktami orientacyjnymi. Zwiększa dokładność pozycji z +/-3 m (GPS) do +/-10 cm (LIDAR). Dzięki temu autonomiczny pojazd może bezpiecznie dotrzeć do celu bez interwencji człowieka.

Planowanie ścieżki

Planowanie trasy jest wykorzystywane do powielania sposobu myślenia i podejmowania decyzji przez człowieka .



Odczytuje mapę, analizuje otaczające środowisko i decyduje o optymalnych działaniach w oparciu o prędkość, warunki drogowe, przepisy ruchu drogowego i bezpieczeństwo. Wizja komputerowa i fuzja czujników tworzą precyzyjne obrazy położenia i prędkości otaczających obiektów. Przewiduje trajektorie otaczających obiektów, aby uniknąć kolizji. Określa również zachowanie podczas jazdy i podejmuje ostateczną decyzję dotyczącą jazdy. Kiedy pojazd autonomiczny mija pojazd wolno poruszający się, najpierw określa prędkość pojazdu wolno poruszającego się oraz pojazdy poruszające się po sąsiednim pasie, a następnie decyduje o zmianie na lewy lub prawy pas, aby ominąć pojazd. Może anulować działanie obejścia z powodu zmian warunków drogowych.

Sterowanie napędem

Każdego roku na świecie w wypadkach drogowych ginie 1,35 miliona ludzi. Szacuje się, że każdego dnia umiera prawie 3700 osób. Większość wypadków jest spowodowana błędami ludzkimi i powoduje ponad 600 miliardów dolarów strat w wyniku śmierci i obrażeń. Autonomiczny pojazd oferuje szybką reakcję i podejmuje właściwe decyzje (kierowanie, przyspieszanie i hamowanie) za pośrednictwem automatycznego wspomagania kierowcy (ADA), aby uniknąć wypadków drogowych. Jeśli pojazd porusza się z prędkością 100 km/h, przejechał odległość 48 stóp (13 m) z czasem reakcji 0,5 sekundy. Szybki czas reakcji pozwala uniknąć śmiertelnych wypadków i uratować życie. Tesla zaoferowała tempomat uwzględniający ruch drogowy



w celu utrzymania prędkości jazdy oraz autosterowania, aby poruszać się po wyznaczonym pasie ruchu. Wykonuje również automatyczną zmianę pasa ruchu, aby przełączać się między pasami. Udoskonalony autopilot prowadzi samochód od wjazdu do zjazdu z autostrady, w tym sugeruje zmiany pasa ruchu, nawiguje po skrzyżowaniach, automatycznie włącza kierunkowskazy i wybiera właściwy zjazd. Gdy funkcja automatycznego kierowania jest włączona, pomaga ona samochodowi w zjechaniu na sąsiedni pas na autostradzie. Identyfikuje również sygnalizację świetlną i znaki stopu, co spowalnia samochód i zatrzymuje się automatycznie w mieście.

Strategie komunikacji

Oprócz technologii automatyzacji jazdy pojazdy autonomiczne komunikują się również z innymi pojazdami i otoczeniem w celu poprawy wydajności i bezpieczeństwa. Strategie komunikacji dzielą się na interakcje V2V, V2I i pojazd-pieszy (V2P).

Komunikacja między pojazdami

Komunikacja V2V



umożliwia wymianę między pojazdami informacji dotyczących jazdy (prędkość, lokalizacja, kierunek, hamowanie) i warunków ruchu (korek, zagrożenie, przeszkoda) za pośrednictwem dedykowanej komunikacji radiowej krótkiego zasięgu (DSRC). Pojazd może aktywować automatyczne hamowanie awaryjne innych pojazdów (AEB), aby uniknąć potencjalnej kolizji podczas hamowania awaryjnego lub nagłej zmiany pasa ruchu. Gdy pojazd napotka korki drogowe spowodowane wypadkami samochodowymi, przekazuje informacje innym pojazdom, aby wybrały inną trasę, aby uniknąć opóźnień w ruchu drogowym.

Komunikacja pojazd-infrastruktura

Komunikacja V2I



umożliwia komunikację pojazdu z inteligentnym systemem transportowym (kamera drogowa, czujnik uliczny, sygnalizacja świetlna i parkometr) w celu rejestrowania warunków drogowych w czasie rzeczywistym. Wykrywa liczbę pojazdów na drodze w godzinach szczytu i dynamicznie dostosowuje interwał czasowy sygnalizacji świetlnej, aby skrócić czas oczekiwania pojazdu. Nie tylko poprawia warunki na drogach, ale także pozwala uniknąć korków. Pojazd może komunikować się z parkingiem w celu zlokalizowania miejsca do planowania trasy. Może również zarezerwować miejsce parkingowe przed podróżą, aby zaoszczędzić czas podróży. Takie podejście jest ważne dla rozwoju inteligentnych miast, które zmniejszają liczbę samochodów jeżdżących po okolicy w poszukiwaniu miejsca parkingowego.

Komunikacja pojazd-pieszy

Komunikacja V2P



umożliwia interakcję pojazdu ze smartfonem pieszego. Ostrzega pojazd o pozycji pieszego i pozwala uniknąć kolizji. Kiedy pieszy wejdzie na przejście, aktywuje sygnał przejścia dla pieszych, aby ostrzec kierowcę, zwłaszcza w złych warunkach pogodowych (deszcz, mgła i śnieg). Pomaga zapobiegać obrażeniom i śmierci pieszych.

Prawodawstwo

W Stanach Zjednoczonych władze federalne, stanowe i lokalne wprowadziły już przepisy dotyczące testowania i wdrażania pojazdów autonomicznych ,



które obejmują kilka różnych obszarów:

o Percepcja i reakcja
o Bezpieczeństwo i niezawodność systemu
o Cyberbezpieczeństwo pojazdów
o Prywatność
o Interfejs człowiek-maszyna
o Odporność na awarie
o Zachowanie po awarii
o Względy etyczne

Ludzkie zachowanie

Zachowanie człowieka jest jednym z ważnych czynników wypadków samochodowych. Automatyzacja poziomu 2 i 3 może wykonać ponad 90% zadań związanych z prowadzeniem pojazdu i staje się bezpieczniejsza, aby uniknąć wypadków samochodowych. Jednak kierowca pojazdu autonomicznego łatwo się rozprasza, co skutkuje katastrofalną awarią. W maju 2016 roku doszło do poważnego wypadku, Tesla (w trybie autopilota) zderzyła się z ciągnikiem siodłowym z przyczepą. Przyczepa była widoczna dla kierowcy Tesli przez co najmniej 7 sekund przed zderzeniem, ale kierowca nie zwrócił uwagi, aby jej uniknąć. Nie tylko producent oferuje system utrzymywania czujności kierowcy, ale kierowca jest również odpowiedzialny za bezpieczeństwo jazdy.

Labilność

Obecnie ludzie są zaniepokojeni kwestiami odpowiedzialności prawnej. Załóżmy, że pojazd bierze udział w wypadku z poziomem automatyzacji 2 lub 3, który jest odpowiedzialny za stratę, producenci samochodów lub twórcy oprogramowania. Obecnie Mercedes, Volvo, Waymo (Google) ponoszą odpowiedzialność za awarie sprzętu i oprogramowania. Nadal trudno jest określić odpowiedzialność prawną. Jeśli pojazd autonomiczny ostrzegł kierowcę, kierowca nie podejmuje na czas żadnych działań. Czy winny jest kierowca pojazdu? Ustawodawcy nadal badają, jak ustanowić przepisy dotyczące pojazdów autonomicznych. Do czasu sfinalizowania przepisów kierowca musi położyć ręce na kierownicy w pojazdach autonomicznych poziomu 2 lub 3 i reagować na wszelkie sytuacje awaryjne. W Stanach Zjednoczonych ubezpieczenie od odpowiedzialności cywilnej wynosi od 2 do 5 milionów dolarów za testowanie pojazdów autonomicznych i zapewnia podstawową ochronę innym kierowcom i pieszym.

Rozporządzenie

W Stanach Zjednoczonych rząd wspiera rozwój pojazdów autonomicznych, ale nie ma kompletnych przepisów, aby to działało. Kongres współpracuje z Departamentem Transportu w celu ustanowienia krajowych przepisów dotyczących pojazdów autonomicznych; jednak 20 stanów opracowało własne przepisy, a trzy stany wydają rozporządzenia wykonawcze, aby pomóc producentom przetestować pojazdy autonomiczne i wdrożyć je do użytku komercyjnego. Ponadto pojawia się opozycja polityczna, która ma na celu spowolnienie lub zatrzymanie legislacji ze względu na bezpośrednią konkurencję (tj. Taksówkarze i kierowcy ciężarówek). W Chinach rząd stosuje inne podejście, które polega na przeprojektowaniu miejskiego krajobrazu, infrastruktury i polityki w celu wspierania środowiska przyjaznego dla pojazdów autonomicznych. Ustawodawstwo nie ogranicza się do pojazdu, ale także do pieszego. Znacząco przyspiesza wdrażanie pojazdów autonomicznych.

Przyszłe wyzwania

Autonomiczne pojazdy są obecnie w fazie testów w Stanach Zjednoczonych. Wkrótce nadal będą musieli stawić czoła licznym wyzwaniom.

Zmiana przepisów drogowych

Ponieważ przepisy drogowe różnią się w zależności od kraju i warunków ruchu drogowego, systemowi autonomicznemu trudno jest obsługiwać wszystkie przepisy drogowe, zwłaszcza w krajach rozwijających się. Deweloper powinien rozważyć migrację systemów autonomicznych do innych krajów, aby poradzić sobie z wyjątkowymi warunkami ruchu. Nowy zestaw danych o ruchu musi zostać wprowadzony do algorytmu uczenia maszynowego w celu szkolenia. Ponieważ reakcje kierowców różnią się znacznie w poszczególnych krajach, migracja systemu do różnych krajów wymaga czasu.

Ujednolicony protokół komunikacyjny

Aby realizować różne strategie komunikacji pojazdu, ujednolicony protokół komunikacyjny musi być dobrze zdefiniowany. Umożliwia wymianę informacji o ruchu drogowym między pojazdem, infrastrukturą i pieszymi. Poza wyzwaniami technicznymi powinna ona również uwzględniać cyberbezpieczeństwo i ochronę prywatności. Ujednolicony protokół komunikacyjny nie ogranicza się tylko do jednego kraju, który musi być rozpoznawany i obsługiwany na całym świecie. Należy powołać międzynarodowy komitet, który określi strategie komunikacji dla pojazdów autonomicznych.

Standard bezpieczeństwa i wytyczne

Autonomiczny pojazd to nowa technologia bez zapisów. Nie jest łatwo zdefiniować standard i wytyczne, aby spełnić wszystkie wymagania. Rząd powinien najpierw określić zestaw norm bezpieczeństwa i wytycznych dla różnych rodzajów pojazdów; następnie zbiera informacje zwrotne i rozważa nowe rozwiązania w celu przeglądu standardów i wytycznych w określonym czasie. Normy i wytyczne bezpieczeństwa mogą ulec zmianie w przypadku wyższego poziomu automatyzacji.

Pogoda/Katastrofa

Jak pojazd autonomiczny radzi sobie ze złą pogodą i klęskami żywiołowymi (burze z piorunami, śnieżyce, marznący deszcz, powodzie i lawiny błotne)? Deweloper musi symulować autonomiczne pojazdy w złych warunkach pogodowych i zdefiniować różne reakcje, aby poradzić sobie z sytuacją awaryjną. Kierowca musi otrzymać dodatkowe informacje, aby ręcznie sterować pojazdem autonomicznym w trudnych warunkach pogodowych. To największe wyzwanie dla rozwoju pojazdów autonomicznych.

Ćwiczenia

1. Jakie są pięć poziomów automatyzacji pojazdu autonomicznego?
2. Jakie są kluczowe cechy pojazdu autonomicznego?
3. Jak poprawiamy bezpieczeństwo poprzez monitorowanie kierowców i planowanie tras?
4. Jakie są główne wyzwania dla komunikacji V2V?
5. Jak rząd może wspierać rozwój V2I?
6. Dlaczego komunikacja V2P jest ważna?
7. Jakie są główne kwestie związane z ustawodawstwem dotyczącym pojazdów autonomicznych?
8. Jakie są różnice w przepisach drogowych między Stanami Zjednoczonymi a krajami rozwijającymi się?
9. Jak proponujesz więcej norm/wytycznych bezpieczeństwa dla pojazdu autonomicznego?
10. Jak pojazd autonomiczny poradzi sobie w trudnych warunkach pogodowych?

Dron

Dron, zwany także bezzałogowym statkiem powietrznym (UAV), stał się w ostatnich latach dostępny dla hobbystów i jest szeroko stosowany w fotografii lotniczej i filmowaniu. Hobbysta robi zdjęcia/filmy z lotu ptaka za pomocą latającego drona, zwłaszcza z perspektywy pierwszej osoby (FPV). Pozwala fotografom zobaczyć świat z lotu ptaka za pośrednictwem Google. Dzięki sukcesowi sztucznej inteligencji dron nie jest już ograniczony do użytku rekreacyjnego. Jest również używany do zastosowań komercyjnych, budownictwa cywilnego, rolnictwa i ratownictwa.

Projekt drona

Istnieją dwa główne projekty dronów: stałopłat i wiropłat .

Konstrukcja : Stałopłat : Dron obrotowy

Prędkość przelotowa : Wysoka : Niska
Pokrycie obszaru : Duże : Małe
Lot : Długi : Krótki
Start/Lądowanie: Duży: Mały
Odporność na wiatr : Wysoka : Niska

Dron o stałym skrzydle jest używany do lotów długodystansowych z dużą prędkością. Kiedy dron ze stałym skrzydłem porusza się do przodu, powietrze przechodzi przez skrzydło, tworząc siłę nośną i pozwalając dronowi pozostać w powietrzu. Jest wydajniejszy niż wiropłat. Jednak wyszkolony pilot musi obsługiwać drona o stałym skrzydle z długim pasem startowym do startu i lądowania. Nie jest tak popularny wśród hobbystów. Obrotowy dron jest łatwy w obsłudze i unosi się w powietrzu podczas fotografowania i filmowania. Typowa odległość podróży jest ograniczona do dwóch mil przy czasie lotu krótszym niż 30 minut. Ze względu na koszty i działanie wiropłat jest bardziej atrakcyjny dla hobbystów.

Struktura drona

Obecnie dron wykorzystuje różne technologie lotu, w tym kamerę, stabilizację żyroskopową, globalny system pozycjonowania (GPS), unikanie kolizji i czujniki .



Kamera

Kamera jest kluczowym elementem drona. Przechwytuje 360-stopniowy widok z lotu ptaka przy niskich kosztach. Rozdzielczość kamery wideo została ostatnio zwiększona do 4k, co zapewnia najlepszą jakość obrazu do fotografowania i filmowania. Dodatkowe gimbale służą do stabilizacji kamery z inercyjną jednostką pomiarową (IMU). Reaguje na ruch drona i wysyła informację zwrotną do kontrolera, aby kamera była stabilna w każdej osi. Pozwala uniknąć drgań aparatu, a zdjęcia są nieostre lub rozmyte. Jest dalej podzielony na gimbale dwuosiowe i trzyosiowe. Dwuosiowe gimbale stabilizują się w osiach pochylenia i przechyłu. Trójosiowa stabilizuje kamerę we wszystkich trzech osiach.

Stabilizacja żyroskopowa

Stabilizacja żyroskopowa została opracowana w celu ustabilizowania lotu; żyroskop wykrywa orientację drona i dostosowuje lot, aby przeciwdziałać rotacji; oferuje sześcioosiową stabilizację żyroskopową w oparciu o sześć stopni swobody, w tym oś x, oś y, oś z, oś boczną (pochylenie), oś podłużną (przechylenie) i oś pionową (odchylenie)



Stabilizacja żyroskopowa jest ważna, aby dron pozostał stabilny w wietrznym otoczeniu i robił zdjęcia lotnicze.

Uniknięcie kolizji

Ponieważ dron leci z dużą prędkością, pilot może nie zareagować na przeszkodę, która szybko doprowadziła do katastrofy. Dron wykorzystuje czujniki ultradźwiękowe lub podczerwone do pomiaru odległości otaczającego obiektu w czasie lotu. Wysyła wyniki pomiarów z powrotem do kontrolera w celu manewrowania wokół przeszkód (np. ścian, drzew, skał i budynków). Unikanie kolizji automatycznie omija przeszkody bez ręcznego pilotażu. Jest to standardowa funkcja zaawansowanej konstrukcji drona.

Globalny System Pozycjonowania

Dron oferuje dodatkowy GPS do rejestrowania pozycji lotu i zapisuje geolokalizację na zdjęciach i filmach. Zdjęcia i filmy ze znacznikami geograficznymi są ważne w zastosowaniach komercyjnych, rolnictwie, geodezji i ratownictwie. Co więcej, większość dronów wykorzystuje funkcję "Powrót do domu", która rejestruje pozycję strefy startu (domu) i pozwala dronowi automatycznie wrócić do domu.

Czujniki

Dron wykorzystuje dodatkowe czujniki do określania pozycji i orientacji drona

o Akcelerometr mierzy nachylenie w celu wykonania korekty lotu.
o Magnetometr mierzy siłę magnetyczną, aby działać jak kompas w celu określenia kierunku lotu.
o Barometr mierzy położenie poprzez zmiany ciśnienia atmosferycznego.
o Czujnik przechyłu mierzy ruch drona iw połączeniu z akcelerometrem i żyroskopem stabilizuje lot.
o Czujnik prądu monitoruje przepływ prądu elektrycznego, aby zoptymalizować zużycie baterii i wykrywa wszelkie usterki elektryczne.

Rozporządzenie dotyczące dronów

W Stanach Zjednoczonych wszystkie drony muszą być zarejestrowane w Federalnej Administracji Lotnictwa (FAA), z wyjątkiem tych, które ważą mniej niż 0,55 funta (250 g). W 2021 r. do działania dronów wymagany jest dodatkowy zdalny identyfikator. Zdalny identyfikator zapewnia tożsamość drona, lokalizację, wysokość, stację kontrolną i miejsce startu. Drony podlegają przepisom wydanym przez FAA1, co umożliwia bezpieczną obsługę drona i uniknięcie lotu drona w ograniczonej przestrzeni powietrznej. Zasady są dalej podzielone na rekreacyjne i komercyjne.

Regulamin Rekreacji

o Zarejestruj swojego drona, oznacz go na zewnątrz numerem rejestracyjnym i noś dowód rejestracyjny.
o Lataj tylko w celach rekreacyjnych.
o Lataj dronem na wysokości lub poniżej 400 stóp nad ziemią, gdy znajdujesz się w niekontrolowanej przestrzeni powietrznej.
o Utrzymuj drona w zasięgu wzroku lub w polu widzenia obserwatora wizualnego, który znajduje się w tym samym miejscu (fizycznie obok) i ma z Tobą bezpośrednią komunikację.
o Nie lataj w nocy, chyba że twój dron ma oświetlenie, które pozwala przez cały czas znać jego położenie i orientację.
o Ustąp pierwszeństwa i nie przeszkadzaj załogowym statkom powietrznym.
o Nigdy nie przelatuj nad żadną osobą ani poruszającym się pojazdem.
o Nigdy nie ingeruj w działania reagowania kryzysowego, takie jak pomoc w przypadku klęsk żywiołowych, wszelkiego rodzaju reagowanie na wypadki, działania organów ścigania, gaszenie pożarów lub działania ratownicze po huraganie.
o Nigdy nie lataj pod wpływem narkotyków lub alkoholu. Wiele leków dostępnych bez recepty ma skutki uboczne, które mogą wpływać na zdolność bezpiecznego operowania dronem.
o Nie obsługuj drona niedbale lub lekkomyślnie.

Zasady handlowe

o Zawsze unikaj samolotów załogowych.
o Nigdy nie pracuj niedbale lub lekkomyślnie.
o Trzymaj drona w zasięgu wzroku. Jeśli korzystasz z widoku pierwszej osoby lub podobnej technologii, musisz mieć obserwatora wizualnego, który zawsze trzyma drona w zasięgu wzroku bez pomocy (na przykład bez lornetki).
o Nie możesz być pilotem lub obserwatorem wizualnym dla więcej niż jednej operacji drona na raz.
o Nie lataj dronem nad ludźmi, chyba że biorą oni bezpośredni udział w operacji.
o Nie steruj dronem z poruszającego się pojazdu lub samolotu, chyba że lecisz dronem nad słabo zaludnionym obszarem. Nie obejmuje transportu mienia w celu uzyskania odszkodowania lub wynajmu.
o Możesz latać w ciągu dnia (od 30 minut przed oficjalnym wschodem słońca do 30 minut po oficjalnym zachodzie słońca, czasu lokalnego) lub o zmierzchu, jeśli dron ma oświetlenie antykolizyjne.
o Minimalna widoczność pogodowa wynosi trzy mile od twojej stacji kontrolnej.
o Maksymalna dopuszczalna wysokość to 400 stóp nad ziemią, wyższa, jeśli dron znajduje się w odległości mniejszej niż 400 stóp od konstrukcji.
o Maksymalna prędkość wynosi 100 mil na godzinę (87 węzłów).

Aplikacje

W tej części opisano kilka popularnych komercyjnych zastosowań dronów, budownictwo cywilne, rolnictwo i ratownictwo.

Inspekcja Infrastruktury

Dron zapewnia również tańsze, szybsze i bezpieczniejsze sposoby kontroli i konserwacji infrastruktury.



Władze Nowego Jorku wykorzystują drona do inspekcji boomu lodowego w pobliżu jeziora Erie; kosztuje tylko 300 USD, czyli mniej niż koszt helikoptera (3500 USD) i łodzi (3300 USD). Kilka firm energetycznych (tj. Southern Company i Duke Energy) wykorzystuje drony do inspekcji elektrowni, linii energetycznych i szkód spowodowanych przez burzę.

Budownictwo cywilne

Dron wykonuje inspekcję z lotu ptaka na placu budowy w czasie rzeczywistym



Może szybko zbadać witrynę i zidentyfikować potencjalne problemy. Wykrywa obszar nadwyrężony przez uszkodzenia atmosferyczne lub wycieki przez kamerę termowizyjną. Dzięki zdjęciom lotniczym inżynier może ustalić priorytety problemów i podjąć właściwą decyzję w celu rozwiązania problemów. Dron zastępuje również pracę w niebezpiecznym środowisku i identyfikuje zagrożenia na placu budowy. Po użyciu dronów liczba wypadków na budowie zmniejsza się o 90%. Dron wykorzystywany jest również do tworzenia modeli 3D czy map w budownictwie. Przechwytuje dużą liczbę zdjęć w wysokiej rozdzielczości. Obrazy nakładają się na siebie, tak że ten sam punkt na obrazach jest widoczny na wielu zdjęciach z różnych punktów widzenia. Wykorzystuje algorytm uczenia maszynowego do tworzenia modeli 3D lub map z punktów obserwacyjnych o różnej percepcji głębi. Wreszcie może drukować modele i mapy za pomocą drukarki 3D.

Rolnictwo

Dzięki sukcesowi sztucznej inteligencji dron jest szeroko stosowany do sadzenia, opryskiwania, nawadniania, monitorowania, analizy gleby i pól oraz oceny stanu upraw.



Sensefly oferuje komputerowego drona wizyjnego, który rejestruje obrazy pola w podczerwieni, aby monitorować wzrost upraw i uzyskać dostęp do warunków glebowych. Oprogramowanie planuje trasę lotu i obejmuje cały obszar. Podczas lotu dron przesyła zdjęcia lotnicze do serwera w chmurze. Algorytm uczenia maszynowego przeszukuje bazę danych, a następnie rozpoznaje warunki roślinne i glebowe, w tym temperaturę, wilgotność i warunki glebowe. Dron może pokryć 200 hektarów (500 akrów) na lot i 500 stóp (120 m) nad ziemią. Pomaga rolnikom poprawić wzrost upraw przy niskich kosztach.

Ratownictwo

Dron zapewnia wiele korzyści w ratownictwie.



Może działać w niebezpiecznym środowisku i przewyższać ludzi. Dron pomaga w poszukiwaniach zaginionych i ratuje rannych. W porównaniu ze śmigłowcem ratowniczym podstawowy koszt helikoptera to ponad 1,5 mln USD, a koszt eksploatacji to około 1500 USD za godzinę; koszt drona to mniej niż 3000 USD, a koszt eksploatacji to mniej niż 100 USD. Dron jest ekonomicznym rozwiązaniem i zapewnia szybką reakcję, aby uratować wiele istnień ludzkich. Co więcej, dron odwzorowuje naturalne szkody (pożary, powodzie i trzęsienia ziemi) na trójwymiarowy model krajobrazu, który zapewnia wyraźny obraz katastrofalnych szkód. Daje lepszy wgląd w odbudowę zniszczonych obszarów i nadaje priorytet odbudowie po katastrofie.

Ćwiczenia

1. Jakie są główne różnice między stałopłatami a wiropłatami?
2. Jakie są kluczowe technologie dronowe?
3. Jakie są zasady rekreacyjne drona?
4. Jakie są komercyjne zasady drona?
5. Jakie są przyszłe kierunki rozwoju dronów?
6. Jak drony zgłaszają się do inspekcji infrastruktury?
7. W jaki sposób drony mają zastosowanie w budownictwie cywilnym?
8. Jak dron odgrywa ważną rolę w rolnictwie?
9. Dlaczego dron jest opłacalnym rozwiązaniem w ratownictwie?
10. Czy możesz zasugerować kilka zastosowań dronów?

Opieka zdrowotna

W Stanach Zjednoczonych wydaje się znacznie więcej na opiekę zdrowotną niż w innych krajach, jednak ponad 32,8 mln Amerykanów nie ma ubezpieczenia zdrowotnego, a 58 mln Amerykanów nie stać na leki na receptę. Firmy farmaceutyczne często zawyżają ceny leków na receptę. Podnoszą ceny leków ze względu na ogromne koszty badań i rozwoju, wysokie wydatki na marketing i dobrą marżę zysku. Powoduje to poważne problemy z dostępnością leków. Ponadto lekarze poświęcają ogromną ilość czasu na papierkową robotę administracyjną, zwłaszcza elektroniczną dokumentację medyczną (EHR), i poświęcają pacjentom mniej uwagi. Powoduje to niedobór lekarzy i prowadzi do wysokich kosztów opieki zdrowotnej. Sztuczna inteligencja zaczęła przekształcać system opieki zdrowotnej i rozwiązywać długotrwałe problemy. Usprawnia opracowywanie leków, przyspiesza diagnostykę medyczną, przeprowadza analizę radiologiczną, monitoruje stan zdrowia i upraszcza formalności administracyjne. Znacząco zmniejsza ogólne wydatki na opiekę zdrowotną.

Telemedycyna

Jeśli pacjenci mieszkają na terenach wiejskich, są geograficznie odizolowani od placówek służby zdrowia (przychodnia, laboratorium, szpital). Spędzają dużo czasu, pokonując duże odległości, aby odwiedzić najbliższe placówki służby zdrowia. Mogą nie przejść medycznego badania przesiewowego w celu wczesnego wykrycia choroby i stracić szansę na otrzymanie leczenia z dłuższym przeżyciem. Sztuczna inteligencja może rozwiązywać problemy i poprawiać jakość życia. W okresie pandemii telemedycyna



staje się alternatywą dla wizyt w przychodni. Lekarz bada pacjentów przez telefon i wideokonferencję. Pacjent może uzyskać podstawowe informacje życiowe (temperatura, ciśnienie krwi, tętno i echokardiogram) za pomocą inteligentnych urządzeń medycznych (smartwatch lub opaska), a następnie przesłać te informacje do lekarza drogą elektroniczną. Pozwala to uniknąć długich podróży związanych z wizytami w placówkach służby zdrowia. Dzięki wsparciu sztucznej inteligencji duża ilość istotnych informacji jest analizowana za pomocą algorytmu uczenia maszynowego. Jeśli wyrób medyczny wykryje nieprawidłowe ciśnienie krwi lub nieregularne bicie serca, ocenia ryzyko udaru mózgu lub zawału serca i natychmiast ostrzega pacjenta o konieczności wczesnej pomocy. Telemedycyna nadal ewoluuje, a pacjenci mogą otrzymać najlepszą opiekę medyczną niezależnie od ograniczeń geograficznych w najbliższej przyszłości.

Diagnoza medyczna

Błędy medyczne są trzecią najczęstszą przyczyną zgonów w Stanach Zjednoczonych. Lekarz musi zbadać pacjenta z dużymi objawami życiowymi i w krótkim czasie postawić prawidłową diagnozę. Mały błąd może prowadzić do poważnych błędów medycznych. Sztuczna inteligencja może pomóc lekarzom zapobiegać błędom medycznym

.

Gromadzi tysiące objawów życiowych i objawów chorób, a następnie analizuje informacje, aby zidentyfikować problem zdrowotny i udzielić porady diagnostycznej. Zaleca również dodatkowe badania przesiewowe (badania krwi i zdjęcia rentgenowskie) do dalszych badań i pomaga lekarzowi w postawieniu prawidłowej diagnozy. Ponadto może ostrzec lekarza o czynnikach ryzyka związanych z patentem, aby zapewnić pacjentowi najlepszą opiekę osobistą. Uczenie maszynowe może nadal uczyć się objawów różnych chorób, aby poprawić dokładność diagnozy. Nie tylko pozwala uniknąć błędów medycznych przy prawidłowej diagnozie i leczeniu. Pacjent może otrzymać leczenie we wczesnym stadium, aby obniżyć koszty leczenia i przyspieszyć proces powrotu do zdrowia.

Obrazowanie medyczne

Sztuczną inteligencję można zastosować do wspomaganego komputerowo wykrywania raka, autosegmentacji organów przetwarzających obraz 3D i analizy obrazowania metodą uczenia maszynowego .



Nie jest jeszcze szeroko stosowana, ponieważ większość lekarzy nie do końca rozumie znaczenie sztucznej inteligencji, która potrafi dokładnie analizować i interpretować obrazowanie medyczne. Sztuczna inteligencja wykorzystuje rozpoznawanie obiektów do wykrywania raka za pomocą obrazowania medycznego (mammografia, skan klatki piersiowej i kolonografia). Najpierw analizuje obrazy medyczne (zdjęcia rentgenowskie, tomografia komputerowa - tomografia komputerowa i obrazowanie metodą rezonansu magnetycznego - MRI) i wykorzystuje algorytm uczenia maszynowego aby zidentyfikować potencjalne problemy. Tradycyjnie, zanim lekarz potwierdzi raka płuc, przejrzenie wszystkich zdjęć rentgenowskich zajmuje kilka dni lub nawet tygodni. Sztuczna inteligencja skanuje wszystkie zdjęcia rentgenowskie w ciągu godziny. Naśladuje ludzki mózg do przetwarzania danych w celu podejmowania decyzji i analizuje bardziej złożone wzorce w obrazach medycznych. Odfiltrowuje obrazy i podkreśla obszar guza. Pomaga lekarzom szybko wykryć i zidentyfikować subtelności związane z guzem. Przyspiesza proces diagnostyczny i poprawia ogólną wydajność. Znacząco zmniejsza obciążenie lekarzy i pozwala lekarzom skupić się na filtrowanych obrazach w diagnostyce raka. Pacjenci mogą otrzymać leczenie we wczesnym stadium choroby nowotworowej, co znacznie zwiększa szanse przeżycia. Obrazowanie medyczne śledzi również wzrost guza podczas leczenia, co ostrzega lekarza o zmianie wielkości guza w celu poprawy leczenia. Sztuczna inteligencja ma ogromne potencjalne zalety w analizie obrazowania medycznego, ale stoi również przed dużymi wyzwaniami. Opiera się na sieci neuronowej do przewidywania, a model jest szkolony przy użyciu niestandardowego zestawu danych z odchyleniami i błędami. Nadal wymagane jest potwierdzenie przez lekarzy wyników przewidywań. W związku z tym więcej danych jest wprowadzanych do modelu w celu uczenia i poprawia ogólną dokładność. Sztuczna inteligencja stwarza również problem diagnostyczny. Jeśli system zgłasza, że pacjent ma 10% ryzyko zachorowania na raka, lekarzowi i pacjentowi trudno jest zdecydować, czy poddać się operacji, czy nie. Wywiera dodatkową presję na lekarza i niweczy swój pierwotny cel.

Inteligentne urządzenie medyczne

Sztuczna inteligencja jest zintegrowana z inteligentnymi czujnikami medycznymi



w celu monitorowania stanu zdrowia pacjentów. Pacjent nosi inteligentny zegarek lub opaskę, aby rejestrować parametry życiowe (temperatura, ciśnienie krwi, bicie serca i rytm snu), a następnie przesyła informacje do lekarzy w celu monitorowania. Jednym z kluczowych parametrów życiowych jest echokardiogram (EKG lub EKG), który jest prostym badaniem rejestrującym czynność elektryczną serca i dostarczającym informacji o częstości akcji serca i rytmie serca. Echokardiogram może wykazać powiększenie serca z powodu wysokiego ciśnienia krwi, co prowadzi do ryzyka udaru mózgu. Może również wykryć migotanie przedsionków (AF) na podstawie nieregularnego rytmu serca, które prowadzi do zawału serca. Wczesne wykrycie jest ważne, ponieważ pacjent może otrzymać leczenie i zwiększyć szanse przeżycia. W przeciwnym razie postęp choroby może prowadzić do zagrażających życiu skutków. Wyniki echokardiogramu są również wykorzystywane do przewidywania jednorocznej śmiertelności poprzez porównanie przewidywania z typowym wzorcem choroby. Ryzyko zgonu może skłonić pacjenta do wizyty u specjalisty w celu dalszej diagnostyki lub rozważenia bardziej agresywnego leczenia. Inteligentne urządzenie medyczne rejestruje również wzorce snu objęte patentem, ponieważ odgrywa ważną rolę w zdrowiu fizycznym. Zdrowy sen chroni zdrowie fizyczne i psychiczne oraz dobrą jakość życia. Utrzymuje rozwój ciała, oszczędza energię, wzmacnia układ odpornościowy i odświeża umysł. Słaby sen sygnalizuje potencjalne problemy zdrowotne, wysokie ciśnienie krwi, zawał serca, niewydolność serca, udar mózgu i cukrzycę. Patent należy skonsultować z lekarzem w celu poprawy snu. Regularny pomiar ciśnienia krwi ma kluczowe znaczenie, ponieważ pozwala śledzić stan zdrowia pacjenta. Wysokie ciśnienie krwi uszkadza naczynia krwionośne i powoduje udar, zawał serca i niewydolność serca. Powoduje również niewyraźne widzenie, niewydolność nerek, tętniaka, zespół metaboliczny i demencję. Wysokie ciśnienie krwi jest piątą najczęstszą przyczyną śmierci w Stanach Zjednoczonych. Inteligentne urządzenie medyczne służy również do analizy cukrzycy. Urządzenie może monitorować poziom glukozy we krwi w dzień iw nocy. Wysyła zapisy do lekarza, który podąża za pacjentami z odpowiednim jadłospisem dietetycznym. Ostrzega pacjenta, gdy poziom glukozy osiągnie niebezpieczny poziom. Pacjent stosuje lek w celu natychmiastowego obniżenia poziomu glukozy we krwi. W przypadku rodzinnej historii cukrzycy urządzenie medyczne może monitorować stan zdrowia pacjenta. Gdy wykryje objawy cukrzycy, ostrzega pacjenta, aby zmienił dietę i udał się do lekarza w celu przeprowadzenia dalszych badań. Oferuje dodatkową proaktywną opiekę nad pacjentem.

Elektroniczna Karta Zdrowia

Obecnie lekarze spędzają 27% swojego czasu na odwiedzaniu pacjentów, a 49% na wypełnianiu dokumentów, w tym EHR .



Szacuje się, że do 2030 roku niedobór lekarzy sięgnie 122 000, a coraz więcej lekarzy odchodzi z powodu przeciążenia i wypalenia zawodowego. Postęp sztucznej inteligencji pozwala lekarzowi przechwytywać komunikację z pacjentem poprzez przetwarzanie języka naturalnego (NLP). Może nagrać rozmowę i przepisać ją do odpowiedniego formatu EHR, w tym stan zdrowia pacjenta i plan leczenia. Oszczędza to lekarzowi ogromny wysiłek i czas poświęcony na dokumentację. Zmniejsza presję i zmniejsza tempo rotacji. Sztuczna inteligencja rozwiązuje również problem niezgodności dokumentacji medycznej. Przenosi dokumentację medyczną z jednego szpitala do drugiego i automatycznie przekształca dokumentację do innego formatu. Podejście to nie ogranicza się do Stanów Zjednoczonych, ale obejmuje również inne kraje. Załóżmy, że pacjent podróżuje ze Stanów Zjednoczonych do Meksyku, pozwala mu to komunikować się z meksykańskimi lekarzami za pośrednictwem inteligentnego urządzenia medycznego. Urządzenie tłumaczy dokumentację medyczną z języka angielskiego na hiszpański za pomocą NLP i wyświetla historię pacjenta oraz plan leczenia. Meksykańscy lekarze potrafią zapewnić pacjentowi najlepszą opiekę. Nieporozumienie opóźnia leczenie i zwiększa zagrożenie życia. Sztuczna inteligencja usprawnia administrację służby zdrowia; zwiększa produktywność przy mniejszej liczbie błędów, poprawia wydajność operacyjną i zmniejsza koszty operacyjne. Jednak napotyka również wyzwania etyczne, troskę pacjentów o to, jak zapewnić bezpieczeństwo danych i chronić prywatność.

Rozliczanie medyczne

Rachunki medyczne to trudny proces, który dokładnie przekłada informacje patentowe na standardowy kod rozliczeniowy. Szacuje się, że błąd rozliczeniowy spowodował w 2017 r. 36,21 mld USD, według Centers for Medicare and Medicaid Services (CMS). W związku z tym pojawiła się sztuczna inteligencja wspierająca rozliczenia medyczne .



Model uczenia maszynowego jest szkolony przez bazę danych pacjentów z terminologią medyczną i rozpoznaje termin medyczny oraz informacje o leczeniu (tj. Leki, operacje, procedury), a następnie wykorzystuje NLP do analizy danych pacjenta i identyfikacji właściwego kodu rozliczeniowego. Firma 3 M zastosowała system 360 Encompass Professional System do obsługi rozliczeń medycznych w ponad 1700 szpitalach. Jeden szpital pokazuje, że dokładność rozliczeń sięga 98%. Jednak rozliczenia medyczne nadal stoją przed poważnymi wyzwaniami w związku ze złożonym standardem medycznym, w którym definicja procedury medycznej została zwiększona z 3824 do 71 924, a kod rozliczeniowy z 14 025 do 69 823 w oparciu o najnowszą 10. rewizję Międzynarodowej Klasyfikacji Choroby (ICD-10).

Rozwój leków

Poza diagnostyką medyczną, sztuczna inteligencja odgrywa ogromną rolę w opracowywaniu leków. Szacuje się, że do 2024 r. rynek leków na wczesnym etapie rozwoju napędzany sztuczną inteligencją osiągnie 10 miliardów dolarów. Uczenie maszynowe sprawia, że badania i rozwój leków są lepsze, szybsze i tańsze.



Stany Zjednoczone finansują obecnie większość badań nad lekami, ale rozwój jest nadal trudnym procesem długoterminowym. Firmy farmaceutyczne muszą badać różne struktury molekularne w celu odkrycia nowych leków i przejść szeroko zakrojone trzy fazy badań klinicznych, a następnie uzyskać zgodę Agencji ds. Żywności i Leków (FDA). Opracowanie nowego leku zajmuje zazwyczaj ponad dziesięć lat. Jedna z wiodących firm biofarmaceutycznych, Pfizer, ściśle współpracuje z IBM Watson. Wykorzystuje uczenie maszynowe do poszukiwania nowych leków immunoonkologicznych. Może analizować ogromne ilości złożonych danych, rozumieć różne rodzaje kryteriów i rozpoznawać ukryte struktury molekularne w celu odkrywania nowych leków. Przewyższa naukowców i przyspiesza opracowywanie leków. Sztuczna inteligencja stosuje również NLP, aby jeszcze bardziej przyspieszyć odkrywanie nowych leków. Może skanować miliony literatury medycznej i zestawów danych genetycznych, aby zidentyfikować nowe struktury molekularne, a następnie zweryfikować strukturę molekularną z docelowym lekiem. Zastępuje ludzi w odkrywaniu nowych leków przy niskim wskaźniku błędów i skraca czas rozwoju z kilku lat do zaledwie kilku miesięcy. Google AlphaFold 2 to nowy system sztucznej inteligencji, który służy do przewidywania struktur białek SARS-CoV-2, czynnika sprawczego COVID-19, a następnie przyspiesza opracowywanie nowych szczepionek i leków. Ponadto sztuczna inteligencja może również optymalizować procesy produkcji leków. Gromadzi cenne dane kliniczne od różnych pacjentów i ocenia odpowiedzi w różnych populacjach. Może przewidywać działanie leku w danej populacji przed porodem. Zmniejsza opóźnienia w badaniach klinicznych i uzyskuje szybką zgodę FDA. W rezultacie znacznie skraca cykl opracowywania leku i całkowity koszt.

Badanie kliniczne

Badanie kliniczne jest procesem krytycznym dla opracowywania leków ze względu na wysokie koszty i niski wskaźnik sukcesu (<10%). Pojawia się sztuczna inteligencja, która automatyzuje badania kliniczne



w trzech obszarach: rekrutacja pacjentów, projektowanie badań klinicznych i optymalizacja. NLP jest niezwykle przydatne w badaniach klinicznych; rozpoznaje informacje medyczne do szkolenia na podstawie modelu uczenia maszynowego za pomocą klinicznej bazy danych (tj. notatek laboratoryjnych, danych statystycznych i dokumentacji pacjentów) i rekrutuje pacjentów dopasowanych do kryteriów badania klinicznego. Najpierw identyfikuje pacjenta z określoną chorobą, chorobą i urazem w klinicznej bazie danych, a następnie wymienia leczenie pacjenta i skutki uboczne leku o podobnych składnikach. Powoduje również wyświetlenie serii pytań dla pacjentów w celu określenia fizycznego, psychicznego i geograficznego dopasowania pacjenta do badania klinicznego. Takie podejście znacznie skraca czas rekrutacji i znalezienia odpowiedniego pacjenta do badania klinicznego. Oprogramowanie szyfruje również informacje o pacjencie w celu ochrony prywatności. W przypadku projektu badania klinicznego oprogramowanie analizuje wcześniejsze badania kliniczne i związaną z nimi dokumentację medyczną w celu zidentyfikowania czynników ryzyka, a następnie dostarcza zalecenia dotyczące projektu badania klinicznego. Dzieli pacjentów na różne grupy i bada możliwe skutki uboczne, zwłaszcza alergię lub lotną reakcję na lek. Analizy predykcyjne są również wykorzystywane do ustalania najlepszych praktyk z przeszłymi operacjami i procedurami w celu optymalizacji badań klinicznych. Służy również do przewidywania popytu rynkowego i prawdopodobieństwa przepisania leku przez lekarzy.

Robotyka medyczna

Robotyka medyczna spełnia różne role w opiece zdrowotnej poprzez robotyczną automatyzację przetwarzania (RPA)



Działa jako wirtualny asystent administracyjny do obsługi wszystkich zadań. Kiedy patent przybywa na spotkanie, zbiera dane osobowe i informacje o ubezpieczeniu w celu rejestracji. Pomaga również patentowi zaplanować różne wizyty i badania laboratoryjne, aby uniknąć długiego czasu oczekiwania. Takie podejście może w pełni wykorzystać zasoby systemu opieki zdrowotnej i zmaksymalizować ogólny zysk. Robotyka medyczna działa również jako asystent kliniczny, który ma dostęp do dokumentacji pacjenta, historii medycznej, wyników badań i planu leczenia. Analizuje wszystkie dane, a następnie pomaga lekarzowi w diagnozowaniu i leczeniu pacjenta. Na podstawie stanu zdrowia pacjenta może prowadzić badania statystyczne do analizy predykcyjnej. Zgłasza potencjalną chorobę lekarzom i pacjentom, a następnie zaleca postępowanie profilaktyczne i plany leczenia. Ostatnio robot medyczny został rozszerzony o wspomaganą chirurgię robotyczną z lepszą kontrolą operacji chirurgicznej, zwłaszcza w przypadku asystentów wzroku i sterowania ramieniem robota. Kardiochirurdzy wprowadzają miniaturowego robota Heartlandera do małego nacięcia na klatce piersiowej, aby wykonać mapowanie i terapię na powierzchni serca. Zmniejsza uraz fizyczny pacjenta i przyspiesza powrót do zdrowia. Chociaż roboty medyczne sprzyjają rozwojowi opieki zdrowotnej, lekarz musi współpracować z pacjentami, rodzinami i społecznościami, aby zrozumieć ich obawy związane z chirurgią robotyczną. Ważne jest budowanie większego zaufania między ludźmi a maszynami.

Opieka nad osobami starszymi

Starzenie się jest poważnym problemem; oczekuje się, że liczba osób w wieku powyżej 60 lat wzrośnie z 962 mln w 2017 r. do 2,1 mld w 2050 r. Opieka nad osobami starszymi stanie się w najbliższej przyszłości ważniejsza



Opiekunom i lekarzom trudno jest sprostać wymaganiom starszych pacjentów. Wraz z pojawieniem się sztucznej inteligencji inteligentne urządzenia medyczne monitorują parametry życiowe starszych pacjentów i ostrzegają o potencjalnych problemach zdrowotnych. Działa jako wirtualny asystent medyczny ułatwiający koordynację opieki i przestrzeganie zaleceń lekarskich; odpowiada na wszelkie zapytania lekarskie i ustala terminy wizyt lekarskich. Ponadto powiadamia rodzinę o wszelkich wypadkach domowych (m.in. upadki, udary, zawały), aby uratować życie starszego pacjenta.

Przyszłe wyzwania

Sztuczna inteligencja już zrewolucjonizowała system opieki zdrowotnej z wieloma zaletami. Stawia też czoła wielu wyzwaniom. Sztuczna inteligencja nie ma emocji i uczuć. Nigdy nie okazuje współczucia pacjentom. Brak komunikacji sprawia, że pacjent odczuwa niepokój związany z chorobą. W przeciwieństwie do maszyny, lekarz leczy chorych i pociesza pacjenta. Sztuczna inteligencja polega na wyszkolonym zbiorze danych do diagnozowania pacjentów i oferowania leczenia. Zbiór danych może jednak nie zawierać wystarczających informacji o pacjencie z określonym środowiskiem medycznym. Może wprowadzać błędy diagnostyczne i wpływać na przeżycie pacjenta. Istnieje również spór między podmiotami świadczącymi opiekę zdrowotną a firmami ubezpieczeniowymi: kto zapłaci za sztuczną inteligencję wykorzystywaną w służbie zdrowia? Sztuczna inteligencja może zaoferować pacjentowi najlepszy plan leczenia, ale plan leczenia może być zbyt kosztowny, aby pacjenta na niego nie było stać. Lekarz może zaoferować bardziej przystępne cenowo leczenie dla pacjenta. Obecnie branża opieki zdrowotnej zatrudnia miliony pracowników i odpowiada za 17% produkcji krajowej brutto (PKB) w Stanach Zjednoczonych. Jeśli sztuczna inteligencja zastąpi wiele miejsc pracy w służbie zdrowia, spowoduje to poważne bezrobocie. Chociaż branża opieki zdrowotnej zapewnia pracownikom programy szkoleniowe, potrzeba czasu, aby pracownicy przyjęli sztuczną inteligencję w miejscu pracy. Nowe stanowisko nie jest odpowiednie dla wszystkich pracowników. Nadal prowadzi to do problemów związanych z utratą pracy.

Ćwiczenia

1. Czy telemedycyna jest przydatna w czasie pandemii?
2. W jaki sposób sztuczna inteligencja może uniknąć diagnozowania usterek?
3. W jaki sposób sztuczna inteligencja może usprawnić analizę obrazowania medycznego?
4. Czy inteligentne urządzenie medyczne może poprawić Twoje zdrowie?
5. Jakie wyzwania stoją przed EHR?
6. W jaki sposób sztuczna inteligencja może znaleźć zastosowanie w rozliczeniach medycznych?
7. Jakie są główne zalety sztucznej inteligencji w opracowywaniu leków?
8. W jaki sposób sztuczna inteligencja może usprawnić badania kliniczne?
9. Czy zaufasz robotom chirurgicznym?
10. Czy w przyszłości sztuczna inteligencja rozwiąże problem opieki nad osobami starszymi?
11. Jakie są wyzwania związane ze sztuczną inteligencją w systemie opieki zdrowotnej?

Finanse

W dobie sztucznej inteligencji klient zawsze pyta: "Czy mogę to dzisiaj kupić?" Wirtualny asystent odpowiada na zapytanie i doradza klientowi zakupy. Analizuje bieżące finanse klienta, aktualizuje informacje o koncie i przewiduje potencjalne problemy, przekroczenia salda, braki i opłaty za opóźnienia. Pomaga uniknąć nadmiernych wydatków. Sztuczna inteligencja zapewnia również firmom szeroki zakres korzyści, takich jak zapobieganie oszustwom, prognozy finansowe i inwestycje w akcje. Analizuje dużą ilość danych w czasie rzeczywistym i pomaga firmie w podjęciu właściwej decyzji. Pozwala firmie zaoszczędzić miliony dolarów rocznie.

Zapobieganie oszustwom

Według Digital Fraud Tracker, całkowite straty spowodowane oszustwami szacuje się na 4,2 bln USD w 2018 r., a oszukańcze transakcje w aplikacjach mobilnych wzrosły o 680% w latach 2015-2018. Wraz ze wzrostem liczby cyberataków sztuczna inteligencja odgrywa ważną rolę w zwiększaniu cyberbezpieczeństwa dla instytucji finansowych, firm wydających karty kredytowe i firm ubezpieczeniowych. Analizuje dane z milionów incydentów, identyfikuje potencjalne zagrożenia i chroni sieć przed cyberatakami.



System zapobiegania oszustwom najpierw gromadzi tożsamość cyfrową klienta, taką jak adres, adres e-mail, numer telefonu, zachowania związane z wydatkami, historię płatności i inne punkty danych, a następnie tworzy rekordy danych klienta. Opracowuje linię bazową regularnej transakcji i koreluje zapisy z legalną transakcją. Opiera się na tożsamości cyfrowej w celu wykrywania podejrzanych transakcji w czasie rzeczywistym. Jeśli wykryje nienormalną transakcję, wysyła klientowi ostrzeżenie z czerwoną flagą. Jeśli klient stwierdzi, że transakcja jest oszukańcza, uznaje konto klienta i usuwa wszelkie opłaty transakcyjne. W przeciwnym razie klient jest odpowiedzialny za zapłacenie wszelkich spornych kwot i opłat. System dodatkowo zabezpiecza transakcję poprzez uwierzytelnianie biometryczne, rozpoznawanie twarzy i weryfikację odcisków palców. Sztuczna inteligencja również uczy się na błędach i z czasem aktualizuje wykrywanie oszustw. Jeśli system podniesie czerwoną flagę dla konkretnej transakcji bez oszustwa, przekazuje prawidłowe dane transakcji do szkolenia i koryguje błąd wykrywania. System zapobiegania oszustwom jest stale aktualizowany w celu poprawy dokładności wykrywania. W dłuższej perspektywie system może automatycznie analizować fałszywe dane i bezpośrednio identyfikować pranie pieniędzy lub oszukańczą transakcję. Nie jest wymagane ręczne poprawianie błędów i poprawa wydajności systemu. Firma MasterCard opracowała system wykrywania oszustw o nazwie "Decision Intelligence"



Stosuje analizy predykcyjne do analizy danych transakcji na podstawie zapisów i określa, czy transakcja jest oszustwem, czy nie. System może wykrywać nietypowe zachowania zakupowe na podstawie oceny ryzyka, informacji o sprzedawcach, położenia geograficznego, czasu transakcji i rodzaju zakupu. Takie podejście znacznie zmniejsza szansę na oszukańcze transakcje.

Prognoza finansowa

Analizy predykcyjne odgrywają ważną rolę we wzroście biznesowym i rządowym. Wiele firm polega na złożonych modelach oprogramowania, aby identyfikować trendy rynkowe i prognozować przyszłe przychody, wydatki i przepływy pieniężne, które napędzają rozwój firmy. Jednak zebranie danych wymaga ogromnego wysiłku i czasu. Konwertuje dane do odpowiedniego formatu, a następnie integruje dane z modelem prognozy finansowej. Wadami tradycyjnej prognozy są zużycie czasu, niewystarczające dane, brak aktualizacji, stronniczość ludzka i błędy. Sztuczna inteligencja może obsłużyć dużą ilość danych strukturalnych lub nieustrukturyzowanych. Dostarcza dane do sieci neuronowej w celu identyfikacji, klasyfikacji i przewidywania trendów i wyników finansowych. Model jest aktualizowany o nowe uczenie danych, aby poprawić ogólną dokładność .



Model może być ukierunkowany na inne prognozy rynkowe poprzez uczenie transferu, które dostarcza nowe dane do bieżącego modelu z różnymi celami prognozowania. Zamiast trenować model od podstaw, dostraja model i przyspiesza szkolenie. Zmniejsza wysiłek związany z opracowywaniem złożonego modelu oprogramowania i koncentruje się na analizie danych. Dzięki procesowi uczenia się prognozy finansowe stają się dokładniejsze i napędzają rozwój firmy. Amazon oferuje narzędzia sztucznej inteligencji, Amazon Forecast

.

Pomaga firmie bez zaplecza uczenia maszynowego do prognozowania finansowego. Narzędzie opiera się na danych historycznych i pokrewnych do przewidywania przyszłości. W porównaniu z obecnym podejściem jest o 50% dokładniejsze i skraca czas prognozowania z kilku miesięcy do zaledwie kilku godzin. Wszystkie wyniki są w pełni zaszyfrowane, aby zapobiec wyciekom danych. Pomaga firmie w rzetelnych i dokładnych prognozach finansowych. Sztuczna inteligencja jest również wykorzystywana do utrzymania stabilności finansowej kraju. Może przetwarzać ogromną ilość danych ekonomicznych w krótkim czasie i identyfikować wyzwalacze finansowe. Ze względu na okresy wysokiego i niskiego wzrostu gospodarczego globalne wstrząsy gospodarcze są nieuniknione, a recesje są nieuniknione. Oba są częściami cyklu koniunkturalnego. Rząd musi zapewnić pakiet bodźców fiskalnych, aby wyjść z kryzysu finansowego i zapobiec ponownemu wystąpieniu Wielkiego Kryzysu z lat 30. XX wieku. Sztuczna inteligencja gromadzi globalne dane gospodarcze i szacuje skutki ekonomiczne klęsk żywiołowych. Przewiduje potencjalne skurcze gospodarcze i ostrzega rząd na wczesnym etapie. Rząd może zapewnić scentralizowaną, szybką reakcję na kryzysy finansowe, pobudzić nowe formy konsumpcji i wyjść z recesji.

Handel akcjami

Na giełdzie sztuczna inteligencja analizuje sytuację finansową inwestora, tolerancję ryzyka i cel inwestycyjny, a następnie sugeruje, czy konserwatywny, umiarkowany lub agresywny portfel odpowiada zapotrzebowaniu inwestorów



Uzależnia decyzję i sugestię dotyczącą kupna, sprzedaży lub trzymania akcji od tolerancji ryzyka inwestora. Sztuczna inteligencja analizuje sprawozdanie finansowe firmy, raport sprzedaży i prognozę firmy, aby przewidzieć zmiany cen akcji. Uwzględnia również światową gospodarkę, politykę międzynarodową i zmiany klimatyczne dla inwestycji na giełdzie. Daje inwestorom najlepsze porady giełdowe. Sztuczna inteligencja przewiduje również zmiany cen akcji za pośrednictwem mediów społecznościowych (tj. Twitter, Instagram, Facebook). Obejmuje wprowadzenie produktu na rynek, zmiany w zarządzaniu i aktualizację konkurencji. To dodatkowo poprawia prognozy giełdowe. Alpaca łączy głębokie uczenie się z szybkim przetwarzaniem danych, aby zapewnić krótkoterminową i długoterminową prognozę zapasów. Przewiduje zmiany cen rynkowych i przekłada te informacje na wielorynkowe pulpity nawigacyjne do handlu akcjami. Współpracuje z Bloombergiem, aby dostarczać inwestorom krótkoterminowe prognozy dotyczące głównych rynków w Stanach Zjednoczonych. Kavout stosuje modele uczenia maszynowego z przetwarzaniem rozproszonym do analizy dużej ilości danych w czasie rzeczywistym.



Nie ogranicza się do historycznych danych giełdowych, ale także uzyskuje dostęp do powiązanych informacji z wiadomości, blogów, mediów społecznościowych i raportów analityków. Koreluje wszystkie dane do prognoz giełdowych. Rekomenduje portfel akcji inwestorom, a wynik przewyższa doradców finansowych.

Bankowość

Sztuczna inteligencja ma znaczącą przewagę w wielu rolach związanych z usługami finansowymi.



Banki oferują rozpoznawanie twarzy do uwierzytelniania biometrycznego, które łączy zdjęcia klientów z cyfrową tożsamością i przechowuje je w bazie danych systemu. Stosuje rozpoznawanie twarzy w celu odróżnienia żywego człowieka od nieruchomego obrazu w celu weryfikacji tożsamości. Może wykryć sfałszowany obraz i odmówić dostępu do kont klienta. Podejście to jest szeroko stosowane w bankomatach (bankomatach) i aplikacjach mobilnych. Chatbot ze sztuczną inteligencją staje się wirtualnym asystentem finansowym, który komunikuje się z klientami i udziela szybkich i trafnych odpowiedzi. Wirtualny asystent finansowy obejmuje różne usługi bankowe, zapytania o konta, wnioski kredytowe i przelewy pieniężne. Chatbot dokonuje również transkrypcji rozmów klientów do cyfrowego zapisu. Zmniejsza obciążenia związane z papierkową robotą i obsługą dokumentów przy mniejszej liczbie błędów. Banki obecnie wykorzystują punktację kredytową do wniosków o kartę kredytową, która obejmuje aktywne kredyty, historię płatności i liczbę aktywnych kart. Takie podejście często opóźnia wniosek o kartę kredytową i powoduje niejednoznaczność i niepewność w podejmowaniu decyzji. Sztuczna inteligencja analizuje wszystkie informacje o klientach i dokumentację finansową. Szybko identyfikuje oszustwo i odrzuca podejrzaną aplikację. Znacząco przyspiesza proces wnioskowania o kartę kredytową. Sztuczna inteligencja wykorzystywana jest również przy składaniu wniosków kredytowych. Generuje szczegółowe raporty o statusie klientów i prognozy finansowe. Ocena możliwych zagrożeń oraz analiza historii finansowej pozwalają bankierom na szybkie podejmowanie decyzji kredytowych i ograniczają ryzyko nieściągalnych długów. Wykorzystuje możliwości ludzi i maszyn do zwiększania efektywności operacyjnej i kosztowej. Pozwala bankom tworzyć w czasie rzeczywistym optymalne i spersonalizowane rozwiązania w oparciu o dostępne dane. Bank of America oferuje chatbota Erica, który odpowiada na pytania klientów i podaje stan konta.



Może dostarczyć historię transakcji i potwierdzenie zwrotu pieniędzy. Przypomina klientowi o otrzymanym rachunku i cyklicznym harmonogramie płatności. Pokazuje również tygodniową migawkę wydatków i ostrzega, że nadmierne wydatki prowadzą do ujemnego salda za pomocą analiz predykcyjnych. Staje się dla klienta ważnym wirtualnym asystentem finansowym.

Rachunkowość

W zakresie zarządzania administracyjnego sztuczna inteligencja może wykonywać wiele zadań księgowych



i umożliwiać automatyzację procesu intensywnego pozyskiwania informacji, takiego jak procedura zamykania miesiąca/kwartału, zobowiązania/należności, zarządzanie roszczeniami, proces zakupowy i audyt konta poprzez podejście do przetwarzania języka naturalnego (NLP). Może szybko i wydajnie zbierać, przechowywać i przetwarzać informacje finansowe i dane księgowe. Sztuczna inteligencja oferuje dokładne usługi w celu zmniejszenia ogólnych kosztów, a także błędów ludzkich. Uważa, że sztuczna inteligencja poradziłaby sobie z wieloma zadaniami księgowymi iw przyszłości przeniosłaby rolę księgowego na konsulting i doradztwo. EY (wcześniej znany jako Ernst and Young) [103] wykorzystuje sztuczną inteligencję do wychwytywania ważnych informacji z umów, takich jak data rozpoczęcia najmu, zapłacona kwota, odnowienie czy opcje wypowiedzenia. Automatyzuje audyt poprzez zrobotyzowaną automatyzację procesów (RPA) i obsługuje 70-80% prostego przeglądu umów najmu. Zmniejsza to dużą ilość czasu spędzonego na formalnościach administracyjnych. Pozwala księgowym przeanalizować różne opcje najmu i podjąć właściwą decyzję, przynosząc firmie ogromne korzyści.

Ubezpieczenie

Wiele firm ubezpieczeniowych opracowuje obecnie aplikacje wykorzystujące sztuczną inteligencję do zawierania umów ubezpieczenia, przetwarzania roszczeń i wykrywania oszustw. Ma to na celu skrócenie czasu realizacji i zmniejszenie kosztów operacyjnych.



Cape Analytics oferuje usługę analizy nieruchomości za pomocą zdjęć satelitarnych w celu uzyskania ubezpieczenia. Najpierw wprowadził miliony zdjęć satelitarnych domów i budynków do systemu szkoleniowego. Każdy obraz jest oznaczony atrybutami i warunkami właściwości, takimi jak dach, podwórko, basen i otoczenie. Analizuje zdjęcia satelitarne nieruchomości i wymienia szacunki i stan nieruchomości. Pomaga subemitentowi w podjęciu właściwej decyzji ubezpieczeniowej. Ant Financial, podmiot stowarzyszony Alibaba Group, oferuje oprogramowanie Ding Sun Bao do rozpoznawania uszkodzeń pojazdu i ułatwienia roszczeń. Aplikacja jest szkolona przez tysiące obrazów uszkodzonych pojazdów, które opisują uszkodzenie i koszt naprawy. Ubezpieczyciel przesyła do systemu zdjęcia uszkodzonego pojazdu. System szybko wyszukuje podobne przypadki uszkodzeń w bazie danych. Wymienia uszkodzone części, koszty naprawy i wpływ wypadku na ubezpieczenie. Takie podejście może znacznie przyspieszyć proces reklamacyjny.

Ćwiczenia

1. W jaki sposób sztuczna inteligencja stosuje się do wykrywania oszustw?
2. Jak możemy poprawić prognozę finansową?
3. W jaki sposób wirtualny doradca pomaga klientowi przy inwestycji?
4. Czy zaufasz sztucznej inteligencji w handlu akcjami?
5. W jaki sposób sugerujesz dalszą poprawę dokładności przewidywania zapasów?
6. W jaki sposób system bankowy korzysta ze sztucznej inteligencji?
7. Jakie są podstawowe wymagania dla wirtualnego kasjera?
8. Czy w najbliższym czasie księgowa straci pracę na rzecz maszyny?
9. Jak sztuczna inteligencja usprawnia proces zgłaszania roszczeń ubezpieczeniowych?

Sprzedaż detaliczna

Podczas Święta Dziękczynienia, Czarnego Piątku i Bożego Narodzenia kupujący czekają w kolejce przed sklepami, aby kupić prezenty dla rodziny i przyjaciół. Polują na najlepszą ofertę na elektronikę, taką jak telewizor, komputer, konsola do gier i telefon komórkowy. Ze względu na duży popyt zakupy nie są już bezproblemowym doświadczeniem z wieloma wyzwaniami, niedoborem produktów, zmiennymi cenami i konkurencją kupujących. Sztuczna inteligencja to nowa przełomowa technologia ułatwiająca zakupy. Pełni rolę wirtualnego asystenta zakupowego, który informuje kupujących o dostępności towaru, lokalizacji sklepów, gwarancji produktu, polityce zwrotów i recenzjach produktów. Analizuje również status finansowy kupującego i listę życzeń zakupowych, a następnie rekomenduje kupującym odpowiedni produkt. Nie tylko przynosi korzyści kupującym, ale także sprawia, że sklepy detaliczne są rentowne. Obecnie czterdzieści procent firm wykorzystuje sztuczną inteligencję do usprawnienia swojej działalności. Wraz z globalizacją i bliskością lokalną coraz więcej detalistów decyduje się na przyjęcie sztucznej inteligencji, która automatyzuje działania, zmniejsza wydatki, zwiększa sprzedaż, oferuje więcej rekomendacji produktów i zapewnia lepszą obsługę klienta. Globalne wydatki na sztuczną inteligencję osiągną w 2022 roku 7,3 miliarda dolarów

Handel elektroniczny

Skuteczna reklama odgrywa ważną rolę w biznesie, dzięki czemu detalista może przyciągnąć więcej klientów i konkurować z innymi firmami. Sztuczna inteligencja dodatkowo usprawnia handel elektroniczny; nie tylko robi lepsze reklamy, ale także ułatwia zakupy. Najpierw analizuje profile klientów, które obejmują dane demograficzne i powiązane informacje, oraz bada historię przeglądania stron internetowych klientów i zapisy wcześniejszych transakcji, a następnie dostarcza rekomendacje produktów, umożliwia szybszą realizację transakcji i ułatwia osobiste zakupy dzięki lepszej obsłudze klienta. Gdy klient odwiedza witrynę, identyfikuje potrzeby i pragnienia klientów. Powiadamia klientów o dostępności zapasów i zapewnia rabat na powiązane produkty. Przyciąga klientów do zakupu i zwiększa sprzedaż detaliczną. Crowdsourcing jest również szeroko stosowany do rekomendacji produktów e-Commerce. Gromadzi duże ilości danych z różnych źródeł, a następnie przekazuje je do modelu do szkolenia i stosuje wyszukiwanie produktów e-Commerce. Jeśli klient szuka w witrynie czerwonych butów przeciwdeszczowych dla dzieci, najpierw analizuje zdanie i identyfikuje produkt jako "buty przeciwdeszczowe", a nie "buty", które są przeznaczone dla dzieci z mniejszymi rozmiarami butów. Dzięki opisowi "czerwony" może szybko wyszukać czerwone kalosze w katalogu dla dzieci i podać odpowiednie rekomendacje produktów. Boomtrain to skalowalna marketingowa platforma sztucznej inteligencji, która zbiera dane klientów z wielu punktów kontaktu, takich jak aplikacje mobilne, kampanie e-mailowe i strony internetowe. Analizuje interakcje klienta online i wydaje powiązane rekomendacje produktowe. Ogólnie rzecz biorąc, sztuczna inteligencja poprawia obsługę klienta i zapewnia spersonalizowane rekomendacje. Pozwala to firmie na zwiększenie sprzedaży i zysków. Na przykład, klient kupuje książkę laboratoryjną Kneron na Amazonie, dostanie pasujący moduł sprzętowy rekomendowany przez sztuczną inteligencję, co zwiększa sprzedaż detaliczną i zwiększa przychody. Sztuczna inteligencja działa jak wirtualny asystent zakupowy, który odpowiada na wszystkie prośby i pytania klientów w celu lepszego wsparcia posprzedażowego. Powiadamia klienta o harmonogramie dostaw i prosi o recenzję produktu. Jeśli klient chce zwrócić produkt, upraszcza procedurę zwrotu i rozumie przyczyny zwrotu w celu poprawy jakości. Buduje silne relacje między detalistami a klientami. Amazon stosuje podobne podejście do zakupów online, a ogólna sprzedaż dramatycznie wzrosła w ciągu ostatnich kilku lat. Ponadto sztuczna inteligencja poprawia również efektywność zakupów online poprzez optymalizację współczynnika konwersji (CRO). Przekształca odwiedzających online w klientów poprzez przeprojektowanie strony internetowej, zdjęcia produktów, wyświetlanie cen i układ treści. Skutecznie zachęca klienta do zakupu produktu online.

Wirtualne zakupy

Sztuczna inteligencja umożliwia korzystanie z rzeczywistości rozszerzonej (AR) i rzeczywistości wirtualnej (VR) do wirtualnych zakupów. Pozwala klientowi eksplorować różne produkty w immersyjnym środowisku AR/VR. Koncentruje się na obszarach związanych z majsterkowaniem i modą detaliczną. IKEA oferuje aplikację mobilną IKEA Place zbudowaną na platformie Apple ARKit, która obsługuje rozpoznawanie i śledzenie obrazów 2D/3D. Klient robi zdjęcia pokoju za pomocą aplikacji, a następnie stosuje funkcję AR do pomiaru wymiarów pokoju. Klient wybiera meble z katalogu IKEA i wrzuca je do aplikacji. Klient może przesuwać meble na ekranie i ustawiać je w różnych miejscach, a następnie oglądać meble pod różnymi kątami. W przypadku mody detalicznej Fitnet opracowuje wirtualne dopasowanie, które przechwytuje kształt i rozmiar klienta. Klient wybiera ubrania i dodatki z katalogu detalicznego, a następnie wyświetla je w wirtualnym lustrze. Lustro pokazuje również, jak wyglądają ubrania, gdy klient się porusza. Pozwala klientowi zobaczyć, jak ubranie leży przed zakupem.

Promocja produktu

Sztuczna inteligencja jest również szeroko wykorzystywana do promocji produktów; może określić związek produktu, wpływ promocji, ceny i kontrolę zapasów. Jeśli klient kupi mieloną wołowinę, może to wpłynąć na sprzedaż bułek do hamburgerów lub makaronu i sosu pomidorowego. Po zidentyfikowaniu produktu objętego promocją sztuczna inteligencja pomaga prognozować sprzedaż i ustalać cenę. Przewiduje również wadę promocji mielonej wołowiny, sprzedaż bułek do hamburgerów może zrównoważyć sprzedaż bułek do hot-dogów, co skutkuje ujemnym zyskiem. Aby wesprzeć promocję produktu, najpierw zbiera historię transakcji różnych produktów i koszt produkcji; bada również przeszłe promocje i wyniki kampanii rynkowych. Dodatkowe dane geograficzne (np. lokalizacja sklepu) i reakcje konkurencji są również brane pod uwagę w celu poprawy ogólnej dokładności promocji. Daisy Intelligence współpracuje ze sklepem ekologicznym Earth Fare w celu zdefiniowania promocji produktu; oprogramowanie Daisy AI rozumie związek produktu, wpływ promocji, reakcje konkurencji i cel optymalizacji (sprzedaż, marża, kanał, podaż itp.), a następnie określa strategię promocji. Wreszcie zwiększa sprzedaż produktów z najwyższej półki o 3% i zwiększa udział promocji z 20% do 40% dla całkowitej sprzedaży.

Kierownictwo sklepu

Amazon uruchamia innowacyjne sklepy Amazon Go, aby na nowo odkryć tradycyjny handel detaliczny poprzez zakupy "Just Walk Out". Klient po prostu łapie i wychodzi bez kasy. Gdy klient sprawdzi w sklepie, indywidualnie śledzi każdą osobę za pomocą kombinacji wielu technologii, fuzji czujników, wykrywania osób, rozpoznawania obiektów, szacowania pozycji i analizy aktywności. Rozpoznaje, które przedmioty podnieść i upuścić. Rozróżnia również różne sprzedawane przedmioty. Wszystkie artykuły są połączone z wirtualnym koszykiem klienta, a następnie wysyłają rachunek do klientów, gdy wychodzą ze sklepu. Upraszcza zakupy dzięki lepszej kontroli zapasów i prognozowaniu popytu. Ta innowacja to przyszłość handlu detalicznego, a sztuczna inteligencja jest źródłem innowacji. Ostatnio robot handlu detalicznego, robot Pepper Softbank, odpowiada na zapytania klientów i pomaga klientowi znaleźć produkty w sklepie. Śledzi również stany magazynowe w czasie rzeczywistym, informuje klientów o braku produktu na magazynie i poprawia rentowność sklepu. Pepper Robot w kalifornijskim sklepie b88ta zwiększa liczbę odwiedzających o 70% i sprzedaż większą o 50%.

Zarządzanie magazynem

Zarządzanie magazynem kontroluje i optymalizuje wszystkie operacje magazynowe, od wprowadzenia produktu do magazynu, aż do sprzedaży, usunięcia lub zużycia produktu. Po otrzymaniu zamówienia sprzedawca odbiera towar z magazynu, pakuje go i dostarcza do klienta. Zarządzanie magazynem jest pracochłonnym zadaniem o wysokich kosztach operacyjnych. Do pracy przy dostawie produktu potrzebna jest duża liczba robotników. Chociaż sztuczna inteligencja może nie zastąpić w pełni obecnego systemu, może działać w połączeniu z ludzkim nadzorem w celu zarządzania dostarczaniem produktów. System zarządzania magazynem Amazon składa ponad 45 000 inteligentnych robotów w różnych magazynach. Służą do zaopatrywania, liczenia i przemieszczania zapasów w magazynach. Robot może dostarczyć ponad 300 artykułów na godzinę w porównaniu do 100 przedmiotów na godzinę w przypadku odbioru przez człowieka. Działa również przez cały dzień bez przerwy, aby poprawić wydajność magazynu. Na podstawie badań statystycznych pozwala zaoszczędzić ponad 22 miliony USD na każdym zautomatyzowanym magazynie i odpowiada za 20% kosztów operacyjnych. Obecnie Amazon dodatkowo łączy magazyn z flotą dostawczą za pośrednictwem samojezdnej jednostki Scout i drona Amazon Prime Air w celu dostarczania produktów. Jednostka samojezdna Scout dostarczyła produkty do czterech lokalizacji w całych Stanach Zjednoczonych. Amazon Prime Air może dostarczyć paczki o wadze do pięciu funtów na obszary wiejskie w mniej niż trzydzieści minut. Amazon inwestuje w tę odpowiednią sztuczną inteligencję, aby zwiększyć wydajność dostaw, zminimalizować błędy i zmaksymalizować sprzedaż. Flota dostawcza jest korzystna dla firmy dzięki mniejszej liczbie pracowników dostawczych przy niższych kosztach; autonomicznie dostarcza produkty szybciej i taniej niż samochodem.

Zarządzanie zapasami

Oprócz zarządzania magazynem kontrola zapasów ma również kluczowe znaczenie dla sukcesu firmy. Zarządzanie zapasami oznacza właściwe zapasy, na właściwych poziomach, we właściwym miejscu, we właściwym czasie, po właściwych kosztach i po właściwej cenie. Nadmiar zapasów blokuje przepływy pieniężne i wpływa na codzienne operacje, takie jak wynajem, wynagrodzenie i wydatki ogólne. Niewystarczające zapasy skutkują utratą sprzedaży i kosztownymi zamówieniami zaległymi. Dlatego ważne jest, aby zrównoważyć zapasy i przepływy pieniężne. Sztuczna inteligencja oferuje dwa główne ulepszenia w stosunku do zarządzania zapasami. Najpierw stosuje rozpoznawanie obiektów w celu zeskanowania produktów na półkach. Wykrywa niskie stany magazynowe i szybko uzupełnia produkty. Ostrzega również łańcuch dostaw, aby zaplanować wysyłkę w celu spełnienia wymagań produktu. Po drugie, może uwzględniać zewnętrzne źródła danych, dane pogodowe i wykorzystywać modele szeregów czasowych do prognozowania popytu. Model przewiduje sprzedaż w sklepach detalicznych w określonym okresie. Sklep może zaopatrzyć się we właściwym czasie i poprawić zyski. Aby uniknąć błędów przewidywania, wdrażane jest również uczenie się przez wzmacnianie w celu wspierania procesu decyzyjnego.

Łańcuch dostaw

Sztuczna inteligencja ma przewagę nad tradycyjnym podejściem do łańcucha dostaw w zakresie kontroli zapasów z prognozą popytu. Analizuje dużą ilość danych (zapasy, sprzedaż, popyt i podaż) oraz bierze pod uwagę wiele czynników i ograniczeń w celu poprawy wydajności łańcucha dostaw. Łatwo jest zidentyfikować braki magazynowe i powiadomić dostawców produktów w celu ustalenia terminu dostawy. Przyjmuje strategię multisourcingu, aby sprostać rosnącemu popytowi na produkty w okresach zakupowych (powrót do szkoły, Święto Dziękczynienia i Boże Narodzenie). Nawet przy prawidłowym zarządzaniu zapasami, produkty muszą być dostarczane do klienta sprawnie i skutecznie. Obecnie specjaliści ds. łańcucha dostaw spędzają dużo czasu, korzystając z arkuszy kalkulacyjnych do opracowywania planów dostaw. Sztuczna inteligencja oferuje automatyzację kognitywną, która automatyzuje planowanie tras i pokonuje wyzwania związane z dostawą bez interwencji człowieka. Analizuje wiele danych (np. pogodę, ruch drogowy i stan dróg), bada różne trasy, a następnie wybiera najlepszą trasę dostawy za pomocą modelowania predykcyjnego. United Parc Service (UPS) korzysta z globalnego systemu pozycjonowania (GPS) opartego na sztucznej inteligencji, aby tworzyć najbardziej wydajne trasy flot. Znacznie przyspiesza dostawę i obniża koszty. Lineage Logistics stosuje sztuczną inteligencję do prognozowania i przewidywania, kiedy zamówienia na żywność będą opuszczać i docierać do odpowiednich obiektów. Skraca czas transportu i utrzymuje świeżość żywności.

Ćwiczenia

1. Czy możesz opisać zmiany w e-commerce na przestrzeni tych kilku lat?
2. Czym są wirtualne zakupy?
3. Jak sztuczna inteligencja usprawnia promocję produktów?
4. Jak sztuczna inteligencja zmienia zarządzanie sklepem?
5. Czy robot handlowy zastąpi człowieka?
6. Jak Amazon zmienia zarządzanie magazynem?
7. Co zmieni się w przyszłych dostawach i logistyce?
8. Jaka jest rola sztucznej inteligencji w zarządzaniu zapasami?
9. Jak usprawnić zarządzanie łańcuchem dostaw?