100 Pytań o A.I. : Czy sztuczna inteligencja może być nowym działem obsługi klienta?

Jednym z pierwszych procesów biznesowych, który prawdopodobnie doświadczy dramatycznych zmian dzięki technologiom sztucznej inteligencji, jest obsługa klienta. W ciągu najbliższych kilku lat prawdopodobnie będziesz mógł zadzwonić do dowolnego dużego banku, dostawcy usług internetowych lub dużej firmy i doświadczyć naturalnej, realistycznej rozmowy z robotem lub chatbotem z ulepszoną sztuczną inteligencją, który został zbudowany w odpowiedzi na rozmowę lub tekst pisany jak człowiek, ale by znaleźć rozwiązania problemów klientów szybciej i wydajniej niż tradycyjny zespół obsługi klienta. Według Gartnera, wiodącej firmy badawczej, “do 2020 r. Klienci będą zarządzać 85% swoich relacji z przedsiębiorstwem bez interakcji z człowiekiem”. Jest to dość znacząca zmiana i będzie w dużej mierze możliwa dzięki rozwojowi technologii sztucznej inteligencji. Istnieją dwa główne powody, dla których na obsługę klienta mogą mieć duży wpływ technologie AI. Po pierwsze, współcześni konsumenci oczekują od firm niesamowicie szybkiego czasu reakcji i odpowiedniego rozwiązania ich problemów. Jest to wyzwanie dla wielu firm, które starają się sprostać potrzeby i wymagania klientów bez konieczności zatrudniania w dużych zespołach, które są dostępne 24 godziny na dobę, 7 dni w tygodniu. Po drugie, wiele działań związanych z obsługą klienta ma charakter powtarzalny, opierając się na określonych zestawach danych w celu rozwiązania określonych problemów, co dobrze pasuje do narzędzia AI. Chociaż istnieją pewne modele biznesowe, które wymagają większej kreatywności i niestandardowych rozwiązań w zakresie zapytań do obsługi klienta, co byłoby zbyt skomplikowane dla chatbotów i zasobów sztucznej inteligencji, większość firm uzna, że narzędzia sztucznej inteligencji są bardziej niż wystarczające do ich potrzeb w zakresie obsługi klienta. Wiele małych i średnich firm zaczęło już wdrażać technologie chatbot w swoich modelach biznesowych, korzystając z bezpłatnych lub niedrogich narzędzi, takich jak manychat.com lub chatfuel.com. Usługi te są łatwe w użyciu i nie wymagają zaawansowanej wiedzy na temat kodowania, co czyni je dostępnymi dla prawie każdego przedsiębiorcy lub organizacji dążącej do usprawnienia procesów obsługi klienta. W miarę, jak coraz więcej firm zainteresuje się narzędziami obsługi klienta opartymi na sztucznej inteligencji, prawdopodobnie z powrotem zainwestuje się w te technologie, pomagając udoskonalić i poprawić ich zdolności i szybkość reakcji. Wczesne wersje chatbotów obsługi klienta mogą nie być idealne, ale na tym polu nastąpiły już szybkie i potężne zmiany. Firmy, które korzystają z narzędzi obsługi klienta opartych na sztucznej inteligencji, mają ogromne zalety, w tym niższe koszty pracy, krótszy czas reakcji klienta oraz możliwość personalizacji i skalowania odpowiedzi.

Filtry Kalmana

Wyobraź sobie, że o zmierzchu obserwujesz małego ptaka przelatującego przez gęste liście dżungli: dostrzegasz krótkie, przerywane przebłyski ruchu; starasz się odgadnąć, gdzie jest ptak i gdzie się pojawi, aby go nie zgubić. Albo wyobraź sobie, że jesteś operatorem radaru z czasów II wojny światowej, który spogląda na słaby, wędrujący punkt, który pojawia się na ekranie raz na 10 sekund. Albo, cofając się jeszcze dalej, wyobraź sobie, że jesteś Keplerem próbującym zrekonstruować ruchy planet na podstawie zbioru bardzo niedokładnych obserwacji kątowych wykonanych w nieregularnych i niedokładnie odmierzonych odstępach. We wszystkich tych przypadkach wykonujesz filtrowanie: szacujesz zmienne stanu (tutaj położenie i prędkość poruszającego się obiektu) na podstawie zaszumionych obserwacji w czasie. Gdyby zmienne były dyskretne, moglibyśmy modelować system za pomocą ukrytego modelu Markowa. W tej sekcji omówiono metody obsługi zmiennych ciągłych przy użyciu algorytmu zwanego filtrowaniem Kalmana, na cześć jednego z jego wynalazców, Rudolfa Kalmana. Lot ptaka może być określony przez sześć zmiennych ciągłych w każdym punkcie czasowym; trzy dla pozycji (Xt ;Yt ;Zt) i trzy dla prędkości

Będziemy potrzebować odpowiednich gęstości warunkowych do reprezentowania modeli przejścia i czujników; podobnie jak wcześniej użyjemy rozkładów liniowo-gaussowskich. Oznacza to, że następny stan Xt+1 musi być liniową funkcją bieżącego stanu Xt plus trochę szumu Gaussa, co w praktyce okazuje się całkiem rozsądne. Rozważmy na przykład współrzędną X ptaka, ignorując na razie inne współrzędne. Niech odstęp czasu między obserwacjami będzie równy Δ i załóżmy stałą prędkość w tym odstępie; następnie aktualizacja pozycji jest dana przez Xt+Δ = Xt + ˙X D. Dodając szum gaussowski (w celu uwzględnienia zmian wiatru itp.), otrzymujemy model przejścia liniowo-gaussowskiego:

Struktura sieci bayesowskiej dla układu z wektorem położenia Xt i prędkością  jest pokazana na rysunku

Zauważ, że jest to bardzo specyficzna forma modelu liniowego Gaussa; ogólna forma zostanie opisana w dalszej części tej sekcji i obejmuje szeroki wachlarz zastosowań poza prostymi przykładami ruchu z pierwszego akapitu. Czytelnik może chcieć zajrzeć do Dodatku A, aby zapoznać się z niektórymi matematycznymi właściwościami rozkładów Gaussa; dla naszych bezpośrednich celów najważniejsze jest to, że wielowymiarowy rozkład Gaussa dla d zmiennych jest określony przez d-elementową średnią μ i dxd macierzą kowariancji Σ.

100 Pytań o A.I. : Czy sztuczna inteligencja może być członkami zespołów kierowniczych?

Technologie sztucznej inteligencji zaczynają odgrywać dużą rolę. Na najwyższych szczeblach w firmie podejmowane decyzje są często złożone, co wymaga zaawansowanej analizy danych i zdolności do przewidywania wpływu decyzji na firmę na większą skalę. Jest to idealne środowisko, w którym narzędzia AI mogą się rozwijać. Fińska firma Tieto rozpoczęła już wdrażanie asystenta AI, znanego jako Alicia, który jest uważany za pełnego członka zespołu, a nawet ma prawo głosu. W ostatnim wywiadzie Taneli Tikka z Tieto potwierdził, że Alicia przypomniała członkom zarządu firmy o ważnych danych i statystykach, pomagając im w podejmowaniu mądrzejszych decyzji biznesowych. Firmy takie jak Tieto są przykładem doskonałego wykorzystania narzędzi opartych na sztucznej inteligencji, które wkrótce staną się powszechne w przedsiębiorstwach każdej wielkości, a zwłaszcza tych największych. Rodzaje zadań przypisanych członkom AI zespołów kierowniczych będą prawdopodobnie obejmować analizy i zalecenia dotyczące decyzji, takich jak wejście na nowy rynek, wykupienie konkurenta lub opracowanie nowego produktu. Już teraz asystenci AI, tacy jak IBM Watson, mogą gromadzić złożone dane z różnych źródeł zewnętrznych, analizować ich trendy na podstawie wewnętrznych wskaźników firmy i celów biznesowych oraz przedstawiać sugestie tej firmie na podstawie jej ustaleń. Ponadto, ze względu na zdolność tych narzędzi do ciągłego uczenia się i doskonalenia, będą w stanie przetwarzać większe ilości danych bardziej wydajnie i efektywnie w czasie, stając się coraz bardziej niezbędnymi partnerami dla firm, którym służą.

Przykład ukrytego modelu Markowa: Lokalizacja

Przedstawiliśmy prostą formę problemu lokalizacji dla świata próżni. W tej wersji robot miał jedno niedeterministyczne działanie ruchu, a jego czujniki doskonale informowały, czy przeszkody znajdują się bezpośrednio na północy, południu, wschodzie i zachodzie; stan przekonania robota był zbiorem możliwych lokalizacji, w których mógłby się znajdować. Tutaj sprawiamy, że problem jest nieco bardziej realistyczny, dopuszczając szum w czujnikach i sformalizując ideę, że robot porusza się losowo – jest równie prawdopodobne, że przeniesie się do dowolnego sąsiedniego pusty plac. Zmienna stanu Xt reprezentuje położenie robota na dyskretnej siatce; dziedziną tej zmiennej jest zbiór pustych kwadratów, które oznaczymy liczbami całkowitymi {1,…,S}. Niech NEIGHBORS(i) będą zbiorem pustych kwadratów sąsiadujących z i oraz niech N(i) będzie wielkością tego zbioru. Następnie model przejścia dla akcji Ruch mówi, że robot z równym prawdopodobieństwem znajdzie się na dowolnym sąsiednim kwadracie:

Nie wiemy, gdzie zaczyna się robot, więc przyjmiemy równomierny rozkład na wszystkich kwadratach; czyli P(X0=i)=1/S. Dla konkretnego środowiska, które rozważamy,

S=42, a macierz przejścia T ma 42 42=1764 wpisy. Zmienna czujnika Et ma 16 możliwych wartości, z których każda jest czterobitową sekwencją informującą o obecności lub braku przeszkody w każdym z kierunków kompasu NESW. Na przykład 1010 oznacza, że czujniki północ i południe zgłaszają przeszkodę, a wschód i zachód nie. Załóżmy, że współczynnik błędu każdego czujnika jest równy i że błędy występują niezależnie dla czterech kierunków czujnika. W takim przypadku prawdopodobieństwo uzyskania prawidłowych wszystkich czterech bitów wynosi (1-ε)4, a prawdopodobieństwo ich wszystkich nieprawidłowych wynosi ε4. Co więcej, jeśli dit jest rozbieżnością – liczbą bitów, które są różne – między prawdziwymi wartościami kwadratu i a rzeczywistym odczytem et , to prawdopodobieństwo, że robot w kwadracie i otrzyma odczyt z czujnika et wynosi

Na przykład prawdopodobieństwo, że kwadrat z przeszkodami na północy i południu da odczyt czujnika 1110 wynosi (1- ε)3 ε1. Mając macierze T i Ot , robot może użyć równania do obliczenia rozkładu wstewcznego w lokalizacjach – to znaczy do ustalenia, gdzie się znajduje. Rysunek powyższt przedstawia rozkłady P(X1 | E1=1011) i P(X2 |E1=1011,E2=1010). Jest to ten sam labirynt, który widzieliśmy wcześniej, ale tam użyliśmy logicznego filtrowania, aby znaleźć możliwe lokalizacje, zakładając doskonałe wykrywanie. W tych samych lokalizacjach nadal najbardziej prawdopodobne jest wykrywanie szumów, ale teraz każda lokalizacja ma pewne niezerowe prawdopodobieństwo, ponieważ każda lokalizacja może generować dowolne wartości czujnika. Oprócz filtrowania w celu oszacowania swojej bieżącej lokalizacji robot może użyć wygładzania (równanie (14.13)), aby ustalić, gdzie był w danym czasie przeszłym – na przykład, gdzie zaczął się w czasie 0 – i może użyć algorytmu Viterbiego aby wypracować najbardziej prawdopodobną drogę, jaką obrał, by dotrzeć tam, gdzie jest teraz. Rysunek przedstawia błąd lokalizacji i błąd ścieżki Viterbiego dla różnych wartości wskaźnika błędu czujnika na bit.

Nawet jeśli wynosi 0:20 – co oznacza, że ​​ogólny odczyt czujnika jest nieprawidłowy w 59% przypadków – robot zwykle jest w stanie określić swoje położenie z dokładnością do dwóch kwadratów po 20 obserwacjach. Wynika to ze zdolności algorytmu do integrowania dowodów w czasie i uwzględniania probabilistycznych ograniczeń nałożonych na sekwencję lokalizacji przez model przejściowy. Gdy jest 0:10 lub mniej, robot potrzebuje tylko kilku obserwacji, aby ustalić, gdzie się znajduje i dokładnie śledzić swoją pozycję. Gdy wynosi 0:40, zarówno błąd lokalizacji, jak i błąd ścieżki Viterbiego pozostają duże; innymi słowy, robot jest zgubiony. Dzieje się tak, ponieważ czujnik o prawdopodobieństwie błędu 0:40 dostarcza zbyt mało informacji, aby przeciwdziałać utracie informacji o położeniu robota, która wynika z nieprzewidywalnego losowego ruchu. Zmienna stanu dla przykładu, który rozważaliśmy w tej sekcji, to fizyczna lokalizacja na świecie. Inne problemy mogą oczywiście obejmować inne aspekty świata. W przypadku środowiska na rysunku 14.7, które ma 42 puste kwadraty, prowadzi to do 168 stanów i macierzy przejścia z 1682=28,224 wpisami – nadal możliwa do opanowania liczba. Jeśli dodamy możliwość zabrudzenia w każdym z 42 kwadratów, liczba stanów jest pomnożona przez 242 i macierz przejścia ma więcej niż 1029 wpisów – już nie jest to możliwa do opanowania liczba. Ogólnie rzecz biorąc, jeśli stan składa się z n zmiennych dyskretnych, każda z co najwyżej d wartościami, odpowiadająca macierz przejścia HMM będzie miała rozmiar O(d2n), a czas obliczeń na aktualizację również będzie wynosił O(d2n). Z tych powodów, chociaż HMM mają wiele zastosowań w obszarach, od rozpoznawania mowy do biologii molekularnej są one zasadniczo ograniczone w swojej zdolności do reprezentowania złożonych procesów. W terminologii wprowadzonej w rozdziale 2 HMM są reprezentacją atomową: stany świata nie mają wewnętrznej struktury i są po prostu oznaczane liczbami całkowitymi.

100 Pytań o A.I. : Jak poprawić komunikację e-mailową za pomocą sztucznej inteligencji?

E-mail marketing był jedną z najskuteczniejszych technik marketingu cyfrowego w ostatnich latach. W miarę rozwoju technologii AI, coraz więcej firm będzie korzystało ze sztucznej inteligencji, aby ulepszać marketing e-mailowy. Aby sztuczna inteligencja działała, zwykle potrzebna jest duża ilość danych. Dlatego większość dużych e-mailowych narzędzi marketingu e-mailowego zostanie prawdopodobnie stworzonych dla dużych firm. Jednym z kluczowych obszarów, w którym sztuczna inteligencja może poprawić marketing e-mailowy, jest optymalizacja wyników. Na przykład oprogramowanie AI może analizować elementy wiadomości e-mail wysyłanej przez firmę do potencjalnych klientów w przeszłości. Następnie, w oparciu o tę analizę, może zalecić ulepszenia niektórych elementów tego e-maila, takich jak temat, wezwanie do działania i treść. Przyszłość skutecznego marketingu e-mailowego będzie prawdopodobnie polegać głównie na masowej personalizacji e-maili w oparciu o profile klientów. Będzie to wymagało dużej analizy danych, dla których AI jest idealna. Boom Train to firma, która wykorzystuje AI do analizy zachowań użytkowników witryny. Następnie zapewnia spersonalizowaną komunikację e-mail na podstawie tej analizy. Więcej informacji o firmie można znaleźć tutaj: www.boomtrain.com. Google integruje również sztuczną inteligencję ze wszystkimi swoimi produktami, w tym z usługą e-mail znaną jako Gmail. W tej chwili narzędzie inteligentnej odpowiedzi Google działa w aplikacjach mobilnych na iOS i Androida. Działa poprzez sprawdzenie otrzymanych wiadomości i dostarczenie trzech sugestii krótkich potencjalnych odpowiedzi, które możesz chcieć wysłać. Po wybraniu odpowiedniej wcześniej napisanej odpowiedzi możesz dodać dodatkowy tekst do wiadomości lub wysłać ją natychmiast, zgodnie z sugestią. To świetna funkcja pozwalająca zaoszczędzić czas prawdopodobnie zaczną być również używane w wielu innych aplikacjach. Kolejne pomocne narzędzie AI w twoim systemie e-mail jest znane jako Respondable. Ten zasób, zaprojektowany do współpracy z Google Gmail, oferuje sugestie dotyczące sposobów ulepszenia zawartości wiadomości e-mail, zapewniając takie wskaźniki, jak temat wiadomości e-mail, podstawowe formy grzecznościowe i długość wysyłanego tekstu. można znaleźć na stronie http://www.boomeranggmail.com/respondable/ Zacznij korzystać z Respondable i Smart Reply, aby zapoznać się z technologią, ponieważ bardziej zaawansowane narzędzia i funkcje będą prawdopodobnie wkrótce dostępne. Niezależnie od tego, czy wdrażasz pocztę e-mail opartą na sztucznej inteligencji asystentów, osobiście lub dla Twojej firmy, możesz ich użyć do szybszej i skuteczniejszej komunikacji.

Uproszczone algorytmy macierzy

Za pomocą pojedynczej, dyskretnej zmiennej stanu Xt możemy nadać konkretną formę reprezentacjom modelu przejścia, modelu czujnika oraz wiadomości w przód i w tył. Niech zmienna stanu Xt ma wartości oznaczone liczbami całkowitymi 1,…,S, gdzie S jest liczbą możliwych stanów. Model przejścia P(Xt | Xt1) staje się macierzą S x S T, gdzie

Tij = P(Xt = j | Xt1=i)

Oznacza to, że Tij jest prawdopodobieństwem przejścia ze stanu i do stanu j. Na przykład, jeśli ponumerujemy stany Deszcz=prawda i Deszcz=fałsz jako 1 i 2, to macierz przejścia dla świata parasolowego zdefiniowanego na rysunku

Model czujnika umieszczamy również w formie macierzowej. W tym przypadku, ponieważ wartość zmiennej dowodowej Et jest znana w czasie t (nazwijmy ją et ), musimy tylko określić, dla każdego stanu, jakie jest prawdopodobieństwo, że stan powoduje pojawienie się et: potrzebujemy P(et | Xt=i) dla każdego stanu i. Dla matematycznej wygody umieszczamy te wartości w diagonalnej macierzy obserwacji S x S, Ot , po jednej dla każdego kroku czasowego. i-ty wpis po przekątnej Ot  to P(et | Xt =i), a pozostałe wpisy to 0. Na przykład w pierwszym dniu w świecie parasolowym na rysunku U1=prawda, a w trzecim dniu U3=fałsz, więc mieć

Teraz, jeśli używamy wektorów kolumnowych do reprezentowania wiadomości w przód iw tył, wszystkie obliczenia stają się prostymi operacjami na macierzach i wektorach. Równanie do przodu staje się

a równanie wstecz staje się

Z tych równań widać, że złożoność czasowa algorytmu postępowo-wstecznego zastosowanego do sekwencji o długości t wynosi O(S2t), ponieważ każdy krok wymaga pomnożenia wektora S-elementowego przez macierz SxS. Wymagane miejsce to O(St), ponieważ przejście do przodu przechowuje t wektorów o rozmiarze S. Poza przedstawieniem eleganckiego opisu algorytmów filtrowania i wygładzania dla HMM, sformułowanie macierzy ujawnia możliwości udoskonalenia algorytmów. Pierwszy to prosta odmiana algorytmu przód-tył, który umożliwia wygładzanie w stałej przestrzeni, niezależnie od długości sekwencji. Pomysł polega na tym, że wygładzanie dla dowolnego określonego wycinka czasu k wymaga jednoczesnej obecności zarówno komunikatów przesyłanych do przodu, jak i do tyłu, f1:k i bk+1:t, zgodnie z równaniem . Algorytm naprzód-wstecz osiąga to poprzez przechowywanie wartości fs obliczonych dla przebiegu do przodu, tak aby były one dostępne podczas przebiegu wstecznego. Innym sposobem osiągnięcia tego jest jedno przejście, które propaguje zarówno f, jak i b w tym samym kierunku. Na przykład komunikat „forward” f może być propagowany wstecz, jeśli manipulujemy równaniem), aby działał w innym kierunku:

Zmodyfikowany algorytm wygładzania działa, najpierw uruchamiając standardowe przejście do przodu, aby obliczyć ft:t (zapominając wszystkie wyniki pośrednie), a następnie wykonując jednocześnie przebieg wsteczny dla obu b i f, używając ich do obliczenia wygładzonego oszacowania na każdym kroku. Ponieważ potrzebna jest tylko jedna kopia każdej wiadomości, wymagania dotyczące przechowywania są stałe (tj. niezależne od t, długości sekwencji). Istnieją dwa istotne ograniczenia tego algorytmu: wymaga, aby macierz przejścia była odwracalna oraz aby model czujnika nie zawierał zer – to znaczy, aby każda obserwacja była możliwa w każdym stanie. Drugim obszarem, w którym formuła matrycy wykazuje poprawę, jest wygładzanie online ze stałym opóźnieniem. Fakt, że wygładzanie może odbywać się w stałej przestrzeni, sugeruje, że powinien istnieć wydajny algorytm rekurencyjny do wygładzania online – czyli algorytm, którego złożoność czasowa jest niezależna od długości opóźnienia. Załóżmy, że opóźnienie wynosi d; to znaczy, wygładzamy w przedziale czasu t-d, gdzie aktualny czas to t. Z równania musimy obliczyć

αf1:td btd+1:t

dla plastra t-d. Następnie, gdy nadejdzie nowa obserwacja, musimy obliczyć

αf1:td+1 btd+2:t+1

dla wycinka t-d+1. Jak można to robić stopniowo? Po pierwsze, możemy obliczyć f1:td+1 z f1:t-􀀀d, używając standardowego procesu filtrowania, równania . Obliczanie wiadomości wstecznej przyrostowo jest trudniejsze, ponieważ nie ma prostej zależności między starą wiadomością wsteczną btd+1:t a nową wiadomością wsteczną btd+2:t+1. Zamiast tego zbadamy związek między starą wiadomością wsteczną btd+1:t a wiadomością wsteczną na początku sekwencji, bt+1:t . Aby to zrobić, zastosujemy równanie wstecz d razy, aby uzyskać

gdzie macierz Btd+1:t jest iloczynem ciągu macierzy T i O, a 1 jest wektorem 1s. B można traktować jako „operator transformacji”, który przekształca późniejszą wiadomość wsteczną we wcześniejszą. Podobne równanie obowiązuje dla nowych wiadomości wstecznych po nadejściu następnej obserwacji:

Badając wyrażenia iloczynowe w powyższych równaniach widzimy, że mają one prostą zależność: aby otrzymać drugi iloczyn, „podziel” pierwszy iloczyn przez pierwszy element TOtd+1 i pomnóż przez nowy ostatni element TOt+1. W języku macierzowym istnieje zatem prosta zależność między starą a nową macierzą B:

Btd+2:t+1 = O1td+1T1Btd+1:tTOt+1

To równanie zapewnia przyrostową aktualizację macierzy B, co z kolei  pozwala nam obliczyć nowy komunikat wsteczny bt-d+2:t+1. Kompletny algorytm, który wymaga przechowywania i aktualizacji f i B, pokazano poniżej

100 Pytań o A.I. : W jaki sposób sztuczna inteligencja zmienia sposób prowadzenia marketingu?

Rozwój sztucznej inteligencji radykalnie zmieni sposób, w jaki firmy sprzedają swoje usługi i produkty konsumentom. Według badania 3500 globalnych liderów marketingu przeprowadzonego przez Salesforce Research, 51 procent używa sztucznej inteligencji lub spodziewa się jej użyć w latach 2017-2019. Wyniki te zostały podkreślone w czwartym dorocznym raporcie Salesforce “State of Marketing”. Ta sama ankieta wykazała, że 64 procent liderów marketingu, którzy skorzystaj z raportu AI, który znacznie poprawił ich ogólny marketing i wydajność. Warto wspomnieć, że narzędzia AI, do których mają teraz dostęp, są niczym w porównaniu z narzędziami, które będą dostępne w najbliższej przyszłości. Dlatego widzę, że ten odsetek rośnie z czasem. Raport wymienia także trzy najtrudniejsze przeszkody, przed którymi stoją liderzy marketingu w stosowaniu strategii AI. Te przeszkody to: ograniczenia budżetowe, obawy dotyczące prywatności oraz potrzeba przechowywania danych w oddzielnych systemach. Sztuczna inteligencja zaczyna również odgrywać ważniejszą rolę w reklamie płatnej. Zarówno Google, jak i Facebook zastosowały już wiele funkcji AI na swoich płatnych platformach reklamowych. Według badań przeprowadzonych przez Juniper Research, “prawie 75 procent wszystkich dostarczonych reklam cyfrowych będzie wykorzystywać sztuczną inteligencję jako sposób targetowania użytkownika w 2022 r.” Zasadniczo oznacza to, że przyszłość płatnych reklam będzie silnie uzależniona od AI. Oto tylko kilka sposobów, w jakie sztuczna inteligencja na zawsze zmieni krajobraz marketingu:

•  Chatboty: Małe i średnie firmy zaczną budować swoje lejki marketingowe (lub lejki zakupowe, które pokazują podróż klienta w kierunku zakupu produktu lub usługi) wokół informacji pochodzących z inteligentnych chatbotów. Te chatboty będą mogły przekazywać klientom informacje o produktach, co umożliwi im personalizację zakupionych produktów i usług. Wkrótce informacje zebrane z tego procesu pomogą firmom w tworzeniu skutecznych i spersonalizowanych ścieżek marketingowych i procesów sprzedaży.

•  SEO (Search Engine Optimization): Technologie wyszukiwania głosowego szybko się rozwijają. Ponieważ narzędzia te stają się coraz lepsze w przetwarzaniu języka w bardziej naturalny sposób, coraz więcej użytkowników zwróci się do wyszukiwania głosowego w stosunku do tradycyjnych zapytań. Spowoduje to zmianę sposobu używania słów kluczowych, ponieważ ludzie wyrażają się inaczej podczas komunikacji ustnej, a nie w formie pisemnej.

•  Wyszukiwania predykcyjne: Jednym z celów wyszukiwarki Google jest przewidzenie, jakie wyszukiwania możesz przeprowadzić, z góry sugerując wyniki. Dzięki uczeniu maszynowemu narzędzie Google Assistant, rodzaj bota, może obserwować wyszukiwane hasła i sugerować potencjalne wyszukiwania w przyszłości na podstawie wyników.

•  Inteligentne narzędzia AI: każde duże narzędzie dla sprzedawców internetowych stosuje dziś jakiś element AI. Osobiście korzystam z Quill Engage (www.quillengage.com), pochodzącego z Google Analytics, który wysyła mi spersonalizowane raporty dotyczące wydajności mojej witryny, wyjaśniając wyniki w prosty sposób i sugerując ulepszenia. Tego rodzaju narzędzia mogą pomóc przedsiębiorcom zaoszczędzić czas i pieniądze.

To tylko kilka sposobów, w jakie technologie AI zmienią sposób, w jaki prowadzimy marketing, ale jest wiele innych. Według moich najlepszych szacunków wszystkie aspekty marketingu będą wymagały pewnej formy sztucznej inteligencji w ciągu najbliższych kilku lat, więc pierwsi, którzy zastosują te narzędzia i będą z nich dobrze korzystać, pójdą naprzód.

Ukryte modele Markowa

W poprzedniej sekcji opracowano algorytmy czasowego wnioskowania probabilistycznego przy użyciu ogólnych ram, które były niezależne od konkretnej postaci modeli przejścia i czujników oraz niezależnie od charakteru zmiennych stanu i dowodów. W tej i następnych dwóch sekcjach omawiamy bardziej konkretne modele i aplikacje, które ilustrują moc podstawowych algorytmów, aw niektórych przypadkach pozwalają na dalsze ulepszenia. Zaczynamy od ukrytego modelu Markowa, czyli HMM. HMM to czasowy model probabilistyczny, w którym stan procesu jest opisywany przez pojedynczą, dyskretną zmienną losową. Możliwe wartości zmiennej to możliwe stany świata. Parasolowy przykład opisany w poprzedniej sekcji jest zatem HMM, ponieważ ma tylko jedną zmienną stanu: Raint . Co się stanie, jeśli masz model z co najmniej dwiema zmiennymi stanu? Nadal możesz dopasować go do frameworka HMM, łącząc zmienne w jedną „megazmienną”, której wartości są wszystkimi możliwymi krotkami wartości poszczególnych zmiennych stanu. Zobaczymy, że ograniczona struktura HMM pozwala na prostą i elegancką implementację macierzową wszystkich podstawowych algorytmów. Chociaż HMM wymagają, aby stan był pojedynczą, dyskretną zmienną, nie ma odpowiedniego ograniczenia w odniesieniu do zmiennych dowodowych. Dzieje się tak, ponieważ zmienne dowodowe są zawsze obserwowane, co oznacza, że ​​nie ma potrzeby śledzenia jakiegokolwiek rozkładu względem ich wartości. (Jeśli zmienna nie jest obserwowana, można ją po prostu usunąć z modelu dla tego kroku czasowego). Może istnieć wiele zmiennych dowodowych, zarówno dyskretnych, jak i ciągłych.

100 Pytań o A.I. : W jaki sposób sztuczna inteligencja zmienia sprzedaż?

Dzięki licznym sposobom, w jakie konsumenci oglądają reklamy na co dzień, zarówno w trybie online, jak i offline, coraz skuteczniej dociera się do marki, aby skutecznie dotrzeć do klientów niż w ciągu ostatnich kilku lat. W ostatnich latach marketerzy oraz małe i średnie firmy zaczęły projektować osobowości nabywcze klientów jako sposób na określenie, jak wygląda ich idealny nabywca. Zazwyczaj są one opracowywane na podstawie mieszanki danych zebranych od poprzednich klientów oraz spostrzeżeń oferowanych przez Facebook i Google Analytics. Tradycyjnie jednak podejście to obejmowało również duży stopień domysłów. Dzisiaj niektóre firmy zaczęły testować wykorzystanie narzędzi sprzedażowych AIpowered i były świadkami oszałamiających wyników. Na przykład Harley Davidson zwiększył liczbę potencjalnych sprzedaży o niewiarygodne 2930 procent w nowojorskim sklepie przy użyciu jednego takiego narzędzie. Narzędzie używane przez Harleya Davidsona, interfejs AI o nazwie Albert, analizuje dane dotyczące istniejących klientów za pomocą narzędzia CRM (zarządzanie relacjami z klientami), które określa, jak wyglądali klienci o wysokiej wartości w poprzednich transakcjach, a następnie porównuje te informacje z innymi punkty danych, takie jak analizy dotyczące odwiedzających witrynę. Harvard Business Review przeanalizował różnicę między tradycyjnym stworzeniem osoby kupującej a użyciem narzędzi AI w sprzedaży i powiedział:

“Marketerzy tradycyjnie używali osobowości kupujących – szerokich profili klientów opartych na zachowaniu – jako przewodników w poszukiwaniu nowych. Te osobowości są tworzone częściowo z danych historycznych, a częściowo z domysłów, intuicji i doświadczeń marketerów. Firmy, które projektują swoje kampanie marketingowe wokół person, używają podobnie tępych narzędzi (takich jak sprzedaż brutto) – i więcej zgadywania – w celu oceny, co zadziałało, a co nie. Systemy AI nie muszą tworzyć osobowości; znajdują prawdziwych klientów na wolności, określając, jakie rzeczywiste zachowania online mają największe prawdopodobieństwo konwersji, a następnie znajdują potencjalnych nabywców online, którzy przejawiają takie zachowania “.

Przykład Harleya Davidsona wraz z innymi firmami używającymi podobnych zasobów, pokazuje, jak sprzedaż zostanie zrealizowana w przyszłości, przy użyciu narzędzi AI, które oferują zadziwiające wyniki. Alberta można znaleźć na https://albert.ai i reprezentuje tylko jedną z wielu firm, które opracowują nowe rodzaje technik opartych na sztucznej inteligencji w celu usprawnienia procesu sprzedaży. Hubspot, firma zajmująca się marketingiem przychodzącym, oferuje inne narzędzie, które może pomóc firmom w spersonalizowaniu ich reklam oraz w tworzeniu predykcyjnej oceny wyników. Kolejny znaczący rozwój w świecie sprzedaży można zaobserwować w partnerstwie między Salesforce, liderem rozwiązań CRM dla rynku B2B, a Watson, jednym z najpotężniejszych narzędzi AI na rynku, stworzonym przez IBM. Wykorzystując połączenie tradycyjnych i zasoby oparte na sztucznej inteligencji prawdopodobnie stworzą potężny i skuteczny proces sprzedaży.

Znalezienie najbardziej prawdopodobnej sekwencji

Załóżmy, że [prawda; PRAWDA; fałszywy; PRAWDA; prawda] to obserwowana sekwencja parasolowa dla pierwszych pięciu dni pracy ochroniarza. Jaka sekwencja pogody najprawdopodobniej to wyjaśni? Czy brak parasola w 3 dniu oznacza, że ​​nie padało, czy też reżyser zapomniał go przynieść? Jeśli nie padało w dniu 3, to może (bo pogoda nie ustępuje), to nie padało też w dniu 4, ale reżyser przyniósł parasol na wszelki wypadek. W sumie istnieje 25 możliwych sekwencji pogodowych, które moglibyśmy wybrać. Czy istnieje sposób na znalezienie najbardziej prawdopodobnego, bez wyliczenia ich wszystkich i obliczenia ich prawdopodobieństw? Moglibyśmy wypróbować tę procedurę w czasie liniowym: użyj wygładzania, aby znaleźć rozkład a posteriori pogody dla każdego kroku czasowego; następnie skonstruuj sekwencję, używając na każdym kroku pogody, która najprawdopodobniej jest zgodna z tylną częścią. Takie podejście powinno wywołać dzwonki alarmowe w głowie czytelnika, ponieważ rozkłady a posteriori obliczone przez wygładzanie są rozkładami w pojedynczych krokach czasowych, natomiast aby znaleźć najbardziej prawdopodobną sekwencję, musimy wziąć pod uwagę wspólne prawdopodobieństwa we wszystkich krokach czasowych. W rzeczywistości wyniki mogą być zupełnie inne. Istnieje algorytm czasu liniowego do znajdowania najbardziej prawdopodobnej sekwencji, ale wymaga on więcej przemyślenia. Opiera się na tej samej właściwości Markowa, która dała wydajne algorytmy filtrowania i wygładzania. Chodzi o to, aby zobaczyć każdą sekwencję jako ścieżkę przez wykres, którego węzły są możliwymi stanami w każdym kroku czasowym. Taki wykres pokazano dla świata parasolowego na rysunku (a).

Rozważmy teraz zadanie znalezienia najbardziej prawdopodobnej ścieżki na tym wykresie, gdzie prawdopodobieństwo dowolnej ścieżki jest iloczynem prawdopodobieństw przejścia wzdłuż ścieżki i prawdopodobieństw danych obserwacji w każdym stanie. Skupmy się w szczególności na ścieżkach, które dochodzą do stanu Rain5=prawda. Z powodu własności Markowa wynika, że ​​najbardziej prawdopodobna ścieżka do stanu Rain5=prawda składa się z najbardziej prawdopodobnej ścieżki do pewnego stanu w czasie 4, po której następuje przejście do Rain5=prawda; a stan w czasie 4, który stanie się częścią ścieżki do Rain5=prawda, jest tym, który maksymalizuje prawdopodobieństwo tej ścieżki. Innymi słowy, istnieje rekurencyjna relacja między najbardziej prawdopodobnymi ścieżkami do każdego stanu xt+1 a najbardziej prawdopodobnymi ścieżkami do każdego stanu xt . Możemy użyć tej właściwości bezpośrednio do skonstruowania algorytmu rekurencyjnego do obliczania najbardziej prawdopodobnej ścieżki, biorąc pod uwagę dowody. W algorytmie filtrowania użyjemy wiadomości obliczonej rekurencyjnie m1:t , podobnie jak wiadomość przekazująca f1:t . Wiadomość jest zdefiniowana w następujący sposób

Aby uzyskać rekurencyjną relację między m1:t+1 i m1:t , możemy powtórzyć mniej więcej te same kroki, które użyliśmy dla równania

gdzie końcowy wyraz maxx1:t1 P(x1:t1 , xt, e1:t) jest dokładnie wpisem dla konkretnego stanu xt w wektorze komunikatów m1:t . Równanie  jest zasadniczo identyczne z równaniem filtrowania z wyjątkiem tego, że sumowanie po xt w równaniu jest zastąpione przez maksymalizację po xt w równaniu ,nie ma stałej normalizacji. Zatem algorytm obliczania najbardziej prawdopodobnej sekwencji jest podobny do filtrowania: rozpoczyna się w czasie 0 z wcześniejszym m1:0=P(X0), a następnie biegnie dalej wzdłuż sekwencji, obliczając wiadomość m w każdym kroku czasowym za pomocą równania.Postęp tego obliczenia pokazano na rysunku (b). Na końcu sekwencji obserwacji, m1:t zachowa prawdopodobieństwo, że najbardziej prawdopodobna sekwencja osiągnie każdy ze stanów końcowych. W ten sposób można łatwo wybrać ostateczny stan najbardziej prawdopodobnej sekwencji (stan zaznaczony pogrubioną czcionką w kroku 5). W celu zidentyfikowania rzeczywistej sekwencji, w przeciwieństwie do obliczania jej prawdopodobieństwa, algorytm będzie musiał również zarejestrować, dla każdego stanu, najlepszy stan, który do niej prowadzi; są one oznaczone pogrubionymi strzałkami na rysunku (b). Optymalna sekwencja jest identyfikowana przez podążanie tymi pogrubionymi strzałkami wstecz od najlepszego stanu końcowego. Algorytm, który właśnie opisaliśmy, nazywa się algorytmem Viterbiego, od nazwiska jego wynalazcy, algorytmu Viterbiego Andrew Viterbiego. Podobnie jak algorytm filtrowania, jego złożoność czasowa jest liniowa w t, długości ciągu. W przeciwieństwie do filtrowania, które wykorzystuje stałą przestrzeń, jego zapotrzebowanie na przestrzeń jest również liniowe w t. Dzieje się tak, ponieważ algorytm Viterbiego musi przechowywać wskaźniki, które identyfikują najlepszą sekwencję prowadzącą do każdego stanu. Ostatnia praktyczna uwaga: niedomiar liczbowy jest istotną kwestią dla algorytmu Viterbiego. Na rysunku (b) prawdopodobieństwa stają się coraz mniejsze – a to tylko przykład zabawki. Prawdziwe zastosowania w analizie DNA lub dekodowaniu wiadomości mogą mieć tysiące lub miliony kroków. Jednym z możliwych rozwiązań jest po prostu normalizacja m na każdym kroku; to przeskalowanie nie wpływa na poprawność, ponieważ max(cx;cy)=c max(x;y). Drugim rozwiązaniem jest użycie prawdopodobieństw logów wszędzie i zastąpienie mnożenia przez dodawanie. Ponownie, poprawność pozostaje nienaruszona, ponieważ funkcja log jest monotoniczna, więc max(log x; log y)= logmax(x;y).