Mail:





Słowniczek Sztucznej Inteligencji





Sztuczna Inteligencja : Gry


•  Wprowadzenie

•  Gry AI

•  Ruch

•  Znalezienie drogi

•  Podejmowanie decyzji

•  Taktyczna i strategiczna AI

•  Uczenie się

•  Proceduralne generowanie treści

•  Gry planszowe

•  Zarządzanie wykonaniem

•  Interfejs ze światem

•  Narzędzia i tworzenie treści

•  Programowanie gry AI

•  Projektowanie gry AI

•  Gatunki gier opartych na sztucznej inteligencji



A.I. dla Nie-Techników



•  Część 1 - Podstawy sztucznej inteligencji
•  Część 2 - Dane
•  Część 3 - Uczenie maszynowe
•  Część 4 - Głębokie uczenie
•  Część 5 - Robotic Process Automation
•  Część 6 - Przetwarzanie języka naturalnego (NLP)
•  Część 7 - Roboty fizyczne
•  Część 8 - Wdrażanie sztucznej inteligencji
•  Część 9 - Przyszłość sztucznej inteligencji





Sztuczna Inteligencja i Robotyka

• Co to są inteligentne roboty?

• Krótka historia robotyki

• Automatyzacja i autonomia

• Autonomia organizacji oprogramowania

• Telesystemy

• Zachowania

• Postrzeganie i zachowania

• Koordynacja behawioralna

• Lokomocja

• Czujniki i wykrywanie

• Wykrywanie zasięgu

• Warstwa deliberatywna

• Nawigacja

• Planowanie ścieżek metrycznych i planowanie ruchu

• Lokalizacja, mapowanie i eksploracja

• Uczenie się

• Funkcjonalność interaktywna

• Interakcja Człowiek-Robot

• Projektowanie i ocena systemów autonomicznych

• Etyka




Sztuczna inteligencja: podstawy i zastosowania

Część 1: Sztuczna inteligencja i nanotechnologia: superkonwergencja

Część 2: Sztuczna inteligencja w handlu elektronicznym: analiza procesów biznesowych

Część 3: ABC ery cyfrowej ze szczególnym odniesieniem do sektora bankowego

Część 4: Sztuczna inteligencja w predykcyjnej analizie ubezpieczeń i bankowości

Część 5: Sztuczna inteligencja w robotyce i automatyzacji.

Część 6: Sztuczna inteligencja: nowe podejście w opiece zdrowotnej

Część 7: Sztuczna inteligencja i spersonalizowane leki: Wspólna narracja o postępach w opiece medycznej

Część 8: Nanotechnologia i sztuczna inteligencja w medycynie precyzyjnej w onkologii

Część 9: Zastosowania sztucznej inteligencji w recepturach farmaceutycznych i leków

Część 10: Rola sztucznej inteligencji w diagnozowaniu gruźlicy

Część 11: Zastosowania sztucznej inteligencji w wykrywaniu i leczeniu COVID-19

Część 12: Sztuczna inteligencja oparta na Internecie rzeczy przy użyciu platformy Microsoft Azure

Część 13: Równoważenie obciążenia w bezprzewodowej sieci heterogenicznej za pomocą sztucznej inteligencji

Część 14: Zastosowania technik sztucznej inteligencji w systemach elektroenergetycznych

Część 15: Wpływ sztucznej inteligencji w sektorze lotniczym i kosmicznym

Część 16: Sztuczna inteligencja do prognozowania pogody

Część 17: Górnictwo molekularne: zastosowania w naukach farmaceutycznych




A.I. … i wszystko jasne




Wprowadzenie do Języka R




Język R … od słów do czynów !!!



 + Kody Źródłowe




A.I.: Jaka jest nasza Przyszłość?

[101 Prostych Pytań]




VIDEO



  Hipoteza Riemanna

 Pogadać z Maszyną 1

 Pogadać z Maszyną 2

 Pogadać z Maszyną 3

 Pogadać z Maszyną 4

 Wywiad z maszyną !

 Co słyszy Sztuczna Inteligencja?

 Komputer Kwantowy

 Świadomość Maszyn

 Sztuczna Inteligencja - Szansa czy Zagrożenie?

 This is AI 1

 This is AI 2 : How machines learn

 This is AI 3 : Learnig for life

 This is AI 4: A synthetic sixth sense




Bogowie Sztucznej Inteligencji






SŁOWNIK TERMINÓW ROBOTYCZNYCH




Anatomia Robota

  • Systemy Sterowania
  • Sprzęt Komputerowy
  • Niezawodność, Bezpieczeństwo i Zgodność
  • Kroki Projektowe: HLD
  • Energia i systemy zasilania
  • Kontrola Energii
  • DSP
  • Komunikacja
  • Silniki i Siłowniki
  • Mechanika



  • Artificial Intelligence




    Jak A.I. zmienia nasz świat




    Mity Sztucznej Inteligencji




    Króka Historia A.I.




    Fundamenty


    • Prolog

    • Wprowadzenie do A.I.

    • Definiowanie roli danych

    • Biorąc pod uwagę alogorytmy

    • Pionierski ,specjalistyczny sprzęt

    • Zastosowanie AI w aplikacjach komputerowych

    • Automatyzacja typowych procesów

    • Zastosowanie AI w medycynie

    • A.I. a poprawa interakcji

    • Analiza danych przez A.I.

    • Wykorzystanie machine learning

    • Poprawa A.I. (…)

    • Rozwój robotów

    • Latanie dronami

    • Samochód napędzany A.I.

    • Zroumieć aplikacje bez szans

    • AI w Kosmosie

    • Nowe zawody w erze A.I.

    •  X zawodów dla A.I.(?)

    • Wkład A.I. w społeczeństwo

    • Jak zawiodła A.I.




    "Ocieplamy" Fundamenty


    • Intuicyjna koncepcja sztucznej inteligencji

    • Podstawy wyszukiwania

    • Inteligentne wyszukiwanie

    • Algorytmy Ewolucyjne

    • Zaawansowane podejście ewolucyjne

    • Inteligencja Roju: Mrówki

    • Inteligencja roju: Cząstki

    • Uczenie maszynowe

    • Sztuczne sieci neuronowe

    •  Uczenie się ze wzmocnieniem za pomocą Q-Learning




    XVI Filarów Świątyni ArtInt′a


    • Korzenie i Zakres

    • Reprezentacja i wyszukiwanie

    • Struktury i strategie wyszukiwania

    • Wyszukiwanie Heurystyczne

    • Metody Stochastyczne

    • Budowanie algorytmów sterowania

    • Reprezentacja Wiedzy

    • Silna metoda rozwiązywanie problemów

    • Rozumowanie w niepewnych sytuacjach

    •  Uczenie maszynowe : oparte na symbolach

    • Uczenie maszynowe : koneksjonizm

    • Uczenie maszynowe : genetyczne i awaryjne

    • Uczenie maszynowe : probabilistyczne

    • Automatyczne wnioskowanie

    • Rozumienie języka naturalnego

    • Sztuczna Inteligencja jako pytanie empiryczne




    Sztuczna Inteligencja i Big Data

    Sekcja 1 : Big Data i systemy sztucznej inteligencji

    Sekcja 2 : Ontologia dla dużych zbiorów danych

    Sekcja 3: Uczenie się z dużych zbiorów danych

    Sekcja 4:Sieci neuronowe dla dużych zbiorów danych

    Sekcja 5: Deep Big Data Analytics

    Sekcja 6: Przetwarzanie języka naturalnego

    Sekcja 7: Systemy rozmyte

    Sekcja 8: Programowanie genetyczne

    Sekcja 9: Analiza roju

    Sekcja 10: Uczenie się przez wzmocnienie

    Sekcja 11: Cyberbezpieczeństwo

    Sekcja 12: Obliczenia poznawcze












    Wczoraj , Dziś … Jutro














    Odwiedzin: 18642
    Dzisiaj: 13
    On-line: 1
    Strona istnieje: 1046 dni
    Ładowanie: 0.299 sek


    [ 4767 ]



    Sztuczna Inteligencja z Językiem NetLogo



    LINK



    "Czy wiesz, jak było?": Historia AI

    Ile i jaki rodzaj sztucznej inteligencji może znieść człowiek?

    Nauka, którą uprawia się dzisiaj, jest magicznym lustrem, w które musimy zajrzeć, jeśli chcemy ujrzeć przebłysk tego, co ma nadejść.       (Y. Gasset)


    Jak działa sztuczna inteligencja?: Techniki sztucznej inteligencji

    Technologia może nie oszczędza nam czasu, ale inaczej go rozdziela. - Helmar Nahr

    Świat w trybie "włączony"/"wyłączony": logika formalna

    Sztuczna inteligencja jest technicznie ograniczona do chwytania i "przetwarzania" rzeczywistego świata tylko w dwóch stanach, a mianowicie "włączony" lub "wyłączony" lub binarny z "0" lub "1". Niektórzy naukowcy wątpią, czy jest to w ogóle możliwe. Na przykład publicysta Morozow pyta krytycznie: "Ale czy prawda jest funkcją binarną? Może tak być - jeśli ktoś arogancko zakłada, że jego wartości i interesy są jedynymi "słusznymi" wartościami i interesami. Myślenie technokratyczne traktuje pluralizm jako wroga, a nie sojusznika - lub mówiąc językiem geeków: błąd, a nie cechę". Ralf Otte ma osobistą odpowiedź na to pytanie: nie, natura nie jest "zmechanizowana". Odwołuje się przy tym do fundamentalnej krytyki fizyka Penrose′a, który uważa, że sztuczna inteligencja nie jest warta swojej nazwy, ponieważ w przeciwieństwie do ludzkiej inteligencji jest tylko algorytmiczna. W rzeczywistości algorytmy nadal są dziś narzędziem formalizacji adekwatnej do komputera, jak zostanie to pokazane w następnej sekcji. Jednak bardzo wczesne próby rozwijania języków formalnych lub symbolicznych. W "Organonie", zestawieniu swoich najważniejszych pism z zakresu filozofii języka, logiki i filozofii nauki, Arystoteles pokazuje już język formalny dla logiki zdań z IV wieku p.n.e., który jest używany do dziś. W swoim dziele "Ars magna" majorkański filozof Ramon Llull (łac. Raimundus Lullus), próbuje sformalizować prawdy z różnych dziedzin wiedzy za pomocą kombinacji liter i symboli już pod koniec XIV wieku. "Lingua universalis" Leibnitza jest już także językiem symbolicznym, który przypisuje pewne znaki rzeczom i ustala między tymi znakami określone relacje. Od lat 60-tych kognitywistyka stara się realizować zdolności poznawcze w maszynach w oparciu o założenie, że mózg jest systemem przetwarzającym informacje i działa w zasadzie jak komputer - bez wątpienia ogromne wyzwanie. Jeśli weźmiemy pod uwagę, że liczba dziesiętna 10 w systemie binarnym jest reprezentowana jako "1010", ale już liczba dziesiętna 100 w systemie binarnym jest reprezentowana jako "1100,100", a romantyczne zdanie "Kocham cię" trzeźwo przekształca się w "01001001 01100011 01101000 00100000 01101100 01101001 01100101 01100010 01100101 00100000 01100100 01101001 01100011 01101000" według kodu ASCII można sobie wyobrazić nieskończone ciągi liczb, które skutkują nawet operacjonalizacją błahych problemów. Z drugiej jednak strony układ Xavier firmy Nvidia wykonał już 30-35 bilionów operacji arytmetycznych na sekundę. Sunway TaihuLight w Wuxi już w 2019 r. wykonuje 125 petaflopów (125 000 000 000 000 obliczeń na sekundę). z pewnością będzie jeszcze kilka flopów (operacji zmiennoprzecinkowych na sekundę). Sformalizowanie lub zdigitalizowanie naszego wieloaspektowego wszechświata w sposób przyjazny dla komputera wymaga wyrafinowanej logiki i złożonych technik, które można opisać tylko w takim stopniu, w jakim osoby zajmujące się sztuczną inteligencją mogą przynajmniej odgadnąć wyzwania stojące przed "twórcami sztucznej inteligencji". Zacznijmy od podstaw wszelkiej cyfryzacji: algorytmów.


    Algorytmy

    Termin "algorytm" prawdopodobnie nie pochodzi od greckiego "álgiros" (bolesny), ale prawdopodobnie pochodzi od arabskiego uczonego Abu Dscha′far Muhammada ibn Musa al-Chwārizmī (zlatynizowanego algorytmu), który w IX wieku napisał podręcznik do matematyki . Definicja tego egzotycznego terminu jest rozczarowująco prosta: "Algorytmy to - mówiąc obrazowo - reguły przetwarzania zorientowane na rozwiązanie, które mają na celu rozwiązanie określonego zadania lub problemu". Lub, jak Volland ujął to w przyjemny sposób: "Algorytm to przede wszystkim nic technicznego. Jest to termin używany do opisania wszelkich jednoznacznych instrukcji rozwiązywania problemów - nawet przepisy kulinarne czy zasady ruchu drogowego to proste algorytmy". Oczywiście "proste algorytmy" nie rozwiązują większości problemów, z którymi boryka się sztuczna inteligencja. Ale fakt pozostaje faktem: bez względu na to, jak złożone jest zadanie, algorytm(y) użyty(e) tworzą tylko ciągi binarne 0 i 1 podczas implementacji. Dotyczy to również tak zwanych "algorytmów genetycznych", które krok po kroku podchodzą do optymalnego rozwiązania problemu zgodnie z zasadą ewolucji w procesie symulacji. Mike Müller i Dennis Freese piszą: "Algorytmy genetyczne to heurystyczne metody optymalizacji. Oznacza to, że zwykle potrzeba zbyt wiele wysiłku, aby uzyskać optymalne rozwiązania, a zatem przyjmuje się założenia (heurystyki), aby pomóc w znalezieniu rozwiązania. Zwykle optymalizowane są tylko parametry równania, wzoru lub innej danej formy podejścia do rozwiązania strukturalnego. Dlatego są stosowane tam, gdzie problem nie jest dobrze zrozumiany lub ich rozwiązanie nie jest możliwe do rozwiązania ze względów obliczeniowych i matematycznych." Dotyczy to szczególnie głębokiego uczenia się. Jeśli to wszystko brzmi dla ciebie zbyt teoretycznie, pozwolę sobie zacytować publicystę Gernota Brauera: "Czym więc tak naprawdę są algorytmy? Jak powiedziałem, są to programy rozwiązujące zadania matematyczne. Można je jednak powiązać - jak to często się robi - z siłownikami, czyli urządzeniami, które przekazują cyfrowe decyzje do świata fizycznego i wyzwalają działanie w zależności od sygnałów algorytmu, np. w motoryzacji podczas kierowania, przyspieszania lub hamowania samochodów bez udziału człowieka kierowcy w zależności od tego, co czujniki obliczają na temat swojego otoczenia." Lub mówiąc bardziej zwięźle, algorytm jest instrukcją działania, która ma przynieść użyteczne wyniki dane poprzez przetwarzanie danych wejściowych. Donald Ervin "Don" Knuth, czołowy znawca algorytmów, rozróżnia algorytmy "podstawowe", "półnumeryczne", "kombinatoryczne" i "syntaktyczne". Podstawowe algorytmy to podstawowe problemy programistyczne, takie jak algorytmy zachłanne, które wykorzystują heurystykę do generowania szybkich, nie zawsze optymalnych rozwiązań, lub algorytmy grafowe, które rozwiązują "twierdzenie o kolejce" lub "problem podróżującego sprzedawcy". Algorytmy półnumeryczne są mieszanką metod numerycznych i analitycznych lub algebraicznych, stosowanych np. w systemach algebry komputerowej (np. do graficznego zilustrowania funkcji i danych w dwóch lub trzech wymiarach). Algorytmy kombinatoryczne to złożone formuły reprezentujące struktury trójwymiarowe, a algorytmy składniowe są używane w programowaniu neurolingwistycznym lub rozpoznawaniu mowy. W celu klasyfikacji ontologii algorytmów Katharina Zweig wprowadza aspekt etyczny i grupuje wszystkie algorytmiczne systemy podejmowania decyzji pod pojęciem "algoskop" "podejmujące decyzje o ludziach, zasobach, które mają wpływ na ludzi, oraz te decyzje, które zmieniają możliwości partycypacji społecznej ludzi ". Zakończmy wizją Pedro Domingosa o uczącym się "głównym algorytmie", którego wynalezienie umożliwiłoby ludzkości usiąść i zrelaksować się, ponieważ tak wyposażona maszyna ucząca przejmowałaby wszystkie zadania niezależnie. wymagają potężnej sztucznej inteligencji, której jeszcze nie widać.





    Uważaj na lukę
    O co toczy się gra
    Głębokie uczenie i nie tylko

    Skoro komputery są tak inteligentne, dlaczego nie potrafią czytać?

    SAMANTHA: Więc jak mogę ci pomóc?
    THEODORE: Och, po prostu wszystko wydaje się niezorganizowane, to wszystko.
    SAMANTHA: Nie masz nic przeciwko, jeśli przejrzę twój twardy dysk?
    THEODORE: Um… okej.
    SAMANTHA: OK, zacznijmy od twoich e-maili. Masz kilka tysięcy maili dotyczących LA Weekly, ale wygląda na to, że nie pracowałeś tam od wielu lat.
    THEODORE: O tak. Myślę, że po prostu ratowałem te sprawy, pomyślałem, że może napisałem coś zabawnego w niektórych z nich. Ale…
    SAMANTHA: Tak, jest kilka zabawnych. Powiedziałbym, że powinniśmy zapisać około osiemdziesięciu sześciu, resztę możemy skasować.
    -HER (2013), SCENARIUSZ I REŻYSERIA SPIKE JONZE

    Czy nie byłoby miło, gdyby maszyny mogły nas zrozumieć tak samo, jak Samantha ("system operacyjny" z głosem Scarlett Johansson w filmie science fiction Her) rozumie Teodora? A gdyby mogli w mgnieniu oka przejrzeć nasze e-maile, wybrać to, czego potrzebujemy, a resztę odfiltrować? Gdybyśmy mogli dać komputerom jeden prezent, którego jeszcze nie mają, byłby to dar zrozumienia języka, nie tylko po to, by pomóc w organizacji naszego życia, ale także po to, by pomóc ludzkości w niektórych z naszych największych wyzwań, takich jak destylacja obszernej literatury naukowa, za którą poszczególni ludzie nie są w stanie nadążyć. W medycynie ukazuje się codziennie siedem tysięcy artykułów. Żaden lekarz ani badacz nie jest w stanie przeczytać ich wszystkich, a to jest poważną przeszkodą w postępie. Odkrywanie leków zostaje częściowo opóźnione, ponieważ wiele informacji jest zamkniętych w literaturze, której nikt nie ma czasu na przeczytanie. Czasami nowe terapie nie są stosowane, ponieważ lekarze nie mają czasu na ich czytanie i odkrywanie. Programy AI, które mogłyby automatycznie syntetyzować ogromną literaturę medyczną, byłyby prawdziwą rewolucją. Komputery, które mogłyby czytać równie dobrze jak doktoranci, ale z surową mocą obliczeniową Google, również zrewolucjonizowałyby naukę. Spodziewalibyśmy się postępów w każdej dziedzinie, od matematyki przez nauki o klimacie po nauki o materiałach. I nie tylko nauka uległaby przemianie. Historycy i biografowie mogli błyskawicznie dowiedzieć się wszystkiego, co zostało napisane o nieznanej osobie, miejscu lub wydarzeniu. Pisarze mogli automatycznie sprawdzać niespójności fabuły, luki logiczne i anachronizmy. Nawet znacznie prostsze umiejętności mogą być niezwykle pomocne. Obecnie iPhone ma taką funkcję, że gdy otrzymasz wiadomość e-mail, która umawia spotkanie, możesz ją kliknąć, a iPhone doda ją do Twojego kalendarza. To naprawdę przydatne - kiedy działa prawidłowo. Często tak się nie dzieje; iPhone dodaje spotkanie, nie w dniu, który masz na myśli, ale być może w innym dniu wymienionym w e-mailu. Jeśli nie złapiesz błędu, gdy zrobi go iPhone, może to być katastrofa. Pewnego dnia, kiedy maszyny naprawdę potrafią czytać, nasi potomkowie będą się zastanawiać, jak sobie radziliśmy bez syntetycznych czytników, tak jak będziemy się zastanawiać, jak wcześniejsze pokolenia radziły sobie bez elektryczności.


    Na TED na początku 2018 roku znany futurysta i wynalazca Ray Kurzweil, obecnie pracujący w Google, ogłosił swój najnowszy projekt, Google Talk to Books, który obiecał wykorzystać rozumienie języka naturalnego, aby "zapewnić zupełnie nowy sposób odkrywania książek". Quartz posłusznie reklamował to jako "zdumiewające nowe narzędzie wyszukiwania Google, które odpowie na każde pytanie, czytając tysiące książek". Jak zwykle, pierwsze pytanie, które należy zadać, to "Co właściwie robi program?" Odpowiedź była taka, że Google zindeksował zdania w 100 000 książek, począwszy od "Triving at College" przez "Beginning Programming for Dummies" aż po "Ewangelię według Tolkiena" i opracował wydajną metodę kodowania znaczeń zdań jako zestawów liczb znanych jako wektory. Kiedy zadasz pytanie, używa tych wektorów, aby znaleźć dwadzieścia zdań w bazie danych, które mają najbardziej podobne wektory. System nie ma pojęcia, o co właściwie prosisz. Już po zapoznaniu się z danymi wejściowymi do systemu powinno być od razu oczywiste, że twierdzenie zawarte w artykule Quartz, że Talk to Books "odpowie na każde pytanie", nie może być brane dosłownie; 100 000 książek może wydawać się dużą liczbą, ale to niewielki ułamek z ponad stu milionów, które zostały opublikowane. Biorąc pod uwagę to, co widzieliśmy wcześniej, o tym, jak bardzo głębokie uczenie się opiera się na korelacji, a nie na prawdziwym zrozumieniu, nie powinno dziwić, że wiele odpowiedzi było wątpliwych. Gdybyś zapytał na przykład o jakiś szczególny szczegół powieści, powinieneś rozsądnie oczekiwać wiarygodnej odpowiedzi. Jednak kiedy zapytaliśmy "Gdzie Harry Potter poznał Hermionę Granger?" żadna z dwudziestu odpowiedzi nie pochodziła od Harry′ego Pottera i Kamienia Filozoficznego i żadna nie odpowiadała na samo pytanie: gdzie odbyło się spotkanie. Kiedy zapytaliśmy: "Czy alianci byli usprawiedliwieni w kontynuowaniu blokady Niemiec po I wojnie światowej?" nie znalazło żadnych wyników, które nawet wspomniały o blokadzie. Odpowiadanie na "każde pytanie" to dzika przesada. A kiedy odpowiedzi nie były wyrażone bezpośrednio w frazie w indeksowanym tekście, często wszystko szło nie tak. Kiedy zapytaliśmy "Jakie było siedem horkruksów w Harrym Potterze?" nie otrzymaliśmy nawet odpowiedzi z listą, być może dlatego, że żadna z wielu książek, które omawiają Harry′ego Pottera, nie wymienia horkruksów na jednej liście. Kiedy zapytaliśmy "Kto był najstarszym sędzią Sądu Najwyższego w 1980 roku?" system zawiódł, mimo że jako człowiek możesz przejść do dowolnej internetowej listy sędziów Sądu Najwyższego (na przykład w Wikipedii) i po kilku minutach zorientujesz się, że był to William Brennan. Talk to Books ponownie się potknął, właśnie dlatego, że w żadnej ze 100 000 książek nie było zdania, które zawierałoby to w całości - "Najstarszym sędzią Sądu Najwyższego w 1980 r. był William Brennan" - i nie miało to podstaw do wyciągania wniosków, poza dosłownym tekstem. Najbardziej wymownym problemem było jednak to, że w zależności od tego, jak zadaliśmy pytanie, otrzymaliśmy zupełnie różne odpowiedzi. Gdybyśmy zapytali Talk to Books: "Kto zdradził swojego nauczyciela za 30 srebrników?", dość znany incydent w dość znanej historii, z dwudziestu odpowiedzi tylko sześć poprawnie zidentyfikowało Judasza. (Co ciekawe, dziewięć odpowiedzi dotyczyło znacznie bardziej niejasnej historii Micheasza Efraimity). Ale sytuacja pogorszyła się jeszcze bardziej, gdy odeszliśmy od dokładnego sformułowania "srebrników". Kiedy poprosiliśmy Talk to Books o nieco mniej konkretne "Kto zdradził swojego nauczyciela za 30 monet?" Judasz pojawił się tylko w 10 procentach odpowiedzi. (Najwyższej pozycji odpowiedź była zarówno nieistotna, jak i pozbawiona informacji: "Nie wiadomo, kto był nauczycielem Jingwana"). I kiedy ponownie nieco przeredagowaliśmy pytanie, tym razem zmieniając "zdradzony" na "wyprzedany", co dało "Kto wyprzedał swojego nauczyciela za 30 monet?" Judasz całkowicie zniknął z pierwszej dwudziestki wyników. Im dalej odchodziliśmy od dokładnego dopasowania zestawu słów, tym bardziej gubił się system.


    Systemy odczytu maszynowego z naszych snów, kiedy się pojawią, będą w stanie odpowiedzieć w zasadzie na każde rozsądne pytanie o to, co przeczytały. Będą w stanie zebrać informacje w wielu dokumentach. A ich odpowiedzi nie składałyby się tylko z odrzucenia podkreślonych fragmentów, ale z syntezy informacji, czy to listy horkruksów, które nigdy nie pojawiły się w tym samym fragmencie, czy tego rodzaju zwięzłych enkapsulacji, których można by się spodziewać po prawniku zbierającym precedensy w wielu sprawach. lub naukowcu formułującym teorię wyjaśniającą obserwacje zebrane w wielu artykułach. Nawet pierwszoklasista może stworzyć listę wszystkich dobrych i złych facetów, którzy pojawiają się w serii książek dla dzieci. Tak jak student piszący pracę semestralną może zebrać pomysły z wielu źródeł, zweryfikować je krzyżowo i dojść do nowatorskich wniosków, tak samo powinna być każda maszyna, która potrafi czytać. Ale zanim zdołamy zmusić maszyny do syntezy informacji, a nie tylko do ich papugowania, potrzebujemy czegoś znacznie prostszego: maszyn, które mogą niezawodnie zrozumieć nawet podstawowe teksty. Tego dnia jeszcze nie ma, chociaż niektórzy ludzie wydają się być podekscytowani sztuczną inteligencją. Aby zrozumieć, dlaczego solidne czytanie maszynowe jest w rzeczywistości wciąż dość odległą perspektywą, warto docenić - w szczegółach - to, co jest wymagane nawet do zrozumienia czegoś stosunkowo prostego, na przykład bajki dla dzieci. Załóżmy, że czytasz następujący fragment z książki "Farmer Boy" dla dzieci autorstwa Laury Ingalls Wilder (autorki "Domku na prerii"). Almanzo, dziewięcioletni chłopiec, znajduje portfel (wtedy nazywany "książką kieszonkową") pełen pieniędzy upuszczonych na ulicę. Ojciec Almanzo domyśla się, że "książka kieszonkowa" (tj. portfel) może należeć do pana Thompsona, a Almanzo znajduje pana Thompsona w jednym ze sklepów w mieście.

    Almanzo zwrócił się do pana Thompsona i zapytał: "Zgubił Pan portfel?"
    Pan Thompson podskoczył. Włożył rękę do kieszeni i głośno krzyknął.
    "Tak, mam tysiąc pięćset dolarów w nim! Co z nim ? Co o tym wiesz?"
    "Czy to jest to?" - spytał Almanzo.
    "Tak, tak, to wszystko!" - powiedział pan Thompson, wyrywając portfel. Otworzył je i pospiesznie przeliczył pieniądze. Wszystkie banknoty przeliczył ponad dwa razy
    Potem odetchnął z ulgą i powiedział: "Cóż, ten chłopak nic z tego nie ukradł".

    Dobry system czytania powinien być w stanie odpowiedzieć na takie pytania:

    • ˇ Dlaczego pan Thompson uderzył dłonią w kieszeń?
    •  Zanim Almanzo przemówił, czy pan Thompson zdał sobie sprawę, że zgubił swój portfel?
    •  Do czego odnosi się Almanzo, gdy pyta "Czy to jest to?"
    •  Kto prawie stracił 1500 dolarów?
    •  Czy wszystkie pieniądze nadal były w portfelu?

    Na wszystkie te pytania ludzie mogą łatwo odpowiedzieć, ale żadna dotychczas opracowana sztuczna inteligencja nie była w stanie niezawodnie obsłużyć takich zapytań. (Pomyśl o tym, jakie kłopoty sprawiałyby im usługi Google Talk to Books). W istocie każde z tych pytań wymaga od czytelnika (człowieka lub innego) śledzenia łańcucha wniosków, które są tylko ukryte w historii. Weź pierwsze pytanie. Zanim Almanzo się odezwie, pan Thompson nie wie, że zgubił portfel i zakłada, że ma go w kieszeni. Kiedy Almanzo pyta go, czy zgubił portfel, Thompson zdaje sobie sprawę, że mógł w rzeczywistości zgubić portfel. Aby sprawdzić tę możliwość - portfel może się zgubić - Thompson uderza się w kieszeń. Ponieważ portfel nie jest tam, gdzie zwykle go trzyma, Thompson dochodzi do wniosku, że zgubił portfel. Jeśli chodzi o złożone łańcuchy rozumowania, obecna sztuczna inteligencja jest na przegranej. Takie łańcuchy rozumowania często wymagają, aby czytelnik zebrał imponujący zakres podstawowej wiedzy o ludziach i przedmiotach, a bardziej ogólnie o tym, jak działa świat, a żaden obecny system nie ma wystarczająco szerokiego zasobu wiedzy ogólnej, aby zrobić to dobrze. Weź niektóre rodzaje wiedzy, z których prawdopodobnie czerpałeś właśnie teraz, automatycznie, nawet nie będąc tego świadomym, przetrawiając historię Almanzo i portfela:

    •  Ludzie mogą upuszczać rzeczy, nie zdając sobie z tego sprawy. Jest to przykład wiedzy o związkach między zdarzeniami a stanami psychicznymi ludzi.
    •  Ludzie często noszą portfele w kieszeniach. Jest to przykład wiedzy o tym, jak ludzie zwykle używają określonych przedmiotów.
    •  Ludzie często noszą pieniądze w portfelach, a pieniądze są dla nich ważne, ponieważ pozwalają im płacić za rzeczy. To przykład wiedzy o ludziach, zwyczajach i ekonomii.
    •  Jeśli ludzie zakładają, że coś ważnego dla nich jest prawdą, a dowiadują się, że może to nie być prawdą, często pilnie próbują to zweryfikować. To jest przykład wiedzy o tym, jakie rzeczy są psychologicznie ważne dla ludzi.
    •  Często można dowiedzieć się, czy coś jest w kieszeni, obmacując zewnętrzną stronę kieszeni. To przykład, jak można łączyć różne rodzaje wiedzy. Tutaj wiedza o tym, jak różne przedmioty (ręce, kieszenie, portfele) oddziałują na siebie, jest połączona z wiedzą o działaniu zmysłów.

    Rozumowanie wymagane w przypadku pozostałych pytań jest równie bogate. Aby odpowiedzieć na trzecie pytanie, "Do czego odnosi się Almanzo, gdy pyta "Czy to jest to?"", czytelnik musi zrozumieć coś o języku, a także o ludziach i przedmiotach, uznając, że jest to rozsądny poprzednik słów "to" i "to" może być portfelem, ale (raczej subtelnie), że "to" odnosi się do portfela trzymanego przez Almanzo, podczas gdy "to" odnosi się do portfela, który zgubił pan Thompson. Na szczęście te dwie rzeczy (to, co trzyma Almanzo i co stracił pan Thompson) okazują się tym samym. Aby poradzić sobie nawet z prostym fragmentem, wiedza o ludziach, przedmiotach i języku musi być głęboka, szeroka i elastyczna; jeśli okoliczności są choć trochę inne, musimy odpowiednio się dostosować. Nie powinniśmy oczekiwać od pana Thompsona równie pilnej potrzeby, gdyby Almanzo powiedział, że znalazł portfel babci Almanzo. Uważamy za prawdopodobne, że pan Thompson mógł zgubić portfel, nie wiedząc o tym, ale bylibyśmy zaskoczeni, gdyby nie wiedział, że jego portfel został zabrany po tym, jak został napadnięty z nożem. Nikt jeszcze nie był w stanie wymyślić, jak sprawić, by maszyna rozumowała w tak elastyczny sposób. Nie uważamy, że jest to niemożliwe, a później naszkicujemy niektóre kroki, które należałoby podjąć, ale na razie rzeczywistość jest taka, że to, co jest wymagane, znacznie przewyższa to, co udało się osiągnąć każdemu z nas w społeczności AI. Google Talk to Books nie byłoby nawet blisko (ani czytelnicy z Microsoftu i Alibaba, o których wspomnieliśmy na samym początku ). Zasadniczo istnieje rozbieżność między tym, w czym maszyny są teraz dobre - klasyfikowaniem rzeczy do kategorii - a rodzajem rozumowania i zrozumienia w świecie rzeczywistym, które byłyby wymagane, aby uchwycić tę przyziemną, ale krytyczną zdolność.


    Praktycznie wszystko, co możesz przeczytać, stwarza podobne wyzwania. Nie ma nic szczególnego w przejściu Wildera. Oto krótki przykład z The New York Times, 25 kwietnia 2017 r.

    Dzisiaj byłyby setne urodziny Elli Fitzgerald. Jedna z nowojorczyków, Loren Schoenberg, grała na saksofonie u boku "Pierwszej Damy Piosenki" w 1990 roku, pod sam koniec swojej kariery. Porównał ją do "starej butelki wina"…

    Każdy może łatwo odpowiedzieć na pytania zaczerpnięte bezpośrednio z tekstu (na jakim instrumencie grał Loren Schoenberg?) - ale wiele pytań wymagałoby pewnego rodzaju wnioskowania, które całkowicie wymyka się większości aktualnych systemów sztucznej inteligencji.

    ˇ Czy Ella Fitzgerald żyła w 1990 roku?
    ˇ Czy żyła w 1960 roku?
    ˇ Czy żyła w 1860 roku?
    ˇ Czy Loren Schoenberg spotkał kiedyś Ellę Fitzgerald?
    ˇ Czy Schoenberg uważa, że Fitzgerald był napojem alkoholowym?

    Odpowiedź na pierwsze, drugie i trzecie pytanie polega na wnioskowaniu, że Ella urodziła się 25 kwietnia 1917 r., ponieważ 25 kwietnia 2017 r. obchodziła jej setne urodziny, a następnie wykorzystuje powszechną wiedzę, taką jak fakty, że ˇ Ludzie żyją podczas swojej kariery, więc żyła w 1990 roku.
    ˇ Ludzie żyją przez cały czas między narodzinami a śmiercią, ani przed narodzinami, ani po śmierci. Więc Fitzgerald musiał żyć w 1960 roku i jeszcze nie żyła w 1860 roku.
    Odpowiedź na czwarte pytanie wiąże się z wnioskowaniem, że granie muzyki z kimś na ogół wiąże się z poznaniem tej osoby, i wnioskowanie, że Fitzgerald jest "Pierwszą Damą Piosenki", mimo że ta tożsamość nigdy nie jest do końca sprecyzowana. Odpowiedź na piąte pytanie wymaga wyjaśnienia, jakie rzeczy ludzie zwykle wyobrażają sobie, gdy dokonują porównań, oraz wiedzy, że Ella Fitzgerald była osobą i że ludzie nie mogą zamienić się w napoje.

    Wybierz przypadkowy artykuł w gazecie, opowiadanie lub powieść dowolnej długości, a na pewno zobaczysz coś podobnego; wykwalifikowani pisarze nie mówią ci wszystkiego, mówią ci to, co musisz wiedzieć, opierając się na wspólnej wiedzy, aby wypełnić luki. (Wyobraź sobie, jak nudna byłaby historia Wilder, gdyby musiała ci powiedzieć, że ludzie trzymają portfele w kieszeniach i że ludzie czasami próbują wykryć obecność lub brak małych fizycznych przedmiotów, sięgając po nie rękami, przez kieszenie. ) We wcześniejszej epoce grupa badaczy sztucznej inteligencji naprawdę próbowała rozwiązać te problemy. Peter Norvig, obecnie dyrektor ds. badań w Google, napisał prowokacyjną rozprawę doktorską na temat wyzwań związanych ze zrozumieniem historii przez maszyny. Bardziej znane jest to, że Roger Schank, pracujący wówczas w Yale, wymyślił serię wnikliwych przykładów tego, jak maszyny mogą używać "skryptów", aby zrozumieć, co się dzieje, gdy klient idzie do restauracji. Ale zrozumienie historii wymaga znacznie bardziej złożonej wiedzy i znacznie więcej form wiedzy niż scenariusze, a problem sformułowania i zebrania całej tej wiedzy był przytłaczający. Z czasem dziedzina się poddała, a badacze zaczęli pracować nad innymi, bardziej przystępnymi problemami - takimi jak wyszukiwarka internetowa i silniki rekomendacji - z których żaden nie zbliżył nas znacząco do ogólnej sztucznej inteligencji.


    Wyszukiwarka internetowa oczywiście zmieniła jednak świat; to jedna z największych historii sukcesu AI. Wyszukiwarka Google, Bing i inne są niesamowicie potężnymi i fantastycznie użytecznymi elementami inżynierii, wspieranymi przez sztuczną inteligencję, które niemal natychmiast znajdują dopasowania wśród miliardów dokumentów internetowych. Być może zaskakujące jest to, że chociaż wszystkie są zasilane przez sztuczną inteligencję, nie mają prawie nic wspólnego z rodzajem zautomatyzowanego, syntetycznego odczytu maszynowego, o który apelowaliśmy. Chcemy maszyn, które potrafią zrozumieć, co czytają. Wyszukiwarki nie. Weź wyszukiwarkę Google. W algorytmie Google istnieją dwie podstawowe koncepcje, jedna stara i jedna, którą firma Google zapoczątkowała. Żadne z nich nie zależy od tego, czy system rozumie dokumenty. Pierwszy, starszy pomysł był używany w programach do wyszukiwania dokumentów od wczesnych lat sześćdziesiątych, na długo przed Google lub internetem: dopasowujesz słowa w zapytaniu do słów w dokumencie. Chcesz wyszukać przepisy na kardamon? Nie ma problemu - po prostu znajdź wszystkie strony zawierające słowa "przepis" i "kardamon". Nie trzeba rozumieć, że kardamon jest przyprawą, nie trzeba rozumieć, jak pachnie, jak smakuje, ani wiedzieć nic o historii tego, jak jest pozyskiwany ze strąków lub w jakich kuchniach najczęściej go używa. Chcesz znaleźć instrukcje dotyczące budowania samolotów? Po prostu dopasuj kilka słów, takich jak "model", "samolot" i "jak", a otrzymasz wiele przydatnych trafień, nawet jeśli maszyna nie ma pojęcia, czym właściwie jest samolot, nie mówiąc już o tym, czym jest udźwig i opór lub powody, dla których prawdopodobnie wolałbyś latać komercyjnie niż jeździć na modelu w skali. Drugi, bardziej innowacyjny pomysł - słynny algorytm PageRank - polegał na tym, że program mógł wykorzystać zbiorową mądrość sieci do oceny, które strony internetowe są wysokiej jakości, sprawdzając, które strony otrzymały wiele linków, w szczególności linki z innych wysokiej jakości stron. Ten wgląd katapultował Google ponad wszystkie inne wyszukiwarki internetowe tamtych czasów. Ale dopasowywanie słów nie ma wiele wspólnego ze zrozumieniem tekstów, podobnie jak liczenie linków przychodzących z innych stron. Powodem, dla którego wyszukiwarka Google działa tak samo dobrze, jak bez żadnego wyrafinowanego odczytu, jest to, że wymagana jest niewielka precyzja. Wyszukiwarka nie musi wczytywać się głęboko, aby rozpoznać, czy jakiś traktat o uprawnieniach prezydenckich skłania się w lewo, czy w prawo; użytkownik może to rozgryźć. Wyszukiwarka Google musi tylko ustalić, czy dany dokument dotyczy właściwego ogólnego tematu. Zwykle można uzyskać całkiem dobre pojęcie o temacie dokumentu, po prostu patrząc na słowa i krótkie frazy, które się w nim znajdują. Jeśli ma uprawnienia "prezesa" i "wykonawcy", użytkownik prawdopodobnie będzie zadowolony z posiadania łącza; jeśli chodzi o Kardashianów, prawdopodobnie nie ma to znaczenia. Jeśli dokument wspomina "George", "Martha" i "Bitwa pod Yorktown", wyszukiwarka Google może odgadnąć, że dokument dotyczy Jerzego Waszyngtona, nawet jeśli nic nie wie o małżeństwach czy wojnach rewolucyjnych.


    Google nie zawsze jest tak powierzchowny. Czasami udaje mu się zinterpretować zapytania i dać w pełni uformowane odpowiedzi, a nie tylko długie listy linków. To trochę bliższe czytaniu, ale tylko trochę, ponieważ Google na ogół czyta tylko zapytania, a nie same dokumenty. Jeśli zapytasz "Jaka jest stolica Missisipi?" Google poprawnie analizuje Twoje pytanie i wyszukuje odpowiedź ("Jackson") w utworzonej wcześniej tabeli. Jeśli zapytasz "Ile wynosi 1,36 euro w rupii", parsowanie jest znowu poprawne i system może, po zapoznaniu się z inną tabelą (tym razem z kursami wymiany), poprawnie obliczyć, że "1,36 euro = 110,14 rupii indyjskich". W większości przypadków, gdy Google zwraca tego rodzaju odpowiedź, jest ona zwykle wiarygodna (system przypuszczalnie robi to tylko wtedy, gdy jego wskaźniki sugerują, że odpowiedzi są prawdopodobnie poprawne). Ale wciąż daleko mu do ideału, a błędy, które popełnia, dają dobrą wskazówkę na temat tego, co się dzieje. Na przykład w kwietniu 2018 r. zapytano wyszukiwarkę Google "Kto jest obecnie w Sądzie Najwyższym?" i otrzymano raczej niepełną odpowiedź "John Roberts", tylko jeden członek spośród dziewięciu. Jako bonus Google udostępnił listę siedmiu innych sędziów, których "ludzie również szukają": Anthony Kennedy, Samuel Alito, Clarence Thomas, Stephen Breyer, Ruth Bader Ginsburg i Antonin Scalia. Wszyscy ci ludzie byli oczywiście na dworze, ale Scalia nie żył. Następca Scalii, Neil Gorsuch, oraz niedawno mianowani Elena Kagan i Sonia Sotomayor były nieobecne na liście Google. To prawie tak, jakby Google całkowicie pominął słowo "obecnie". Wracając do naszego wcześniejszego punktu dotyczącego syntezy, ostateczny system odczytu maszynowego skompilowałby swoją odpowiedź, czytając Google News i aktualizując swoją listę, gdy pojawią się zmiany; lub przynajmniej konsultując się z Wikipedią (którą ludzie dość regularnie aktualizują) i wydobywając obecnych sędziów. Wygląda na to, że Google tego nie robi. Zamiast tego, jak najlepiej możemy powiedzieć, jest to po prostu przyglądanie się regularnościom statystycznym (Alito i Scalia pojawiają się w wielu poszukiwaniach wymiaru sprawiedliwości), a nie autentyczne czytanie i rozumienie ich źródeł. Aby wziąć inny przykład, spróbowano zapytać Google: "Kiedy zbudowano pierwszy most?" i otrzymano następujące wyniki na górze wyników: Mosty żelazne i stalowe są dziś używane i większość głównych [sic] światowych rzek jest przecinana przez tego typu mosty. Zdjęcie przedstawia pierwszy na świecie żelazny most. Został zbudowany w Telford w 1779 roku przez Abrahama Darby′ego (trzeci) i był pierwszą dużą budowlą w historii zbudowaną z żelaza. Słowa "pierwszy" i "most" pasują do naszego zapytania, ale pierwszy zbudowany most nie był żelazny, a "pierwszy żelazny most" nie równa się "pierwszemu mostowi"; Google był wyłączony przez tysiące lat. A faktem jest, że ponad dekadę po ich wprowadzeniu, wyszukiwania, w których Google odczytuje pytanie i udziela bezpośredniej odpowiedzi, nadal pozostają w znacznej mniejszości. Kiedy otrzymujesz linki, a nie odpowiedzi, jest to generalnie znak, że Google polega tylko na słowach kluczowych i liczeniu linków, a nie na prawdziwym zrozumieniu. Firmy takie jak Google i Amazon oczywiście stale ulepszają swoje produkty i dość łatwo jest ręcznie zakodować system, aby poprawnie wymienić obecny zestaw sędziów Sądu Najwyższego; małe przyrostowe ulepszenia będą kontynuowane. To, czego nie widzimy na horyzoncie, to ogólne rozwiązanie wielu rodzajów wyzwań, które podnieśliśmy. Kilka lat temu zobaczyliśmy sprytnego mema na Facebooku: zdjęcie Baracka Obamy z podpisem "W zeszłym roku powiedziałeś nam, że masz 50 lat; teraz mówisz, że masz 51 lat. Co to jest, Barack Obama?" Dwie różne wypowiedzi, wypowiedziane w różnym czasie, mogą być prawdziwe. Jeśli jesteś człowiekiem, rozumiesz żart. Jeśli jesteś maszyną zajmującą się niewiele więcej niż dopasowywaniem słów kluczowych, jesteś zgubiony.




    c.d.n.




    Od naturalnej głupoty do sztucznej inteligencji




    Wprowadzenie

    AI dla sprzedaży i marketingu

    Dlaczego sztuczna inteligencja w sprzedaży i marketingu


    Jednym z głównych celów marketerów jest znalezienie najlepszego sposobu na zaoferowanie odpowiedniego produktu właściwemu klientowi we właściwym czasie. Ale nawet przy stawce miliardów dolarów marketerzy cierpią z powodu różnych ograniczeń. Pierwszym był brak danych. Kiedy świat nie był tak połączony jak teraz, jedynym sposobem na uzyskanie odpowiedzi na pytania była rozmowa z ludźmi. Internet w dużej mierze rozwiązał ten problem: teraz łatwiej niż kiedykolwiek dotrzeć do szerokiego grona odbiorców, narazić ich na przesłanie i zmierzyć ich reakcję. Drugą stroną medalu jest to, że łatwo jest uzyskać dane, które są tak duże i szczegółowe, że ludzie nie są w stanie zrozumieć i wydobyć spostrzeżeń. Chcemy rozpocząć, dając ci mały wgląd w to, dlaczego sztuczna inteligencja wszystko zmienia. Każdy marketer wie, że nie wszyscy klienci są tacy sami i że najlepiej reagują, gdy angażują się w spersonalizowaną wiadomość. Powszechną strategią marketingową jest dzielenie klientów na segmenty według danych demograficznych lub podobnych aspektów. Prostym segmentem mogą być "zamożne kobiety w wieku od 25 do 30 lat, które wydają na rozrywkę ponad 1000 USD rocznie". Marketer może wymyślić niestandardową wiadomość, aby dotrzeć do tej kategorii ludzi, co różni się od tego, co zostanie zrobione dla innych segmentów. Chociaż ta technika jest tak stara jak rynek, to naprawdę było najlepsze, co mogliśmy zrobić, zanim sztuczna inteligencja pojawiła się na scenie. Problem z tym podejściem polega na tym, że bez względu na to, jak dokładna jest segmentacja (marketerzy mówią o mikrosegmentacji), zawsze dojdziesz do sytuacji, w której dwóch klientów będzie traktowanych dokładnie tak samo, nawet jeśli zasadniczo się różnią, tylko dlatego, że należą do tej samej kategorii. Istnieje ograniczenie liczby kategorii, którymi może zarządzać ludzki mózg. Pomyśl tylko, ilu Twoich znajomych ma na papierze cechy podobne do Ciebie (w tym samym wieku, sąsiedztwo, wykształcenie), ale ma zupełnie inne gusta. AI zmienia zasady gry, ponieważ może przetwarzać znacznie więcej informacji. Dzięki sztucznej inteligencji możesz osiągnąć personalizację na dużą skalę, ucząc się o ludziach na podstawie ich konkretnych działań i cech oraz kierując ich na to, kim naprawdę są, a nie na ręcznie wykonane wiadro, w które wpadają. Co dla firmy oznacza zdolność tak precyzyjnej personalizacji? Cóż, firmy specjalizujące się w sztucznej inteligencji na potrzeby marketingu mogą pokazać przykuwające wzrok wskaźniki, które byłyby marzeniem każdego marketera. Przykładem jest Amplero, amerykańska firma specjalizująca się w marketingu opartym na sztucznej inteligencji. Oto niektóre z wyników, które raportuje w swoich materiałach marketingowych:

    •  Pomogło to dużemu europejskiemu operatorowi telekomunikacyjnemu zwiększyć pierwsze 30-dniowe średnie przychody na użytkownika z 0,32% do 2,8%, co stanowi prawie 800% wzrost.
    •  Obniżyło koszt pozyskania klienta (CAC) jednego z pięciu największych północnoamerykańskich operatorów komórkowych o ponad 97%: z 40 USD na klienta do zaledwie 1 USD.
    •  Udało się ponownie dotrzeć do najbardziej niezadowolonych klientów dużego europejskiego operatora komórkowego na trzy tygodnie przed anulowaniem swoich planów, stworzyło bardziej znaczące wrażenia klientów w celu ponownego ich zaangażowania i zwiększyło współczynniki utrzymania z 2% do 10%.

    Te liczby nie mają na celu pochwalić się wynikami konkretnej firmy marketingowej. Znajdziesz wiele startupów i większych organizacji, które mogą osiągnąć podobne wyniki. Jeśli pomysł osiągnięcia tego rodzaju wyników w Twojej organizacji przyprawia Cię o gęsią skórkę, nie jesteś sam. Zobaczmy, jak można to zrobić możliwie. Marketing to złożona funkcja, więc zamiast wymieniać wszystkie możliwe zastosowania, skupimy się na trzech ogólnych problemach, które dotyczą większości firm:

    •  Określenie, którzy klienci prawdopodobnie opuszczą Twoją usługę (maselnica)
    •  Określenie, którzy klienci są skłonni kupić nową usługę (sprzedaż dodatkowa)
    •  Identyfikacja podobnych grup klientów (segmentacja klientów)


    Przewidywanie odchodzących klientów

    Jednym z najważniejszych wskaźników marketingowych jest odpływ klientów (znany również jako odpływ lub rotacja klientów ). Rezygnacja jest zdefiniowana jako odsetek klientów opuszczających firmę w określonym czasie. Czy nie byłoby wspaniale wiedzieć wcześniej, którzy klienci są najbardziej niezadowoleni i najprawdopodobniej porzucą produkt lub usługę w najbliższej przyszłości? Właśnie w ten sposób sztuczna inteligencja może pomóc Ci rozwiązać problem odpływu klientów: korzystając z uczenia maszynowego i zasobów danych organizacji, możemy znaleźć klientów, którzy z największym prawdopodobieństwem opuszczą Twoją usługę i dotrzeć do nich ze spersonalizowanymi wiadomościami, aby przyciągnąć ich zaangażowanie się ponownie. Następnie pokażemy, jak działa predyktor rezygnacji, dając Ci pewność, że zobaczysz możliwości dla tej aplikacji w Twojej organizacji. W tym problemie z uczeniem maszynowym mamy dwie klasy klientów: tych, którzy prawdopodobnie odejdą, i tych, którzy tego nie zrobią. Dlatego etykietą, którą nasz model ML będzie musiał nauczyć się przewidywać, jest to, czy klient należy do jednej klasy, czy do drugiej (załóżmy, że klienci, którzy mają zamiar odejść, należą do klasy 1, a pozostali należą do klasy 0). Na przykład firma telekomunikacyjna może oznaczyć "odszedłem" wszystkich klientów, którzy zrezygnowali z jej planu telefonicznego, a "nie odeszli" wszystkich pozostałych, którzy nadal korzystają z jego planu. Teraz, gdy zdefiniowaliśmy etykietę, którą nasz algorytm musi przewidzieć, przyjrzyjmy się, jakich funkcji możemy użyć. Pamiętaj, że cechy w problemie ML to parametry, na które model będzie zwracał uwagę, aby rozróżnić klasy. Może to być atrybut użytkownika (np. dane demograficzne) lub jego interakcja z Twoim produktem (np. liczba wejść na daną usługę w ciągu ostatniego miesiąca). To, co właśnie opisaliśmy, ma postać problemu nadzorowanego uczenia się: algorytm ML jest proszony o nauczenie się mapowania między zestawem cech (charakterystyka klienta) a etykietą (zrezygnowano/niezrezygnowano) na podstawie danych historycznych. Podsumujmy kroki niezbędne do rozwiązania tego problemu

    1. Zdefiniuj zadanie ML zaczynając od biznesowego (identyfikując klientów, którzy prawdopodobnie opuszczą naszą usługę).

    2. Wyraźnie zidentyfikuj etykietę: odrzucona lub niezmieniona.

    3. Zidentyfikuj cechy: elementy klienta, które mogą wpływać na prawdopodobieństwo odejścia. Możesz wymyślić możliwe przykłady, myśląc o tym, na co byś spojrzał, gdybyś musiał wykonywać tę pracę sam

    4. Wiek

    5. Jak długo klient korzystał z usługi?

    6. Pieniądze wydane na usługę

    7. Czas spędzony na korzystaniu z usługi w ciągu ostatnich dwóch miesięcy

    8. Zbierz dane historyczne odchodzących i aktywnych klientów.

    9. Trenuj model: model ML nauczy się przewidywać etykietę, biorąc pod uwagę cechy.

    10. Przeprowadź wnioskowanie: użyj modelu na nowych danych, aby określić, którzy z Twoich obecnych klientów prawdopodobnie odejdą.

    Zwróć uwagę, że etykieta musi zostać odnaleziona z mocą wsteczną, patrząc na przeszłe zapisy klientów. Rozważmy najpierw najłatwiejszą sytuację. Załóżmy, że masz model biznesowy oparty na subskrypcji, taki jak Netflix lub Spotify. Subskrypcje odnawiają się zwykle automatycznie, więc klienci muszą aktywnie podjąć działania w celu anulowania abonamentu: zadzwonić do obsługi klienta w przypadku firmy telefonicznej lub wejść na stronę i wyłączyć automatyczne odnawianie w przypadku Netflix lub Spotify. W takich sytuacjach znalezienie etykiety jest łatwe: nie ma wątpliwości, czy klient jest nadal na pokładzie, czy nie, a istnieje przejrzysta tabela bazy danych, która może dokładnie powiedzieć, kiedy to się stało. Inne modele biznesowe są bardziej złożone. Załóżmy, że jesteś kierownikiem marketingu supermarketu i używasz kart lojalnościowych do śledzenia klientów za każdym razem, gdy wchodzą i robią zakupy. Najprawdopodobniej klient, który znalazł lepszy supermarket, nie zadzwoni do ciebie i powie: "Przy okazji, chcę tylko poinformować, że nie wrócę ponownie do twojego supermarketu". Zamiast tego ta osoba prawdopodobnie już się nie pojawi i to wszystko! Brak śladów, brak kolumny Unsubscribed w Twojej bazie danych, brak łatwej etykiety. Czy nadal możesz znaleźć sposób na przypisywanie etykiet takim klientom? Oczywiście że możesz. Powszechnym i prostym sposobem na to jest przyjrzenie się wzorcom zakupów i zobaczenie, kiedy nagle się zmieniają. Załóżmy, że w każdą niedzielę bardzo lojalna rodzina przychodzi po zakupy spożywcze. Jednak w ostatnim miesiącu ich nie widziałeś. Możesz założyć, że postanowili już nie przychodzić, i dlatego oznacz ich jako "odrzuconych". Czy jeden miesiąc to właściwy próg? Trudno powiedzieć bez dodatkowego kontekstu, ale na szczęście nie jest to twoja praca: zostaw zadanie rozpracowania danych analitykom danych. Ważne jest, abyś zrozumiał, że niezależnie od firmy, jeśli masz powracających klientów - i zebrałeś dane o ich interakcjach - prawdopodobnie istnieje sposób na zdefiniowanie rezygnacji i zidentyfikowanie, kto odszedł, a kto jest nadal aktywny. Kiedy już wymyślisz jakieś etykiety, aby odróżnić "szczęśliwych klientów" od tych, którzy odeszli, sytuacja staje się podobna do przykładu przewidywania ceny domu, który widzieliśmy wcześniej. Na szczęście dane szkoleniowe do przewidywania rezygnacji można łatwo wyodrębnić z systemu zarządzania relacjami z klientami (CRM) firmy. Mówiąc dokładniej, możemy wyodrębnić dane CRM z okresu do, powiedzmy, 18 miesięcy temu, a następnie oznaczyć, czy klienci zrezygnowali w ciągu ostatnich 6 miesięcy. Do tej pory jesteś już znacznie bardziej pewny siebie i skuteczny w definiowaniu etykiety dla projektu prognozowania rezygnacji niż większość menedżerów biznesowych. Każdy analityk danych będzie za to wdzięczny, ale jeśli naprawdę chcesz im pomóc, musisz włożyć dodatkowy wysiłek: pomóc im w wyborze funkcji. Jeśli brzmi to jak szczegół techniczny, tracisz świetną okazję, aby zabłysnąć swoim doświadczeniem i wiedzą o domenie. W przypadku problemu z ML pamiętaj, że cecha jest atrybutem zjawiska, które próbujemy modelować, i wpływa na jego wynik. Zakładając, że jesteś ekspertem ds. marketingu, nikt na świecie nie ma lepszego wglądu w odpowiednie funkcje, a Twoja wiedza może pomóc Twojemu zespołowi zajmującemu się analizą danych podążać ścieżką prowadzącą do pomyślnych wyników. Aby zorientować się, jak może wyglądać Twój wkład, zadaj sobie pytanie: "Gdybym miał odgadnąć prawdopodobieństwo odejścia tylko jednego klienta, na jakie parametry bym spojrzał?" Może to poinformować rozmowa z inżynierem:

    Inżynier: Czy wiesz, co wpływa na odejście klientów? Muszę wymyślić kilka istotnych funkcji.

    Marketer: Jasne, wiemy, że konfiguracja płatności ma duże znaczenie dla rezygnacji. Zwykle ktoś, kto ma umowę zamiast karty przedpłaconej, jest mniej skłonny do rezygnacji z usługi, ponieważ ma większe uzależnienie. Prawdą jest również, że kiedy zbliżamy się do daty wygaśnięcia umowy, klienci zaczynają patrzeć na konkurencję, więc to kolejny czynnik.

    Inżynier: Interesujące. Na pewno użyję funkcji w modelu, która wyraża "umowa" lub "przedpłata". Kolejną cechą będzie liczba dni do wygaśnięcia umowy. Coś jeszcze?

    Marketer: Jasne, wiemy, że wiek odgrywa dużą rolę. Ci młodzi millenialsi cały czas zmieniają firmy, podczas gdy starsi ludzie są bardziej lojalni. Ponadto, jeśli ktoś jest naszym klientem od dłuższego czasu, to dobry wskaźnik lojalności.

    Inżynier: Ładnie, możemy zajrzeć do CRM i dodać funkcję "dni od rejestracji" i jedną dla wieku. Czy wiek jest jedynym interesującym atrybutem demograficznym?

    Marketer: Nie sądzę, że płeć jest; nigdy nie zauważyliśmy żadnego wpływu. Zawód jest ważny: wiemy, że samozatrudnieni mniej chętnie zmieniają plany.

    Inżynier: OK, spróbuję sprawdzić, czy płeć ma jakikolwiek związek z odejściem. Jeśli chodzi o zawód, to dobra wskazówka. Dzięki!

    Taka rozmowa może trwać całymi dniami, zwykle z ciągłym przepychaniem się między inżynierami a tobą. Przekażesz swoje doświadczenie i wiedzę domenową, a inżynier przełoży to na coś czytelnego dla maszyny. W końcu inżynier powróci z pewnymi spostrzeżeniami lub pytaniami wynikającymi z analizy danych, które wymagają Twojej pomocy w interpretacji. Jak widać, nie jest to ćwiczenie dla nerdów: to praca zespołowa między biznesem a nerdami.


    Wykorzystanie sztucznej inteligencji do zwiększenia współczynników konwersji i sprzedaży dodatkowej

    Widziałeś, jak przewidywanie rezygnacji może być potężnym zastosowaniem algorytmów klasyfikacji. W tym przypadku klasy, którymi oznaczamy klientów, to "odeszli" lub "nie odeszli". W innych sytuacjach możesz oznaczyć klientów klasą, która jest odpowiednia dla Twojego działu marketingu i użyć algorytmów ML do przewidywania. Naturalnym jest to, czy klient kupi usługę na podstawie wcześniejszej sprzedaży. Wyobraźmy sobie, że masz klasyczny lejek marketingowy: klienci subskrybują bezpłatną usługę, a następnie niektórzy z nich przechodzą na usługę premium. Masz zatem dwie klasy klientów:

    •  Przekonwertowani - Klienci, którzy kupili usługę premium po wypróbowaniu darmowej wersji
    •  Brak konwersji - Klienci, którzy nadal korzystali z bezpłatnej usługi

    Firmy internetowe mogą w końcu zainwestować miliony, aby zmaksymalizować liczbę użytkowników, którzy przechodzą na płatny produkt. Ta miara jest święta dla firm programistycznych, które mają model biznesowy Software as a Service (SaaS): firm oferujących usługi zakupione w ramach subskrypcji. W zależności od współczynnika konwersji firma korzystająca z subskrypcji internetowej może przeżyć lub umrzeć. Najbardziej naiwnym sposobem na zwiększenie współczynnika konwersji płacących użytkowników jest masowe ukierunkowanie działań marketingowych na całą bazę użytkowników: biuletyny, oferty, bezpłatne wersje próbne i tak dalej. Bardziej wyrafinowani marketerzy mogą pomyśleć o stworzeniu rozbudowanych strategii, aby ocenić prawdopodobieństwo konwersji i mądrzej zainwestować budżet marketingowy. Na przykład możemy sądzić, że użytkownik, który otworzył biuletyn, jest bardziej zainteresowany zakupem usługi premium niż użytkownik, który nigdy żadnej nie otworzył, i kieruje do niego reklamy na Facebooku (czy kiedykolwiek zostałeś spamowany na Facebooku po odwiedzeniu strony internetowej lub otwarciu biuletyn?). Biorąc pod uwagę wagę tematu i ilość pieniędzy, które na nim płyną, zobaczmy, czy możemy użyć ML do sklasyfikowania użytkowników według ich prawdopodobieństwa konwersji, optymalizacji naszych kosztów marketingowych i osiągania lepszych wyników. Jeśli przyjrzysz się problemowi, zobaczysz, że idealnie nadaje się do uczenia maszynowego. Widziałeś już, że masz jasno określone zadanie: identyfikację użytkowników, którzy mogą przejść z usługi bezpłatnej na płatną. To jest nadzorowane zadanie klasyfikacji uczenia i masz gotowe etykiety: powiedzmy 1 dla użytkowników, którzy kupili płatną usługę, i 0 dla użytkowników, którzy tego nie zrobili. Teraz musisz pomyśleć o funkcjach, których użyjesz do wytrenowania swojego klasyfikatora. Pamiętaj, że dobrym punktem wyjścia do identyfikacji cech jest zadanie sobie pytania: "Gdybym sam musiał odgadnąć prawdopodobieństwo konwersji, jakich informacji bym potrzebował?" Informacje te mogą obejmować:

    •  Korzystanie z bezpłatnego produktu. Pamiętaj, że musi to być rzeczywista liczba, więc musisz wymyślić użyteczny sposób, aby to opisać. Jeśli sprzedajesz usługę taką jak Dropbox, użycie można opisać kilkoma parametrami:

    •  Liczba przechowywanych plików
    •  Liczba urządzeń, z których zalogowali się użytkownicy (podpowiada, jak przydatna jest usługa dla użytkownika)
    •  Liczba wejść na dzień/tydzień/miesiąc (wskazuje, jak często korzysta z niej użytkownik)
    •  Wskaźniki otwarć newslettera (Jak zainteresowany jest użytkownik naszą wiadomością?)
    •  Jak dawno temu użytkownik zasubskrybował?
    •  Kanał pozyskiwania (Ktoś, kto zasubskrybował po skierowaniu znajomego, może być bardziej wartościowy niż ktoś, kto kliknął reklamę na Facebooku).

    Zmienne te mogą się różnić w zależności od rodzaju prowadzonej działalności, ale koncepcja jest generalnie prosta: zastanów się, jakie czynniki mogą wskazywać na prawdopodobieństwo konwersji, a następnie dodaj je do algorytmu ML. Warto zaznaczyć, że niektóre firmy mają więcej danych niż inne: na przykład serwisy internetowe korzystające z loginu Facebook będą mogły poznać wszystkie zainteresowania swoich użytkowników jako funkcje takich klasyfikatorów. Zakładając, że masz dane historyczne dotyczące wcześniejszych klientów, którzy dokonali konwersji, oraz tych, którzy nie dokonali konwersji, możesz wytrenować swój algorytm, aby określić, w jaki sposób wybrane funkcje wpływają na prawdopodobieństwo zakupu Twojej usługi premium przez użytkownika. Gdy faza szkolenia jest jedna, Twój algorytm jest w końcu gotowy do zastosowania tego, czego nauczył się od poprzednich klientów, do obecnych klientów, ustawiając ich od najbardziej prawdopodobnych do najmniej prawdopodobnych. Jak pamiętasz z poprzedniego rozdziału, ta faza nazywa się wnioskowaniem (przewidywanie nowych danych po nauczeniu algorytmu na danych z przeszłości). Zauważ, że zastosowaliśmy tę metodologię w przypadku systemu internetowego, który korzysta z modelu freemium (usługa bezpłatna i płatne uaktualnienie), ale można ją zastosować w każdym innym przypadku, w którym grupa klientów wykonuje jedną czynność oraz inna grupa robi coś innego (lub nic). Ten scenariusz jest wspólny i zachęcamy do szukania takich sytuacji i zastanowienia się, czy jest miejsce na zbudowanie dla nich klasyfikatora ML. Aby dać ci inspirację, oto kilka innych przypadków, w których możesz zastosować tę metodologię:

    •  Masz podstawowy produkt i niektóre dodatki (akcesoria lub dodatkowe usługi, które są wspólne dla firm telekomunikacyjnych).
    •  Możesz oznaczyć klientów etykietą "kupił up-sell X " lub "nie kupił up-sell X " i użyć ich podstawowych produktów, aby ocenić, czy warto zaproponować up-sell swojemu klientowi.
    •  Masz newsletter i chcesz zoptymalizować jego stawki otwarć. Twoje etykiety to "otwarły biuletyn" lub "nie otworzyły biuletynu". Funkcje, których używasz w klasyfikatorze, mogą obejmować czas wysłania wiadomości e-mail (dzień tygodnia, godzina itd.) oraz niektóre funkcje związane z użytkownikiem, a także możesz oznaczać wiadomości e-mail według ich treści (na przykład "informacyjne, " "wiadomości produktowe" lub "biała księga").
    •  Masz sklep fizyczny z kartą lojalnościową (aby śledzić, który klient co kupuje). Możesz uruchamiać inicjatywy marketingowe (ponownie biuletyny lub reklamy fizyczne) i klasyfikować użytkowników na podstawie tego, co sprowadziło ich do Twojego sklepu, a co nie.

    Jak widać, metoda, którą właśnie opisaliśmy, polegająca na podzieleniu użytkowników na dwie oddzielne klasy i zbudowaniu klasyfikatora ML, który potrafi je rozpoznać, jest dość elastyczna i może być stosowana w wielu problemach. Całkiem potężne, prawda?