Mail:
Rozwój kariery
Rozpoczęcie kariery w dziedzinie AI jest teraz łatwiejsze niż kiedykolwiek wcześniej, ze względu na bezprecedensowy popyt i wzrost w branży, ale także znaczną ilość dostępnych informacji i szkoleń edukacyjnych. Będzie wiele sposobów na wejście do świata AI, ponieważ istnieje tak wiele możliwości kariery i ról.Jak w przypadku każdej ścieżki kariery, powinieneś oczywiście dostosować swój wybór do swoich zainteresowań, pasji, umiejętności i celów. Znalezienie swojej pasji i dostosowanie się do niej jest prawdopodobnie najważniejszą poradą zawodową, jaką kiedykolwiek otrzymasz. Jeśli już jesteś w miejscu pracy, najłatwiejszym sposobem na przejście w kierunku AI może być wewnętrzny transfer do innego zespołu, który już koncentruje się na wdrażaniu AI. Często przy tego typu ruchu istnieje większe zrozumienie i elastyczność w zakresie poziomu wiedzy i umiejętności, z większym naciskiem na naukę w miejscu pracy. Często zaczyna się to od poinformowania swojego menedżera, że masz głębokie zainteresowanie pracą z AI. Niezależnie od etapu kariery i konkretnych umiejętności, wiedzy i doświadczenia, biorąc pod uwagę zakres ról w AI i masową adopcję w wielu branżach, z pewnością istnieje kilka opcji dostępnych dla każdego, aby przejść do kariery w AI. Jeden z moich poprzednich menedżerów powiedział mi kiedyś, że 80 procent wykonywania roli to jej zdobycie, i pod wieloma względami miał rację. Wykazanie się pasją i zainteresowaniem tematem będzie kluczem do odblokowania przyszłej kariery w AI.
Krajobraz kariery w dziedzinie AI
Najpierw przyjrzyjmy się krajobrazowi AI i poznajmy pełen zakres dostępnych opcji i możliwości. Jeśli jesteś bardziej skłonny do badań, to studia lub praca na uniwersytecie byłyby najbardziej oczywistą opcją; istnieją jednak instytucje AI skupiające się na różnych tematach (na przykład etyce AI) lub bardziej ogólne, takie jak Alan Turing Institute. Niektóre duże firmy technologiczne, takie jak Google, Microsoft i Meta, mają duże działy badań i stosowanej AI, w których tysiące osób pracuje nad AI. Wiele większych firm konsultingowych ma duże zespoły naukowców zajmujących się danymi (i pokrewne role) do pracy nad zleceniami klientów. Niektóre z nich zainwestują również w ograniczone badania i odkrycia, aby mieć pewność, że mają wgląd w najnowsze zmiany w technologii. Na przykład w 2023 r. Accenture ogłosiło inwestycję w wysokości 3 miliardów dolarów1, aby skupić się na generatywnej AI. Podczas gdy wiele z powyższych opcji kariery było dostępnych od wielu lat, poniższe możliwości naprawdę eksplodowały w ciągu ostatnich 12-18 miesięcy. Wiele bardzo dużych korporacji prowadziło różne programy innowacji i pilotażu, aby zbadać wykorzystanie AI przez wiele lat. Niektóre z nich już zwiększyły wykorzystanie technologii w niektórych działach firmy. Jeśli już pracujesz w dużej korporacji, podczas gdy w Twojej grupie lub zespole może nie być możliwości, najprawdopodobniej będą inne grupy, które są bardziej zaawansowane w przyjmowaniu AI, więc wewnętrzny ruch do zespołu, który pracuje z AI, może być najlepszym pierwszym krokiem dla Ciebie, aby rozpocząć własne skupienie się na AI. Firmy wszystkich rozmiarów, ale szczególnie małe i średnie przedsiębiorstwa (MŚP), poważnie rozważają, w jaki sposób mogą skorzystać z wykorzystania AI. Firmy tej wielkości mają potrzebę i pewien poziom dostępnych inwestycji, ale czego naprawdę im brakuje w wielu przypadkach, to kompetentnych ludzi, którzy pomogą im zbadać potencjał AI i poprowadzą ich przez tę podróż. Prezesi, członkowie ich zarządów i kadra kierownicza pilnie badają, w jaki sposób sztuczna inteligencja wpłynie na ich działalność i ją ulepszy. Jeśli już pracujesz w takiej firmie, czas wstać i dać ludziom znać, że jesteś zainteresowany pomocą w tej podróży adopcji sztucznej inteligencji. Dostawcy oprogramowania, którzy stworzyli produkty i usługi, ale teraz muszą uwzględnić funkcjonalność sztucznej inteligencji w swojej ofercie, teraz również starają się budować różne modele uczenia maszynowego, aby zapewnić swoim klientom możliwości oparte na sztucznej inteligencji. Ekosystem start-upów szybko się rozrósł. Istnieją start-upy czystej AI, to znaczy start-upy, które rozwijają coś wyjątkowego i nowatorskiego jako ogólne narzędzie, ramy, platformę lub aplikację, z której może korzystać wielu klientów w różnych branżach. Istnieją również start-upy AI, które są bardziej stosowane w naturze, wykorzystując gotowe techniki AI, ale stosując je do nowych zestawów danych i problemów. Trzecim typem start-upu jest w rzeczywistości każdy inny typ start-upu, który obecnie zdaje sobie sprawę, że musi zintegrować pewne funkcje oparte na sztucznej inteligencji ze swoją ofertą. Miejmy nadzieję, że pokazuje to głębię krajobrazu sztucznej inteligencji, z możliwościami wokół ciebie czekającymi na odkrycie. Jeden z moich mentorów powiedział mi kiedyś, że musisz być proaktywny i zarządzać własną karierą; nie możesz po prostu siedzieć i oczekiwać, że inni zrobią to za ciebie. Opcje są, musisz tylko zdecydować, która jest dla ciebie odpowiednia i iść na nią.
Zrozumienie ścieżek kariery w AI
Ostatecznie ścieżka kariery każdego jest wyjątkowa, oparta na możliwościach dostępnych na każdym etapie i podejmowanych decyzjach. Ta wyjątkowość sprawia, że wszyscy jesteśmy wyjątkowi i wnosi różnorodność i doświadczenie do stołu w środkowej i późniejszej fazie kariery. Mimo to istnieją pewne oczywiste ścieżki kariery, które naturalnie przechodzą od jednej roli i odpowiedzialności do następnej. Te kroki mogą być łatwiejsze do osiągnięcia, ponieważ są dobrze znane wielu osobom i są po prostu kolejnym etapem postępu. Nie ma w tym nic złego i w wielu przypadkach będzie to najlepszy kolejny krok do naśladowania. Na przykład, jeśli zdecydujesz się zostać naukowcem danych, istnieje szereg tytułów i poziomów ról i obowiązków, od młodszego do starszego, lidera i ostatecznie szefa. Ta ścieżka może następnie doprowadzić Cię do jeszcze wyższych ról, takich jak CTO, CIO lub CAIO. Wiele ścieżek kariery dzieli się na dwa strumienie. Jeden z nich koncentruje się na ciągłym zdobywaniu wiedzy technicznej, ogólnie określanej jako IC (indywidualny współpracownik), ale konkretne tytuły będą zgodne ze ścieżką kariery technicznej zdefiniowaną przez firmę, dla której pracujesz. Drugi strumień często jest zgodny z zarządzaniem zespołami i projektami i jest postrzegany jako ścieżka bardziej menedżerska. Czasami możesz zostać awansowany na stanowisko, które wymaga podążania jednym z tych dwóch strumieni; musisz upewnić się, że czujesz się z tym komfortowo, ale czasami może być trudno to wiedzieć, dopóki nie spróbujesz. Czasami w trakcie kariery pojawi się rozwidlenie drogi, wybór do podjęcia, który może zmienić twoje życie na zawsze. Często jedna droga będzie łatwa, a druga bardziej wymagająca i potencjalnie trudna (ale prawdopodobnie będzie zarówno bardziej satysfakcjonująca, jak i lepszą platformą do nauki i rozwoju). Kiedy myślę o swojej karierze, rozumiem, że droga jest kręta, z wieloma zmianami po drodze, niektórymi dużymi, innymi drobnymi. Fascynujące jest to, że chociaż jedna konkretna praca miała swoją rolę do odegrania, nie jest ona tak ważna jak kierunek podróży i długoterminowe cele, które sobie stawiasz. Osobiście nie mogłem przewidzieć, gdzie jestem teraz, ani co przyniesie przyszłość, ale wiem, że to ekscytujący czas i wszystko jest możliwe. To z pewnością wspaniały czas, aby pracować w technologii, a konkretnie w dziedzinie sztucznej inteligencji, więc dlaczego nie dołączyć do mnie?
Możliwości kariery w dziedzinie AI
Istnieje szeroki zakres ról i możliwości w działach technologicznych firm. Wiele ról wspiera ogólną funkcję tworzenia inteligentnych systemów i aplikacji. Niektóre z tych różnych ról obejmują:
Inżynier danych: Inżynierowie danych są odpowiedzialni za projektowanie i budowanie infrastruktury i procesów do przechowywania, przetwarzania i analizowania danych. Pracują nad zadaniami takimi jak budowanie potoków danych, procesy ekstrakcji, transformacji i ładowania (ETL) oraz systemy przechowywania i zarządzania danymi.
Inżynier uczenia maszynowego: Inżynierowie uczenia maszynowego są odpowiedzialni za projektowanie, budowanie i wdrażanie modeli i systemów uczenia maszynowego. Pracują nad zadaniami takimi jak opracowywanie i szkolenie modeli uczenia maszynowego oraz integrowanie ich ze środowiskami produkcyjnymi.
Analityk Business Intelligence: Analitycy Business Intelligence są odpowiedzialni za zbieranie, analizowanie i raportowanie danych biznesowych. Pracują nad zadaniami takimi jak budowanie pulpitów nawigacyjnych, tworzenie raportów i dostarczanie spostrzeżeń decydentom.
Inżynier DevOps lub MLOps: Inżynierowie DevOps są odpowiedzialni za integrację i dostarczanie aplikacji oprogramowania. Pracują nad zadaniami, takimi jak automatyzacja procesu kompilacji, testowania i wdrażania oraz utrzymanie infrastruktury i narzędzi używanych do tworzenia oprogramowania.
Administrator systemów: Administratorzy systemów odpowiadają za konserwację, obsługę i bezpieczeństwo systemów komputerowych. Pracują nad zadaniami, takimi jak instalowanie i konfigurowanie systemów, zarządzanie kontami użytkowników i rozwiązywanie problemów. Analityk danych: Analitycy danych odpowiadają za zbieranie, czyszczenie i analizowanie danych. Pracują nad zadaniami, takimi jak identyfikacja trendów i wzorców w danych oraz tworzenie raportów i wizualizacji w celu komunikowania swoich ustaleń.
Architekt danych: Architekci danych odpowiadają za projektowanie i zarządzanie infrastrukturą danych organizacji. Pracują nad zadaniami, takimi jak definiowanie modeli danych, wybieranie technologii przechowywania danych i wdrażanie środków bezpieczeństwa i prywatności danych.
Architekt rozwiązań w chmurze: Architekci rozwiązań w chmurze odpowiadają za projektowanie i wdrażanie systemów i rozwiązań opartych na chmurze. Pracują nad zadaniami, takimi jak wybieranie platform i technologii w chmurze oraz projektowanie i wdrażanie aplikacji i infrastruktury w chmurze.
Analityk bezpieczeństwa informacji: Analitycy bezpieczeństwa informacji odpowiadają za ochronę systemów komputerowych i sieci organizacji przed cyberzagrożeniami. Pracują nad zadaniami takimi jak identyfikacja i usuwanie luk w zabezpieczeniach oraz wdrażanie środków i zasad bezpieczeństwa.
Programista oprogramowania: Programiści oprogramowania są odpowiedzialni za projektowanie i tworzenie aplikacji oprogramowania. Pracują nad zadaniami takimi jak pisanie kodu, testowanie i debugowanie aplikacji oraz konserwacja i aktualizacja oprogramowania.
Specjalista ds. etyki danych: Specjalista ds. etyki danych jest odpowiedzialny za zapewnienie, że praktyki organizacji dotyczące danych są etyczne i odpowiedzialne. Może to obejmować zadania takie jak opracowywanie i wdrażanie zasad etyki danych, przeprowadzanie ocen ryzyka i doradzanie w kwestiach etycznych związanych z danymi.
Specjalista ds. łagodzenia stronniczości danych: Specjalista ds. łagodzenia stronniczości danych jest odpowiedzialny za identyfikację i usuwanie stronniczości w danych i systemach opartych na danych. Może to obejmować zadania takie jak analiza danych pod kątem IAS, opracowywanie strategii łagodzenia stronniczości i przeprowadzanie ocen uczciwości i stronniczości systemów opartych na danych.
Menedżer ds. zarządzania danymi: Menedżer ds. zarządzania danymi jest odpowiedzialny za ustanawianie i utrzymywanie zasad i procesów zarządzania i ochrony zasobów danych organizacji. Może to obejmować zadania takie jak definiowanie praw własności i dostępu do danych, ustanawianie zasad bezpieczeństwa i prywatności danych oraz wdrażanie ram zarządzania danymi.
Specjalista ds. zgodności danych: Specjalista ds. zgodności danych jest odpowiedzialny za zapewnienie, że praktyki organizacji dotyczące danych są zgodne z odpowiednimi przepisami prawa i regulacjami. Może to obejmować zadania takie jak przeprowadzanie ocen ryzyka, opracowywanie i wdrażanie zasad zgodności oraz doradzanie w kwestiach zgodności związanych z danymi.
Wraz z rozwojem tej dziedziny w nadchodzących latach powstanie wiele nowych ról, które po prostu nie istnieją w tej chwili. Ostatnio widzieliśmy to w przypadku roli inżyniera szybkiego reagowania i innych przykładów, takich jak oficer etyki AI.
Budowanie solidnych fundamentów
Aby odnieść sukces jako naukowiec zajmujący się danymi, ważne jest posiadanie solidnych fundamentów w matematyce, statystyce i informatyce, a także wiedzy i umiejętności specyficznych dla danej dziedziny. Naukowcy zajmujący się danymi powinni również mieć silne umiejętności rozwiązywania problemów i komunikacji oraz być w stanie efektywnie pracować w zespole. Podczas gdy umiejętności matematyczne, analityczne i informatyczne są bardzo ważne, umiejętności komunikacyjne są również istotną częścią tej roli. Podczas gdy wizualizacja danych pomaga w tym, umiejętność stworzenia właściwej narracji z implikacjami biznesowymi tego, co pokazują spostrzeżenia i wyniki modelu, jest podstawowym aspektem roli naukowca zajmującego się danymi. Rola naukowca zajmującego się danymi jest naprawdę multidyscyplinarna i wymaga szerokiego zakresu umiejętności twardych i miękkich, aby ją dobrze wykonywać. Dlatego jestem zwolennikiem tego, aby naukowcy zajmujący się danymi mieli szerokie podstawy wiedzy i doświadczenia - sprawia to, że osoby pochodzące z różnych obszarów i mające różne wcześniejsze doświadczenia są silnymi kandydatami, ale nie jest to obowiązkowe.
Zdobywanie praktycznego doświadczenia
Ostatecznie, nic nie zastąpi praktycznego doświadczenia i wiedzy na temat tego, jak faktycznie pracować z AI. Wszystko, co możesz zrobić, aby zdobyć pewien poziom praktycznego doświadczenia w świecie rzeczywistym, znacznie zwiększy Twoje szanse na pracę w tej dziedzinie. Dostępnych jest kilka bardzo przydatnych zasobów, które dadzą Ci szansę na rozwinięcie umiejętności praktycznych; zarówno Kaggle, jak i Hugging Face to doskonałe źródła danych i kodu, z których możesz się uczyć. Uzyskanie kont na jednej lub większej liczbie platform w chmurze i korzystanie z niektórych bezpłatnych, wstępnie wyszkolonych modeli to wspaniały i łatwy sposób na rozpoczęcie pracy i zbudowanie pewności siebie. "Ucz się przez działanie" to świetne motto tego, co musisz zrobić. Kiedyś brałem całe tygodnie wolnego w pracy (nazywałem je moimi Geek Weeks), aby "ostrzyć miecz" moich umiejętności i wiedzy, próbując nowych technologii i ucząc się nowych rzeczy. To cudownie odświeżające zarówno dla umysłu, jak i duszy. Rób trochę każdego dnia, a zdziwisz się, jak wiele możesz osiągnąć w ten stopniowy sposób w ciągu kilku tygodni i miesięcy. Po prostu nie poznasz siebie za sześć miesięcy lub rok. Jeśli masz czas, zgłoś się na ochotnika do pomocy małej organizacji, organizacji charytatywnej lub start-upowi. Będą bardzo wdzięczni za pomoc, a ty zdobędziesz praktyczne doświadczenie w świecie rzeczywistym. Jeśli jesteś studentem, znalezienie stażu w firmie wykorzystującej lub rozwijającej AI byłoby świetnym uzupełnieniem twojego CV. Jeśli nie możesz znaleźć żadnych możliwości zdobycia doświadczenia zawodowego, sama praca nad osobistym projektem da ci możliwość nauki i eksperymentowania z technologiami.
Networking i mentoring
Jednym z najważniejszych aspektów mojej kariery było znalezienie dobrych mentorów. Są oni nieocenionym źródłem doświadczenia, wiedzy i kontaktów, które będą miały tak pozytywny wpływ na Twoje życie zawodowe. Przez lata miałem wielu mentorów i prawdopodobnie będziesz musiał zmieniać mentorów od czasu do czasu; w miarę rozwoju Twoje potrzeby się zmieniają, a zatem doświadczenie, którego potrzebujesz od mentora, również będzie ewoluować. Ostatecznie odwdzięczysz się światu i zostaniesz mentorem dla kolejnych pokoleń; to piękna rzecz do zrobienia, zarówno jako mentor, jak i podopieczny. Warto włożyć w to wysiłek. Aby znaleźć mentora, poszukaj kogoś, kim chcesz być w ciągu najbliższych trzech do pięciu lat, a następnie po prostu zapytaj go. To nie jest dla każdego, więc nie obrażaj się, jeśli gdy kogoś zapytasz, odmówi - po prostu szukaj dalej i zapytaj kogoś innego. Niezależnie od tego, czy masz mentora, czy nie, jednym z Twoich największych atutów w życiu zawodowym będzie Twoja sieć kontaktów. Pielęgnuj ją i doceniaj, pomóż jej się rozwijać. Doceniaj ją i dawaj jej, a także proś ją o pomoc. Często zaskoczy cię na wiele sposobów. Nie należy niedoceniać mocy sieci. Będziesz również zdumiony, jak ludzie z twojej przeszłości mogą dramatycznie wpłynąć na twoją przyszłość. Twoja sieć jest twoim przyjacielem, może ci pomóc, gdy najbardziej jej potrzebujesz. Budowanie tej sieci na wczesnych etapach kariery wymaga czasu i wysiłku, a na początku może wydawać się kompletną stratą czasu, ponieważ nie widzisz żadnych nagród ani wyników na początku. Musisz się tego trzymać, ponieważ istnieje kumulująca się korzyść i zasadniczo potrzeba osiągnięcia masy krytycznej połączeń. Ale gdy już osiągniesz ten poziom, korzyści pojawią się, gdy ich będziesz potrzebować. Ostatecznie będziesz zaskoczony i wydzierżawiony losowymi możliwościami, jakie silna i szeroka sieć zaoferuje ci z czasem.
Bycie na bieżąco i adaptacja
Wielu uważa, że technologia rozwija się obecnie w tempie wykładniczym. Z tego, co widziałem w ciągu ostatnich kilku lat, w przypadku AI wydaje się, że jest jeszcze szybszy. Kiedy usługa ChatGPT OpenAI zyskała 100 milionów użytkowników w ciągu zaledwie dwóch miesięcy, zmieniła zasady gry nie tylko dla branży AI i technologii, ale także dla firm w ogóle. Wszyscy są teraz zainteresowani AI i tym, jak może ona zmienić przyszłość pracy dla nas wszystkich. Dla każdego, kto pracuje w branży AI, niezależnie od roli, oznacza to, że coraz trudniej jest nadążać za najnowszymi osiągnięciami. Wcześniej godny uwagi artykuł badawczy lub technika były wydawane raz na kilka miesięcy; teraz horyzont czasowy został skrócony do tygodni, a nawet dni. Nowe aplikacje, modele, badania, narzędzia i ramy pojawiają się cały czas. Nawet profesorowie AI muszą być aktywni w mediach społecznościowych, aby być dobrze poinformowanymi. A technologia to tylko część zmian; nowe przepisy, obawy etyczne, szczyty bezpieczeństwa AI, zmiany prawne
dotyczące patentów AI i wiele innych również mają miejsce cały czas. To globalny wyścig, a zatem wyjątkowo szybki; popełniane są błędy, ale korzyści przewyższają ryzyko na tym etapie. AI to nowe złoto i napędza ogromny pęd do głównego lądu i możliwości. Dla każdego, kto pracuje w dziedzinie AI, oznacza to, że musimy teraz poświęcić więcej czasu i wysiłku, aby nadążać za wszystkimi nowymi możliwościami. Lista zasobów, które pomogą Ci w tym zadaniu, jest dostępna na stronie internetowej Confident AI.
Zdobycie pierwszej pracy w AI
To prawdopodobnie najtrudniejsze stanowisko do zdobycia, ponieważ gdy już zaczniesz pracować w dziedzinie AI, o wiele łatwiej będzie Ci zmieniać role w jej obrębie. Aby zacząć, być może będziesz musiał przyjąć stanowisko niższego szczebla, niż byś chciał, lub w branży lub firmie, która może nie być Twoim pierwszym wyborem. Czasami możesz musieć poświęcić idealną rolę, aby po prostu wykonać ruch i po prostu uznać to za rolę pośrednią. Rozpoczęcie pracy w AI jest najważniejszym czynnikiem na początku, a niektórzy ludzie mogą jeszcze nie wiedzieć, jaka rola i branża są dla nich idealne. Czasami musisz wypróbować różne rzeczy, aby móc właściwie określić, czy to rola dla Ciebie. Z czasem pojawią się możliwości, które pozwolą Ci przenieść się do różnych obszarów lub ról, co pozwoli Ci zbadać różne opcje kariery. Przemieszczanie się nie jest złą rzeczą; to szerokie doświadczenie może Ci się przydać później w Twojej karierze, ponieważ zrozumienie różnych ról i obszarów pozwoli Ci zrozumieć, w jaki sposób wszystkie te różne aspekty łączą się, aby stworzyć wydajny i skuteczny zespół. Jeśli jesteś studentem, odbycie stażu, aby zbudować portfolio doświadczeń w świecie rzeczywistym, jest idealnym krokiem milowym i pozwoli Ci zbadać opcje przed podjęciem jakichkolwiek ważnych decyzji. Będziesz musiał pokazać swoją pasję do tej dziedziny w swoim CV, podkreślając wszelkie szkolenia i kursy, które ukończyłeś; wszelkie umiejętności, które zdobyłeś, w tym języki, frameworki i narzędzia, w których korzystałeś; wszelkie przeczytane książki, konferencje lub wydarzenia, w których uczestniczyłeś. Wykaż swoje zainteresowanie i skupienie na ciągłym uczeniu się.
Awans i rozwój zawodowy
Po znalezieniu pracy jako naukowiec ds. danych istnieje kilka sposobów na awans w karierze z czasem (wymienionych poniżej). Ale ostatecznie musisz mieć ucho przy ziemi i zorientować się w nowych możliwościach roli, zanim zrobią to inni, ponieważ jest to zawsze konkurencyjny rynek. Skupienie się na swojej sieci będzie dla Ciebie ważne, ponieważ wiele ról nie jest nawet reklamowanych - są obsadzane na podstawie poleceń i rekomendacji:
Ciągle się ucz: Będziesz musiał być na bieżąco z nowymi narzędziami i technikami; dziedzina nauki o danych stale się rozwija i ważne jest, aby być na bieżąco z nowymi osiągnięciami. Nowe artykuły i metody są obecnie publikowane co tydzień.
Podejmowanie obowiązków: oferowanie podjęcia dodatkowej pracy to najlepszy sposób na rozwijanie umiejętności, wiedzy i ostatecznie kariery. Chociaż początkowo może się to wydawać trudne, ostatecznie zobaczysz, jak ten wzrost obowiązków doprowadzi do możliwej zmiany w Twojej roli.
Podejmowanie ról kierowniczych: kierowanie projektami i zespołami zajmującymi się nauką o danych może pomóc Ci zdobyć cenne doświadczenie i umiejętności oraz otworzyć nowe możliwości kariery. Naturalną progresją będzie zostanie starszym naukowcem ds. danych, kierownikiem ds. nauki o danych, a nawet (w przypadku dużych firm) dyrektorem ds. sztucznej inteligencji.
Widoczność zewnętrzna: chociaż nigdy nie jest to priorytetem w przypadku większości ról, wykazanie zaangażowania w działania zewnętrzne zgodne z Twoimi zainteresowaniami nie tylko pomoże Ci poprawić Twoje umiejętności i doświadczenie, ale także pokaże Twojemu menedżerowi Twoją zdolność do wnoszenia wkładu w inne projekty i inicjatywy.
Zbuduj silną sieć: nawiązywanie kontaktów z innymi naukowcami ds. danych i profesjonalistami w tej dziedzinie może pomóc Ci dowiedzieć się o nowych możliwościach i pozostać w kontakcie z najnowszymi trendami i najlepszymi praktykami. Przez całą Twoją karierę zawodową Twoja sieć kontaktów będzie jednym z Twoich największych atutów; zacznij ją rozwijać już teraz (zajmie to trochę czasu, zanim zacznie przynosić efekty, ale w końcu nadejdą, a kiedy to nastąpi, często Cię zadziwisz).
Twoja kariera w AI zaczyna się teraz
Kiedy ludzie patrzą wstecz na swoją karierę i konkretne prace, wielu mówi, że zbyt długo pracowali na danym stanowisku i powinni byli mieć odwagę, aby zmienić je wcześniej. Zmiana jest trudna, a wykonywanie roli, którą pełniłeś przez jakiś czas, jest stosunkowo łatwe. Zmiana pracy, zwłaszcza robienie czegoś zupełnie nowego, jest ryzykiem i wyzwaniem. Zasadniczo dobrowolnie utrudniasz sobie życie w krótkim okresie, mając nadzieję, że poprawi to twoją sytuację w dłuższej perspektywie. Nie ma tu prostej odpowiedzi; musisz robić to, co uważasz za najlepsze i kiedy. Zawsze upewniałem się, że jestem w 100 procentach zadowolony z każdego wyboru kariery, którego dokonałem w tamtym czasie, biorąc pod uwagę wszystkie dostępne mi informacje. To wszystko, co możesz zrobić, aby zmniejszyć swoje ryzyko i upewnić się, że nie będziesz żałować, gdy spojrzysz wstecz na swoją karierę. Jest jeszcze jedna świetna rada, którą otrzymałem na początku mojej kariery, która bardzo mi służyła przez lata i opiera się na teorii procentu składanego. Zasadniczo rób coś każdego dnia, aby osiągnąć swój cel (cele), jakikolwiek by on nie był. Poświęć 15 minut, 30 minut, a nawet godzinę dziennie, aby zainwestować w swoje przyszłe "ja". Z czasem będzie to miało dramatyczny wpływ na Twoje umiejętności, doświadczenie i wiedzę oraz pozwoli Ci znacznie szybciej osiągnąć długoterminowe cele. Wykorzystanie tego podejścia do nauki czegoś nowego w dziedzinie AI, aby poszerzyć swoje umiejętności, pomoże Ci odnieść sukces, gdy pojawi się okazja do pracy w AI. Branża AI potrzebuje różnorodności ludzi, opinii, umiejętności i wiedzy, aby globalna adopcja i wykorzystanie AI były udane i solidne. Mam nadzieję, że dołączysz do wysiłku i pomożesz w realizacji tej ambicji.
Ostatnie przemyślenia
Początek kariery lub poważna zmiana kierunku kariery może wydawać się bardzo niekomfortowa, zasadniczo strach przed nieznanym. Jednak wkrótce zdasz sobie sprawę, że to podróż zawodowa jest najważniejszym i najbardziej wpływowym elementem Twoich przyszłych opcji kariery. Staniesz się czymś więcej niż sumą wszystkich ról i branż, w których pracowałeś przez lata. Zasadniczo to podróż sprawia, że jesteś wyjątkowy w miejscu pracy. Chociaż możesz zacząć jako młodszy programista lub naukowiec danych, będzie to kamień milowy do większych rzeczy w przyszłości. Podczas gdy praca w dziale technologicznym lub firmie będzie wymagała dużej wiedzy technicznej, istnieje tak szeroki zakres ról, które wymagają znacznie szerszego zestawu umiejętności i możliwości, że będzie rola najlepiej dopasowana do Twojej obecnej sytuacji. Życzę Ci wszystkiego najlepszego w Twojej karierze i bez wątpienia Twoja ścieżka będzie pełna zakrętów i zwrotów akcji. Ostatnia rada, jaką bym Ci dał, to po prostu zacznij i pobaw się kilkoma różnymi
zestawami danych i niektórymi różnymi platformami, strukturami i narzędziami ML, ponieważ najlepszym sposobem na naukę jest działanie. Wiele przydatnych zasobów jest dostępnych online, które pomogą Ci zacząć, w tym otwarte zestawy danych, kursy i samouczki.
Rozpoczęcie
Rozpoczęcie nowej ścieżki kariery jest często najtrudniejszą częścią każdej kariery. Będzie to zależało od Twojej osobistej sytuacji i wcześniejszego doświadczenia, jeśli chodzi o najlepszy sposób rozpoczęcia. W tym rozdziale udzielamy porad i wskazówek dotyczących różnych podejść, które możesz wybrać, ale ostatecznie każdy jest wyjątkowy i dlatego będzie podążał inną ścieżką niż inni. Nie ma tutaj dobrej ani złej odpowiedzi. Rozważanie mojej własnej kariery pokazuje dokładnie to. Moja podróż, doświadczenie i wiedza, zdobyte na różnych stanowiskach i w różnych firmach, dla których pracowałem, tworzą unikalne CV, które będzie idealne dla niektórych przyszłych ról, a mniej dla innych. Każdy z nas musi nawigować i wytyczać własną konkretną ścieżkę kariery, przy czym każdy krok po drodze jest najlepszym kolejnym krokiem na drodze do naszej przyszłości. Jest to jednocześnie ekscytujące i przerażające. Wiem, z mentoringu wielu osób w przeszłości, jak presja wiąże się z wykonaniem najlepszego pierwszego kroku. Dla tych, którzy chcą dokonać drastycznej zmiany kierunku, może być trudno podkreślić odpowiednie doświadczenie i umiejętności w nowym wyzwaniu, aby dać sobie najlepszą możliwą szansę. W obu przypadkach trzeba znaleźć sposoby, aby wyróżnić się z tłumu, ponieważ podczas gdy istnieje duże zapotrzebowanie na praktyków AI, istnieje również duża konkurencja - a jeśli jesteś nowy w tej dziedzinie, musisz wykazać się pragnieniem i entuzjazmem, jakie masz dla technologii (i branży aplikacji). Nie zapominaj, że to Twoje pochodzenie, zainteresowania, pasje, doświadczenie i wiedza sprawiają, że jesteś wyjątkowy i potencjalnie idealny do niektórych ról, i możesz nie wiedzieć, czego tak naprawdę szuka rekruter na podstawie opisu stanowiska. Podzielę porady na podstawie Twojego czasu spędzonego w komercyjnej sile roboczej, czy to jako student szukający swojej pierwszej pracy, czy jako profesjonalista szukający zmiany kierunku.
Studenci i pierwsza praca
Jeśli chcesz zostać naukowcem danych, możesz podjąć kilka kroków, aby rozpocząć naukę i rozwijać swoje umiejętności:
1 Zbuduj solidne podstawy z matematyki i statystyki: Obejmuje to takie tematy jak algebra liniowa, rachunek różniczkowy i całkowy, prawdopodobieństwo i wnioskowanie statystyczne.
2 Naucz się języka programowania: Naukowcy danych zazwyczaj używają języków takich jak Python lub R do manipulacji danymi, wizualizacji i uczenia maszynowego.
3 Przeglądaj zasoby online: Istnieje wiele kursów online, podręczników i samouczków dostępnych do nauki nauki o danych. Niektóre popularne opcje to Coursera, edX i DataCamp.
4 Ćwicz, pracując nad projektami: Zastosowanie swojej wiedzy do rzeczywistych problemów nauki o danych to świetny sposób na naukę i rozwijanie swoich umiejętności. Rozważ znalezienie zestawu danych i pracę nad projektem, który Cię interesuje.
Istnieje wiele możliwości kariery dla naukowców danych, w tym role w przemyśle, środowisku akademickim, rządowym i konsultingowym. Niektóre typowe tytuły zawodowe dla naukowców danych to naukowiec danych, analityk danych i analityk Business Intelligence. Aby zdobyć pracę jako naukowiec danych, ważne jest posiadanie silnego portfolio projektów i doświadczenia. Może to obejmować kursy i certyfikaty z zakresu nauki o danych, a także projekty, które ukończyłeś samodzielnie lub w zespole. Ważne jest również, aby mieć solidne zrozumienie narzędzi i technik stosowanych w nauce o danych oraz móc skutecznie komunikować swoje ustalenia. Często zdobycie pierwszej roli w nauce o danych będzie najtrudniejsze, ponieważ musisz wykazać się swoim zainteresowaniem i umiejętnościami, mając ograniczone możliwości ich zaprezentowania. Uczestnictwo w kursach online i wkład w inne projekty pomogą Ci zilustrować Twoje zaangażowanie w ten zawód. Warto również zauważyć, że nie musisz mieć dyplomu z informatyki lub uczenia maszynowego, aby pracować w dziale IT lub zespole ds. nauki o danych. Oczywiście to pomaga, ale nie jest niezbędne. Znam wiele osób pracujących na różnych stanowiskach w działach IT w małych i dużych firmach, które nie mają nawet dyplomów z zakresu STEM. Najważniejszym czynnikiem sukcesu jest wykazanie się pasją i głębokim pragnieniem pracy na stanowisku, o które się ubiegasz. Zrozum firmę, zrozum branżę i zrozum, na czym polega rola. Innym czynnikiem jest to, że gdy już zdobędziesz swoją firmową rolę jako naukowca danych i zbudujesz udaną historię dostaw, w zależności od wielkości firmy, możesz być w stanie zmieniać zespoły i role oraz próbować różnych rzeczy. Poszerzanie swojego doświadczenia to mądry cel na wczesnych latach kariery.
Profesjonaliści i zmiana kariery
Wiele porad dla studentów poszukujących pierwszej pracy w dziedzinie AI może dotyczyć bardziej dojrzałych i doświadczonych profesjonalistów, którzy chcą przejść do świata AI. Główną różnicą jest to, że masz znacznie większe doświadczenie w miejscu pracy i lepiej rozumiesz, co jest ważne i potrzebne do konkretnych ról. Często możesz zmienić swoje doświadczenie i uczynić je istotnym dla tej nowej dziedziny i branży. Podczas gdy dziedzina AI może wydawać się nieco tajemnicza i wyjątkowa, jest ona po prostu częścią technologii. Jest bardziej zaawansowana i wydajniejsza niż większość technologii, które pojawiły się przed nią, zbudowana inaczej niż poprzednie typy aplikacji i ma pewne unikalne wymagania dotyczące zarządzania i audytu, ale poza tym jest po prostu kolejnym elementem technologii, który jest używany do rozwiązywania problemów. Ta technologia, prawdopodobnie bardziej niż jakakolwiek inna, potrzebuje ludzi, którzy pomogą zarządzać i kontrolować jej wykorzystanie; ludzi z szeroką wiedzą i doświadczeniem, którzy potrafią dostrzec potencjalne problemy, zanim się pojawią, którzy potrafią zrozumieć dynamikę interakcji zespołów i grup, którzy znają wartość prawidłowego testowania i przeglądania tego typu systemów. Potrzebujemy dojrzałości i doświadczenia, aby mieć pewność, że technologia AI jest wdrażana prawidłowo, a wszyscy interesariusze są zaangażowani w każdy etap rozwoju, aby nie było niespodzianek podczas uruchamiania. Ryzyko, że systemy oparte na AI zawiodą i stworzą monumentalne problemy, oznacza, że potrzebujemy dojrzałego myślenia, aby zapewnić kontrolę i równowagę, bramki i punkty kontrolne, aby zapewnić, że wszystko jest wykonywane odpowiedzialnie i wiarygodnie. Jest to bardzo ważne teraz i będzie jeszcze ważniejsze, ponieważ adopcja AI będzie nadal rosła w nadchodzących latach. Potrzebujemy znacznie więcej niż tylko naukowców zajmujących się danymi, którzy osiągają wyniki akademickie; branża potrzebuje doświadczenia i wiedzy w tak wielu różnych obszarach. Możliwości dla doświadczonych profesjonalistów, aby przejść do dziedziny AI, są teraz większe niż kiedykolwiek wcześniej. Jednak rynek pracy jest konkurencyjny, więc jako doświadczony profesjonalista, który chce przejść do tego sektora, znalezienie sposobów na naukę jak najwięcej, aby być lepiej poinformowanym i bardziej doświadczonym, zwiększy Twoje szanse i pokaże Twoje głębokie zainteresowanie tematem (już zrobiłeś świetny początek, czytając tę książkę!). W sieci jest mnóstwo informacji udostępnianych na temat AI, zarówno technicznych, jak i bardziej ukierunkowanych na biznes, które pozwalają Ci lepiej poznać technologię. Dostępnych jest również wiele kursów i zasobów edukacyjnych (wiele z nich jest bezpłatnych). Nie musisz być ekspertem od AI, aby pracować w AI, wystarczy wykazać się solidnym zrozumieniem podstawowych zagadnień i docenianiem wyzwań i ryzyka związanego z technologią, a także szans i korzyści. Jak wcześniej szczegółowo opisano, w branży AI istnieje wiele różnych ról, z których każda ma różny poziom wymagań dotyczących wiedzy technicznej.
Inne uwagi
Doświadczeni profesjonaliści prawdopodobnie w wielu przypadkach nie będą musieli zmieniać firmy, aby zacząć pracować z AI lub w AI. Wiele firm zacznie rozważać wdrożenie AI w ciągu najbliższych kilku lat (jeśli jeszcze tego nie zrobiły). Otwiera to możliwości, aby po prostu dostosować się do tych projektów innowacyjnych i dać znać swoim menedżerom, że jesteś głęboko zainteresowany wspieraniem takich prac. Porozmawiaj ze swoimi menedżerami i innymi osobami, które znasz w całej organizacji; ktoś, gdzieś będzie myślał o wykorzystaniu AI lub nawet zacznie je badać. Znajdź sposób, aby się zaangażować, wesprzeć inicjatywę i zapewnić pomoc i wskazówki tym, którzy już zaczynają korzystać z technologii. Wdrożenie może przybierać różne formy; w niektórych przypadkach może to być korzystanie z niektórych nowych dostępnych narzędzi i aplikacji, w innych może to być korzystanie z nowych funkcji opartych na AI dostępnych w produktach oprogramowania, z których Twoja firma już korzysta. W innych przypadkach może zaistnieć potrzeba zbudowania czegoś bardziej dostosowanego i dostosowanego do konkretnych wymagań. We wszystkich tych opcjach będą sposoby, aby zaangażować się i wesprzeć projekt, aby zdobyć pierwsze doświadczenie.
Ostatnie przemyślenia
Wszystko, co możesz zrobić, aby pokazać swoje zainteresowanie i determinację do wejścia w dziedzinę AI, zostanie dobrze przyjęte przez każdego menedżera ds. rekrutacji. Temat AI wymaga ciągłej nauki, więc pokazanie swoich umiejętności w tym zakresie jest dla Ciebie dużym plusem w porównaniu z innymi. Wytrwałość jest również kluczem do sukcesu; możliwe, że nie dostaniesz pierwszej pracy, o którą się ubiegasz i na którą przejdziesz rozmowę kwalifikacyjną. Ale nie zawsze chodzi tylko o umiejętności i zdolności techniczne; komunikacja i dopasowanie osobowości są również czynnikami w procesie rekrutacji. Różni menedżerowie ds. rekrutacji będą mieli różne priorytety i profile ryzyka. To gra liczbowa i musisz ciągle próbować. Jeśli uważasz, że przeprowadzka jest dla Ciebie trudna, poszukaj firm, które pracują z AI i podejmij rolę bliższą Twojemu doświadczeniu; wtedy możesz rozważyć przejście na bok po pewnym czasie do roli, która jest lepiej dostosowana do Twoich długoterminowych celów. I na koniec wykorzystaj siłę swojej sieci i porozmawiaj z ludźmi, daj im znać, czego szukasz - będziesz zaskoczony, jakie możliwości mogą się dla Ciebie pojawić. Żadna zmiana kariery nie jest łatwa, nawet taka, która jest podobna do tej, którą wykonujesz od jakiegoś czasu. Ale nie ma nic lepszego niż wykonywanie roli, którą chcesz, która jest zarówno wyzwaniem, jak i ekscytacją w równym stopniu.
Różne zespoły i role
Każda firma i dział IT będzie się nieco różnić w sposobie organizowania zespołów i współpracy. Każdy kierownik ds. rozwoju, nauki o danych i dyrektor ds. technicznych będzie miał zdecydowane zdanie na temat właściwego sposobu wykonywania czynności. Nie ma dobrych ani złych, ale chodzi bardziej o to, co jest uważane za najlepszą praktykę i jak najlepiej dostosować się do reszty organizacji. Będzie to również w dużej mierze zależeć od dojrzałości wdrażania AI, w oparciu o 10 etapów lub trzy fazy zilustrowane na schemacie podróży wdrażania AI w rozdziale 3, a także od rozprzestrzeniania się AI w całej organizacji. Wielkość organizacji i sposób jej wewnętrznej organizacji również będą miały wpływ na te decyzje dotyczące struktury. W tym rozdziale podkreślę, w jaki sposób wszystkie różne role pasują do siebie, tworząc zespół lub zespoły, które mogą skutecznie i wydajnie działać zgodnie z wymaganiami.
Kandy nauki o danych
Metodologie rozwoju zmieniały się na przestrzeni lat; podczas gdy Waterfall był de facto podejściem wiele lat temu, większość zespołów i zarządzania projektami/programami przeszła na jedną formę rozwoju Agile, przyjmując bardziej przyrostowe podejście. Podejście Agile wymaga małych zespołów, które mogą rozwijać kompletne zadania, od początku do końca, od zmian w bazie danych po interfejs użytkownika i wszystko pomiędzy, co w naszej sytuacji obejmuje modele AI i ML. Te zespoły są zazwyczaj określane jako pody (lub zespoły sprinterskie), a skład osób i role w nich mogą zależeć od wielu czynników. Pody nauk o danych mogą być uważane za specjalistyczny typ zespołu programistycznego Agile, który ma członków nauki o danych, aby wspierać działanie budowania i integrowania modeli ML w określonych zadaniach budowania. Rozmiar podu może się również różnić, od trzech lub czterech osób do siedmiu lub ośmiu. Czasami osoba może mieć więcej niż jedną rolę w podu. Struktury podów mogą się również zmieniać w czasie, dodając więcej osób, gdy proces rekrutacji znajdzie dodatkowe zasoby.
Role podów
W przypadku podów zajmujących się nauką o danych, istnieje kilka podstawowych, niezbędnych ról, a także kilka opcjonalnych ról pomocniczych:
Inżynier danych: Inżynierowie danych są odpowiedzialni za projektowanie i budowanie infrastruktury i procesów przechowywania, przetwarzania i analizowania danych. Pracują nad zadaniami takimi jak budowanie potoków danych, procesy ekstrakcji, transformacji i ładowania (ETL) oraz systemy przechowywania i zarządzania danymi.
Inżynier uczenia maszynowego: Inżynierowie uczenia maszynowego są odpowiedzialni za projektowanie, budowanie i wdrażanie modeli i systemów uczenia maszynowego. Pracują nad zadaniami takimi jak opracowywanie i szkolenie modeli uczenia maszynowego oraz integrowanie ich ze środowiskami produkcyjnymi.
Analityk Business Intelligence: Analitycy Business Intelligence są odpowiedzialni za zbieranie, analizowanie i raportowanie danych biznesowych. Pracują nad zadaniami takimi jak budowanie pulpitów nawigacyjnych, tworzenie raportów i dostarczanie spostrzeżeń decydentom.
Analityk danych: Analitycy danych są odpowiedzialni za zbieranie, czyszczenie i analizowanie danych. Pracują nad zadaniami takimi jak identyfikowanie trendów i wzorców w danych oraz tworzenie raportów i wizualizacji w celu komunikowania swoich ustaleń.
Programista oprogramowania: Programiści oprogramowania są odpowiedzialni za projektowanie i budowanie aplikacji oprogramowania. Wykonują zadania takie jak pisanie kodu, testowanie i debugowanie aplikacji oraz konserwacja i aktualizacja oprogramowania. Ci, którzy mogą pracować nad wszystkimi częściami stosu technologicznego, od bazy danych po front-end, są czasami określani jako programiści full-stack.
Właściciel produktu: Często użytkownik biznesowy, który jest zasadniczo klientem tworzonej aplikacji lub systemu, będzie miał pogląd na względne priorytety funkcjonalności, a także będzie miał jasność co do tego, jak powinny działać określone części aplikacji.
Mistrz sprintu: Prowadzi spotkania sprintu i ogólnie pomaga eliminować wszelkie przeszkody i blokady, z którymi borykają się inni członkowie zespołu, zapewniając płynne działanie zespołu sprintu.
Role pomocnicze
Inżynier DevOps lub MLOps: Inżynierowie DevOps odpowiadają za integrację i dostarczanie aplikacji oprogramowania. Pracują nad zadaniami, takimi jak automatyzacja procesów kompilacji, testowania i wdrażania oraz utrzymanie infrastruktury i narzędzi używanych do tworzenia oprogramowania. Ta rola może być współdzielona przez kilka podów lub znajdować się poza nimi, ale w razie potrzeby może być wykorzystywana jako dodatkowy zasób częściowy.
Wizualizacja danych: Często zachodzi potrzeba zaprezentowania predykcyjnych spostrzeżeń z modeli ML; specjalista, który wizualizuje te wyniki, pomaga uczynić narrację danych łatwą do przyswojenia i wyjaśnienia.
Projektant doświadczenia użytkownika (UX): W zależności od rozwiązania aplikacji może zaistnieć potrzeba zaprojektowania interfejsu użytkownika w celu dostosowania go do analizy danych i potencjalnych opinii użytkowników.
W miarę rozwoju tej dziedziny w nadchodzących latach zostaną utworzone nowe role, które po prostu obecnie nie istnieją.
Inne role (poza podami)
Będzie wiele innych potencjalnych ról, które będą potrzebne poza poszczególnymi podami, ale będą wspierać zespoły grupowe/pod. Niektóre z tych ról mogą nadal obejmować codzienne zaangażowanie, podczas gdy inne mogą być konsultowane tylko od czasu do czasu w razie potrzeby:
Specjalista ds. etyki danych: Specjalista ds. etyki danych jest odpowiedzialny za zapewnienie, że praktyki dotyczące danych w organizacji są etyczne i odpowiedzialne. Może to obejmować zadania takie jak opracowywanie i wdrażanie zasad etyki danych, przeprowadzanie ocen ryzyka i doradzanie w kwestiach etycznych związanych z danymi.
Specjalista ds. łagodzenia stronniczości danych: Specjalista ds. łagodzenia stronniczości danych jest odpowiedzialny za identyfikowanie i rozwiązywanie stronniczości w danych i systemach opartych na danych. Może to obejmować zadania takie jak analizowanie danych pod kątem stronniczości, opracowywanie strategii łagodzenia stronniczości i przeprowadzanie ocen uczciwości i stronniczości systemów opartych na danych.
Administrator systemów: Administratorzy systemów są odpowiedzialni za konserwację, obsługę i bezpieczeństwo systemów komputerowych.
Pracują nad zadaniami takimi jak instalowanie i konfigurowanie systemów, zarządzanie kontami użytkowników i rozwiązywanie problemów.
Architekt danych: Architekci danych odpowiadają za projektowanie i zarządzanie infrastrukturą danych organizacji. Pracują nad zadaniami takimi jak definiowanie modeli danych, wybieranie technologii przechowywania danych i wdrażanie środków bezpieczeństwa i prywatności danych.
Architekt rozwiązań w chmurze: Architekci rozwiązań w chmurze odpowiadają za projektowanie i wdrażanie systemów i rozwiązań opartych na chmurze. Pracują nad zadaniami takimi jak wybieranie platform i technologii w chmurze oraz projektowanie i wdrażanie aplikacji i infrastruktury w chmurze.
Analityk bezpieczeństwa informacji: Analitycy bezpieczeństwa informacji odpowiadają za ochronę systemów komputerowych i sieci organizacji przed zagrożeniami cybernetycznymi. Pracują nad zadaniami takimi jak identyfikowanie i usuwanie luk w zabezpieczeniach oraz wdrażanie środków i zasad bezpieczeństwa.
Menedżer zarządzania danymi: Menedżer zarządzania danymi odpowiada za ustanawianie i utrzymywanie zasad i procesów zarządzania i ochrony zasobów danych organizacji. Może to obejmować zadania takie jak definiowanie praw własności i dostępu do danych, ustanawianie zasad bezpieczeństwa i prywatności danych oraz wdrażanie ram zarządzania danymi.
Specjalista ds. zgodności danych: Specjalista ds. zgodności danych odpowiada za zapewnienie, że praktyki dotyczące danych organizacji są zgodne z odpowiednimi przepisami prawa i regulacjami. Może to obejmować zadania takie jak przeprowadzanie oceny ryzyka, opracowywanie i wdrażanie zasad zgodności oraz doradzanie w kwestiach zgodności związanych z danymi.
Inni interesariusze
Każdy dział IT będzie miał szereg interesariuszy, którzy mają osobisty interes w powodzeniu różnych projektów. Oczywiście masz szefa obszaru biznesowego (użytkowników biznesowych), dla którego aplikacja/funkcjonalność jest tworzona. Będą oni bardzo zainteresowani sprawdzeniem, czy modele ML działają zgodnie z oczekiwaniami we wszystkich sytuacjach. W związku z tym będziesz mieć szefa zespołu IT lub grupy, który jest odpowiedzialny za bezpośrednie wsparcie tego zespołu biznesowego/funkcji. Będziesz mieć również inne role IT jako interesariuszy, w tym architekturę, ryzyko i zgodność, audyt wewnętrzny, zespoły wsparcia i zespoły testowe. Bardziej zaawansowane role IT mogą również mieć widoczność lub bezpośredni wpływ w zależności od skali projektu, w tym CAIO, CTO, CIO, CDO, a może nawet CEO kraju lub regionu (w zależności od wielkości firmy). Zrozumienie specyficznego krajobrazu korporacyjnego i zakresu potencjalnych interesariuszy, z którymi należy się skontaktować w określonych momentach projektu, jest niezbędne do płynnej realizacji.
Społeczności praktyki
W przypadku dużych organizacji ważne jest zaangażowanie całej firmy, współpraca i dzielenie się wiedzą ze wszystkimi, zapewnienie wszystkim możliwości zaangażowania się i wniesienia wkładu we wczesne etapy wykorzystania AI. Ważne jest, aby każdy w organizacji czuł, że ma głos w sposobie wdrażania AI i rolę do odegrania w początkowym podejściu do integracji AI. Utworzenie społeczności praktyki (CoP), grupy roboczej lub komitetu sterującego może być najlepszym sposobem na początkowe uspołecznienie wczesnych etapów wprowadzania AI. W tym przypadku CoP może pomóc zdefiniować najlepsze praktyki, standardy, narzędzia i ramy, które mają być stosowane w całej firmie lub grupie. Pozwala to ludziom mieć pewną kontrolę nad sposobem wdrażania AI w ich własnym obszarze, co pomaga ułatwić płynniejszą integrację.
STUDIUM PRZYPADKU
Grupa robocza ds. uczenia maszynowego w Credit Suisse W 2016 roku pracowałem w Credit Suisse w dziale IT ds. ryzyka i finansów. Widziałem, że banki inwestycyjne zaczynają interesować się wykorzystaniem AI i ML. Zrozumiałem, jak ważne jest koordynowanie wysiłków różnych grup w firmie, zarówno zespołów technologicznych, jak i użytkowników biznesowych. Dlatego też założyłem Machine Learning Working Group (MLWG) jako wirtualny zespół, łączący wszystkich w firmie, którzy byli zainteresowani lub rozwijali pilotaże ML lub dowody koncepcji. Szybko się utworzyliśmy, mieliśmy ponad 100 członków w całej firmie, którzy przyczynili się do zdefiniowania strategii, standardów i najlepszych praktyk oraz dzielili się doświadczeniami, kodem i spostrzeżeniami. Zaprosiliśmy dostawców AI do zaprezentowania nam ich technologii do przeglądu i współpracowaliśmy ze starszymi architektami i kierownictwem, aby zaangażować wszystkich, którzy powinni być interesariuszami, w grupę. To był ogromny sukces i działała ona nadal długo po tym, jak opuściłem firmę. Pomogła ukształtować strategię AI dla Credit Suisse i skoordynować wysiłki grup, które normalnie nie współpracowałyby. Ta grupa stworzyła podwaliny dla centrum doskonałości w nauce o danych, które zostało utworzone później i wykorzystało wiele z tego, co wyprodukowaliśmy, jako fundament do pracy.
Struktura organizacyjna
Dla małych firm może się to wydawać trywialne, ale dla większych organizacji sposób, w jaki zorganizowane są zespoły zajmujące się nauką o danych, a także wspierające je zespoły i grupy, może być ważnym czynnikiem sukcesu i jest ważnym elementem każdej strategii AI (zgodnie z definicją w rozdziale 9 dotyczącym strategii AI). Jak wspomniano wcześniej, struktura organizacyjna zespołów zajmujących się nauką o danych zależy od wielu czynników, w tym wielkości organizacji i dojrzałości wdrażania AI (tak, struktura prawdopodobnie zmieni się z czasem, w miarę jak doświadczenie z AI w całej firmie będzie rosło).
Podsumowanie
Wiedza o tym, jak firma się organizuje i jakie jest Twoje miejsce w niej, to dobry początek, aby określić, w jaki sposób będziesz zmierzać w kierunku awansu i zwiększonej odpowiedzialności (jeśli tego szukasz). Niektóre firmy oczekują, że będziesz chciał awansować i awansować na kolejne stanowiska i obowiązki, podczas gdy inne są zadowolone, dopóki dobrze sobie radzisz. Wiele firm będzie miało okresy, w których reorganizuje się z różnych powodów, a te okresy mogą być dodatkowymi okazjami do zmiany kariery i awansu. Trzymanie ręki na pulsie i śledzenie tego, co się dzieje, może pozwolić na wczesne ostrzeżenie o potencjalnych okazjach.
Ludzie
Ludzie są kluczem do wszelkiego postępu technologicznego i zmian; bez nas nic się tak naprawdę nie dzieje. Wkraczamy jednak w nową fazę, która wprowadza technologię opartą na sztucznej inteligencji, aby zwiększyć możliwości nas wszystkich, niezależnie od naszej roli. Nawet zawód naukowca zajmującego się danymi zostanie radykalnie wzmocniony dzięki agentom sztucznej inteligencji, którzy pomogą nam budować modele predykcyjne, optymalizować ich konfigurację i wydajność, a nawet pomagać w ich wdrażaniu, monitorowaniu i konserwacji. Wraz z rozwojem technologii ludzie będą musieli wykonywać bardziej kreatywną i złożoną pracę, patrząc na problemy o szerszym zasięgu i rozwiązując najtrudniejsze problemy, których nawet sztuczna inteligencja nie jest jeszcze gotowa rozwiązać. Popyt na talenty w dziedzinie sztucznej inteligencji jest duży i szybko rośnie w tej chwili, co oznacza, że jest wiele możliwości dla tych, którzy chcą wejść do tej dziedziny. Potrzebujemy jednak również osób o różnych umiejętnościach i zdolnościach; nie chodzi tylko o tych, którzy potrafią budować technologię, potrzebujemy szeregu ról obejmujących cały cykl życia i wiele dyscyplin. Możliwości pracy z lub w dziedzinie sztucznej inteligencji są bardzo szerokie. Teraz masz szansę pracować z najbardziej interesującą i wpływową technologią, w czasie, gdy obserwujemy wykładniczy wskaźnik zmian. Ekscytujące czasy dla wszystkich zaangażowanych.
Ludzie: kluczowe cechy
Ludzie są wyjątkowi, z tak różnorodnymi umiejętnościami, doświadczeniem, wiedzą i zdolnościami. Budowanie zespołów ludzi, którzy mają uzupełniające się umiejętności i doświadczenie, będzie miało kluczowe znaczenie dla sukcesu każdego działu IT budującego możliwości AI. Zazwyczaj każdy pracujący w dziedzinie AI będzie potrzebował połączenia pewnych umiejętności technicznych, jak również umiejętności miękkich. Jeśli chodzi o umiejętności miękkie, najważniejsza jest skuteczna komunikacja, ponieważ naukowcy zajmujący się danymi muszą przekazywać swoje ustalenia i spostrzeżenia zarówno interesariuszom technicznym, jak i nietechnicznym. Umiejętności rozwiązywania problemów są również krytyczne, ponieważ naukowcy zajmujący się danymi często mają za zadanie rozwikływanie złożonych problemów i opracowywanie innowacyjnych rozwiązań. Głęboka ciekawość eksploracji i zrozumienia danych jest niezbędna, podobnie jak umiejętność krytycznego myślenia i podchodzenia do problemów z kreatywnym nastawieniem. Adaptowalność to kolejna kluczowa umiejętność miękka, biorąc pod uwagę szybko rozwijającą się naturę nauki o danych i potrzebę pozostawania na bieżąco z pojawiającymi się technikami i technologiami. Na koniec, niezbędne jest silne poczucie etyki i odpowiedzialności, ponieważ naukowcy zajmujący się danymi często zajmują się poufnymi informacjami, co wymaga zaangażowania w prywatność danych i etyczne praktyki dotyczące danych. Kluczowe cechy naukowca danych. Co zatem wyróżnia dobrego naukowca danych? Cóż, istnieje kilka kluczowych cech i cech, które są ważne:
1 Silne umiejętności analityczne: Naukowcy danych muszą być w stanie analizować i interpretować złożone dane oraz wyciągać z nich znaczące wnioski.
2 Silne umiejętności rozwiązywania problemów: Naukowcy danych często stają w obliczu złożonych problemów, które wymagają kreatywnych i innowacyjnych rozwiązań.
3 Silne umiejętności komunikacyjne: Naukowcy danych muszą być w stanie skutecznie przekazywać swoje ustalenia i zalecenia szerokiemu gronu odbiorców, zarówno technicznym, jak i nietechnicznym.
4 Silne umiejętności pracy zespołowej: Projekty z zakresu nauk o danych często obejmują współpracę z zespołem innych naukowców danych, a także ekspertów przedmiotowych i interesariuszy.
Aby rozwijać i utrzymywać te umiejętności i cechy, ważne jest, aby naukowcy danych stale się uczyli i byli na bieżąco z nowymi narzędziami i technikami oraz szukali możliwości ćwiczenia i stosowania swoich umiejętności poprzez projekty i doświadczenie w świecie rzeczywistym. Bardzo ważne jest również, aby naukowcy danych rozumieli obszar biznesowy i branżę. Ostatecznie dane będą rzeczywistym i bieżącym odzwierciedleniem tego, co dzieje się w firmie. Ważne jest, aby być poinformowanym o krótkoterminowych i długoterminowych celach oraz priorytetach przedsiębiorstwa.
Rozwiązywanie problemów
Umiejętności rozwiązywania problemów są podstawą roli naukowca danych, ponieważ zajmują się oni złożonymi i często niejednoznacznymi wyzwaniami związanymi z danymi. Po pierwsze, naukowcy danych muszą wyróżniać się w jasnym i precyzyjnym definiowaniu problemów. Wiąże się to z rozbiciem skomplikowanych kwestii na łatwe do opanowania komponenty, identyfikacją kluczowych zmiennych i formułowaniem dobrze zdefiniowanych pytań badawczych. Umiejętność skutecznego formułowania problemów stanowi podstawę do opracowywania odpowiednich rozwiązań opartych na danych. Po drugie, naukowcy danych muszą wykazywać się silnymi umiejętnościami analitycznymi. Muszą wybierać odpowiednie techniki statystyczne i uczenia maszynowego do zastosowania w danym problemie, skutecznie obsługiwać i przetwarzać duże zbiory danych oraz identyfikować znaczące wzorce, trendy lub anomalie w danych. Znajomość wizualizacji danych jest również kluczowa, ponieważ umożliwia naukowcom danych wizualne przekazywanie swoich ustaleń, czyniąc złożone informacje bardziej dostępnymi i pomagając w rozwiązywaniu problemów zarówno dla interesariuszy technicznych, jak i nietechnicznych. Naukowcy danych muszą być biegli w opracowywaniu innowacyjnych podejść do rozwiązywania problemów. Obejmuje to zdolność do myślenia nieszablonowego, eksplorowania niekonwencjonalnych rozwiązań i dostosowywania się do zmieniających się okoliczności lub nowych danych. Kreatywność jest kluczowa przy rozwiązywaniu wyjątkowych lub nieprzewidzianych wyzwań, które mogą pojawić się w dziedzinie nauki o danych. Ponadto solidne podstawy wiedzy domenowej i umiejętność łączenia spostrzeżeń opartych na danych z rzeczywistymi zastosowaniami są kluczowe w dostarczaniu skutecznych wyników rozwiązywania problemów jako naukowiec zajmujący się danymi.
Umiejętności komunikacyjne
Skuteczne umiejętności komunikacyjne są niezbędne dla naukowców zajmujących się danymi we współczesnym świecie opartym na danych. Przede wszystkim naukowcy zajmujący się danymi muszą być biegli w tłumaczeniu złożonych ustaleń technicznych i spostrzeżeń na jasny i zrozumiały język dla interesariuszy nietechnicznych. Ta umiejętność łączenia zespołów technicznych i nietechnicznych jest kluczowa dla zapewnienia, że zalecenia i spostrzeżenia oparte na danych mogą być łatwo wdrażane przez decydentów w całej organizacji. Przejrzystość, prostota i korzystanie z pomocy wizualnych, takich jak wykresy i diagramy, są niezbędnymi narzędziami do skutecznego przekazywania złożonych koncepcji danych. Ponadto naukowcy zajmujący się danymi muszą posiadać silne umiejętności interpersonalne, aby skutecznie współpracować w zespołach międzyfunkcyjnych. Komunikacja oparta na współpracy obejmuje aktywne słuchanie, empatię i umiejętność formułowania koncepcji związanych z danymi w sposób sprzyjający wzajemnemu zrozumieniu wśród członków zespołu. Naukowcy zajmujący się danymi często pracują u boku inżynierów, analityków biznesowych i ekspertów dziedzinowych, więc zdolność do angażowania się w produktywne dyskusje, zadawania wnikliwych pytań i integrowania różnych perspektyw jest nieoceniona w rozwiązywaniu złożonych problemów i podejmowaniu decyzji opartych na danych. Innym kluczowym aspektem jest to, że naukowcy zajmujący się danymi muszą być biegli w przedstawianiu swoich ustaleń w sposób przekonujący. Wiąże się to z konstruowaniem przekonujących narracji wokół spostrzeżeń opartych na danych i dostosowywaniem prezentacji do konkretnych potrzeb i preferencji odbiorców. Niezależnie od tego, czy przemawiają do kadry kierowniczej wyższego szczebla, zespołów technicznych czy zewnętrznych interesariuszy, naukowcy zajmujący się danymi muszą jasno i przekonująco przekazywać znaczenie swoich ustaleń, implikacje dla organizacji i zalecane działania. Skuteczna komunikacja nie tylko ułatwia podejmowanie świadomych decyzji, ale także zwiększa wpływ i oddziaływanie naukowców zajmujących się danymi w ich organizacjach.
Praca zespołowa, polityka biurowa i osobowości
Polityka biurowa i sprzeczne osobowości mogą często mieć wpływ na postępy w karierze, zarówno w środowisku korporacyjnym, jak i w firmie typu start-up. Identyfikacja tych potencjalnych problemów tak szybko, jak to możliwe, i opracowanie strategii radzenia sobie z nimi będzie kolejnym kluczowym czynnikiem sukcesu. Te potencjalne problemy mogą być bardzo czasochłonne i stresujące dla zaangażowanych osób. Jest prawdopodobne, że w trakcie swojej kariery sam tego doświadczysz lub znasz kogoś, kto tego doświadczył lub obecnie doświadcza. Prawdopodobnie doświadczysz osób, które są bardziej głośne, przypisują sobie zasługi za twój wkład i wysiłki w pracy lub nie wkładają swojego ciężaru w zadania zespołowe, ciągle znajdując wymówki lub powody, dla których nie mogą czegoś zrobić, obwiniając inne osoby lub sytuacje, które na nie wpłynęły. Tego typu problemy są zawsze frustrujące i zazwyczaj, chociaż irytujące, mają tendencję do rozwiązywania się z czasem, ponieważ menedżer zauważy powtarzające się problemy i będzie musiał działać, aby pomóc osobie zmienić jej podejście. Jednak czasami lampart nie zmienia swoich plam, a niektóre osoby mają głęboko zakorzenione cechy osobowości, które oznaczają, że ten typ zachowania wydaje się być genetycznie zaprogramowany w sposobie ich pracy. Jest dobrze udokumentowane, że pewne osobowości mogą mieć destrukcyjny wpływ na miejsce pracy i siłę roboczą. Jeśli jesteś narażony na ten ciągły problem, możesz potrzebować być bardziej proaktywny, aby zmniejszyć jego wpływ na siebie. Te problemy są powszechne w każdym miejscu pracy i każdej wielkości organizacji i branży. Z pewnością nie jest to unikalne dla kariery w AI. Jednak w trakcie mojej kariery w technologii natknąłem się na swoją uczciwą część trudnych osobowości, które wymagały ostrożnego zarządzania i rozważenia, aby je przezwyciężyć, zmniejszając ich wpływ na moją własną ścieżkę kariery.
Wsparcie społeczności
Świat AI zawsze miał kulturę dzielenia się i otwartości, chociaż obecnie nieco się to zmienia ze względu na środowisko komercyjne i konkurencyjne, ponieważ AI zyskuje coraz większą użyteczność. Jednak podstawowe zasady dzielenia się i uczenia się nadal stanowią sedno naszej branży. Istnieje ogromna ilość otwartych i bezpłatnych informacji dostępnych dla każdego, kto chce się kształcić i zwiększać swoją wiedzę na ten temat. Istnieją sieci społecznościowe, grupy, kluby i wydarzenia, które zapewniają wszystkim wspaniałe możliwości zaangażowania się w szybko rozwijającą się technologię. To dzielenie się oparte na społeczności musi trwać, gdy rozwijamy możliwości i dostarczamy coraz bardziej złożone rozwiązania. Otwarta innowacja i wynalazczość będą najlepszym sposobem, aby zapewnić, że odpowiedzialna i godna zaufania sztuczna inteligencja jest budowana i szeroko wykorzystywana we wszystkich zakątkach świata. Tylko podejście społecznościowe i otwarte pozwoli nam uczynić naukę o danych zawodem, z którego można być dumnym, a wszyscy zaangażowani będą starali się postępować zgodnie z najlepszymi praktykami, aby dostarczać solidne i niezawodne rozwiązania.
Ostatnie przemyślenia
Większość z nas spędzi większość czasu i życia w środowisku pracy. Pracując z szeroką gamą ludzi, niektórzy staną się naszymi najlepszymi przyjaciółmi, z innymi będziemy często ścierać się na poziomie zawodowym, może z jedną lub dwiema osobami po prostu nie będziemy w stanie współpracować. Ostatecznie miejsce pracy potrzebuje różnorodności ludzi, pomysłów, podejść i możliwości; wszyscy musimy się szanować, ponieważ wszyscy jesteśmy w trakcie nauki i nikt nie jest doskonały. Jednym z najpiękniejszych doświadczeń w życiu jest pomaganie innym, a w zamian, gdy potrzebujesz pomocy, również ją znajdziesz. Bez popadania w religię, na tym świecie jest karma. Czasami, w mojej karierze, zaszły zmiany, zostały mi narzucone, z których w tamtym czasie byłem bardzo niezadowolony. Ale po namyśle, gdy patrzę wstecz z bardziej zrównoważoną perspektywą, widzę, że była to całkowicie słuszna decyzja i najlepsza rzecz dla mnie - czasami musisz zaufać ludziom wokół siebie, że dowiedzą się o tym wcześniej, niż sam się dowiesz. Twoje życie zawodowe będzie miało wzloty i upadki, a czasami może być trudne, a nawet niewygodne. Kiedy mi się to przytrafi, mówię sobie, żeby dać sobie czas (sześć miesięcy), ponieważ często rzeczy znowu się zmienią, poprawią lub zdam sobie sprawę, że korzystam na tej zmianie. Wielokrotnie, gdy miejsce pracy jest trudniejsze niż zwykle lub konkretny projekt jest wyjątkowo obciążony problemami (projekty czerwone), to wtedy jako jednostka nauczysz się o wiele więcej. To trudne i wymagające projekty lub prace zawsze najlepiej pamiętamy, po namyśle najwięcej się z nich nauczyliśmy. Twoja kariera jest wyjątkowa; zapewni Ci wiele możliwości i wzbogaci Twoje życie na wiele różnych sposobów. Nauka i opanowanie AI będzie teraz znaczącą częścią Twojej historii kariery - to ogromna szansa, więc wykorzystaj ją.
Zarządzanie, etyka i bezpieczeństwo
Dopiero w ostatnich latach, wraz z coraz powszechniejszym stosowaniem AI w świecie rzeczywistym i pozornie większym ryzykiem błędnych decyzji wynikających z tendencyjnych modeli, tematy zarządzania, etyki i bezpieczeństwa zostały podniesione do rangi najważniejszych dyskusji i rozważań dotyczących wdrażania i kontroli aplikacji i systemów AI. Terminologia ewoluowała w ciągu ostatnich kilku lat; początkowo była to odpowiedzialna AI, następnie etyczna AI, teraz nacisk kładzie się na bezpieczną i godną zaufania AI. Wszystkie one oznaczają mniej więcej to samo, ponieważ temat obejmuje pełen zakres obaw. Części branży, wraz z różnymi instytucjami i rządami, wzywają, a w niektórych przypadkach definiują, ramy prawne regulujące branżę AI, aby zapewnić, że wszystkie te obawy są zarządzane i kontrolowane w odpowiedni sposób w oparciu o poziom ryzyka związanego z różnymi aplikacjami i modelami. Wiele większych firm również zdefiniowało własne zasady zarządzania i użytkowania, wdrażając przepływy pracy, aby zapewnić właściwy przegląd i zatwierdzenie aplikacji opartych na AI. Jest to nowy obszar dla AI, część jego własnej podróży ku dojrzałości, aby zapewnić poziom bezpieczeństwa, zaufania i pewności, że aplikacje AI, których używamy, zostały zbudowane z odpowiednimi kontrolami i równowagami, aby zapewnić uczciwe i przejrzyste podejmowanie decyzji. Przyjrzymy się każdej części tego obszaru bardziej szczegółowo i podkreślimy potencjalne role i ścieżki kariery, które się pojawiają.
Zarządzanie
Zarządzanie i regulacja AI obejmują ustanawianie polityk, procedur i ram nadzorujących i kontrolujących rozwój, wdrażanie i wykorzystywanie sztucznej inteligencji. Głównym celem zarządzania i regulacji AI jest zapewnienie, że AI jest tworzona i wykorzystywana w sposób, który podtrzymuje standardy etyczne, odpowiedzialność i zgodność z wartościami społecznymi. Zarządzanie AI przedstawia wiele wyzwań i rozważań, w tym:
1 Etyczny rozwój i użytkowanie AI: Wiąże się to z zapewnieniem, że systemy AI są projektowane i wykorzystywane w sposób, który szanuje prawa człowieka, prywatność i godność, a jednocześnie zapobiega utrwalaniu lub wzmacnianiu uprzedzeń lub dyskryminacji.
2 Przejrzystość i rozliczalność AI: Wymaga to wdrożenia środków przejrzystości w procesach decyzyjnych systemów AI, wraz z mechanizmami pociągania tych systemów do odpowiedzialności za ich działania.
3 Bezpieczeństwo i niezawodność AI: Skupiamy się na zapewnieniu, że systemy AI działają bezpiecznie i niezawodnie, z zastosowaniem środków mających na celu złagodzenie powiązanych ryzyk.
4 Sprawiedliwe i odpowiedzialne wdrażanie AI: Obejmuje to zagwarantowanie sprawiedliwego podziału korzyści AI i minimalizowanie negatywnego wpływu na takie obszary, jak zatrudnienie, edukacja, finanse i społeczeństwo.
Różne podejścia i inicjatywy zostały zaproponowane lub wdrożone w celu rozwiązania tych wyzwań. Obejmują one kodeksy etyki, ramy regulacyjne i samoregulację branży. Skuteczne zarządzanie i regulacja AI wymagają współpracy między interesariuszami w ekosystemie AI, w tym rządami, podmiotami branżowymi, środowiskiem akademickim i społeczeństwem obywatelskim. Jednak poważnym wyzwaniem jest fakt, że chociaż wiele rządów wydało dokumenty i wytyczne w tej dziedzinie, mają one tendencję do bycia na wysokim szczeblu, pozostawiając firmom rozszyfrowanie, jak osiągnąć zgodność. W rezultacie różne organizacje, nawet w tej samej branży, mogą przyjąć nieco odmienne podejścia.
Etyka
Etyka i stronniczość danych to ważne kwestie w nauce o danych, ponieważ dane i modele, które tworzymy i wykorzystujemy, mogą mieć znaczący wpływ na społeczeństwo i jednostki. Ważne jest, aby naukowcy zajmujący się danymi byli świadomi kwestii etycznych i wyzwań, które mogą pojawić się w ich pracy, i podejmowali kroki w celu ich rozwiązania. Niektóre typowe problemy, z którymi mogą się spotkać naukowcy zajmujący się danymi, obejmują stronniczość w zbieraniu i analizie danych, obawy dotyczące prywatności i bezpieczeństwa oraz odpowiedzialne korzystanie ze sztucznej inteligencji. Techniki radzenia sobie ze stronniczością w danych i modelach obejmują czyszczenie i normalizację danych, naukę uczciwej reprezentacji i korzystanie z bezstronnych metryk oceny. Wiele dużych firm będzie już miało odpowiedzialne ramy sztucznej inteligencji, które pomogą zespołom naukowców zajmujących się danymi radzić sobie z wieloma wyzwaniami i potencjalnymi pułapkami etycznej sztucznej inteligencji. Jest to duży i złożony obszar sztucznej inteligencji, który z łatwością mógłby być tematem całej książki, ale niektóre z głównych obszarów, które należy wziąć pod uwagę, obejmują:
1 Stronniczość i uczciwość: Jednym z kluczowych problemów w etyce sztucznej inteligencji jest kwestia stronniczości i uczciwości. Systemy AI mogą wykazywać stronniczość, jeśli dane, na których są trenowane, są stronnicze lub jeśli algorytmy używane do ich opracowywania są stronnicze. Może to prowadzić do niesprawiedliwych lub dyskryminujących wyników dla niektórych grup ludzi.
2 Przejrzystość i wyjaśnialność: Innym ważnym tematem w etyce AI jest kwestia przejrzystości i wyjaśnialności. Wiele systemów AI jest złożonych i trudnych do zrozumienia, co utrudnia użytkownikom i regulatorom zrozumienie, jak działają i jakie czynniki wpływają na ich decyzje. Może to być problem, jeśli te systemy są wykorzystywane w wrażliwych obszarach, takich jak opieka zdrowotna lub wymiar sprawiedliwości w sprawach karnych.
3 Prywatność i bezpieczeństwo: Prywatność i bezpieczeństwo są również kluczowymi zagadnieniami w etyce AI. Systemy AI często przetwarzają poufne dane osobowe i istnieją obawy dotyczące sposobu gromadzenia, przechowywania i wykorzystywania tych danych. Istnieją również obawy dotyczące bezpieczeństwa systemów AI, ponieważ mogą być podatne na hakowanie i inne rodzaje cyberataków.
4 Prawa człowieka: Etyka AI obejmuje również kwestię praw człowieka, w tym prawa do prywatności, wolności słowa i niedyskryminacji. Istnieją obawy dotyczące wpływu systemów AI na te prawa oraz potencjalnego wykorzystania AI do łamania praw człowieka.
5 Wpływ społeczny: Innym ważnym tematem w etyce AI jest kwestia wpływu AI na społeczeństwo. Obejmuje to takie kwestie, jak potencjał AI do zakłócania działalności branż i tworzenia nowych miejsc pracy, a także potencjał AI do pogłębiania istniejących nierówności społecznych i ekonomicznych.
6 Autonomia i sprawczość: Systemy AI są coraz częściej rozwijane z autonomicznymi możliwościami, a istnieją obawy dotyczące tego, w jaki sposób te systemy będą podejmować decyzje i jaką rolę ludzie będą odgrywać w procesie podejmowania decyzji. Istnieją również obawy dotyczące potencjału systemów AI do posiadania sprawczości lub zdolności do działania we własnym imieniu.
7 Ramy i zasady etyczne: Trwają również debaty na temat ram i zasad etycznych, które powinny być wykorzystywane do kierowania rozwojem i wykorzystaniem AI. Debaty te obejmują takie kwestie, jak wartości i cele, które powinny być priorytetowe w rozwoju AI, oraz sposoby, w jakie te wartości i cele mogą być operacjonalizowane i mierzone.
8 Zaangażowanie i uczestnictwo publiczne: Etyka AI obejmuje również kwestię zaangażowania i uczestnictwa publicznego, w tym potrzebę publicznego dialogu i konsultacji na temat rozwoju i wykorzystania AI. Istnieją obawy dotyczące potrzeby inkluzywnego i zróżnicowanego uczestnictwa w tych debatach oraz sposobów, w jakie społeczeństwo może być zaangażowane w rozwój polityk i praktyk AI.
9 Podejścia interdyscyplinarne: Wreszcie, etyka AI obejmuje potrzebę podejść interdyscyplinarnych, które łączą wiedzę specjalistyczną z różnych dziedzin, w tym informatyki, filozofii, prawa, socjologii i innych dyscyplin. Jest to ważne, ponieważ AI ma potencjał, aby wpłynąć na wiele różnych aspektów społeczeństwa, a przy opracowywaniu podejść etycznych do AI konieczne jest uwzględnienie różnych perspektyw.
Bezpieczeństwo
Termin "bezpieczna i godna zaufania sztuczna inteligencja" jest stosunkowo nowy. Rozszerza on podstawowe koncepcje uczciwości i przejrzystości, które były stałą zasadą przewodnią etyki sztucznej inteligencji. Jednak jej zakres jest teraz znacznie szerszy, niż pierwotnie sądzono. Teraz rozumiemy znaczący wpływ modeli podstawowych lub granicznych, które szybko stają się osadzone w tak wielu różnych aplikacjach i rozwiązaniach. Jeśli nie zostaną odpowiednio przetestowane i certyfikowane przed tym szybkim zastosowaniem, istnieje duże ryzyko, że podstawowe problemy zostaną wzmocnione przez samo powszechne użycie. Rząd Wielkiej Brytanii przewodził światu, organizując pierwszy globalny szczyt bezpieczeństwa sztucznej inteligencji w 2023 r. Chociaż szczyt był niewielki pod względem liczby uczestników, wzięło w nim udział wiele rządów świata i głównych graczy technologicznych, a także zgodził się na utworzenie dedykowanego instytutu bezpieczeństwa sztucznej inteligencji. Zaufanie cyfrowe i godna zaufania sztuczna inteligencja W ramach zakresu bezpieczeństwa coraz ważniejsze jest to, w jaki sposób budujemy zaufanie użytkowników tych rozwiązań opartych na sztucznej inteligencji, mając dostęp do naszych danych i możliwość podejmowania zmieniających życie decyzji. Potrzebujemy więcej infrastruktury, która pomoże wykazać silne zarządzanie danymi i umożliwi użytkownikom podejmowanie aktywnych decyzji dotyczących sposobu wykorzystania ich cennych informacji, zarówno w szkoleniu tych modeli, jak i w podejmowaniu decyzji. Wierzę, że będzie to obszar silnej innowacji i przyszłych możliwości, tworzący możliwości na wszystkich poziomach procesu AI, od start-upów po największe korporacje. Z tego obszaru badań wyłonią się nowe role i ścieżki kariery - na które warto zwrócić uwagę.
Podstawowe zasady AI
Organizacje zdefiniują własne podstawowe zasady dotyczące sposobu tworzenia i wykorzystywania AI zarówno wewnętrznie, jak i zewnętrznie. Będą one wykorzystywane do zarządzania i kontrolowania całego procesu i przepływu pracy w zakresie nauki o danych. Będą one również informować pracowników, udziałowców, partnerów i klientów o podejściu, jakie każda firma ma do tej najważniejszej i przełomowej technologii. Jako przykład poniżej wymieniono sugerowany zestaw podstawowych zasad AI, które można by wykorzystać w dowolnej organizacji. Zasady te można by wykorzystać do informowania o wykorzystaniu i stosowaniu AI we wszystkich obszarach i funkcjach firmy. W przypadku każdej zasady omawiamy różne aspekty, które prawdopodobnie zostaną uwzględnione w każdej szczegółowej polityce lub strategii dotyczącej sztucznej inteligencji w zakresie etyki i odpowiedzialnej sztucznej inteligencji.
Zasada pierwsza: etyczne wykorzystanie AI
Oczywiste jest, że systemy AI mają potencjał oddziaływania na jednostki, społeczności i całe społeczeństwo. W związku z tym musimy wspólnie zobowiązać się do wykorzystywania, rozwijania, wdrażania i zarządzania technologiami AI w sposób zgodny z zasadami etycznymi, poszanowaniem praw człowieka i wartości społecznych.
Odpowiedzialność etyczna:
Zaangażowanie zaczyna się od uznania odpowiedzialności etycznej. Zrozum, że technologie AI, gdy są wykorzystywane nieodpowiedzialnie, mogą mieć negatywne konsekwencje. Dlatego ważne jest zobowiązanie do proaktywnego zajmowania się wymiarami etycznymi AI w całym cyklu jej życia, od koncepcji i rozwoju po wdrożenie i konserwację.
Ochrona praw człowieka:
Kluczowe jest uznanie znaczenia zachowania i ochrony praw człowieka w erze AI. Podejście do wdrażania AI powinno zawsze obejmować rygorystyczną ocenę potencjalnych implikacji dla praw człowieka. Wiąże się to z zapewnieniem, że AI nie narusza prywatności, wolności słowa ani żadnych innych podstawowych praw.
Ocena wpływu społecznego:
Należy podjąć działania w celu oceny wpływu społecznego AI. AI może zmieniać kształt branż, tworzyć nowe możliwości i potencjalnie zakłócać istniejące normy. Dlatego ważne jest przeprowadzanie bieżących ocen w celu przewidywania i łagodzenia wszelkich negatywnych skutków AI, w szczególności tych, które mogą nieproporcjonalnie wpływać na wrażliwe populacje.
Promowanie pozytywnych zmian:
AI jest potężnym narzędziem pozytywnych zmian i może być wykorzystywane do rozwiązywania pilnych wyzwań społecznych, poprawy jakości życia i przyczyniania się do rozwoju wiedzy, bez poświęcania kwestii etycznych.
Podejmowanie decyzji etycznych:
Kwestie etyczne powinny być na pierwszym planie procesu decyzyjnego każdej firmy, nadając priorytet odpowiedzialnemu rozwojowi, wdrażaniu i zarządzaniu AI poprzez przeprowadzanie dokładnych ocen etycznych i ciągłe monitorowanie wpływu inicjatyw AI na jednostki i społeczeństwo.
Zasada druga: Zgodność z obowiązującymi przepisami i regulacjami
Większość, jeśli nie wszystkie organizacje, jest zobowiązana do przestrzegania wszystkich stosownych lokalnych, krajowych i międzynarodowych przepisów, regulacji i standardów branżowych regulujących korzystanie z technologii AI. Obejmuje to, ale nie ogranicza się do przepisów dotyczących ochrony danych i prywatności (np. ogólnego rozporządzenia o ochronie danych (RODO), ustawy California Consumer Privacy Act (CCPA)), przepisów antydyskryminacyjnych, praw własności intelektualnej i wszelkich innych stosownych wymogów prawnych.
Odpowiedzialność prawna:
Zaangażowanie organizacji w zgodność zaczyna się od głębokiego poczucia odpowiedzialności prawnej, uznając, że korzystanie z technologii AI wiąże się z nieodłącznymi obowiązkami prawnymi i że jesteśmy niezachwiani w naszym zobowiązaniu do spełniania tych obowiązków w każdym aspekcie naszych operacji AI.
Ochrona danych i prywatność:
Jednym z kluczowych aspektów zgodności jest ścisłe przestrzeganie przepisów dotyczących ochrony danych i prywatności, takich jak RODO i CCPA. Aby chronić dane osobowe osób fizycznych, systemy AI muszą przestrzegać najwyższych standardów ochrony danych i prywatności.
Przeciwdziałanie dyskryminacji i uczciwość:
Systemy AI muszą być opracowywane i wdrażane z zaangażowaniem w zasady uczciwości i przeciwdziałania dyskryminacji. Firmy nie powinny angażować się w żadne praktyki, które mogłyby prowadzić do stronniczości, dyskryminacji lub niesprawiedliwego traktowania ze względu na rasę, płeć, wiek lub jakąkolwiek inną chronioną cechę. Muszą zapewnić, że AI będzie zaprojektowana w celu promowania różnorodności, równości i integracji.
Prawa własności intelektualnej:
Poszanowanie praw własności intelektualnej jest integralną częścią zgodności korporacyjnej. Firmy nie powinny naruszać własności intelektualnej innych osób w działaniach związanych z rozwojem i wdrażaniem AI i muszą podejmować niezbędne kroki w celu ochrony własnej własności intelektualnej w przestrzeni AI.
Przejrzystość w zarządzaniu:
Aby zapewnić zgodność, firmy będą utrzymywać przejrzyste struktury zarządzania w całej organizacji. Będą wyznaczać dedykowanych pracowników ds. zgodności i ekspertów prawnych, którzy będą nadzorować działania związane z AI, przeprowadzać regularne audyty i być na bieżąco ze zmieniającymi się wymogami prawnymi w dziedzinie AI.
Szkolenie i edukacja:
Firmy będą inwestować w ciągłe szkolenia i edukację dla pracowników, aby zapewnić, że są oni dobrze poinformowani o wymogach prawnych związanych z AI. Daje im to możliwość podejmowania świadomych decyzji i ograniczania ryzyka prawnego związanego z wykorzystaniem AI. Współpraca z organami regulacyjnymi: Organizacje będą zobowiązane do aktywnej współpracy z organami regulacyjnymi i stowarzyszeniami branżowymi, aby pomóc w kształtowaniu odpowiedzialnych praktyk i standardów AI. Będą uczestniczyć w dyskusjach, dzielić się wiedzą i wspierać rozwój ram regulacyjnych, które zapewniają etyczne i zgodne z prawem wykorzystanie AI.
Zasada trzecia: Odpowiedzialność i odpowiedzialność
Odpowiedzialność i odpowiedzialność to podstawowe zasady każdego systemu zarządzania AI, pociągające osoby zaangażowane do odpowiedzialności za wyniki i skutki systemów AI wdrożonych w organizacji. Odpowiedzialność za decyzje i działania dotyczące AI jest jasno zdefiniowana i dostosowana do ról i struktur organizacyjnych. Osobom i zespołom zaangażowanym w tworzenie i korzystanie z AI należy przypisać jasne role i obowiązki.
Odpowiedzialność za wyniki:
Liderzy biznesowi będą chcieli ponosić odpowiedzialność za wyniki i skutki systemów AI wdrożonych w ich organizacji. Niezależnie od tego, czy konsekwencje są pozytywne, czy negatywne, biorą odpowiedzialność za wyniki wszystkich inicjatyw AI. To zobowiązanie obejmuje działania i decyzje podejmowane przez systemy AI pod naszą kontrolą.
Określenie ról i obowiązków:
Jasne role i obowiązki są niezbędnymi elementami naszych ram odpowiedzialności. Firmy powinny upewnić się, że osoby i zespoły zaangażowane w rozwój, wdrażanie i zarządzanie AI mają dobrze zdefiniowane role, które są zgodne ze strukturami organizacyjnymi. Ta jasność pomaga ustalić linie odpowiedzialności, dzięki czemu jest jasne, kto odpowiada za określone aspekty projektów AI.
Przejrzystość w podejmowaniu decyzji:
Przejrzystość jest kluczem do odpowiedzialności. Firmy muszą działać, aby zachować przejrzystość we wszystkich procesach decyzyjnych dotyczących AI, zapewniając, że osoby zaangażowane w projekty AI są świadome swoich obowiązków i potencjalnych konsekwencji swoich decyzji. Otwarta komunikacja sprzyja kulturze odpowiedzialności w naszej organizacji.
Odpowiedzialność etyczna i prawna:
Oprócz odpowiedzialności organizacyjnej liderzy powinni uznać znaczenie odpowiedzialności etycznej i prawnej. Inicjatywy AI muszą być zgodne z wytycznymi etycznymi i przestrzegać wszystkich stosownych przepisów i regulacji. Organizacje powinny zobowiązać się do prowadzenia działań AI w sposób etyczny, zgodny z wartościami korporacyjnymi i standardami społecznymi.
Ciągły monitoring i ocena:
Odpowiedzialność to ciągły proces, dlatego firmy powinny stale monitorować i oceniać wydajność systemów AI oraz wpływ swoich działań. To proaktywne podejście pomaga szybko identyfikować i rozwiązywać wszelkie problemy, zapewniając, że AI pozostaje pozytywną siłą w organizacji.
Odpowiedzialność za działania AI:
Organizacje powinny wziąć odpowiedzialność za działania systemów AI, które są pod ich kontrolą. Obejmuje to zajęcie się wszelkimi niezamierzonymi konsekwencjami, stronniczością lub dylematami etycznymi, które mogą się pojawić. Najprawdopodobniej zobowiążą się do naprawienia wszelkich negatywnych skutków i wyciągnięcia wniosków z tych doświadczeń, aby udoskonalić swoje praktyki AI.
Szkolenie i edukacja:
Ważne jest, aby firmy inwestowały w szkolenie i edukację osób i zespołów, aby zapewnić, że są one dobrze wyposażone do wypełniania swoich ról i obowiązków w projektach AI. Obejmuje to zapewnienie im wiedzy i narzędzi niezbędnych do podejmowania świadomych decyzji i łagodzenia ryzyka.
Zasada czwarta: przejrzystość i możliwość wyjaśnienia
Przejrzystość i możliwość wyjaśnienia są kluczowe dla budowania zaufania do korzystania z systemów AI. Organizacje każdej wielkości powinny zobowiązać się do uczynienia procesów, decyzji i wyników AI tak przejrzystymi, jak to możliwe, jednocześnie zapewniając, że osoby i interesariusze mogą zrozumieć i szukać wyjaśnień dla wyników generowanych przez AI, gdy jest to konieczne.
Znaczenie przejrzystości:
Przejrzystość jest podstawą zaufania. Firmy muszą zdać sobie sprawę, że aby budować zaufanie do systemów AI, muszą zapewnić przejrzystość sposobu ich działania. Obejmuje to udostępnienie osobom i interesariuszom wewnętrznego działania algorytmów AI, źródeł danych i procesów decyzyjnych.
Dostępne wyjaśnienia:
Możliwość wyjaśnienia idzie w parze z przejrzystością. Firmy powinny zobowiązać się do zapewnienia, że osoby i interesariusze mogą szukać wyjaśnień dla wyników generowanych przez AI, gdy jest to konieczne. Ich systemy AI muszą zapewniać jasne i dostępne wyjaśnienia, które są zrozumiałe dla użytkowników nietechnicznych.
Upoważnianie osób:
Postępowy pogląd jest taki, że przejrzystość i możliwość wyjaśnienia są narzędziami do wzmacniania pozycji. Zapewniając jednostkom wgląd w sposób podejmowania decyzji dotyczących AI, umożliwiamy im podejmowanie świadomych wyborów i sprawowanie kontroli w ich interakcjach z systemami AI.
Prywatność i przejrzystość danych:
Przejrzystość obejmuje również wykorzystanie danych i prywatność. Organizacje będą zobowiązane do przejrzystości w zakresie gromadzonych danych, sposobu ich wykorzystania oraz środków stosowanych w celu ochrony praw osób do prywatności. Osoby mają prawo wiedzieć, w jaki sposób ich dane są wykorzystywane w systemach AI.
Zgodność z przepisami:
Działania na rzecz przejrzystości powinny być zgodne z wymogami prawnymi i regulacyjnymi, takimi jak "prawo do wyjaśnień" RODO, zapewniając, że osoby mogą korzystać ze swoich praw do poszukiwania wyjaśnień i rozumieć podstawy decyzji dotyczących AI zgodnie z wymogami odpowiednich przepisów.
Komunikacja przyjazna dla użytkownika:
Pomoże to nadać priorytet komunikacji przyjaznej dla użytkownika we wszelkich działaniach na rzecz przejrzystości i możliwości wyjaśnienia. Obejmuje to stosowanie prostego języka i pomocy wizualnych, aby złożone procesy i wyniki AI były bardziej zrozumiałe dla szerszej publiczności.
Zasada piąta: Prywatność i ochrona danych
Prywatność i ochrona danych osób fizycznych są najważniejsze. Firmy muszą przestrzegać rygorystycznych standardów prywatności i ochrony danych, zapewniając, że dane osobowe i poufne wykorzystywane w systemach AI są przetwarzane zgodnie z obowiązującymi przepisami prawa. Obejmuje to anonimizację danych, szyfrowanie i kontrolę dostępu.
Prywatność danych i zgodność z prawem:
Zaangażowanie w prywatność i ochronę danych zaczyna się od ścisłego przestrzegania obowiązujących przepisów prawa i regulacji dotyczących prywatności danych, takich jak RODO i CCPA. Firmy podejmą wszelkie niezbędne środki, aby zapewnić zgodność systemów AI z tymi normami prawnymi.
Minimalizacja i anonimizacja danych:
Rozsądnym podejściem jest praktykowanie minimalizacji danych, zapewniając, że zbierane i wykorzystywane są tylko dane niezbędne do określonych zastosowań AI, oprócz stosowania solidnych technik anonimizacji danych w celu ochrony tożsamości i prywatności osób fizycznych. Dane, które nie są niezbędne do przetwarzania AI, są starannie wykluczane w celu zminimalizowania potencjalnych zagrożeń.
Szyfrowanie i środki bezpieczeństwa:
Aby chronić dane osobowe i poufne, firmy powinny wdrożyć najnowocześniejsze środki szyfrowania i bezpieczeństwa, zapewniając ochronę danych w spoczynku i w ruchu, aby zapobiec nieautoryzowanemu dostępowi, naruszeniom lub wyciekom danych. Protokoły bezpieczeństwa muszą być zgodne z najlepszymi praktykami branżowymi, aby zachować integralność i poufność danych.
Kontrole dostępu i uprawnienia:
Najlepszą praktyką jest ustanowienie rygorystycznych kontroli dostępu i uprawnień w celu ograniczenia, kto może uzyskać dostęp do danych i manipulować nimi w naszych systemach AI. Kontrole te mają na celu zapobieganie nieautoryzowanemu dostępowi i niewłaściwemu wykorzystaniu danych, co dodatkowo wzmacnia ochronę danych.
Etyczne przetwarzanie danych:
Organizacje powinny wykazać się zaangażowaniem w ochronę prywatności danych, które obejmuje etyczne przetwarzanie danych, zapewniając, że dane wykorzystywane w systemach AI są traktowane z największym szacunkiem i że unikamy wszelkich nieetycznych praktyk, w tym wykorzystywania danych osobowych do celów innych niż te wyraźnie autoryzowane przez osoby.
Przejrzystość praktyk dotyczących danych:
Zespoły ds. danych muszą zachować przejrzystość praktyk dotyczących danych. Osoby są informowane o rodzajach gromadzonych danych, sposobie ich wykorzystywania i celach, w jakich są wykorzystywane w naszych systemach AI. Powinny one również dostarczać osobom jasnych informacji o ich prawach dotyczących danych i sposobie ich realizacji.
Ciągły monitoring i audyt:
Dział zarządzania IT będzie zajmował się ciągłym monitorowaniem i audytem praktyk przetwarzania danych w celu zapewnienia ciągłej zgodności ze standardami prywatności i ochrony danych. Wszelkie zidentyfikowane problemy są niezwłocznie rozwiązywane w celu utrzymania najwyższego poziomu bezpieczeństwa danych.
Prawa podmiotów danych:
Korporacje są zobowiązane do przestrzegania praw podmiotów danych, takich jak prawo dostępu, sprostowania lub usunięcia danych osobowych. Osoby mają prawo do kontrolowania swoich danych w systemach AI, a firmy zapewnią im mechanizmy umożliwiające realizację tych praw.
Zasada szósta: Korzystny wpływ
Firmy będą dążyć do wykorzystania technologii AI dla dobra swoich interesariuszy, w tym klientów, pracowników, partnerów i szerszej społeczności. Będą dążyć do maksymalizacji pozytywnego wpływu AI przy jednoczesnym minimalizowaniu potencjalnych szkód, poprzez poprawę wydajności, lepsze podejmowanie decyzji i ulepszone doświadczenia użytkowników. Jednocześnie będą poświęcać się minimalizowaniu wszelkich potencjalnych negatywnych skutków lub szkód, które mogą wynikać z wykorzystania AI.
Maksymalizacja pozytywnego wpływu:
Głównym celem w tym nowoczesnym środowisku napędzanym przez AI jest maksymalizacja pozytywnego wpływu AI na wszystkie aspekty działalności firmy. Obejmuje to poprawę wydajności, usprawnienie procesów podejmowania decyzji i tworzenie lepszych doświadczeń użytkowników, postrzeganie AI jako potężnego narzędzia do napędzania innowacji i pozytywnych zmian oraz aktywne poszukiwanie możliwości wykorzystania AI dla dobra interesariuszy.
Podejście skoncentrowane na użytkowniku:
Podejście skoncentrowane na użytkowniku prawdopodobnie będzie kluczowe dla każdego zobowiązania do korzystnego wpływu. Organizacje będą aktywnie współpracować z klientami i społecznościami, aby zrozumieć ich potrzeby, preferencje i obawy, jeśli chodzi o zastosowania AI. Zapewnia to, że opracowane rozwiązania AI są dostosowane do dostarczania namacalnych korzyści i poprawy dobrostanu wszystkich interesariuszy.
Łagodzenie negatywnych skutków:
Większość firm będzie dążyć do maksymalnego pozytywnego wpływu i będzie równie oddana minimalizowaniu i łagodzeniu wszelkich potencjalnych negatywnych konsekwencji lub szkód wynikających z korzystania z AI. Obejmuje to rozwiązywanie problemów związanych z uprzedzeniami, dyskryminacją, naruszeniem prywatności i wszelkimi innymi negatywnymi skutkami, które mogą wystąpić.
Ciągłe doskonalenie:
W tym szybko zmieniającym się środowisku krajobraz AI jest dynamiczny, a technologia szybko się rozwija. Dlatego organizacje muszą być zaangażowane w ciągłe doskonalenie praktyk AI, aktywnie monitorując i oceniając wpływ wdrożeń AI oraz dostosowując strategie, aby zapewnić, że korzyści nadal przewyższają wszelkie potencjalne szkody.
Współpraca na rzecz wpływu:
W tak połączonym i usieciowanym świecie firmy muszą aktywnie współpracować z partnerami, klientami i szerszą społecznością, aby identyfikować możliwości pozytywnego wpływu napędzanego przez AI. Współpracując, możemy zmaksymalizować zbiorowe korzyści, jakie AI może przynieść społeczeństwu.
Zasada siódma: Podejście zorientowane na człowieka
Technologie AI to narzędzia, które powinny zwiększać ludzkie możliwości i wspomagać podejmowanie decyzji, a nie zastępować ludzkiego osądu i empatii. Priorytetowe traktowanie podejścia zorientowanego na człowieka w korzystaniu z narzędzi i aplikacji AI pozwala na uwzględnienie dobrostanu i potrzeb jednostek i społeczności w każdej decyzji związanej z AI. Każdy powinien zdawać sobie sprawę ze znaczenia ludzkiego osądu, empatii i rozważań etycznych w każdym zastosowaniu AI.
AI jako ulepszenie, a nie zamiennik:
Kluczowym elementem każdego podejścia zorientowanego na człowieka jest zrozumienie, że AI jest narzędziem mającym na celu wzmocnienie i rozszerzenie ludzkich możliwości. Postrzegaj AI jako środek do zwiększania podejmowania decyzji, wydajności i produktywności, ale nie jako substytut unikalnych cech ludzkiego osądu, empatii i etycznego rozeznania.
Empatia i rozważania etyczne:
Połóż silny nacisk na rolę empatii i rozważań etycznych w rozwoju i wdrażaniu technologii AI. Uznaj, że systemy AI muszą być projektowane z myślą o empatii, biorąc pod uwagę potencjalny wpływ na ludzkie emocje i doświadczenia. Ponadto zobowiąż się do uwzględnienia kwestii etycznych w procesach podejmowania decyzji dotyczących AI, aby zapewnić, że wdrażane technologie są zgodne z tymi wartościami i szanują prawa człowieka.
Projektowanie zorientowane na użytkownika:
W idealnym przypadku podejście do rozwoju AI opiera się na filozofii projektowania zorientowanego na użytkownika. Aktywnie współpracuj z osobami i społecznościami, aby zrozumieć ich potrzeby, preferencje i obawy dotyczące aplikacji AI. To podejście zorientowane na użytkownika zapewnia, że rozwiązania AI są dostosowane do korzyści i wzmocnienia pozycji osób, które z nimi wchodzą w interakcje.
Wzmocnienie potencjału ludzkiego:
AI to sposób na wzmocnienie potencjału ludzkiego w różnych domenach i funkcjach. Celem jest opracowanie aplikacji AI, które nie tylko zwiększają wydajność, ale także przyczyniają się pozytywnie do wszystkich zaangażowanych, w tym zarówno personelu, jak i klientów.
Nadzór i kontrola człowieka:
Znaczenie nadzoru i kontroli człowieka w systemach AI jest powszechnie uznawane i powinniśmy zadbać o to, aby ludzie zachowali możliwość interweniowania, modyfikowania lub zastępowania decyzji generowanych przez AI w razie potrzeby, szczególnie w kluczowych domenach, w których ludzki osąd jest niezastąpiony.
Rozwiązywanie problemów z uprzedzeniami i uczciwością:
Podejście skoncentrowane na człowieku obejmuje rozwiązywanie problemów z uprzedzeniami i promowanie uczciwości w systemach AI. Bądź zaangażowany w identyfikowanie i łagodzenie uprzedzeń w algorytmach AI, aby zapewnić sprawiedliwe wyniki dla wszystkich osób, niezależnie od ich pochodzenia lub cech.
Przejrzystość i edukacja:
Aby umożliwić osobom i społecznościom interakcje z AI, firmy muszą priorytetowo traktować przejrzystość i edukację. Zapewnianie jasnych wyjaśnień dotyczących sposobu działania systemów AI, ich ograniczeń i wykorzystywanych przez nie danych umożliwia użytkownikom podejmowanie świadomych decyzji i zachowanie kontroli nad interakcjami z AI.
Zarządzanie AI
Rolą zarządzania AI jest zapewnienie, że wszystkie przypadki użycia i rozwój AI są zgodne z podstawowymi zasadami (i politykami) AI i podjęto wszystkie kroki niezbędne do zapewnienia, że nie wystąpią żadne ryzyka regulacyjne, prawne ani inne biznesowe wynikające z wdrożenia. W większości przypadków zarządzanie AI jest po prostu uważane za część ogólnego zarządzania IT, ponieważ nie ma rzeczywistej konkretnej potrzeby tworzenia oddzielnych forów/komitetów/paneli przeglądowych itp. tylko dla projektów/aplikacji AI.
Zgodność ze strukturą zarządzania IT
Jako część standardowego cyklu życia rozwoju oprogramowania (SDLC), większość zarządzania AI można zintegrować z już istniejącymi forami, więc najprawdopodobniej nie będzie konieczne tworzenie dedykowanych komitetów lub spotkań w celu zarządzania i zarządzania ryzykiem wprowadzania AI do biznesu i/lub produktów i usług. Na przykład akceptacja przypadków użycia i podejście do rozwiązania zostaną sprawdzone w normalnym komitecie ds. przeglądu architektury i projektu IT. Następnie, przed wydaniem jakiegokolwiek modelu AI, będzie on przestrzegał normalnego przepływu pracy SDLC z testowaniem zapewnienia jakości i spotkaniami przeglądu wersji i zatwierdzaniem. Aby poinformować te przeglądy, punkty kontrolne i bramki, przepływ pracy i proces nauki o danych będą musiały dokumentować różne aspekty swoich ocen wpływu na prywatność danych i etykę wraz z informacjami o przejrzystości danych (jakie dane zostały użyte do szkolenia) i podejściami stosowanymi do identyfikowania i usuwania stronniczości danych.
Punkty kontrolne etyki AI w procesie nauki o danych
Zespoły nauki o danych wdrożyłyby różne narzędzia, aby pomóc w sprawdzeniu niezamierzonych konsekwencji swoich modeli, od kontroli statystycznych w celu ujawnienia wszelkich potencjalnych problemów dotyczących stronniczości danych, po techniki szyfrowania (takie jak szyfrowanie homomorficzne) i inne metody, takie jak testowanie kontrfaktyczne. Wszystko to w celu zminimalizowania ryzyka wystąpienia problemów po umieszczeniu modelu w środowisku produkcyjnym. Podczas przeglądów zarządzania i wydań dowody tych metod zostaną przedstawione w celu wykazania, że zastosowano dokładny proces rozwoju. Zasadniczo są to udokumentowane odpowiedzi na pytania, które zostaną zadane podczas przeglądu zarządzania implementacjami AI. Role i obowiązki W miarę jak dążysz do zintegrowania zarządzania AI z ogólnym zarządzaniem IT, może zaistnieć potrzeba przypisania określonych ról w celu zapewnienia właściwego nadzoru i rozważenia kwestii.
OFICER ETYKI AI
Rolą oficera etyki AI jest zapewnienie, że każda implementacja AI w organizacji jest zgodna z podstawowymi zasadami AI i szerszymi zagadnieniami etycznymi szczegółowo opisanymi w niniejszej polityce. Ta rola zapewnia wskazówki zespołom IT i nauki o danych, a także dostarcza danych do procesu decyzyjnego dotyczącego zarządzania w celu zatwierdzenia nowych lub zaktualizowanych aplikacji AI. W przypadku mniejszych organizacji zakres tej roli może być wykonywany przez obecnego oficera ds. ryzyka i zgodności.
KIEROWNICTWO WYŻSZE
Kierownictwo wyższego szczebla jest zobowiązane do ustalenia moralnego kompasu dla organizacji, jeśli chodzi o etykę i zarządzanie AI. Poważne traktowanie tematu etyki AI przeniknie do reszty organizacji i pomoże zapewnić, że zostanie mu poświęcony odpowiedni poziom uwagi przez cały cykl życia projektowania, rozwoju i wdrażania AI.
Ostatnie przemyślenia
Chociaż ten temat jest niezwykle ważny i będzie kluczowym czynnikiem długoterminowego sukcesu AI, musi być równowaga. Pod wieloma względami nadal znajdujemy się na wczesnym etapie innowacji AI i musimy zapewnić pewien stopień swobody, aby umożliwić badaczom i firmom eksplorację sztuki tego, co możliwe. Widzimy już, że kraje pozycjonują się w różnych punktach tej skali, a to może zmienić globalną dynamikę tego, gdzie AI jest budowane i kontrolowane. W końcu opanowanie AI to obecny wyścig o globalną dominację. Jednak musi być równowaga i nie możemy poświęcać najlepszych praktyk rozwoju technologii z powodu presji innowacji i sukcesu komercyjnego. Wielu uważa, że mamy tylko jedną szansę, aby zrobić to dobrze ze sztuczną inteligencją, a zatem odpowiedni poziom nadzoru, kontroli, audytu i zarządzania, ze szczególnym naciskiem na etyczne i odpowiedzialne stosowanie, będzie miał kluczowe znaczenie dla uzyskania długoterminowych korzyści, jakie może przynieść sztuczna inteligencja.
Wdrażanie AI
Pomimo szybkiego wzrostu i masowej atrakcyjności AI w ciągu ostatnich kilku miesięcy dzięki generatywnej AI, wdrażanie AI na dużą skalę w organizacji nie jest tak proste, jak mogłoby się wydawać na pierwszy rzut oka. Istnieje wiele wyzwań i przeszkód do pokonania, gdy wdrażanie AI przechodzi od wczesnych etapów innowacji, przeprowadzania dowodu wartości lub dowodu koncepcji, do przejścia przez różne fazy cyklu życia oprogramowania (SDLC) do środowiska produkcyjnego. Wdrożenie w środowisku produkcyjnym dla aplikacji AI i ML nie jest końcem historii; wymagane jest ciągłe monitorowanie i potencjalne ponowne szkolenie, aby utrzymać wydajność na akceptowalnym poziomie, ponieważ dryf danych może sprawić, że te modele będą działać słabo w czasie. Brak skupienia się na tych kwestiach może być katastrofalny dla reputacji AI w organizacji, jeśli nie są one odpowiednio zarządzane i kontrolowane. Wiemy, że projekty informatyczne mogą być problematyczne z różnych powodów, a wdrożenia ML są równie złożone, jeśli nie bardziej, szczególnie w przypadku pierwszego wdrożenia produkcyjnego. Ta część zawiera szczegółowe informacje na temat różnych opcji dostępnych do wdrażania rozwiązań AI, a także rozważania i najlepsze praktyki związane z każdym podejściem. Przedstawi również inne możliwe opcje kariery w całym ekosystemie.
12 wyzwań związanych z wdrażaniem AI
Zanim przyjrzymy się podejściom do wdrażania, przydatne może być lepsze zrozumienie niektórych wyzwań, z którymi skalowane wdrożenia mierzą się w całym procesie opracowywania i wdrażania. Organizacje duże i małe rozpoczynają proces eksploracji sztucznej inteligencji. Niektóre z tych firm są na zaawansowanym etapie wdrażania inteligentnych technologii, ale wiele z nich dopiero zaczyna tę trudną podróż adopcyjną. Zidentyfikowałem 12 największych wyzwań związanych z wdrażaniem AI na dużą skalę, których doświadcza wiele firm w pewnym momencie wczesnych lat wdrażania AI. Wiele z nich pojawia się, gdy organizacja przechodzi z laboratorium innowacji do gotowych do produkcji aplikacji na żywo:
1 Konflikty między działami IT a zespołami zajmującymi się nauką o danych (czasami praca z zakresu nauki o danych jest początkowo wykonywana w ramach linii biznesowych/użytkowników biznesowych).
2 Skalowanie wyzwań związanych ze sztuczną inteligencją przy wielu zespołach zajmujących się nauką o danych.
3 Średnia kadra zarządzająca walczy o własność nauki o danych.
4 Użytkownicy biznesowi nie ufają technologii (zatwierdzenie zajmuje sześć miesięcy).
5 Identyfikacja przypadków użycia biznesowego dla technologii AI i ML.
6 Zrozumienie zwrotu z inwestycji w możliwości ML i automatyzacji.
7 Zamieszanie z liczbą dostawców/produktów/narzędzi i platform.
8 Stronniczość danych i kwestie etyczne spowalniające akceptację i adopcję.
9 Prawidłowe zdefiniowanie modelu zarządzania w celu monitorowania i kontroli.
10 Zmiany w kulturze i strukturze organizacyjnej potrzebne w całej organizacji wraz z demokratyzacją danych (informacji i wiedzy).
11 Konieczność wyszkolenia istniejących zespołów w celu lepszego zrozumienia, jak działa AI/ML.
12 Konieczność wizji i strategii najwyższego szczebla dotyczącej tego, w jaki sposób firma stanie się AI-first.
Chociaż zidentyfikowałem 12 największych (najczęstszych) wyzwań dla adopcji AI, istnieje wiele innych potencjalnych wyzwań, które mogą zniweczyć Twoje własne plany wdrożenia AI. Częścią definiowania strategii AI będzie identyfikacja obszarów, na których należy się skupić i które wymagają wsparcia, aby zapewnić płynne ścieżki wdrażania.
Pokonywanie wyzwań związanych z wdrażaniem
Jak podkreślono w poprzedniej sekcji, istnieje szeroki zakres wyzwań związanych z wdrażaniem AI; różnią się one pod względem obszaru i będą wymagały bardzo różnych metod ich przezwyciężania. Niektóre z tych wyzwań dotyczą zdefiniowania i wdrożenia strategii AI. Niektóre będą dotyczyć sposobu, w jaki tworzysz zespoły w organizacji do pracy nad AI/ML. Inne wyzwania dotyczą sposobu zarządzania wdrażaniem AI i komunikowania się w firmie. Dodatkowe wyzwania można rozwiązać za pomocą planu szkoleniowego i edukacyjnego. Więcej wyzwań wynika z braku zarządzania IT i kontroli nad pracą naukową dotyczącą danych lub ograniczonego zrozumienia kwestii etycznych i stronniczości danych. Monitorowanie i bieżąca ocena wydajności wdrożonych modeli ML to również ważny obszar, który nieco różni się od bardziej standardowych aplikacji IT. Ostatecznie istnieje wiele obszarów, które wymagają odpowiedniego rozważenia, aby zapewnić płynne wdrażanie aplikacji i systemów AI. Bez odpowiednich ram i narzędzi do obsługi wdrożeń AI istnieje wiele potencjalnych ryzyk i pułapek, które należy ominąć.
Podejścia do wdrażania
Istnieje tak wiele różnych potencjalnych opcji, które rozwinę w kolejnych sekcjach, ale najpierw zastanówmy się nad najważniejszymi kwestiami, aby lepiej to ująć i pomóc nam zrozumieć, dlaczego jest to tak złożona decyzja. Pierwszym aspektem, który należy wziąć pod uwagę, jest ogromna liczba dostępnych opcji. Istnieją dosłownie tysiące dostawców AI i firm typu startup, które produkują aplikacje AI, które mogą rozwiązać wiele problemów, które większość firm będzie chciała rozwiązać za pomocą AI. Dostawcy istniejących produktów również ścigają się, aby dodać możliwości AI do własnych funkcji produktów, ale często nie jest to tak przejrzyste, jak byśmy chcieli. Masz również większość technologii i niektóre firmy konsultingowe oferujące możliwości tworzenia platform i aplikacji AI. Masz również wszystkich dostawców platform w chmurze, którzy mają szereg bloków konstrukcyjnych do tworzenia AI i ML, w tym wiele wstępnie wyszkolonych modeli, które można wykorzystać jako punkt wyjścia do wielu problemów, które możesz chcieć rozwiązać. Zrozumienie tego, co jest dostępne i szczegółowej funkcjonalności, to w najlepszym razie złożony proces wyboru dostawcy i należytej staranności. Staje się to jeszcze bardziej skomplikowane, ponieważ nie jest to sytuacja statyczna. Nowe modele są wydawane co tydzień, z nowymi funkcjonalnościami i możliwościami, tak bardzo, że jest to ruchomy cel, który jest tak szybki, jak nigdy dotąd. Podczas gdy wybór rozwiązania dostawcy może być odpowiedzią (lub może częścią odpowiedzi), istnieją inne dostępne opcje. Jeśli masz już silny dział IT, mogą istnieć opcje zbudowania małego zespołu ds. nauki o danych, który będzie pracował nad wczesnymi wybranymi przypadkami użycia.
Wewnętrzny rozwój AI
Najbardziej pożądaną sytuacją długoterminową będzie posiadanie własnego zespołu naukowców zajmujących się danymi, który będzie budował i wspierał wszystkie modele ML używane w organizacji. Możliwe jest utworzenie takiego zespołu z istniejących zasobów, połączenia ukrytych talentów, które mają już doświadczenie i są zainteresowane pracą w AI oraz tych, którzy chcą się przekwalifikować i zdobyć nowe umiejętności jako naukowcy zajmujący się danymi. W przeciwnym razie możesz zatrudnić kilka doświadczonych osób, aby zasiać zespół, a następnie stopniowo się rozwijać.
Budowanie wewnętrznego zespołu AI
Posiadanie wewnętrznego zespołu AI zapewni Ci najwyższy stopień kontroli i elastyczności w tym, co jest tworzone i jak działa, co ułatwi dopasowanie do istniejącego zarządzania danymi i śladu technologicznego. Umożliwia to również znacznie bliższą współpracę z użytkownikami biznesowymi i szerszym zespołem IT w celu zapewnienia zgodności wymagań funkcjonalnych i niefunkcjonalnych. Jednak takie podejście wiąże się z wyzwaniami. Pozyskiwanie talentów może być problematyczne ze względu na duże zapotrzebowanie i niewielką podaż wykwalifikowanych naukowców zajmujących się danymi. Ponadto, jeśli Twój zespół jest mały, zatrzymanie może być również trudne w średnim i długim okresie. Możesz również potrzebować bardziej doświadczonego naukowca ds. danych lub frakcyjnego CAIO, który pomoże skonfigurować i pokierować ogólną praktyką na wczesnych etapach. Wiele firm poszło tą drogą, tworząc początkowe zespoły od samego początku i odniosło wiele sukcesów.
Rozwój niestandardowej sztucznej inteligencji
Jedną z głównych zalet posiadania wewnętrznego zespołu jest maksymalizacja możliwości tworzenia niestandardowych lub dostosowanych modeli na podstawie wewnętrznych danych, których możesz nie chcieć ujawniać na zewnątrz. Firmy technologiczne, które budują podstawowy model LLM (large language model), zaczęły teraz dostarczać narzędzia i możliwości tworzenia niestandardowych modeli przy jednoczesnym poszanowaniu prywatności danych. Nadal jednak wymaga to wiedzy specjalistycznej, a początkowy zespół, który jest najbliżej zrozumienia danych, których chcesz użyć do stworzenia niestandardowego modelu, jest najbardziej rozsądnym podejściem. W przypadku LLM widzieliśmy szereg podejść do dostosowywania modeli, od techniki zwanej uziemieniem, która wykorzystuje program orkiestracji/koordynacji drugiego pilota wraz z dostępem do wewnętrznego wykresu wiedzy lub bazy danych, po dostrajanie lub udoskonalanie uczenia się, które wykorzystuje dodatkowe dane szkoleniowe w celu utworzenia niestandardowego modelu. Często potrzebne są niestandardowe kompilacje do złożonych zadań, które są bardzo specyficzne dla branży/firmy i wymagają użycia wewnętrznych danych handlowych w celu wyszkolenia niestandardowego modelu.
Konsultacje AI
Podczas gdy największe firmy będą miały pieniądze i ludzi, aby utworzyć własny zespół ds. nauki o danych, nadal mogą uznać za przydatne skorzystanie z pomocy i wsparcia firmy konsultingowej, która ma duże doświadczenie w dostarczaniu AI na dużą skalę (a wiele dużych korporacji korzysta z usług konsultingowych w celu wsparcia wdrażania AI). Wiele małych i średnich przedsiębiorstw ma problemy i chce korzystać z AI, ale może im brakować wewnętrznych możliwości, aby to zrobić. Skorzystanie z usług konsultingowych w celu rozszerzenia zespołu na początek jest często najlepszym sposobem na przyspieszenie początkowych wdrożeń, aby zapewnić wczesne wygrane, które pomogą przekazać całej firmie poziom inwestycji i chęć przyjęcia technologii AI w celu zabezpieczenia przyszłości firmy.
Współpraca z konsultantami AI
Współpraca z zewnętrzną firmą konsultingową AI może przebiegać na różne sposoby. Może to być pomoc w określeniu najlepszej strategii AI dla Twojej firmy lub po prostu chcesz od razu przejść do dostarczania pierwszych kilku przypadków użycia AI. Zarówno praca strategiczna, jak i doradztwo w zakresie dostarczania mogą być w zakresie niektórych firm konsultingowych AI, podczas gdy inne będą koncentrować się na jednym lub drugim. Nauka o danych jako usługa jest powszechną opcją, zapewniającą zespołowi naukowców zajmujących się danymi tworzenie początkowych modeli analitycznych i predykcyjnych zgodnie z priorytetami. Współpraca z firmami konsultingowymi często będzie wymagać członków wewnętrznego zespołu, którzy będą działać jako łączniki, wspierając i zarządzając wymaganą od nich pracą. Ponieważ firmy konsultingowe zazwyczaj współpracują z wieloma firmami z wielu różnych branż, mogą wnieść standardy najlepszych praktyk, nowe pomysły i rozwiązania, o których być może wcześniej nie pomyślałeś. To bogactwo doświadczenia i wiedzy pochodzącej od firm konsultingowych może być prawdziwym impulsem do sposobu, w jaki postrzegasz korzyści płynące z przyjęcia AI.
Produkty i usługi dostawców
Krajobraz dostawców AI jest ogromny, z tysiącami produktów i rozwiązań dostępnych we wszystkich częściach łańcucha wartości biznesowej. Wybór jest często niemożliwy do opanowania, a mało prawdopodobne jest, aby jakakolwiek firma była w stanie ocenić wszystkie możliwe dostępne opcje. Tutaj również konsultant AI może być w stanie udzielić wsparcia, mając szerszą wiedzę na temat większej liczby narzędzi dostawców niż pojedyncza firma. Każda należyta staranność dostawcy musi rozpocząć się od właściwego zrozumienia wymagań (zarówno funkcjonalnych, jak i niefunkcjonalnych) w krótkim i długim okresie. Następnie można to wykorzystać jako metodę oceny z kilkoma potencjalnymi rozwiązaniami kandydackimi wziętymi z większego zestawu potencjałów, które zostały odfiltrowane przez porównanie znanych cech i funkcji na papierze.
Wykorzystywanie rozwiązań AI dostawców
Coraz większa liczba dostawców AI oferuje szeroką gamę produktów i możliwości oprogramowania, które można wykorzystać do rozwiązywania określonych problemów w całym łańcuchu wartości biznesowej przy użyciu AI i uczenia maszynowego. Oznacza to, że niekoniecznie musisz budować rozwiązanie od podstaw, a raczej po prostu zintegrować jedną z tych aplikacji dostawcy z ogólnym śladem technologicznym, łącząc ją z danymi i dopasowując do istniejących procesów. Ponadto wiele obecnych produktów oprogramowania używanych przez firmy zostanie zaktualizowanych (jeśli jeszcze tego nie zrobiły), aby uwzględnić jakąś formę możliwości i funkcjonalności AI/ML, z których użytkownicy mogą skorzystać. Potencjalne problemy obejmują to, że określone funkcje nie są zgodne z Twoimi własnymi wymaganiami, musisz poczekać, aż potrzebne funkcje zostaną opracowane i wdrożone, musisz dokonać uaktualnienia do innego poziomu subskrypcji, aby uzyskać dostęp do funkcjonalności AI lub że potrzebna Ci funkcjonalność nie zostanie zbudowana i zintegrowana z produktem.
Podejście hybrydowe
Najbardziej prawdopodobną i najkorzystniejszą metodologią będzie wdrożenie zespołu hybrydowego wykorzystującego najlepsze cechy każdego z wcześniej szczegółowo opisanych podejść. Tutaj możesz wyposażyć swój wewnętrzny zespół w zewnętrzną wiedzę specjalistyczną od konsultanta ds. AI i przyspieszyć wdrożenie dzięki wykorzystaniu niektórych produktów i narzędzi dostawców. Widziałem, że to działa dobrze, korzystając z usług konsultanta w celu utworzenia zespołu ds. nauki o danych, a następnie stopniowo wprowadzając zasoby wewnętrzne i szkoląc je, w celu ostatecznego zbudowania w pełni operacyjnego wewnętrznego zespołu ds. nauki o danych, który może kontynuować pracę rozpoczętą przez konsultanta.
Strategie wdrażania hybrydowej sztucznej inteligencji
Istnieje wiele czynników do rozważenia, w tym wielkość potrzebnego zespołu, przewidywana ilość pracy i stopień złożoności wymaganych modeli. Czynniki te pomagają następnie określić prawidłowy kształt zespołu hybrydowego, zarówno na początku, jak i po osiągnięciu dojrzałości przez zespół. Po uformowaniu tego obrazu można opracować plan ułatwiający rekrutację i zwiększanie zasobów w celu dostosowania ich do celu. W ramach zespołu hybrydowego i planu wdrażania należy zarezerwować odpowiedni czas i zasoby na szkolenie zasobów firmy, które chcą przekwalifikować się na naukowców zajmujących się danymi. Jeśli plan zespołu hybrydowego zostanie dobrze opracowany i wdrożony, zespół przekształci się w wewnętrzny zespół ds. sztucznej inteligencji, co pozwoli firmie konsultingowej, która go utworzyła, odejść.
Ostatnie przemyślenia
Budowanie i używanie prostych form sztucznej inteligencji może być myląco łatwe. Duże firmy technologiczne zainwestowały ogromne środki w narzędzia, aby proces był jak najłatwiejszy, umożliwiając nie tylko profesjonalistom IT ich tworzenie, ale także przekazując tę możliwość w ręce użytkowników biznesowych. Może to stworzyć fałszywe poczucie bezpieczeństwa, ponieważ w szczególności kierownictwo zakłada, że wszystkie formy AI będą tak łatwe i niedrogie. Im lepiej potrzebujesz AI, aby działało, a im trudniejszy problem, tym bardziej złożone musi być rozwiązanie. A wraz ze złożonością rosną koszty i czas, a także potrzeba bardziej szczegółowych danych do trenowania modeli na zamówienie.
Proces
Zrozumienie technologii stojącej za AI to tylko część bitwy. Budowanie AI wymaga określonych procesów, przepływów pracy i zdefiniowanego ciągu punktów kontrolnych i bramek, aby zapewnić wdrożenie najlepszych w swojej klasie modeli, które spełniają wszystkie wymagania, w tym względy etyczne, prawne i regulacyjne. Wdrożenie i wdrożenie pierwszego przypadku użycia AI to również świat odległy od skalowanego podejścia do budowania i utrzymywania dziesiątek, jeśli nie setek różnych modeli ML w całej organizacji, zwłaszcza jeśli masz różne zespoły ds. nauki o danych, które opiekują się różnymi działami pionowymi. Istnieją również pewne potencjalne pułapki we współpracy między zespołami ds. nauki o danych a resztą organizacji IT. Różne metodologie i podejścia sprawiają, że dopasowanie jest czasami trudne, ale nie nie do pokonania dzięki zrozumieniu i nastawieniu na współpracę.Branża AI może mieć wytyczne i najlepsze praktyki, ale większość firm i zespołów określi szczegóły dotyczące sposobu, w jaki chcą pracować, przy czym każdy zespół i każda firma będzie miała nieco inne podejścia, przepływy pracy, procesy, standardy i zasady. W miarę postępu technologii dojrzałość i profesjonalne podejście będą ewoluować, dzięki czemu procesy będą wykorzystywane znacznie lepiej, stając się dobrze zdefiniowane i ujednolicone w zespołach, firmach, branżach i krajach. Technologia, choć rozwija się szybko, jest nadal w powijakach i wymaga profesjonalnego podejścia do projektowania, budowy, wdrażania i monitorowania, które można zaobserwować w innych branżach i zawodach. Musimy szybko się uczyć i przyjmować najlepsze praktyki z innych obszarów, aby zminimalizować ryzyko słabej realizacji.
Elementy strategii AI
Zacznijmy więc od początku. Obecnie obserwujemy powszechną adopcję AI w firmach każdej wielkości, od innowacyjnych start-upów po duże korporacje. Same korzyści wynikające ze wzrostu produktywności są trudne do zignorowania przez jakąkolwiek firmę. Dzieje się tak również w większości branż, w tym w tych, które do niedawna były technologicznymi maruderami, opierającymi się adopcji jakichkolwiek technicznych aplikacji lub rozwiązań. Możemy znaleźć analogie z adopcją Internetu i firmami tworzącymi własne strony internetowe. Początkowo adopcja była powolna, ale gdy korzyści z posiadania strony internetowej stały się oczywiste, większość firm poszła w ich ślady. Dzięki ChatGPT i innym generatywnym modelom i możliwościom AI korzyści płynące ze zwiększenia produktywności są teraz wyraźnie widoczne dla wyższej kadry zarządzającej dużych i małych firm. Chęć i dążenie do adopcji AI są teraz stale obecne, ale wyzwaniem jest teraz znalezienie talentu, wiedzy i doświadczenia, aby przyjąć tę technologię. Wiele firm będzie miało ograniczone wewnętrzne możliwości i chociaż łatwo jest zacząć od czegoś małego i eksperymentować z niektórymi gotowymi aplikacjami, robienie czegoś bardziej złożonego i niestandardowego może być trudniejsze bez odpowiednich osób, partnerów i wsparcia. Ważne jest rozważenie strategii AI przez wszystkich pracowników pracujących z AI lub korzystających z AI w firmie; znajomość kultury, etyki, zasad, procesów i procedur związanych z wykorzystaniem i przyjęciem AI jest wyraźną zaletą dla szybkości i odpowiedzialnego korzystania z technologii. Ten rozdział da wgląd w rozważania, jakie kierownictwo wyższego szczebla i zarząd poświęcą podejściu do przyjęcia AI. Każda znacząca transformacja jest wysoce złożonym, czasochłonnym i zasobochłonnym rozproszeniem, które musi zostać zintegrowane z innymi programami pracy już zaplanowanymi i priorytetowymi.
Dziewięć elementów strategii AI
Te dziewięć elementów obejmuje istotne aspekty strategii AI, od identyfikacji potrzeb biznesowych po plany i priorytety wdrażania AI. Szczegółowo opisuje nie tylko technologię, ale także ludzi, procesy, kulturę i zarządzanie jako elementy strategii AI. Zrozumienie znaczenia każdego elementu własnej strategii AI pomoże przyspieszyć adopcję AI na dużą skalę i uniknąć wielu potencjalnych pułapek i wyzwań po drodze.
Po pierwsze: Dostosowanie strategii i potrzeby biznesowe
Firmy, które chcą rozpocząć podróż wdrażania AI, będą chciały upewnić się, że istnieje zgodność między strategiami biznesowymi i technologicznymi a ich planami działania. Zasadniczo wynika to z identyfikacji rzeczywistych potrzeb biznesowych w zakresie rozwiązań AI. Aby to zrobić, najlepszym podejściem jest rozpoczęcie od problemu lub wyzwania i praca wstecz, mając na celu zidentyfikowanie prawidłowych rozwiązań. Wiele z tych potencjalnych problemów może obejmować wykorzystanie AI i uczenia maszynowego jako części ogólnego podejścia do dostarczania rozwiązania. Określenie potrzeb biznesowych w zakresie AI jest zawsze punktem wyjścia dla każdej dużej inicjatywy wdrożenia AI w firmie. Łatwo jest podążać za szumem medialnym i odczuwać presję, aby wdrożyć AI, ponieważ wszyscy inni wydają się z niej korzystać. Ale AI, jak każda inna technologia, jest narzędziem, narzędziem pomagającym rozwiązywać problemy. Motorem napędowym biznesowym AI musi być rozwiązywanie rzeczywistych problemów biznesowych i dostarczanie wartości firmie i jej klientom.
Ramy wartości biznesowej - zwrot z inwestycji
Istnieje kilka różnych metod oceny wartości biznesowej wdrożeń AI i zwrotu z inwestycji (ROI). W przypadku niektórych przypadków użycia zwrot z inwestycji będzie jasny i dobrze zrozumiany, w przypadku innych może wymagać bardziej szczegółowej analizy w celu ustalenia priorytetu i odpowiedniego podejścia. Niewątpliwie istnieją inne ukryte korzyści i wartości dla organizacji wynikające z wdrożenia AI, a także powinniśmy spojrzeć na to z perspektywy portfolio, a także indywidualnych przypadków użycia. Dla ogólnego sukcesu wdrożenia AI niezbędne jest, aby zwrot z inwestycji dla każdego podjętego projektu był dobrze zdefiniowany i zmierzony później, aby podkreślić zrealizowane korzyści z wdrożenia.
Strategiczne dopasowanie
Zapewnienie strategicznego dopasowania między celami biznesowymi (strategią biznesową) a strategią technologiczną pozostaje najważniejsze dla pomyślnej realizacji projektów i programów IT. Bez tego dopasowania wdrożenia technologiczne są narażone na ryzyko niedostarczenia namacalnej wartości, jakiej wymagają użytkownicy biznesowi, co potencjalnie prowadzi do niepowodzeń projektów i zmarnowanych inwestycji. Pośród szumu wokół AI organizacje mogą być skuszone na przyjęcie AI po prostu po to, aby nadążyć za trendem, często bez jasnego zrozumienia, gdzie leży prawdziwa wartość lub oceny zwrotu z inwestycji. Uzupełnienie każdej strategii IT o dobrze zdefiniowaną strategię AI staje się koniecznością, aby zoptymalizować wyniki wdrażania AI w organizacji. Takie podejście umożliwia kompleksową ocenę początkowych projektów AI i oferuje znaczące wsparcie dla kolejnych przypadków wdrożenia. Ponadto, strategiczne dopasowanie ułatwia przyjęcie podejścia portfelowego do wdrażania AI, szczególnie w przypadku licznych przypadków użycia obejmujących różne funkcje biznesu.
Dwa: Mapa drogowa AI
Jednym z powszechnych błędów, często obserwowanych, gdy firmy rozpoczynają swoją podróż wdrażania AI, jest brak wdrożenia przepływu pracy lejka innowacji. Decyzja o skupieniu się wyłącznie na jednym początkowym przypadku użycia AI może stanowić znaczne ryzyko dla ogólnego rozpędu dowolnego programu AI, zwłaszcza jeśli ten początkowy przypadek użycia nie zostanie pomyślnie przeniesiony do środowiska produkcyjnego, co może mieć miejsce z różnych powodów, szczególnie dlatego, że jest to pierwsza próba. Bardziej ostrożną długoterminową strategią dla organizacji jest przyjęcie podejścia portfelowego, jednoczesne realizowanie wielu projektów AI, a nawet dystrybuowanie ich do różnych segmentów firmy i zespołów. Dopóki te zespoły lub grupy współpracują i wymieniają się spostrzeżeniami, może to przyspieszyć proces adopcji i złagodzić ryzyko utraty dynamiki, jeśli początkowy projekt nie spełni oczekiwań. Większe firmy zazwyczaj mają tę przewagę, że mają wiele działów i grup zainteresowanych inicjowaniem adopcji AI, co sprawia, że jest to mniej problematyczne. Jednak dla mniejszych firm o ograniczonych zasobach to ograniczenie może stanowić poważne wyzwanie i ryzyko dla powodzenia adopcji AI.
Trzy: Infrastruktura techniczna i podstawy danych
Infrastruktura techniczna
Rozważając infrastrukturę techniczną dla AI i uczenia maszynowego, można ją podzielić na dwa główne obszary. Pierwszy dotyczy kompleksowego procesu i przepływu pracy związanego z opracowywaniem modelu ML, który zazwyczaj wiąże się z większością ciężkiej pracy, zwłaszcza jeśli wymagane jest dostosowywanie lub dostrajanie. Drugi aspekt dotyczy wykorzystania wyszkolonego modelu, znanego jako wnioskowanie, w środowisku produkcyjnym lub na żywo. Warto zauważyć, że nawet etap wnioskowania może wiązać się ze znacznymi kosztami obliczeniowymi, szczególnie w przypadku dużych modeli ML, takich jak najbardziej rozbudowane generatywne modele AI lub duże modele językowe, które często wymagają użycia procesorów graficznych w celu płynnego wykonania. Wpływ na infrastrukturę techniczną zależy również od wybranego podejścia do dostarczania. Jeśli organizacja zdecyduje się na dostawcę lub konsultanta, złożoność techniczna szkolenia modelu może być współdzielona lub całkowicie zlecona na zewnątrz. Alternatywnie, jeśli wykorzystywany jest wstępnie wyszkolony model od dostawcy chmury, nacisk przesuwa się w kierunku płynnej integracji wywołań API do tego modelu z różnych części aplikacji oprogramowania. W niektórych przypadkach modele ML stron trzecich mogą być wykorzystywane i udostępniane za pośrednictwem prostych wywołań API. W związku z tym wykorzystanie i integracja odbywają się głównie na poziomie aplikacji, aby zapewnić, że odpowiednie modele są wywoływane w odpowiednich środowiskach technicznych. W takich scenariuszach może zaistnieć konieczność wdrożenia mechanizmów równoważenia obciążenia i ograniczania wywołań w celu skutecznego zarządzania i regulowania wykorzystania tych usług.
Podstawy danych
Dane odgrywają kluczową rolę w dziedzinie sztucznej inteligencji i uczenia maszynowego, a naukowcy zajmujący się danymi mają za zadanie tworzenie modeli ML poświęcając około 80 procent swojego czasu na obsługę danych używanych do szkolenia i testowania. Ta odpowiedzialność obejmuje szereg zadań, w tym wybieranie odpowiedniego zestawu danych, oczyszczanie danych, wybieranie odpowiednich funkcji, łagodzenie stronniczości danych, zwiększanie jakości danych, etykietowanie danych i, w razie potrzeby, tworzenie danych syntetycznych. W ciągu kilku dekad zarządzanie danymi przeszło transformacyjną podróż, przechodząc od baz danych transakcyjnych do magazynów danych, repozytoriów dużych zbiorów danych, jezior danych, struktur danych, a teraz siatek danych. Podstawowym celem tych postępów było konsekwentne agregowanie danych przedsiębiorstwa, umożliwiając zróżnicowanym konsumentom danych interakcję z nimi zgodnie z ich konkretnymi potrzebami. Znaczne ułatwienie zadania nauki o danych polega na zapewnieniu łatwego dostępu do scentralizowanego repozytorium danych, któremu towarzyszą solidne narzędzia do manipulacji danymi i transformacji, powszechnie określane jako wstępne przetwarzanie danych. Ważne jest, aby uznać, że krajobraz strategii danych i podstawowa infrastruktura są w ciągłym stanie płynności, ewoluując w ramach trwających inicjatyw mających na celu ulepszenie zarządzania danymi, usprawnienie infrastruktury, migrację do środowisk w chmurze i wykorzystanie najnowszych projektów architektonicznych i technologii. Wracając do lat 90. i początku XXI wieku, pojawienie się technologii dużych zbiorów danych zrewolucjonizowało konsolidację danych z wielu źródeł, umożliwiając bardziej intensywne obliczeniowo analizy i raportowanie. Obszar zarządzania danymi i infrastruktury nadal rozwija się w przyspieszonym tempie, ze znacznym wzrostem od wprowadzenia chmury obliczeniowej w 2006 r. za pośrednictwem AWS, w szczególności dzięki usłudze Elastic Compute EC2. Następnie byliśmy świadkami ciągłego postępu w infrastrukturze danych, naznaczonego kamieniami milowymi, takimi jak pojawienie się jezior danych w 2011 r. i nowszy rozwój koncepcji siatki danych w 2019 r.
Cztery: Ramy nauki o danych
Termin nauka o danych odnosi się do funkcji projektowania, prototypowania, budowania, testowania, wdrażania i monitorowania modeli uczenia maszynowego. Chociaż termin ten został po raz pierwszy użyty w 1974 r., stał się szeroko używany dopiero po publikacji w 2001 r. Obecnie jest używany w odniesieniu do praktyki, procesu, ludzi i zespołów, które pracują konkretnie nad technologiami uczenia maszynowego i sztucznej inteligencji. Większość organizacji utworzy dedykowany zespół(y) nauki o danych w celu wsparcia wymaganych analiz, spostrzeżeń i możliwości predykcyjnych wymaganych od reszty działu IT/obszarów funkcjonalnych firmy. Zespoły nauki o danych mogą często znajdować się w bezpośrednim konflikcie z resztą zespołów/działów IT ze względu na zupełnie inne podejście, potrzebę szybkich eksperymentów oraz nieoczekiwane wyniki i harmonogramy opracowywania niezawodnych i solidnych modeli predykcyjnych. Wymaga to, aby dyrektor ds. technicznych/IT i reszta zespołu kierowniczego wyższego szczebla rozumieli różne procesy, zależność danych i jakość danych oraz możliwość wystąpienia nieprzewidywalnych wyników lub poziomów dokładności, które mogą być niedopuszczalne. Silna współpraca między kierownikiem ds. nauki o danych a dyrektorem ds. informatyki/CTO jest wymagana, aby ułatwić ścieżkę do produkcji dla każdego zespołu ds. nauki o danych i modeli, które tworzą, zwłaszcza w przypadku pierwszych kilku wdrożeń. Podczas gdy historycznie proces nauki o danych nie miał odpowiednich narzędzi do wspierania profesjonalnego podejścia, wiele się zmieniło w ostatnich latach, a bardziej formalne struktury, ramy, procesy i narzędzia są dostępne, aby umożliwić skalowalne możliwości dla każdego zespołu ds. nauki o danych. Poniżej szczegółowo opisujemy podstawowe aspekty, które mogą pomóc zespołowi ds. nauki o danych pracować w formalnym i dojrzałym środowisku, które będzie dobrze dopasowane do reszty działu IT. Praktyka nauki o danych będzie wykorzystywać ramy najwyższego poziomu, które określają różne aspekty, procesy i potrzebne rozważania. Niektóre ramy będą koncentrować się głównie na technicznych aspektach nauki o danych. Jednak wolimy używać bardziej holistycznych ram które uwzględniają kilka różnych obszarów i rozważań, jak pokazano na czterech indywidualnych widokach ram. Są to główne obszary, które każdy zespół ds. nauki o danych powinien wziąć pod uwagę, pracując nad budowaniem solidnych i odpowiedzialnych modeli oraz dojrzałej i zdolnej praktyki nauki o danych.
Przepływ pracy i proces nauki o danych
Typowy przepływ pracy lub potok do opracowywania modeli ML pokazano na rysunku 9.4 i zaczyna się od projektu, przez wdrożenie, monitorowanie i ponowne szkolenie. Jest to proces iteracyjny zarówno po stronie rozwoju, jak i produkcji, wymagający serii punktów kontrolnych i bramki przed przejściem do następnego kroku w przepływie pracy, ale wymagający również konieczności rewizji i poprawy (za pośrednictwem pętli sprzężenia zwrotnego) w celu osiągnięcia jak najlepszej wydajności. Punkty kontrolne i bramki są okazją do przeglądu procesu i upewnienia się, że rozwój jest zgodny z podstawowymi zasadami AI i przestrzega odpowiednich wytycznych dotyczących etyki AI. Większość firm, firm konsultingowych i dostawców AI będzie miała bardzo podobne podejście do ram i procesu nauki o danych; mogą występować różnice w implementacji i używanych narzędziach, ale zasadniczo podejście będzie takie samo.
Pięć: Umiejętności i talent
Jedną z najpoważniejszych przeszkód w procesie wdrażania AI jest nabycie niezbędnych umiejętności i wiedzy specjalistycznej, zwłaszcza przez osoby posia dające zarówno głębokie zrozumienie tematu, jak i doświadczenie w AI. Chociaż angażowanie zewnętrznych zespołów z doświadczeniem w AI może przyspieszyć postęp, wiele organizacji stara się zbadać strategie rozwijania wewnętrznych zdolności, które będą im służyć w dłuższej perspektywie. Ta zmiana jest zazwyczaj stopniowym, dobrze zaplanowanym procesem, który obejmuje przenoszenie odpowiedzialności z zewnętrznych zespołów na zasoby wewnętrzne w miarę upływu czasu. Rozwój umiejętności i talentów w tym kontekście jest zgodny z szerszymi etapami wdrażania AI. W początkowych fazach, takich jak innowacje, wczesny rozwój i skalowanie, zewnętrzna pomoc i wskazówki są często nieocenione, jeśli nie niezbędne, do osiągnięcia pomyślnych wyników. W miarę jak organizacja gromadzi więcej wiedzy i doświadczenia, przejście w kierunku wewnętrznej własności zasobów staje się naturalnym postępem.
Ukryty talent
Często w organizacji o określonej wielkości można znaleźć osoby z wiedzą edukacyjną lub praktyczną i doświadczeniem w uczeniu maszynowym, które można wykorzystać w miarę postępów we wdrażaniu AI. Pierwszym etapem jest zidentyfikowanie tych osób poprzez utworzenie społeczności praktyków (CoP) dla AI. Odkryjesz również osoby, które są szczególnie zainteresowane dziedziną AI i uczenia maszynowego i chcą przekwalifikować się na stanowisko naukowca danych. Zidentyfikowanie tych zasobów i dopasowanie ich do wczesnych projektów innowacji AI pomoże w budowaniu długoterminowych możliwości w tym obszarze.
Szkolenie i edukacja
Kluczowym aspektem wspierania personelu w dostosowywaniu się do każdej nowej technologii jest zapewnienie kompleksowej edukacji i szkoleń personelu. Dotyczy to nie tylko procesu wdrażania nowych pracowników, ale także bieżących wysiłków na rzecz budowania świadomości dla istniejącej siły roboczej, ponieważ integracja AI w organizacji nadal rośnie.
SZKOLENIE ZWIĄZANE Z AI DLA PRACOWNIKÓW
Wszyscy pracownicy zaangażowani w działania związane z AI prawdopodobnie będą musieli przejść szkolenie z zakresu świadomości AI jako część procesu wdrażania. Program szkoleniowy obejmie wprowadzenie do AI i obejmie podstawowe zasady AI, w tym etykę, uczciwość, przejrzystość, łagodzenie stronniczości i prywatność danych. Pracownicy będą również zobowiązani do uczestniczenia w okresowych kursach dokształcających, aby być na bieżąco z rozwijającymi się dziedzinami AI, odpowiedzialnym użytkowaniem, standardami i politykami organizacyjnymi.
CIĄGŁE UCZENIE SIĘ I ROZWÓJ ZAWODOWY
Większość firm oferuje dostęp do szkoleń w ramach swoich programów ciągłego uczenia się i rozwoju zawodowego. Umożliwią one poszerzenie wiedzy i umiejętności zarówno w obszarach technicznych, jak i umiejętnościach interpersonalnych niezbędnych do pracy w dziedzinie AI.
ZASOBY SZKOLENIOWE
Dostępnych jest wiele zasobów do szkoleń AI i ML, przy czym znaczna ich część jest dostępna bezpłatnie. Główne platformy w chmurze oferują szeroką gamę materiałów szkoleniowych i zasobów edukacyjnych. Zasoby te umożliwiają każdemu pogłębienie wiedzy na temat dostępnych produktów i usług ML oraz uzyskanie wglądu w praktyczne sposoby ich wykorzystania. Działania społeczności. Na początku, w tygodniach i miesiącach wdrażania AI, tworzenie społeczności wspierających początkowe działania będzie niezwykle ważne, aby koordynować wysiłki, pomóc w dzieleniu się doświadczeniami, świętować początkowe osiągnięcia i budować wewnętrzną wiedzę na ten temat. Zalecam wyznaczenie kilku osób w organizacji jako "mistrzów AI". Osoby te będą odpowiedzialne za promowanie najlepszych praktyk AI, w tym świadomości etycznej, odpowiadanie na pytania i służenie jako źródło wskazówek dotyczących wdrażania w swoich zespołach. Mistrzowie AI będą współpracować z komitetem ds. zarządzania AI i urzędnikiem ds. etyki AI, aby dostarczać informacji na temat rozważań dotyczących wdrażania AI i przyczyniać się do rozwoju najlepszych praktyk AI. Będą również zaangażowani w CoP, aby pomóc w rozpowszechnianiu informacji i prezentowaniu szybkich wygranych i procesów w szerszej organizacji. Wiele organizacji będzie chciało utworzyć CoP lub grupę roboczą. Często jest to świetny sposób na dzielenie się początkową pracą i dowodami koncepcji oraz omawianie narzędzi i rozwiązań. CoP można wykorzystać do zaprezentowania pracy wykonanej w różnych częściach organizacji, pomocy w rozwiązywaniu problemów, określaniu standardów i umożliwienia osobom w całej organizacji dzielenia się informacjami i podejściami w celu przyspieszenia wdrażania. Wiele osób dołączy do tego CoP, aby uczyć się i poprawiać zrozumienie, pozwalając całej organizacji poczuć się częścią podróży adopcji AI. Może się zdarzyć, że masz już odpowiednie forum do wykorzystania i po prostu musisz rozszerzyć zakres tematów, aby objąć swoją podróż adopcji AI i ML. Jednak w przypadku tak ważnego i złożonego tematu, posiadanie czegoś dedykowanego pokazuje organizacji, jak poważnie traktujesz tę sprawę.
Sześć: Kultura innowacji
Promowanie kultury innowacji w organizacji jest kluczowym filarem trwałego sukcesu każdego programu innowacji, a odpowiedzialność ta spoczywa całkowicie na barkach zespołu kierowniczego. W przeciwieństwie do innych form rozwoju technologii, dziedzina nauki o danych i uczenia maszynowego nie podąża liniową ścieżką; wymaga znacznego stopnia eksperymentowania oraz prób i błędów. Tę nieprzewidywalność można postrzegać jako frustrującą, komplikującą zarządzanie projektami i planowanie. Te frustracje często się pojawiają, niezależnie od tego, czy stosuje się metodyki zarządzania projektami Agile czy Waterfall, i mogą potencjalnie prowadzić do trudnych konfliktów między głównym lub głównym naukowcem danych, dyrektorem ds. technologii a kierownikami projektów lub programów. Aby pielęgnować kulturę innowacji, konieczne jest wyeliminowanie strachu przed porażką na wczesnych etapach wdrażania AI. Właśnie dlatego opowiadamy się za podejściem portfelowym do innowacji AI. Ponadto, gdy organizacja podejmuje transformację cyfrową, zbiera dodatkowe korzyści wykraczające poza pomyślne opracowanie i wdrożenie wczesnych przypadków użycia o wysokim priorytecie. Te zalety obejmują ciche doświadczenie i wiedzę nabytą przez zespół oraz pewność siebie we wdrażaniu innych przypadków użycia AI. Równie ważne jest zaangażowanie całej organizacji w podróż innowacji i adopcji. Niektóre obszary mogą musieć cierpliwie czekać, aż priorytetowe przypadki użycia zostaną dostarczone, zanim będą mogły również skorzystać ze zwiększonej produktywności i ulepszeń funkcjonalnych. Mogą jednak pojawić się szybkie wygrane, które pozwolą innym częściom firmy doświadczyć kultury innowacji i jej postępu. Wprowadzenie AI ma na celu przede wszystkim zwiększenie produktywności, umożliwienie wzrostu i rozszerzenie możliwości, a nie wyłącznie skupienie się na cięciu kosztów i redukcjach. Ten pozytywny przekaz i jego wzmocnienie odgrywają kluczową rolę we wzmacnianiu kultury innowacji i wspieraniu akceptacji dostępnej technologii. Co więcej, innowacja wykracza poza technologię; obejmuje ludzi i procesy. AI służy jako narzędzie transformacyjne, automatyzując przyziemne zadania i zapewniając jednostkom więcej czasu na angażowanie się w pracę o wyższej wartości i bardziej satysfakcjonującą.
Siedem: Struktura organizacyjna i zarządzanie
Wybór właściwej struktury organizacyjnej dla zespołu ds. nauki o danych będzie zależał od wielkości organizacji, sposobu, w jaki obecnie działa ona w swoim dziale technologii, oraz dojrzałości wdrażania sztucznej inteligencji. Podczas gdy służy to jako plan organizacji zespołu ds. sztucznej inteligencji/uczenia maszynowego w czasie, będą istnieć inne czynniki, które wpłyną na konkretną konfigurację i preferencje w Twojej firmie. Przedstawimy szczegóły każdej opcji struktury, wraz z korzyściami i wyzwaniami każdej z nich, dzięki czemu pomoże to zespołowi kierowniczemu wyższego szczebla zdecydować, jaka struktura jest najlepsza w danym momencie. W zależności od wielkości firmy i sposobu organizacji bieżących funkcji IT struktura i operacje mogą pozostać na pierwszym etapie; jednak w przypadku innych model może ulec zmianie i wprowadzić model Centrum Doskonałości (CoE), pokazany jako etapy od drugiego do czwartego.
Opcje strukturalne
W każdym przypadku zbadamy powody korzystania z tej struktury i to, jak prawdopodobnie będzie ewoluować w następną, zaczynając od lewej strony od podejścia centralnego i przechodząc z czasem przez różne wersje modelu CoE.
Dojrzałość adopcji AI
Na podstawie dojrzałości adopcji AI podzieliłem opcje strukturalne na dwie fazy. Pierwsza koncentruje się na wczesnych etapach adopcji AI, ze szczególnym naciskiem na innowację, dowód wartości, dowód koncepcji lub minimalny rozwój wykonalnego produktu. Druga faza przechodzi od początkowej innowacji do bardziej ustrukturyzowanego podejścia do stosowania AI w określonych obszarach i funkcjach, co jest zgodne z etapem budowy i skalowania podróży adopcji AI. Często pierwsza faza adopcji AI pochodzi od osób badających jej zastosowanie w określonym obszarze lub przypadku użycia; te małe kieszenie innowacji AI mogą być nieplanowane i niezorganizowane z perspektywy całej firmy. Kluczem jest tutaj pielęgnowanie organizacyjnej chęci innowacji za pomocą technologii AI i wspieranie kultury innowacji. To doskonały moment na utworzenie CoP lub grupy roboczej, aby pomóc w ujawnieniu wszystkich działań i zaprezentowaniu tych początkowych sukcesów innowacyjnych. Kluczem dla organizacji jest zrozumienie tego, co jest robione i maksymalizacja zdobytej wiedzy i nauki. Istnieje kilka sposobów na utworzenie zespołu lub zespołów ds. nauki o danych w organizacji. Duże organizacje prawdopodobnie będą potrzebować wielu zespołów rozproszonych po różnych działach. Sposób, w jaki firma organizuje swoje zespoły ds. nauki o danych, również będzie się zmieniał wraz z rozwojem jej doświadczenia i dojrzałości. Cztery standardowe modele struktur organizacyjnych to:
Centralizacja: W tym podejściu zespoły ds. nauki o danych są scentralizowane w organizacji i zapewniają wsparcie i wiedzę specjalistyczną wszystkim działom. Może to pomóc zapewnić spójność praktyk i metodologii nauki o danych w całej organizacji.
Decentralizacja: W tym podejściu każdy dział ma własny zespół ds. nauki o danych, co pozwala mu skupić się na inicjatywach i projektach dotyczących nauki o danych specyficznych dla danego działu. Może to być szczególnie przydatne dla działów o unikalnych potrzebach i celach w zakresie nauki o danych
Hybrydowość: W tym podejściu istnieje mieszanka scentralizowanych i zdecentralizowanych zespołów ds. nauki o danych, przy czym zespół centralny zapewnia ogólne wskazówki i wsparcie, a zespoły specyficzne dla danego działu koncentrują się na inicjatywach specyficznych dla danego działu. Może to być przydatny kompromis między podejściem scentralizowanym i zdecentralizowanym, umożliwiający zarówno spójność, jak i elastyczność. Często określany jako model hub-and-spoke.
Oparty na projektach: W tym podejściu zespoły zajmujące się nauką o danych są organizowane wokół konkretnych projektów, a członkowie zespołu pochodzą z różnych działów w razie potrzeby. Może to być przydatne w przypadku projektów międzyfunkcyjnych, które wymagają wiedzy specjalistycznej z wielu działów.
Często zdarza się, że gdy firma zaczyna badać wykorzystanie -AI, będzie miała bardzo rozdrobnioną i zdecentralizowaną konfigurację, często występującą organicznie i dostosowaną do bieżącej struktury organizacji. Z czasem może to zmienić się w jedną lub więcej struktur określonych powyżej. Każda struktura ma dobrze zdefiniowane korzyści i wady, które należy zrozumieć; przejście między modelami strukturalnymi może również zapewnić mieszankę możliwości i wyzwań. Podczas gdy naturalne skupienie jest na zespołach zajmujących się nauką o danych, możliwe jest posiadanie innych plemion, obejmujących różne typy analizy danych i spostrzeżeń. Na przykład w niektórych branżach użytkownicy biznesowi, a także dział technologii, mogą mieć wiedzę specjalistyczną w zakresie różnych aspektów analizy i algorytmów predykcyjnych. Różne plemiona będą miały odrębne preferencje dotyczące narzędzi i ram i mogą pracować w bardzo różnych trybach dostarczania. Te różnice kulturowe mogą być niekompatybilne w połączeniu bez pewnego zrozumienia i rozważenia.
Zarządzanie
Dziedzina etyki i zarządzania AI jest zarówno rozległa, jak i złożona, a biorąc pod uwagę ograniczone konkretne wskazówki od organów regulacyjnych, każda firma ma za zadanie ustanowić własne najlepsze praktyki. Podczas gdy różne organy rządowe i instytucje opublikowały wytyczne i ramy, które służą jako cenne odniesienia (niektóre z nich wymienimy później), ostatecznie to na każdej firmie spoczywa obowiązek zdefiniowania, w jaki sposób będzie zarządzać wykorzystaniem AI i kształtować swoje stanowisko etyczne w odniesieniu do różnych aspektów wdrażania AI. Pierwszym krokiem w tej podróży jest ustanowienie zestawu podstawowych zasad AI, których będzie przestrzegać firma. Zasady te stanowią podstawę, na której budowane są wszystkie działania i rozwój związane z AI. Zapewniają jasne ramy do dostosowania inicjatyw AI do rozważań etycznych i łagodzenia regulacyjnych, prawnych i innych potencjalnych ryzyk biznesowych. Zarządzanie zarządzaniem AI odgrywa kluczową rolę w zapewnieniu, że wszystkie przypadki użycia AI i rozwój pozostaną zsynchronizowane z podstawowymi zasadami AI i powiązanymi politykami. Obejmuje systematyczne podejście gwarantujące, że implementacje AI nie wprowadzają ryzyka regulacyjnego, prawnego lub operacyjnego. Warto zauważyć, że zarządzanie AI nie musi być samodzielnym podmiotem, ale może płynnie integrować się z szerszym kontekstem zarządzania IT. Zamiast tworzyć oddzielne fora, komitety lub panele przeglądowe wyłącznie dla projektów lub aplikacji AI, zaleca się włączenie zarządzania AI do istniejącej struktury zarządzania IT. W ten sposób firmy mogą usprawnić proces, zmniejszyć redundancję i zapewnić, że zarządzanie AI jest zgodne z ogólnymi ramami zarządzania organizacyjnego. To zintegrowane podejście ułatwia bardziej spójne i wydajne zarządzanie etyką i zarządzaniem AI w całej organizacji.
Osiem: Planowanie, dostawcy i partnerzy
Planowanie
Wdrożenia na dużą skalę i zmiany techniczne wymagają szczegółowego planowania i koordynacji w całej organizacji, ponieważ często wiele oddzielnych projektów jest realizowanych równolegle, które mogą się potencjalnie na siebie nakładać i wpływać na siebie. Nic z tego nie jest nowe dla działów IT, a każdy projekt lub wdrożenie AI należy po prostu postrzegać jako kolejny projekt IT, ze wszystkimi tymi samymi kontrolami, przeglądami, synchronizacją i szczegółowym planowaniem wdrożenia, jak każdy inny. To, co może nieznacznie różnić się od innych projektów IT, to potrzeba bardziej ciągłego monitorowania i ponownego szkolenia wszelkich wdrożonych modeli ML w celu zapewnienia prawidłowego poziomu wydajności i dokładności w czasie.
Partnerstwo dla sukcesu
v
Jedną z metod zmniejszania wyzwań związanych z wdrażaniem AI jest współpraca z organizacją partnerską, która ma duże doświadczenie we wdrażaniu AI. W przypadku wdrożeń na dużą skalę może to wymagać połączenia doradztwa AI z jedną lub kilkoma firmami dostawców, które mają specjalistyczne platformy lub aplikacje, które są potrzebne.
DORADZTWO AI
Istnieje wiele różnych konsultacji technologicznych, które mogą pomóc we wdrażaniu AI. Będą się one różnić pod względem wielkości, branż, w których działają, oraz konkretnego doświadczenia w zakresie możliwości AI, dlatego wybór jest ważny, aby zapewnić odpowiednie dopasowanie do tego, co chcesz osiągnąć.
DOSTAWCY AI - PLATFORMY I APLIKACJE
Wybór dostawców, którzy albo dostarczają część podstawowej infrastruktury i platform, albo dostarczają bardziej funkcjonalne aplikacje, może być bardzo trudny, po prostu dlatego, że istnieje znaczny wybór. Istnieją tysiące dostawców oferujących różne możliwości AI, z których każdy ma określoną funkcjonalność, dostosowanie do podstawowych śladów technologicznych i wiedzę specjalistyczną w różnych obszarach AI. Często firmy korzystają z doradztwa AI, aby pomóc w określeniu prawidłowej architektury AI i wyborze dostawcy, aby dopasować potrzeby firmy do możliwości platformy, aplikacji, ram i narzędzi.
WSPÓŁPRACA AKADEMICKA
W przypadku prac nad innowacją na wczesnym etapie współpraca z instytucją akademicką może być metodą dla organizacji na rozpoczęcie realizacji planu wdrażania AI.
WYBÓR TECHNOLOGII (RAMY I NARZĘDZIA)
Ponieważ większość firm będzie już miała wdrożony ślad technologiczny, niektóre decyzje najprawdopodobniej będą zgodne z obecną infrastrukturą. Na przykład, jeśli firma korzysta już z jednego z dostawców usług w chmurze, mało prawdopodobne jest, aby chciała korzystać z innego w przypadku zastosowań AI/ML. Jednak, podczas gdy niektóre z głównych decyzji mogą być stosunkowo łatwe, nadal istnieje szeroki wachlarz ram i narzędzi do nauki o danych do wyboru. Może to zacząć się bardzo organicznie, gdy różne zespoły ds. nauki o danych będą wypróbowywać różne i sprawdzać, które z nich najlepiej się sprawdzają. Może to być dobry sposób na początek, ale potencjalnie spowoduje to problemy później, szczególnie jeśli masz wiele zespołów ds. nauki o danych pracujących w różnych częściach organizacji - wtedy standaryzacja staje się ważniejsza.
Dziewięć: Zarządzanie siłą roboczą napędzaną przez AI
W miarę jak coraz więcej firm przyjmuje sztuczną inteligencję i inne nowe technologie, rola nowoczesnego lidera biznesowego ulega transformacji. Istotnym wyzwaniem, przed którym stają ci liderzy, jest zarządzanie siłą roboczą składającą się zarówno z pracowników ludzkich, jak i inteligentnych technologii napędzanych przez AI. Kierowanie siłą roboczą napędzaną przez AI może być zarówno wymagające, jak i satysfakcjonujące. Poprzez umiejętne zarządzanie przejściem na miejsce pracy napędzane przez AI, skupiając się na podnoszeniu kwalifikacji i przekwalifikowywaniu swojego zespołu oraz przyjmując styl przywództwa charakteryzujący się przejrzystością i współpracą, liderzy mogą rozwijać zespół, który wyróżnia się produktywnością i zaangażowaniem. Wykorzystując zalety AI, jednocześnie zachowując solidną obecność człowieka, mogą poprowadzić Twoją organizację w kierunku sukcesu i utrzymać przewagę konkurencyjną w szybko zmieniającym się krajobrazie biznesowym.
Korzyści płynące z siły roboczej opartej na sztucznej inteligencji
Siła robocza wzbogacona o narzędzia i aplikacje sztucznej inteligencji może stać się nadludzka. Organizacje, które zachęcają i umożliwiają pracownikom uzyskanie takiej przewagi, odniosą korzyści na wiele różnych sposobów:
1 Wzrost automatyzacji i produktywności: Po pierwsze, może pomóc w automatyzacji powtarzalnych zadań, uwalniając pracowników, aby mogli skupić się na pracy o większej wartości dodanej. Automatyzacja przyziemnych czynności pomaga zaoszczędzić czas na bardziej produktywne zadania. Widzieliśmy również, jak generatywna sztuczna inteligencja zapewnia znaczną poprawę produktywności w wielu funkcjach biznesowych.
2 Podejmowanie decyzji: Sztuczna inteligencja może również pomóc w analizie danych i podejmowaniu decyzji, pomagając zespołowi podejmować bardziej świadome i wydajne decyzje. Zazwyczaj prowadzi również do podejmowania decyzji w czasie rzeczywistym, umożliwiając również podejmowanie decyzji przez osoby bliżej problemu.
3 Obsługa klienta: Ponadto sztuczna inteligencja może pomóc w poprawie obsługi klienta i zadowolenia, a także zwiększyć produktywność i wydajność. Może również zapewnić bardziej spersonalizowaną i indywidualną obsługę oraz umożliwić lepsze możliwości sprzedaży krzyżowej i sprzedaży dodatkowej. 4. Trudniejsze problemy: Sztuczna inteligencja może dać pracownikom więcej czasu, który będą mogli poświęcić rozwiązywaniu trudniejszych i bardziej wymagających problemów.
Zarządzanie przejściem na miejsce pracy oparte na sztucznej inteligencji
Jednak przejście na miejsce pracy oparte na sztucznej inteligencji może być również trudne. Niektórzy pracownicy mogą wahać się przed przyjęciem nowych technologii lub mogą obawiać się potencjalnego wpływu na bezpieczeństwo pracy. Ważne jest, aby liderzy zarządzali tymi obawami i upewnili się, że ich zespoły czują się wspierane podczas przejścia. Oto kilka strategii:
1 Komunikuj się jasno: Zespoły muszą zrozumieć powody przyjęcia sztucznej inteligencji i to, w jaki sposób przyniesie to korzyści całej organizacji.
2 Zapewnij szkolenie: Szkolenie i wsparcie, aby pomóc zespołom nauczyć się, jak skutecznie korzystać z nowych technologii.
3 Zajmij się obawami dotyczącymi bezpieczeństwa pracy: Przekwalifikowanie lub inne wsparcie, aby pomóc pracownikom dostosować się do nowego środowiska.
4 Podkreśl wartość umiejętności ludzkich: Podczas gdy sztuczna inteligencja może automatyzować niektóre zadania, istnieje wiele zadań, które wymagają ludzkiej oceny i kreatywności. Zespoły powinny być przekonane o znaczeniu tych umiejętności i powinny nadal je rozwijać.
Podnoszenie kwalifikacji i przekwalifikowywanie zespołów
W miarę jak sztuczna inteligencja i inne nowe technologie nadal się rozwijają, ważne jest, aby liderzy biznesowi zadbali o to, aby ich zespoły miały umiejętności i wiedzę, aby rozwijać się w tym nowym środowisku. Może to obejmować podnoszenie kwalifikacji obecnych pracowników, a także pozyskiwanie nowych talentów z niezbędnymi umiejętnościami. Wraz ze wzrostem popularności narzędzi generatywnej sztucznej inteligencji, umiejętność szybkiego projektowania, w celu maksymalizacji wydajności tych technologii i uzyskania jak najlepszych wyników, staje się kluczową umiejętnością nietechniczną, w której niektóre zasoby w firmie mogą potrzebować szkolenia i wsparcia edukacyjnego. Oto kilka strategii, których możesz użyć, aby poprawić umiejętności swojego zespołu:
Oferuj możliwości szkolenia i rozwoju: Zapewnij swojemu zespołowi zasoby i wsparcie, których potrzebuje, aby nauczyć się nowych umiejętności i być na bieżąco z najnowszymi technologiami.
Zachęcaj do ciągłego uczenia się: Zachęcaj swój zespół do aktywnego udziału we własnym uczeniu się i tworzenia kultury, która ceni ciągły rozwój. Zatrudniaj pod kątem potencjału: Podczas rekrutacji nowych talentów skup się na osobach, które mają potencjał do szybkiej nauki i adaptacji, a nie tylko na tych, którzy mają określone umiejętności lub doświadczenie
Kierowanie zespołem opartym na sztucznej inteligencji
Liderzy muszą znaleźć odpowiednią równowagę między wykorzystaniem zalet sztucznej inteligencji a utrzymaniem silnego pierwiastka ludzkiego. Oto kilka wskazówek dotyczących skutecznego kierowania zespołem opartym na sztucznej inteligencji:
Wspieraj współpracę: Zachęcaj do współpracy między członkami zespołu ludzkiego i sztucznej inteligencji i stwórz środowisko, w którym mogą oni efektywnie ze sobą współpracować.
Kładź nacisk na przejrzystość: Upewnij się, że zespół rozumie, w jaki sposób wykorzystywana jest sztuczna inteligencja oraz jakie są ograniczenia i możliwości tej technologii. Może to pomóc w budowaniu zaufania i zapobieganiu nieporozumieniom.
Zachęcaj do kreatywności: Podczas gdy sztuczna inteligencja może automatyzować niektóre zadania, ważne jest, aby zachęcać do kreatywności i ludzkiego wkładu w podejmowanie decyzji i rozwiązywanie problemów.
Zachęcaj swój zespół do wymyślania nowych pomysłów i podejść oraz tworzenia kultury, która ceni innowację:
Zarządzaj oczekiwaniami: Upewnij się, że Twój zespół ma jasne cele i oczekiwania oraz zapewniaj regularne informacje zwrotne i wsparcie, aby pomóc im utrzymać się na właściwej drodze. Prowadź przykładem: Jako lider ważne jest, aby modelować zachowanie, które chcesz zobaczyć w swoim zespole. Obejmuje to bycie otwartym na nowe technologie i podejścia oraz wykazywanie chęci uczenia się i adaptacji.
Korzyści z biznesu opartego na sztucznej inteligencji
Przejście Twojej firmy na firmę stawiającą na sztuczną inteligencję wymaga znaczących zmian kulturowych, ponieważ wiele procesów i procedur będzie musiało zostać zmodyfikowanych, aby właściwie korzystać z pełnych zalet wykorzystania sztucznej inteligencji w całej organizacji. Podstawą tej zmiany kulturowej jest przejście na analizę w czasie rzeczywistym i podejmowanie decyzji. Nie tylko wywiera to presję na organizację, aby szybko reagowała na najnowsze informacje, ale także potencjalnie pozwala większej liczbie osób w firmie uzyskać dostęp do takiej wiedzy, a tym samym wprowadzać zmiany w planach i działaniach znacznie szybciej niż wcześniej.
ANALIZA W CZASIE RZECZYWISTYM I PODEJMOWANIE DECYZJI
Analiza w czasie rzeczywistym i podejmowanie decyzji może przynieść wiele korzyści firmom, ale wiąże się również z wieloma wyzwaniami. Niektóre z kluczowych możliwości i wyzwań obejmują następujące.
Możliwości:
1 Poprawa wydajności: Analiza w czasie rzeczywistym pozwala firmom podejmować decyzje szybko, co może prowadzić do bardziej wydajnych operacji i szybszego czasu reakcji na zmiany rynkowe lub inne zdarzenia.
2 Lepsza obsługa klienta: Analiza w czasie rzeczywistym może pomóc firmom lepiej zrozumieć i reagować na potrzeby klientów, co prowadzi do poprawy satysfakcji i utrzymania klientów.
3 Zwiększona konkurencyjność: Podejmowanie decyzji w czasie rzeczywistym może dać firmom przewagę konkurencyjną, umożliwiając im szybsze i skuteczniejsze reagowanie na zmieniające się warunki rynkowe.
4 Automatyzacja procesów: Korzystanie z możliwości w czasie rzeczywistym umożliwia automatyzację procesów, redukując błędy ludzkie i umożliwiając szybsze podejmowanie decyzji.
Wyzwania:
1 Złożoność: Analiza w czasie rzeczywistym często wiąże się z przetwarzaniem dużych ilości danych w złożony sposób, co może być technicznie trudne.
2 Jakość danych: Analityka opiera się na wysokiej jakości danych i dokładnym zbieraniu danych, co może być trudne do zapewnienia, szczególnie w przypadku aplikacji w czasie rzeczywistym.
3 Infrastruktura techniczna: Analiza w czasie rzeczywistym wymaga zaawansowanej infrastruktury technicznej, w tym solidnych możliwości przechowywania i przetwarzania danych.
4 Opóźnienie: Opóźnienie w przetwarzaniu danych może mieć wpływ na proces podejmowania decyzji w czasie rzeczywistym.
5 Przejrzystość: Wyjaśnialna sztuczna inteligencja staje się coraz ważniejsza dla podejmowania decyzji w czasie rzeczywistym, ponieważ złożoność procesu wzrasta, a przejrzystość procesu podejmowania decyzji jest kluczowa.
6 Cyberbezpieczeństwo: Zapewnienie bezpieczeństwa danych w czasie rzeczywistym jest kluczowe, ponieważ mogą one stać się celem hakerów
7 Prywatność: Zapewnienie prywatności danych staje się coraz ważniejsze dla podejmowania decyzji w czasie rzeczywistym
Ogólnie rzecz biorąc, analiza w czasie rzeczywistym i podejmowanie decyzji mogą być trudne, ale oferują również wiele korzyści. Firmy, które są w stanie skutecznie wdrożyć te technologie, będą dobrze przygotowane do wykorzystania oferowanych przez nie możliwości.
Ostatnie przemyślenia
Obecnie nie można przecenić znaczenia AI dla firm; staje się ona coraz bardziej krytyczną częścią krajobrazu technologicznego i ma zdolność do całkowitej transformacji strategii biznesowej, szans, ryzyka i modeli. Tak znacząca zdolność, która może mieć duży wpływ na sukces lub porażkę firmy, zasługuje na inwestycję czasu i zasobów w celu zdefiniowania strategicznego podejścia do jej wdrażania i użytkowania. Zrozumienie strategii AI firmy i jej względnego etapu adopcji będzie bardzo pouczające dla wszystkich, którzy pracują nad tym, aby wizja stała się rzeczywistością. W miarę postępu adopcji i dojrzałości pojawią się nowe możliwości kariery, które pozwolą Ci rozwijać swoją rolę i obowiązki, gdy firma będzie skalować wykorzystanie AI w całej organizacji. Podczas gdy dobrze zdefiniowane podejście do adopcji AI jest wartościową inwestycją w plan biznesowy i strategię każdej firmy, jest bardzo prawdopodobne, że na wczesnych etapach innowacji i odkryć AI firmy po prostu chcą próbować i widzieć, uczyć się poprzez działanie i eksperymentować z technologią, aby zobaczyć, co jest możliwe i jak może im przynieść korzyści w praktyce. W każdej branży znajdą się liderzy i naśladowcy - ci, którzy chcą inwestować w innowacje i wykorzystywać każdą okazję do uzyskania przewagi konkurencyjnej, oraz ci, którzy wolą zobaczyć, jak sektor dojrzeje, zanim zaangażują się zbyt mocno i zbyt wcześnie. Niezależnie od tempa, sytuacja się zmienia i większość firm będzie musiała skorzystać z zastosowania AI.
Zaawansowane tematy
Ta sekcja obejmuje szereg bardziej wyspecjalizowanych i szczegółowych tematów z zakresu nauki o danych, takich jak głębokie uczenie się, przetwarzanie języka naturalnego, duże zbiory danych, przetwarzanie rozproszone i przetwarzanie kwantowe.
Głębokie uczenie się
Głębokie uczenie się to rodzaj uczenia maszynowego, który wykorzystuje sztuczne sieci neuronowe z wieloma warstwami neuronów, różnymi architekturami sieci i różnymi algorytmami uczenia się. Osiągnęło najnowocześniejsze wyniki w zadaniach, takich jak rozpoznawanie obrazu i mowy, przetwarzanie języka naturalnego i tłumaczenie maszynowe. Sukces głębokiego uczenia się był katalizatorem, który odmłodził branżę AI w ciągu ostatnich 10 lat. Jednak głębokie uczenie się wymaga dużych ilości danych i mocy obliczeniowej i jest często stosowane w połączeniu z technikami, takimi jak uczenie transferowe i dostrajanie, aby osiągnąć dobrą wydajność. Wiele ostatnich postępów w dziedzinie AI wynika z możliwości głębokiego uczenia się, a jako naukowiec zajmujący się danymi najprawdopodobniej będziesz używać i rozwijać wiele głębokich modeli zarabiania.
Język naturalny
Przetwarzanie języka naturalnego (NLP) to poddziedzina sztucznej inteligencji, która zajmuje się interakcją między komputerami a językiem ludzkim. Obejmuje wstępne przetwarzanie i interpretację danych tekstowych i może być wykorzystywana do zadań takich jak klasyfikacja tekstu, analiza sentymentów i tłumaczenie maszynowe. Istnieją inne obszary sztucznej inteligencji języka naturalnego, w tym generowanie języka naturalnego (NLG), które koncentruje się głównie na tworzeniu tekstu (i również mieści się w polu sztucznej inteligencji generatywnej) oraz rozumienie języka naturalnego (NLU), które jest bardziej związane ze sposobem, w jaki możemy sprawić, aby maszyny faktycznie prawidłowo rozumiały język. W przypadku NLP istnieją różne etapy procesu, w tym wstępne przetwarzanie i ekstrakcja cech. Wstępne przetwarzanie danych tekstowych zazwyczaj obejmuje czyszczenie i normalizację tekstu oraz przekształcanie go w reprezentację numeryczną, która może być używana jako dane wejściowe dla modelu uczenia maszynowego. Może to obejmować techniki takie jak stemming, lematyzacja i usuwanie słów pomijanych. Ekstrakcja i reprezentacja cech obejmują wyodrębnianie odpowiednich informacji i wzorców z danych tekstowych i przedstawianie ich w sposób, który może być używany przez model uczenia maszynowego. Może to obejmować techniki takie jak worek słów, częstotliwość terminów-odwrotna częstotliwość dokumentów (TF-IDF) i osadzanie słów.
Analiza wideo i obrazu
Analiza wideo to proces analizy danych wideo w celu wyodrębnienia spostrzeżeń i informacji. Może być wykorzystywana w szerokim zakresie zastosowań, takich jak nadzór, zarządzanie ruchem i analiza zachowań klientów. Uczenie maszynowe odgrywa kluczową rolę w analizie wideo, ponieważ umożliwia opracowywanie algorytmów, które mogą się automatycznie uczyć i ulepszać w czasie. Dzięki uczeniu maszynowemu systemy analizy wideo mogą nauczyć się rozpoznawać wzorce i cechy w danych wideo i mogą formułować prognozy lub podejmować decyzje na podstawie tych informacji. Niektóre typowe techniki uczenia maszynowego stosowane w analizie wideo obejmują rozpoznawanie obiektów, rozpoznawanie twarzy i rozpoznawanie aktywności. Techniki te mogą być wykorzystywane do identyfikowania i klasyfikowania obiektów, osób i zdarzeń w danych wideo oraz do wyodrębniania istotnych informacji i spostrzeżeń. Systemy analizy wideo mogą być również wykorzystywane w połączeniu z innymi technologiami, takimi jak sieci czujników i urządzenia IoT, w celu umożliwienia szerokiego zakresu zastosowań i scenariuszy. Na przykład system analizy wideo może być wykorzystywany do monitorowania wzorców ruchu i ostrzegania władz o potencjalnych wypadkach lub zatorach lub do analizowania zachowań klientów w sklepie detalicznym i dostarczania spostrzeżeń w celu poprawy doświadczeń zakupowych. Należy zauważyć, że aplikacje rozpoznawania twarzy zostały uznane za wysoce kontrowersyjne przez wielu w branży i szerszym społeczeństwie. W rezultacie niektóre firmy technologiczne zaprzestały budowania potencjału w tym konkretnym obszarze aplikacji.
Algorytmy generatywne
Algorytmy generatywne to klasa algorytmów uczenia maszynowego, które są zaprojektowane w celu generowania nowych próbek danych, które są podobne do zestawu danych treningowych. Algorytmy te są trenowane na zestawie danych, a następnie mogą generować nowe próbki, które są podobne do danych treningowych. Algorytmy generatywne mają szeroki zakres zastosowań w różnych dziedzinach. Oto niektóre przykłady zastosowań algorytmów generatywnych:
Generowanie obrazu: Algorytmy generatywne mogą być używane do generowania nowych obrazów, które są podobne do zestawu danych treningowych obrazów. Na przykład generatywna sieć przeciwstawna (GAN) może być trenowana na zestawie danych obrazów twarzy, a następnie może generować nowe, syntetyczne obrazy twarzy, które są podobne do danych treningowych.
Przetwarzanie języka naturalnego: Algorytmy generatywne mogą być używane do generowania tekstu, który jest podobny do zestawu danych treningowych tekstu. Na przykład algorytm generatywny może być trenowany na zestawie danych recenzji filmów, a następnie może generować nowe, syntetyczne recenzje, które są podobne do danych treningowych.
Synteza mowy: Algorytmy generatywne mogą być używane do generowania mowy syntetycznej, która jest podobna do zestawu danych treningowych mowy. Na przykład algorytm generatywny może być trenowany na zestawie danych mowy ludzkiej, a następnie może generować nową, syntetyczną mowę, która jest podobna do danych treningowych.
Generowanie muzyki: Algorytmy generatywne mogą być używane do generowania nowej muzyki, która jest podobna do zestawu danych treningowych muzyki. Na przykład algorytm generatywny może być trenowany na zestawie danych utworów muzycznych, a następnie może generować nowe, syntetyczne utwory muzyczne, które są podobne do danych treningowych.
Oto kilka przykładów algorytmów generatywnych:
GAN: GAN to rodzaj sieci neuronowej składającej się z dwóch sieci: sieci generatora i sieci dyskryminatora. Sieć generatora jest trenowana w celu generowania nowych próbek, które są podobne do danych treningowych, a sieć dyskryminatora jest trenowana w celu rozróżniania próbek rzeczywistych od fałszywych.
Autoenkodery wariacyjne (VAE): VAE to rodzaj sieci neuronowej składającej się z kodera i dekodera. Koder jest trenowany w celu kompresji danych wejściowych do reprezentacji o niższym wymiarze, a dekoder jest trenowany w celu rekonstrukcji danych wejściowych z reprezentacji o niższym wymiarze. VAE można wykorzystać do generowania nowych próbek poprzez próbkowanie z przestrzeni utajonej i przepuszczanie ich przez dekoder.
Ograniczone maszyny Boltzmanna (RBM): RBM to rodzaj modelu generatywnego składającego się z dwóch warstw połączonych ze sobą węzłów: warstwy widocznej i warstwy ukrytej. Modele RBM można trenować w celu rekonstrukcji danych wejściowych, a także można ich używać do generowania nowych próbek poprzez pobieranie próbek z warstwy ukrytej.
Świat generatywnej AI
Generatywna AI zmieniła oblicze AI i uczenia maszynowego, a dzięki tak wielu powszechnie dostępnym narzędziom, teraz łatwiej niż kiedykolwiek wcześniej jest ludziom wypróbować te możliwości. Wiele osób widzi, jak generatywną AI można wykorzystać do poprawy indywidualnej produktywności, wykorzystując podstawowe LLM do przyspieszenia procesu twórczego dla wszelkiego rodzaju dokumentów i materiałów potrzebnych w wielu różnych rolach, od sprzedaży i marketingu po technologię, rozwój biznesu i obsługę klienta, aby wymienić tylko kilka. Jednak podczas gdy ogólne podstawowe modele okazują się być bardzo przydatne i wydajne, wiele firm zdaje sobie sprawę, że potrzebują bardziej spersonalizowanego modelu, aby dobrze działać w ich konkretnym przypadku użycia, potencjalnie wykorzystując własne dane korporacyjne do dodawania kontekstu do monitów, a tym samym generowania dokładniejszych wyników. Wykorzystywanie baz wiedzy i technologii, takich jak wykresy wiedzy, w celu dostarczania kontekstowych informacji za pośrednictwem orkiestracji drugiego pilota, wskazuje sposób na dostarczanie bardziej dostosowanego i dostosowanego generowania tekstu, który zapewnia rzeczywistą wartość w określonych przypadkach użycia. Generatywna AI nie dotyczy tylko tekstu; widzimy również duże postępy w generowaniu i manipulacji obrazami i wideo. Muzyka również przechodzi rewolucję ze strony narzędzi generatywnej AI, które ukształtują sposób, w jaki muzyka jest wykorzystywana w wielu obszarach, w tym w przypadku asystentów cyfrowych i metawersum. Bardziej zaawansowane zastosowania generatywnej AI obejmują wynalazczość i projektowanie; tutaj wciąż jesteśmy na bardzo wczesnym etapie, ale ten obszar będzie się szybko rozwijał w ciągu najbliższych kilku lat.
Szybka inżynieria
W 2022 r., wraz z wprowadzeniem różnych podstawowych modeli generatywnej i konwersacyjnej AI, nowa rola i umiejętność stały się kluczowe dla maksymalnego wykorzystania tych nowych modeli AI. Nazywane szybką inżynierią, widzieliśmy firmy zatrudniające osoby, które mają predyspozycje do tworzenia podpowiedzi, które przynoszą najlepsze rezultaty z tych LLM. Widzieliśmy również powódź arkuszy podpowiedzi dla różnych tematów, ponownie skupionych na jak najlepszym wykorzystaniu tych podstawowych modeli. Podstawowe modele mogą być używane do wielu różnych rzeczy, od pisania poezji po kodowanie programowania, więc wiedza, jak formułować podpowiedzi, jest kluczowym elementem optymalizacji pożądanych rezultatów. Wiemy jednak, że w przypadku niektórych zadań podstawowe modele wymagają dodatkowego kontekstu, a informacje te mogą wymagać uzupełnienia konkretnego polecenia, aby zmaksymalizować wyniki uzyskane z modelu.
Skrzynka z narzędziami do nauki o danych
Notatniki do nauki o danych
Jednym z kluczowych narzędzi dla naukowców zajmujących się danymi jest to, co jest znane jako notatnik do nauki o danych. Notatniki do nauki o danych to interaktywne dokumenty, które pozwalają naukowcom zajmującym się danymi łączyć kod, tekst i wizualizacje w jednym dokumencie. Są szeroko stosowane w dziedzinie nauki o danych do zadań takich jak eksploracja danych, wizualizacja i uczenie maszynowe. Jest to podobne do zintegrowanych środowisk programistycznych (IDE) używanych przez innych programistów. Oto kilka popularnych przykładów notatników do nauki o danych:
• Jupyter Notebook: Jupyter Notebook to aplikacja internetowa typu open source, która umożliwia naukowcom zajmującym się danymi tworzenie i udostępnianie dokumentów zawierających kod na żywo, równania, wizualizacje i tekst narracyjny. Jupyter Notebook można używać z wieloma różnymi językami programowania, w tym Python, R i Julia.
• Google Colab: Google Colab to oparta na chmurze platforma notatników do nauki o danych, która umożliwia naukowcom zajmującym się danymi pisanie i wykonywanie kodu oraz udostępnianie i współpracę nad notatnikami z innymi użytkownikami. Google Colab zapewnia dostęp do szeregu narzędzi i zasobów, w tym procesorów graficznych i procesorów TPU do uczenia maszynowego.
• Azure Notebooks: Azure Notebooks to oparta na chmurze platforma notatników do nauki o danych udostępniana przez Microsoft Azure. Umożliwia ona naukowcom zajmującym się danymi pisanie i wykonywanie kodu oraz udostępnianie i współpracę nad notatnikami z innymi użytkownikami. Azure Notebooks zapewnia dostęp do szeregu narzędzi i zasobów, w tym bibliotek uczenia maszynowego i narzędzi do wizualizacji danych.
• Amazon SageMaker Studio: IDE, które zapewnia pojedynczy, wizualny interfejs oparty na sieci Web, w którym można uzyskać dostęp do specjalnie zaprojektowanych narzędzi do wykonywania wszystkich kroków rozwoju uczenia maszynowego, od przygotowywania danych po tworzenie, szkolenie i wdrażanie modeli ML.
Notatniki Data Science zapewniają wygodną i interaktywną platformę dla naukowców zajmujących się danymi, aby rozwijać i udostępniać swoją pracę. Umożliwiają one naukowcom zajmującym się danymi łatwe łączenie kodu, tekstu i wizualizacji w jednym dokumencie oraz współpracę i udostępnianie swojej pracy innym. Notatniki te zapewniają również sposób rejestrowania tego, co zostało zrobione w fazie eksperymentalnej tworzenia modelu ML, ponieważ często występuje wiele prób i błędów, a przypomnienie sobie tego, co zostało zrobione, może być trudne, jeśli nie zostanie to odpowiednio zweryfikowane.
Narzędzia i struktury do nauki o danych
Istnieje po prostu wiele dostępnych narzędzi do nauki o danych, wiele z nich jest typu open source, a każdy naukowiec zajmujący się danymi będzie miał preferencje i doświadczenie z różnymi narzędziami. Zazwyczaj zespół ds. nauki o danych (pod przewodnictwem głównego naukowca zajmującego się danymi lub kierownika ds. nauki o danych) określa preferowany zestaw narzędzi do użycia. W przypadku dużych organizacji może to stanowić problem, gdy masz kilka oddzielnych zespołów ds. nauki o danych, z których każdy definiuje własny zestaw narzędzi. W takiej sytuacji centralny hub lub grupa robocza może pomóc w standaryzacji między zespołami/grupami, aby ułatwić udostępnianie między zespołami. Oto kilka przykładów narzędzi do nauki o danych:
• TensorFlow: biblioteka typu open source do uczenia maszynowego i sztucznej inteligencji, opracowana przez Google. TensorFlow jest elastyczny i skalowalny, a także szeroko stosowany do wielu zadań, w tym rozpoznawania obrazów i mowy, przetwarzania języka naturalnego i tłumaczenia maszynowego.
• PyTorch: biblioteka typu open source do uczenia maszynowego i sztucznej inteligencji, opracowana przez Meta. PyTorch jest łatwy w użyciu i elastyczny, a także szeroko stosowany do zadań, takich jak widzenie komputerowe, przetwarzanie języka naturalnego i głębokie uczenie.
• scikit-learn: biblioteka typu open source do uczenia maszynowego w Pythonie. scikit-learn udostępnia szereg algorytmów i narzędzi do zadań, takich jak klasyfikacja, regresja, klasteryzacja i redukcja wymiarowości.
• Keras: biblioteka typu open source do głębokiego uczenia się w Pythonie. Keras jest łatwy w użyciu i zapewnia interfejs wysokiego poziomu do tworzenia i trenowania modeli głębokiego uczenia się.
• MXNet: Biblioteka typu open source do głębokiego uczenia się. MXNet jest zaprojektowana tak, aby była szybka i skalowalna, i jest szeroko stosowana do zadań takich jak rozpoznawanie obrazów i mowy, przetwarzanie języka naturalnego i tłumaczenie maszynowe.
• Theano: Biblioteka typu open source do obliczeń numerycznych i uczenia maszynowego w Pythonie. Theano jest zaprojektowana tak, aby była wydajna i elastyczna, i jest szeroko stosowana do zadań takich jak głębokie uczenie się i przetwarzanie języka naturalnego.
• Caffe: Biblioteka typu open source do głębokiego uczenia się, opracowana przez Berkeley Vision and Learning Center. Caffe jest zaprojektowana tak, aby była szybka i wydajna, i jest szeroko stosowana do zadań takich jak rozpoznawanie obrazów i mowy.
NARZĘDZIA I RAMY SPECJALISTYCZNE
Istnieje również wiele specjalistycznych narzędzi i ram do różnych zadań, od analizy wideo po przetwarzanie języka naturalnego, a także narzędzia ułatwiające pracę w ramach przepływu pracy w nauce o danych (nazywanego również MLOps). Oto krótka lista dedykowanych narzędzi NLP:
• spaCy: spaCy to biblioteka NLP typu open source, która została zaprojektowana do użytku na poziomie produkcyjnym. Zapewnia szybkie i dokładne narzędzia do tokenizacji, tagowania części mowy, analizy zależności i rozpoznawania nazwanych jednostek, i jest dostępna w wielu językach.
• NLTK: Natural Language Toolkit (NLTK) to szeroko stosowana biblioteka NLP napisana w Pythonie. Zapewnia szeroki zakres narzędzi i zasobów do zadań takich jak tokenizacja, stemming i tagowanie części mowy, a także narzędzia do pracy z korpusami językowymi i adnotowanym tekstem.
• GPT-4: GPT-4 (Generative Pre-trained Transformer 4) to najnowocześniejszy model NLP opracowany przez OpenAI. Jest to model oparty na transformatorze, który może wykonywać szeroki zakres zadań NLP, w tym tłumaczenie języka, podsumowywanie i odpowiadanie na pytania.
• BERT: BERT (Bidirectional Encoder Representations from Transformers) to oparty na transformatorach model NLP opracowany przez Google. Jest przeznaczony do zadań takich jak rozumienie języka, analiza sentymentów i generowanie języka naturalnego, i osiągnął najnowocześniejsze wyniki w szerokim zakresie testów porównawczych NLP.
• Flair: Flair to biblioteka NLP typu open source, która została zbudowana na bazie PyTorch. Dostarcza narzędzi do zadań takich jak tagowanie części mowy, rozpoznawanie nazwanych jednostek i klasyfikacja tekstu, i jest zaprojektowana tak, aby była łatwa w użyciu i integracji z istniejącymi procesami NLP.
Do analizy wideo i obrazu:
• OpenCV: OpenCV to biblioteka typu open source do komputerowego widzenia, która udostępnia narzędzia do zadań takich jak wykrywanie obiektów, rozpoznawanie twarzy i analiza ruchu. Może być używana do tworzenia niestandardowych aplikacji do analizy wideo lub do integrowania możliwości analizy wideo z istniejącymi systemami.
• DeepVision: DeepVision to platforma do analizy wideo opracowana przez DeepVision AI. Udostępnia narzędzia do zadań takich jak wykrywanie obiektów, rozpoznawanie twarzy i wykrywanie zdarzeń i może być używana do tworzenia niestandardowych aplikacji do analizy wideo lub do integrowania możliwości analizy wideo z istniejącymi systemami.
• Amazon Rekognition: Amazon Rekognition to oparta na chmurze platforma do analizy wideo opracowana przez Amazon Web Services. Udostępnia narzędzia do zadań takich jak wykrywanie obiektów, rozpoznawanie twarzy i analiza scen i może być używana do tworzenia niestandardowych aplikacji do analizy wideo lub do integrowania możliwości analizy wideo z istniejącymi systemami
• Google Cloud Video Intelligence: Google Cloud Video Intelligence to oparta na chmurze platforma analizy wideo opracowana przez Google. Dostarcza ona narzędzi do zadań takich jak wykrywanie obiektów, rozpoznawanie twarzy i analiza scen, i może być używana do tworzenia niestandardowych aplikacji do analizy wideo lub do integrowania możliwości analizy wideo z istniejącymi systemami.
Rozproszone przetwarzanie
Rozproszone przetwarzanie, a konkretnie, z perspektywy AI, uczenie federacyjne, ma szereg interesujących zastosowań, w których dane muszą być bezpieczne, ale wnioski z treningu modelu ML mogą być udostępniane i agregowane w celu dostarczenia lepszego połączonego modelu. Przykładem tego może być sytuacja, gdy różne banki chcą połączyć wiedzę, aby zbudować model federacyjny do wykrywania oszustw, ale nie chcą udostępniać danych bazowych swoim konkurentom. Jednak wszystkie podmioty wnoszące wkład chcą skorzystać z zagregowanego (lub połączonego) modelu, który byłby lepszy w wykrywaniu oszukańczych działań niż jakikolwiek indywidualny model z jednego banku. Uczenie federacyjne można wdrożyć na poziomie przedsiębiorstwa, jak opisano w poprzednim przykładzie, lub można je wykorzystać w bardziej konsumenckim typie aplikacji; jednakże jest to trudniejsze, ponieważ liczba modeli do agregacji wzrasta wraz z liczbą użytkowników końcowych. Jest to interesujące, ponieważ coraz większe skupienie się na prywatności danych i zaufaniu do danych, uczeniu federacyjnym i ogólniej rozproszonym przetwarzaniu zapewnia podejście, które stawia prywatność danych na pierwszym planie.
Komputery kwantowe
Potencjał komputerów kwantowych, gdy osiągną skalę komercyjną, znacząco wpłynie na sposób, w jaki tworzone jest uczenie maszynowe, a w szczególności głębokie uczenie. Skróci czas szkolenia do tego stopnia, że budowanie największych modeli LLM stanie się znacznie szybsze, umożliwiając wypróbowanie wielu różnych zestawów danych, architektur i parametrów. To nie tylko przyspieszy rozwój najnowocześniejszych algorytmów AI i wynikających z nich modeli, ale może zakłócić działalność dostawców chmury i sprzętu. Komputery kwantowe otworzą również drzwi do rozwiązywania najbardziej złożonych problemów, które wcześniej były nieosiągalne. Wielu uważa, że przyspieszy to również naszą drogę do realizacji AGI. Kiedy to nastąpi? Prawdopodobnie wcześniej, niż moglibyśmy przypuszczać - potencjalnie przed 2030 rokiem. Kiedy to nastąpi, zmieni świat na wiele różnych sposobów.
Prywatność danych i zaufanie
Istnieje kilka aspektów prywatności danych, które należy wziąć pod uwagę w odniesieniu do AI. Pierwszy i prawdopodobnie najbardziej kontrowersyjny, jest związany z wykorzystaniem danych do szkolenia dużych modeli podstawowych. Wielkie firmy technologiczne przeszukały internet i wyciągnęły każdą informację, jaką mogły znaleźć, aby wykorzystać ją jako dane szkoleniowe. Chociaż te dane są technicznie w domenie publicznej, nie wyraziliśmy zgody na uwzględnienie naszych własnych informacji w tych modelach. Bez wątpienia opinie na ten temat będą podzielone. Niektórzy ludzie będą zadowoleni i będą zadowoleni z wykorzystywania swoich danych i będą zadowoleni, że zostało to zrobione bez wyraźnej zgody. Niektórzy będą zadowoleni z wykorzystywania swoich informacji, ale powitaliby zaproszenie i możliwość rezygnacji, podczas gdy inni chcieliby natychmiast zrezygnować z tego schematu. Oczywiście, istnieje ogromna korzyść w wykorzystywaniu masowych ilości informacji od różnych współpracowników, a zadanie pytania o zgodę wszystkich mogłoby być praktycznie niewykonalne. Jednak istnieje realny ruch w kierunku zapewnienia ludziom opcji żądania usunięcia ich danych (lub oduczenia się) z takich modeli. Ostatecznie musimy zbudować infrastruktury, które pozwolą na wbudowanie ochrony danych i zaufania w sposoby gromadzenia, zarządzania i wykorzystywania danych. Istnieją inne problemy, takie jak ujawnianie danych szkoleniowych przy użyciu wyszkolonej sieci neuronowej; ten typ ataku został łatwo zademonstrowany i może być użyty do inżynierii wstecznej prywatnych informacji o osobie, których nie chciałaby ujawniać publicznie. Zaufanie do danych to obszar, który również obejmuje wiele tematów, ale kluczem tutaj jest zbudowanie zaufania jako zarządcy danych, że odpowiednie uprawnienia i kontrole są na miejscu między właścicielem danych a użytkownikiem danych. Zaufanie do danych obejmuje aspekty prywatności i ochrony danych, ale także bardziej etyczne obawy, że dane są wykorzystywane właściwie i do celów, które właściciele danych popieraliby. Zaufanie do danych jest również budowane na przejrzystości podejmowania decyzji przez algorytmy, dzięki czemu ludzie mogą lepiej zrozumieć, dlaczego dany wynik jest generowany, jeśli chcą go zakwestionować.
Prawa własności intelektualnej
Algorytmy uczenia maszynowego często opierają się na dużych ilościach danych, aby się uczyć i ulepszać. Jednak dane te mogą zawierać poufne lub osobiste informacje o osobach, co może budzić obawy dotyczące prywatności danych. Istnieje ryzyko, że do tych danych można uzyskać dostęp lub wykorzystać je w sposób naruszający przepisy o ochronie prywatności lub prawa osób. Algorytmy uczenia maszynowego mogą być wykorzystywane do tworzenia nowych produktów, usług i spostrzeżeń, co może rodzić pytania o to, kto jest właścicielem praw własności intelektualnej do tych kreacji. Mogą pojawić się spory dotyczące tego, czy twórcy algorytmów, czy właściciele danych użytych do ich trenowania mają prawa do powstałych kreacji. Obawy dotyczące prywatności danych i praw własności intelektualnej wciąż nie zostały rozwiązane; wyzwaniem jest to, że te tematy nie są łatwe do rozwiązania, a obie strony sporu są złożone. W miarę dojrzewania technologii prawdopodobne jest, że zostaną wbudowane możliwości, aby poświęcić tym kwestiom więcej uwagi.
Regulacja
Krajobraz regulacyjny dla AI zmienia się równie szybko, jak sama technologia, a kilka krajów publikuje obecnie przepisy dotyczące AI, aby regulować wykorzystanie przede wszystkim podstawowych modeli w celu ochrony obywateli. Widzimy, że kraje zajmują bardzo różne stanowiska w sprawie regulacji AI, niektóre z bardziej agresywną perspektywą, a inne bardziej wspierające innowacje w AI.
Nowa era informatyki - fale generatywne
Witamy na początku nowej ery informatyki, ery kreatywnego informatyki lub informatyki generatywnej. Chociaż mogłoby się wydawać, że generatywna sztuczna inteligencja rozpoczęła się dopiero w 2022 roku wraz z ChatGPT, elementy informatyki generatywnej istniały już od wielu lat. Aby pomóc zrozumieć, jak rozwinęła się informatyka generatywna, pogrupowałem różne postępy w fale, z których każda była bardziej zaawansowana i wydajniejsza od poprzedniej. A każda fala nadchodzi szybciej od poprzedniej.
Pierwsza fala - pisanie kodu (algorytmy)
Głównym postępem technologicznym było to, że można było pisać programy, które tworzą i kompilują nowe programy. Może to brzmieć nieco sprzecznie z intuicją dla każdego spoza dziedziny technologii, ale możliwość algorytmicznego generowania nowego kodu i algorytmów to ważny krok. Osobiście po raz pierwszy zobaczyłem to w języku C#, ale jestem pewien, że teraz jest to możliwe w wielu innych. Chociaż ta możliwość była dostępna od wielu lat, jej potencjał nie został naprawdę zrozumiany ani zrealizowany. Chociaż ta możliwość była technicznie możliwa, nie została szeroko przyjęta; jednak w przypadku najnowszej generatywnej sztucznej inteligencji widzimy silne zastosowanie programistów wspierających generowanie kodu z współpilotami zintegrowanymi ze środowiskami programistycznymi w celu wsparcia i przyspieszenia procesu pisania kodu.
Druga fala - dane (i algorytmy uczenia się) pisanie algorytmów predykcyjnych (modeli)
Wykorzystanie danych historycznych do zdefiniowania algorytmu wytrenowanego modelu predykcyjnego jest zasadniczo inną formą wykorzystania jednego algorytmu do stworzenia innego. Jednak wykorzystanie danych bezpośrednio do zdefiniowania algorytmu było skokiem kwantowym i otworzyło świat możliwości, które napędzały postępy, jakie widzieliśmy w ciągu ostatniej dekady. Ta główna poddziedzina sztucznej inteligencji, znana jako uczenie maszynowe, była najbardziej udanym obszarem sztucznej inteligencji w ciągu ostatnich 20 lat. Wykazaliśmy, że takie algorytmy szkoleniowe mogą wyodrębniać informacje i reguły z dużych zestawów danych w sposób, z którym ludzie mieliby trudności. To odsunęło nas od budowania systemów eksperckich z predefiniowaną logiką i regułami na rzecz tych opartych na danych modeli predykcyjnych. Widzimy zastosowania tego typu podejścia we wszystkich sektorach przemysłu, a nowe start-upy są uruchamiane każdego dnia w celu wykorzystania nowych zestawów danych.
Trzecia fala - algorytmy tworzące treść
Następnie ewoluowały w to, co obecnie nazywamy algorytmami generatywnymi. Podczas gdy druga fala po prostu produkowała predykcyjne wyniki, w tej trzeciej fali wynik jest bardziej szczegółowy i złożony - i stanowi transformację jego danych wejściowych. Technologia ta opierała się na zastosowaniu tłumaczenia językowego, konwersji jednego języka na inny. Podczas gdy technologia nadal koncentrowała się na generowaniu tekstu, widzieliśmy również początkowe wersje, które pobierały obrazy i zmieniały styl dzieła sztuki lub pobierały jeden obraz i generowały jego wariacje na podstawie prostych czynników. Tutaj danymi wejściowymi jest obraz do manipulowania lub wykorzystania jako podstawa transformacji w celu wygenerowania danych wyjściowych. Te algorytmy generatywne udoskonalały się w ciągu ostatnich kilku lat, umożliwiając dokładniejsze transformacje i manipulacje treścią wejściową. Bez wątpienia widziałeś różne dema tego typu techniki, od animowanych obrazów po fałszywe filmy z aktorami i politykami. Postępy w generatywnej sztucznej inteligencji w ciągu ostatnich kilku lat były zdumiewające.
Czwarta fala - algorytmy tworzące treść za pomocą podpowiedzi.
Teraz widzimy, że różne zaawansowane modele generatywne ML umożliwiają generowanie zarówno obrazów, jak i filmów z tekstowych podpowiedzi. Te podpowiedzi zasadniczo sterują algorytmem w jego generowaniu. Jest to zmiana skokowa w stosunku do poprzedniej fali, oparta na rodzaju użytego wejścia. Teraz określane jako podpowiedzi, możemy dostarczyć żądanie lub zapytanie oparte na tekście, które jest używane do generowania wyjścia (tekst, obraz, wideo lub muzyka). Widzieliśmy tutaj postępy, w których podpowiedzi przeszły do bardziej konwersacyjnych interakcji, umożliwiając użytkownikom odpowiadanie na pierwsze próby generowania w celu wprowadzania zmian i udoskonaleń w celu udoskonalenia drugiej odpowiedzi. Technologia w tej fali rozwija się szybko, wraz z wprowadzeniem drugich pilotów, którzy orkiestrują rozszerzanie podpowiedzi o dodatkowy kontekst, aby pomóc uczynić odpowiedzi wyjściowe jeszcze bardziej szczegółowymi i dokładnymi.
Piąta fala - algorytmy tworzące cokolwiek za pomocą podpowiedzi.
Wielu ekspertów uważa, że ostatnie postępy mogą się poprawić tylko dzięki dodatkowej interwencji człowieka i nadzorowi. Oznacza to, że technologia nie ma żadnej formy zrozumienia i dopóki tego nie zrobi, jej możliwości będą ograniczone i potencjalnie ograniczą sposób, w jaki technologia może być wykorzystywana w praktycznych zastosowaniach w świecie rzeczywistym. Piąta fala będzie prawdziwym połączeniem ludzkiej i sztucznej inteligencji, gdzie po prostu musimy poprosić o stworzenie czegoś, a w ciągu kilku sekund mamy to, czego potrzebujemy, od nowych programów komputerowych do wykonywania określonych zadań, po algorytmy generatywne, które mogą produkować nowe filmy lub muzykę w stylu, który nam się podoba, z określoną przez nas fabułą. To przekształci się w asystentów cyfrowych, którzy będą w stanie wykonywać nasze polecenia w wielu różnych zadaniach, o które poprosimy. Wpływ tego poziomu obliczeń generatywnych na różne branże nie został jeszcze ustalony, ale prawdopodobnie radykalnie zmieni modele biznesowe w ciągu najbliższych kilku lat. Firmy i osoby fizyczne będą musiały określić, w jaki sposób mogą dostosować się do tej nowej fali technologii, która ewoluuje tak szybko. Prawdziwym wyzwaniem jest nadążanie za tempem postępu i możliwość wykorzystania tych nowych technologii i osadzenia ich w istniejących firmach w sposób, który dodaje korzyści i unika szkodliwych skutków.
Szósta fala - algorytmy wymyślające i wprowadzające innowacje
Naturalnym rozszerzeniem piątej fali jest to, że sztuczna inteligencja jest w stanie tworzyć nowe wynalazki i innowacje, których ludzie jeszcze nie wymyślili, wykorzystując zaawansowaną wiedzę na temat kilku tematów i łącząc je ze sobą. Co jeśli poprosimy komputer o wynalezienie nowego produktu? Lub przeprowadzenie badań, które odkryją nowe spostrzeżenia? Oczywiście otwiera to ogromne pytania prawne i etyczne - od własności praw autorskich po prywatność danych. Oprócz wyzwań technicznych, aby uczynić tę zdolność bardziej solidną, piąta fala będzie musiała zająć się i rozwiązać wiele z tych pytań etycznych, zanim technologia zostanie powszechnie zaakceptowana.
Siódma fala - algorytmy jako autonomiczne byty.
Może to doprowadzić do siódmej fali algorytmów działających jako autonomiczne byty, zdolne do podejmowania decyzji i samodzielnego rozumowania. Gdy tylko damy algorytmowi zadanie do wykonania, automatycznie zacznie on pracować nad tym celem, bez żadnego dodatkowego wkładu ze strony ludzi. Określane jako autopiloty lub asystenci cyfrowi, wkrótce staną się bardzo zdolne do wykonywania zadań i pełnej automatyzacji złożonych działań. Wiele osób martwi się tym poziomem autonomicznej sztucznej inteligencji, ponieważ cele muszą być zgodne z ludźmi, a ona sama musi mieć zdrowy rozsądek i zdolność do kwestionowania samej siebie i proszenia o wyjaśnienia, jeśli uzna, że coś nie pasuje lub nie ma sensu.
Podsumowanie
Tu zbadaliśmy niektóre zaawansowane tematy związane z dziedziną sztucznej inteligencji. Musimy uznać szybkość postępu i tempo zmian zachodzących w tej chwili, co sprawia, że pisanie tego rozdziału jest szczególnie trudne. Łatwo przewidzieć, że w ciągu najbliższych kilku lat będziemy świadkami znacznie bardziej zaawansowanych zagadnień związanych ze sztuczną inteligencją, a bardziej zaawansowane podejścia, algorytmy, sprzęt, ramy, narzędzia i platformy będą nas przybliżać do ambitnego celu, jakim jest stworzenie ogólnej sztucznej inteligencji.
Dane i infrastruktura
Dane są paliwem napędzającym AI i ML; bez nich nic nie jest możliwe. W rzeczywistości technologie takie jak platformy big data i przetwarzanie w chmurze były kluczowymi czynnikami umożliwiającymi osiągnięcia AI w ciągu ostatniej dekady. W ciągu ostatnich kilku lat przechowywaliśmy i analizowaliśmy znacznie więcej danych niż w poprzedniej dekadzie; każdego roku ilość zapisywanych danych rośnie w niespotykanym dotąd tempie. W rzeczywistości mamy tak dużo danych, że staje się wyzwaniem zarówno ich przechowywanie, jak i analizowanie. Jedną z podstawowych czynności naukowców zajmujących się danymi jest organizacja i wstępne przetwarzanie danych potrzebnych do trenowania i testowania modeli ML. W wielu przypadkach może to stać się znaczącą częścią ogólnego procesu tworzenia modeli ML, ponieważ często wymaga eksperymentowania pod względem używanego zestawu danych i funkcji udostępnianych w dostępnych polach danych. Systemy zarządzania danymi i narzędzia przetwarzania danych dostępne dla naukowców zajmujących się danymi mogą mieć ogromny wpływ na szybkość i wydajność wykonywanej pracy oraz na jakość modeli ML. W tym rozdziale podkreślimy różne zagadnienia, platformy, ramy i narzędzia dostępne dla zespołów zajmujących się nauką o danych w celu zbierania i wstępnego przetwarzania danych potrzebnych do zbudowania potrzebnych modeli predykcyjnych. Podkreślimy również niektóre wyzwania i najnowsze osiągnięcia technologiczne dostępne w zakresie infrastruktury danych i zarządzania nimi.
Podstawy danych
Dane odgrywają kluczową rolę w dziedzinie sztucznej inteligencji i uczenia maszynowego. Naukowcy zajmujący się danymi, którzy budują modele ML, spędzają około 80 procent swojego czasu na pracy z danymi używanymi do trenowania i testowania modelu. Obejmuje to wybór odpowiedniego zestawu danych, oczyszczanie danych, wybór funkcji, usuwanie stronniczości danych, poprawę jakości danych, etykietowanie danych, a nawet, w razie potrzeby, tworzenie danych syntetycznych. Zarządzanie danymi ewoluowało przez wiele dekad, od baz danych transakcyjnych po magazyny danych, duże magazyny danych, jeziora danych, struktury danych, a teraz siatki danych, ale wszystkie mają na celu łączenie danych przedsiębiorstwa i umożliwienie różnym konsumentom danych interakcji z danymi w sposób, którego potrzebują. Zadanie nauki o danych można znacznie usprawnić dzięki łatwemu dostępowi do danych w jednym miejscu za pomocą narzędzi do manipulowania danymi i ich przekształcania, określanego jako wstępne przetwarzanie danych. Uznajemy równi
eż, że strategia i podstawy danych stale się zmieniają w ramach trwających programów prac mających na celu ulepszenie zarządzania danymi, konsolidację infrastruktury, migrację do chmury i wykorzystanie najnowszych projektów architektonicznych i technologii. Nowoczesne platformy danych i architektura Od lat 90. i początku XXI wieku, wraz z wprowadzeniem technologii dużych danych umożliwiających konsolidację danych z wielu źródeł w celu umożliwienia bardziej intensywnych obliczeniowo analiz i raportowania, obszar zarządzania danymi i infrastruktury danych szybko ewoluował. Zostało to wzmocnione przez wprowadzenie chmury obliczeniowej w 2006 r. przez AWS (Amazon z usługą Elastic Compute EC2). Od tego czasu widzieliśmy, jak ewolucja infrastruktur danych nadal wprowadza innowacje w jeziorach danych (2011) i siatce danych (2019).
Widok klienta 360°
Często, w wyniku długoterminowego rozwoju systemów i aplikacji, dane klienta lub konsumenta są rozproszone w całej organizacji, gromadzone w różnych repozytoriach danych, a bez wdrożenia siatki danych zapewnienie dostępu do odpowiednich danych odpowiednim osobom może być trudne. Najlepsze praktyki obecnie polegają na opracowaniu widoku 360° danych klienta, co pozwala na uzyskanie pełnego obrazu klienta, co następnie lepiej informuje o podejmowaniu decyzji i analizach w aplikacjach i funkcjach firmy. Kanały wstępnego przetwarzania danych Aby przygotować dane szkoleniowe i testowe dla modeli ML oraz wykonać te same transformacje jako część wnioskowania modelu, konieczne będzie utworzenie kanału danych w celu ukształtowania danych do prawidłowego formatu dla modeli uczenia maszynowego. Te kanały danych będą znajdować się na górze warstwy danych w architekturze przedsiębiorstwa; mogą działać w różnych trybach, od przesyłania strumieniowego w czasie rzeczywistym po przetwarzanie wsadowe, i stanowić kluczowy składnik ogólnego stosu technologicznego dla wdrożeń AI/ML. Ustrukturyzowane i nieustrukturyzowane dane Większość firm, niezależnie od branży, będzie mieć mieszankę ustrukturyzowanych i nieustrukturyzowanych danych. Wykorzystanie niestrukturalnych danych w sposób, który ujawnia cenne informacje i spostrzeżenia, jest kluczowym elementem każdej nowoczesnej platformy do zarządzania danymi i ich przetwarzania. Wprowadzenie technologii big data, języków zapytań NoSQL i elastycznych schematów danych otworzyło możliwości wykorzystania danych z dokumentów i innych źródeł, co byłoby trudniejsze w przypadku transakcyjnych baz danych relacyjnych. Istnieją podejścia i architektury, które mogą obsługiwać analizę i przetwarzanie niestrukturalnych danych.
Dane jako usługa (DaaS)
W przypadku nowoczesnych architektur danych podejście polega na traktowaniu danych jako usługi, co pozwala producentom i konsumentom mieć większą kontrolę nad danymi, które posiadają lub potrzebują.
Zarządzanie danymi i pochodzenie danych
Ze względu na znaczne znaczenie danych dla uczenia maszynowego, posiadanie silnego audytu, zarządzania i śledzenia (pochodzenie danych) jest głównym wymogiem zarówno dla zespołu ds. nauki o danych, jak i kierownictwa IT, zapewniając audyt i przejrzystość w opracowywaniu modeli. Dostępne są różne narzędzia i ramy, których można użyć do zapewnienia pochodzenia danych i audytu danych używanych podczas szkolenia różnych modeli ML. Pomoże to zapewnić pełną przejrzystość i zarządzanie modelami w produkcji oraz danymi używanymi do ich trenowania i testowania. Pomaga to również zespołom zajmującym się nauką o danych, gdy będą musieli aktualizować modele w przyszłości. Potrzeba tego typu możliwości wzrośnie wraz ze wzrostem liczby wdrożonych modeli.
Infrastruktura techniczna i architektura
Istnieją dwa aspekty infrastruktury technicznej z perspektywy AI i uczenia maszynowego. Pierwszy dotyczy ogólnego procesu i przepływu pracy związanego z opracowywaniem modelu ML, który wymaga większości ciężkiej pracy (jeśli potrzebne jest jakiekolwiek szkolenie na zamówienie lub udoskonalenie), a drugi to wnioskowanie modelu (czyli korzystanie z wyszkolonego modelu w środowisku produkcyjnym lub na żywo). W zależności od rozmiaru używanego modelu ML nawet wnioskowanie może być stosunkowo kosztowne obliczeniowo (największe generatywne modele AI lub duże modele językowe nadal wymagają procesora graficznego do uruchomienia modelu). Wpływ na infrastrukturę techniczną zależy również od podejścia do dostarczania. W przypadku korzystania z dostawcy lub konsultanta złożoność techniczna szkolenia modelu może być współdzielona lub w pełni zlecona na zewnątrz. W przypadku korzystania z modelu wstępnie wytrenowanego przez dostawcę chmury, nacisk zostanie położony na integrację wywołań API do tego modelu z innych części aplikacji oprogramowania. Będą również sytuacje, gdy modele ML stron trzecich będą używane i udostępniane za pośrednictwem prostego wywołania API, dlatego też użycie i integracja będą miały miejsce na poziomie aplikacji, aby zapewnić, że właściwe modele będą wywoływane z właściwych środowisk technicznych. Może być konieczne równoważenie obciążenia i ograniczanie wywołań, aby właściwie kontrolować korzystanie z takich usług.
Platformy chmurowe
Dostawcy chmury mają wiele wewnętrznych modeli ML, które mogą być używane jako część rozwiązania AI. W przypadku wielu standardowych możliwości wszyscy będą mieli podobne modele, które działają na porównywalnym poziomie. Jednak będą istnieć bardziej zaawansowane wymagania funkcjonalne, które ma jeden dostawca chmury, a inni nie, lub jeden działa znacznie lepiej niż inni. W takich sytuacjach będziemy musieli być bardziej celowi w projektowaniu i wdrażaniu architektury, aby mieć pewność, że dostarczamy najlepsze wyniki dla klientów, niezależnie od ich preferowanej platformy chmurowej. W przypadku procesów wewnętrznych i ulepszeń produktywności te rozważania będą mniej restrykcyjne, co da nam większą swobodę wyboru najlepszych opcji.
Skalowalna architektura
Zarówno w przypadku szkolenia, jak i wnioskowania, kluczem jest zaprojektowanie skalowalnej architektury, która umożliwia wzrost pojemności wraz z konsumpcją użytkownika. Tutaj platformy chmurowe wchodzą w grę i zapewniają architektury projektów, które umożliwiają dynamiczną (lub inną) poziomą skalowalność, aby utrzymać wydajność systemów na odpowiednim poziomie.
Przepływ pracy i proces nauki o danych
Kluczowym nowym zestawem wymagań, gdy wprowadza się naukę o danych i uczenie maszynowe do miksu dostaw technicznych, będzie przepływ pracy nauki o danych i proces rozwoju nauki o danych. Omówię to szczegółowo w następnej sekcji, ale warto tutaj zaznaczyć, że istnieje potrzeba zapewnienia dopasowania między obecnym zasięgiem technologicznym a wszelkimi nowymi narzędziami i ramami wprowadzonymi dla nauki o danych. Konkretne potrzeby zespołu nauki o danych będą ewoluować w czasie, w miarę dojrzewania zespołu i zwiększania skali dostarczania AI i ML. Każdy zespół i lider nauki o danych będzie również miał swój własny zestaw narzędzi preferencji. Jednym z największych zagrożeń dla wdrożenia AI/ML jest dopasowanie między obecnym zasięgiem technologicznym a dodatkami potrzebnymi do wdrożeń nauki o danych. Często zespół nauki o danych będzie miał wiele narzędzi, których używa podczas prototypowania i rozwoju, i będzie się martwił o środowisko produkcyjne dopiero pod koniec pierwszej dostawy. Może to powodować niepotrzebne opóźnienia i potencjalne konflikty, które mogą być trudne do rozwiązania. Należy zachować ostrożność, aby zmapować wymagania we wszystkich środowiskach technologicznych, aby możliwe było płynne przejście do produkcji na żywo.
MLOps
Operacje uczenia maszynowego (lub MLOps) są rozszerzeniem funkcji DevOps, ale dotyczą niuansów opracowywania modeli uczenia maszynowego. W przypadku dużych zespołów zajmujących się nauką o danych narzędzia i struktury ułatwiające automatyzację operacji tworzenia, wdrażania i testowania uczenia maszynowego staną się niezbędne. Konkretne narzędzia MLOps będą zależały od preferencji członków zespołu zajmującego się nauką o danych, innych używanych narzędzi do nauki o danych i skali wykonywanej pracy. Funkcje MLOps byłyby zazwyczaj tworzone i zarządzane przez inżyniera ML, ale w mniejszych zespołach jeden z naukowców zajmujących się danymi mógłby również pełnić tę rolę. Czasami termin AIOps jest również używany w odniesieniu do tej funkcji, ale może być również używany, myląco, w odniesieniu do sztucznej inteligencji stosowanej w obszarze operacji bardziej ogólnie.
Szkolenie kontra wnioskowanie
Istnieją dwie odrębne czynności podczas tworzenia modeli uczenia maszynowego, które mają różne wymagania dotyczące danych i obliczeń, co zmienia architekturę potrzebną do obsługi każdej z nich. W przypadku szkolenia podstawowym wymogiem jest manipulowanie zestawami danych, wstępne przetwarzanie danych w celu poprawy jakości danych, oczyszczanie danych, transformacja danych i redukcja danych w celu wytworzenia zestawu sygnałów, które można wykorzystać do szkolenia modelu. Szkolenie modelu jest intensywne obliczeniowo, ponieważ topologia i hiperparametry muszą zostać zoptymalizowane metodą prób i błędów, aby zmaksymalizować wydajność wyszkolonego modelu. Po wyszkoleniu modelu jego użycie (znane jako wnioskowanie) ma inny profil danych i obliczeniowy, nadal wymagając podobnego wstępnego przetwarzania danych, ale konfiguracja obliczeniowa musi być skoncentrowana na skalowanym uruchomieniu modelu na zasadzie ad hoc dostosowanej do zapotrzebowania użytkownika. Zazwyczaj architektury techniczne do szkolenia i wnioskowania są różne, ale muszą być dostosowane, aby umożliwić płynny postęp od opracowywania modeli do wdrożenia w środowisku produkcyjnym. Wyszkolone modele są zazwyczaj udostępniane reszcie infrastruktury IT i aplikacjom za pośrednictwem interfejsu API, wywołania interfejsu API aktywują model, prezentując mu zestaw sygnałów wejściowych, a model zapewni powiązaną odpowiedź wyjściową, która jest następnie przekazywana z powrotem za pośrednictwem interfejsu API do aplikacji wywołującej.
Monitorowanie wydajności
Będzie konieczne monitorowanie działania i wydajności wdrożonych modeli. Wynika to z faktu, że wydajność modelu może się pogarszać w czasie, ponieważ dane mogą się zmieniać lub dryfować w pewnym okresie czasu (gdy użytkownicy zmieniają sposób pracy i sposób korzystania z systemów i danych). Można sobie z tym poradzić, ponownie szkoląc model przy użyciu bardziej aktualnych informacji; na przykład można ponownie szkolić model raz w miesiącu, aby uwzględnić dane z ostatniego miesiąca, tak aby przechwycił najnowsze informacje. Wdrożenie modelu w środowisku produkcyjnym jest tylko częścią procesu potoku (a nie końcem, jak może to mieć miejsce w przypadku innych systemów IT); ciągłe monitorowanie i testowanie wydajności z potencjalnym ponownym szkoleniem to potencjalne potrzeby wielu modeli.
Opcje infrastruktury i platformy
Wszyscy dostawcy usług w chmurze - Amazon, Microsoft, Google, IBM, Alibaba, Oracle i Salesforce - udostępniają klientom ramy, narzędzia i wstępnie wyszkolone modele, które są zintegrowane z aplikacjami i rozwiązaniami. Dostarczają głównych bloków konstrukcyjnych, ale nadal trzeba włożyć sporo wysiłku, aby przekształcić je w odpowiednie możliwości AI/ML, z których zespoły zajmujące się nauką o danych będą mogły wygodnie korzystać w ramach swojego procesu i przepływu pracy. Istnieją również specjalistyczne platformy od dostawców; dwie z najbardziej znanych to H20 i C3. Oferują one szereg skalowalnych platform dla użytkowników korporacyjnych, którzy chcą wdrażać AI na dużą skalę.
Platformy rodzime
Niektóre organizacje, a widzieliśmy to szeroko w sektorze usług finansowych, wolą budować własne platformy na zamówienie, łącząc zbiór narzędzi i ram z różnych źródeł. Ta opcja zapewnia największą elastyczność i kontrolę, ale jej utworzenie i utrzymanie byłoby najkosztowniejsze. Ta opcja miałaby sens tylko wtedy, gdybyś miał do przetworzenia znacznie większą ilość danych (usługi finansowe mogą mieć miliony transakcji na godzinę) i musiałbyś wprowadzać szybkie i częste zmiany w systemie. Organizacje będą coraz częściej postrzegać używane przez siebie modele ML jako klejnoty koronne pod względem możliwości algorytmicznych firmy, a platformy bazowe staną się bardziej powszechne, jak widzieliśmy w przypadku technologii big data i chmury. Dlatego to unikalne zestawy danych firmy i zdolność do opracowywania niestandardowych modeli ML stworzą przewagę konkurencyjną dzięki implementacjom AI.
Podsumowanie
Tutaj zbadaliśmy, jak ważne są dane dla dostarczania funkcjonalności AI i ML, ale także jak trudne i skomplikowane mogą być. Najlepsi w swojej klasie naukowcy danych potrzebują najlepszego możliwego zarządzania danymi i infrastruktury, aby ułatwić wybór zestawów danych szkoleniowych i testowych w celu wytworzenia najbardziej wydajnych modeli. Ta sekcja zawiera również szereg sugerowanych ram i narzędzi, które mogą pomóc w skonstruowaniu najlepszego w swojej klasie przepływu pracy przetwarzania danych. Możliwość wyodrębnienia jak największej liczby spostrzeżeń z podstawowych danych dostępnych w dowolnej organizacji będzie podstawowym wymogiem dla firm, aby podejmować lepsze decyzje i rozumieć swoich klientów, aby zapewnić bardziej spersonalizowaną obsługę. Przejście na większą liczbę raportów w czasie rzeczywistym i pulpitów nawigacyjnych jest również kluczowym ulepszeniem umożliwiającym bardziej reaktywne podejmowanie decyzji, co może pomóc organizacjom radzić sobie z dynamicznymi zmianami środowiskowymi i ekonomicznymi szybciej, niż byłoby to możliwe w inny sposób. Jednak dostarczenie tego poziomu transformacji cyfrowej wymaga pewnego poziomu inwestycji (i czasu) w zależności od tego, gdzie obecnie znajduje się Twoja infrastruktura danych. Zarządzanie danymi to rozwijający się temat, który będzie musiał zostać ulepszony w niektórych obszarach, aby wspierać specyficzne potrzeby AI w nadchodzących latach. Wykracza to poza pochodzenie danych i audyt, do zdolności do obsługi rygorystycznych metodologii prywatności danych, które działają zarówno dla właścicieli danych, jak i użytkowników danych. Ponieważ bezpieczeństwo AI i zaufanie cyfrowe stają się gorącymi tematami, warstwy infrastruktury danych będą musiały wprowadzać innowacje, aby sprostać takim wymaganiom, aby zabezpieczyć się na przyszłość i pomóc w dostarczaniu bardziej zaawansowanych wymagań analitycznych.
Przegląd uczenia maszynowego
Uczenie maszynowe to poddziedzina sztucznej inteligencji, która obejmuje algorytmy szkoleniowe, aby automatycznie uczyły się i ulepszały na podstawie danych bez wyraźnego programowania. Jest to znaczące odejście od sposobu, w jaki wcześniej budowaliśmy systemy technologiczne i aplikacje, i nadal odkrywamy najlepsze sposoby, aby to zrobić, aby pomóc nam uniknąć takich rzeczy, jak stronniczość decyzyjna i inne wyzwania etyczne. W tym rozdziale przedstawiono podstawowe koncepcje uczenia maszynowego, w tym typowe algorytmy i podejścia, takie jak uczenie nadzorowane i nienadzorowane.
Podstawy uczenia maszynowego
Metody uczenia maszynowego wykorzystują dwa etapy. Pierwszy etap nazywany jest szkoleniem i zazwyczaj wykorzystuje adnotowany zestaw danych szkoleniowych, w którym abstrakcyjna maszyna autonomicznie identyfikuje powiązania i wzorce w danych związanych z pożądaną odpowiedzią wyjściową (często znaną jako prognoza). Proces uczenia przedstawi zestaw danych szkoleniowych sieci neuronowej i na podstawie obliczonego błędu między pożądanym (lub docelowym) wyjściem a rzeczywistym wyjściem, wewnętrzne parametry maszyny, tj. wewnętrzne wagi połączeń, są dostosowywane w celu stopniowego wprowadzania ulepszeń do pożądanego wyjścia. Proces ten jest powtarzany wielokrotnie w całym zestawie danych. Uczenie maszynowe eliminuje potrzebę definiowania złożonych, ręcznie tworzonych reguł, które ściśle przestrzegają określonej specyfikacji napisanej przez programistę (jak ma to miejsce w przypadku opracowywania programów komputerowych), ponieważ abstrakcyjna maszyna w technologii ML/AI nie przetwarza danych na podstawie instrukcji krok po kroku, ale zamiast tego wykorzystuje dane szkoleniowe do nauki logiki rozwiązywania określonego problemu i w ten sposób rekonfiguruje maszynę. Uczenie maszynowe nie stosuje zatem podejścia opartego na instrukcji "jeśli-to". Na poziomie abstrakcji sprzętowej każda iteracja jest emulacją nowej i lepszej topologii strukturalnej zdefiniowanej na końcu procesu, a nie na początku. Zamiast tego, funkcjonalna zdolność ANN (sztucznej sieci neuronowej) jest definiowana poprzez stworzenie wewnętrznego modelu niezależnego od programisty oprogramowania i niezależnego od wyrażenia lub języka wybranego przez programistę oprogramowania. Ten pierwszy etap będzie również wykorzystywał oddzielny zestaw danych walidacyjnych, aby pomóc w kierowaniu procesem szkolenia lub uczenia się poprzez pomiar dokładności częściowo wyszkolonego modelu w celu wywnioskowania poprawnego wyjścia dla zestawu danych walidacyjnych. Po wyszkoleniu modelu ANN można go użyć na drugim etapie, często znanym jako wnioskowanie, do tworzenia prognoz na podstawie nowych danych przedstawionych na wejściach modelu. Ten drugi etap wykorzystuje wyszkolony model do generowania prognoz na podstawie tego, czego nauczył się ze zbioru danych treningowych na podstawie nowych danych przedstawionych mu. Istotą szkolenia ANN jest symulacja sieci strukturalnej (topologii) sieci neuronowej, która jest bardzo uproszczonym przybliżeniem neuronów w ludzkim mózgu. Metodę symulacji można wdrożyć na różne sposoby, w tym za pomocą elektroniki sprzętowej, dedykowanych akceleratorów sprzętowych, sprzętu wieloprocesorowego (takiego jak karty graficzne) i oprogramowania symulacyjnego. We wszystkich przypadkach parametry połączeń synaptycznych i neuronów są zmieniane w celu poprawy dokładności działania całej maszyny. Po skutecznym przeszkoleniu, a w zasadzie po każdej iteracji, nowa inteligentna maszyna jest lepszą inteligentną maszyną.
Podstawowe struktury
Sieć neuronowa składa się ze zbioru neuronów. Neurony te są ułożone w strukturę warstw. Warstwy te są oznaczone jako warstwa wejściowa, warstwa(y) ukryta(e) i warstwa wyjściowa. Warstwy ukryte znajdują się pomiędzy warstwami wejściową i wyjściową. Zazwyczaj jest więcej niż jedna warstwa ukryta, chociaż w najprostszej formie warstwa ukryta jest opcjonalna, a warstwy wejściowa i wyjściowa mogą być bezpośrednio połączone. W topologii w pełni połączonej wyjścia z neuronów w jednej warstwie są połączone z wejściami wszystkich neuronów w następnej warstwie. Dane wejściowe są prezentowane neuronom warstwy wejściowej, a sieć przetwarza te informacje przez neurony w każdej warstwie po kolei, aż neurony warstwy wyjściowej przedstawią wynik wyjściowy. Proces ten nazywa się feed-forward.
Neurony
Neuron przyjmie jedno lub więcej danych wejściowych z poprzedniej warstwy (lub danych wejściowych, jeśli znajdują się w samej warstwie wejściowej). Dla każdego wejścia będzie miał on oddzielną wartość wagi (która zmienia się w trakcie procesu uczenia się), którą stosuje do wartości wejściowej. Te ważone dane wejściowe są następnie agregowane razem z wartością odchylenia (która również może się zmieniać w trakcie procesu uczenia się). Następnie funkcja aktywacji (w prostym przykładzie jest to funkcja sigmoidalna) jest używana na tej zagregowanej wartości, aby wygenerować wartość wyjściową neuronu. Wartość wyjściowa neuronu służy następnie jako wartość wejściowa z tego neuronu do połączonych neuronów w następnej warstwie neuronów. Ten prosty proces przepływu sygnału, zarówno na etapie szkolenia, jak i przewidywania, może być wykonywany w komputerze, elektronice sprzętowej (znanej jako cyfrowy sprzęt neuromorficzny), a także w programowalnych układach bramkowych (FPGA).
Warstwy
Typowa sieć neuronowa składa się z wielu neuronów ułożonych w warstwy. Sieć neuronowa zazwyczaj ma warstwę wejściową, jedną lub więcej warstw ukrytych i warstwę wyjściową. Nie jest konieczne, aby w każdej warstwie znajdowała się taka sama liczba neuronów, a często tak nie jest. Dane wejściowe byłyby prezentowane neuronom w warstwie wejściowej. W topologii w pełni połączonej wyjścia neuronów w jednej warstwie są połączone z wejściami wszystkich neuronów w następnej warstwie. Dane te byłyby następnie propagowane przez neurony wejściowe i do neuronów w warstwach ukrytych, przy czym każdy neuron przetwarzałby swoje dane wejściowe i obliczał własne dane wyjściowe. Z ostatniej warstwy ukrytej dane będą propagowane do warstwy wyjściowej neuronów, a na końcu neurony wyjściowe dostarczą wynik przewidywania wyjściowego. Na każdej warstwie neurony pobiorą dane wejściowe i zmodyfikują je na podstawie ich wewnętrznych wag, aby obliczyć dane wyjściowe tego neuronu (które są następnie propagowane jako dane wejściowe do neuronów w następnej warstwie). W sieciach neuronowych występują takie rzeczy jak "warstwy splotowe". Proste wyjaśnienie jest takie, że dane wejściowe do warstwy splotowej są dwuwymiarowe, np. macierz. Warstwy splotowe są zatem w stanie uczyć się wzorców 2D w danych wejściowych, np. pionowych krawędzi na fotografii lub okrągłych kształtów na wyjściu poprzedniej warstwy. Warstwa wyjściowa neuronów przedstawi określoną liczbęwartości wyjściowych (często znanych jako wektor wyjściowy). Jako łatwe do zrozumienia zastosowanie, te dane wyjściowe są używane do kategoryzowania danych wejściowych im przedstawionych, przy czym każdy neuron wyjściowy reprezentuje inną kategorię. W przypadku niektórych klasyfikacji kategorii chcemy, aby sieć podała nam najbardziej prawdopodobną (najwyższe prawdopodobieństwo) kategorię dla danych wejściowych. Funkcja "softmax" jest używana do normalizacji wartości wyjściowych (we wszystkich neuronach wyjściowych), więc suma wszystkich wartości na wyjściu wynosi 1, a każde wyjście jest między 0 a 1. Każde wyjście reprezentuje prawdopodobieństwo, że dane wejściowe powinny zostać sklasyfikowanejako należące do tego "koszyka" wyjściowego. W efektywnej i dobrze zaimplementowanej sieci neuronowej spowodowałoby to, że najbardziej prawdopodobna kategoria miałaby wartość bliską 1, a inne mniej prawdopodobne kategorie miałyby wartości bliższe 0. Tak więc, na przykład, gdybyś miał sieć neuronową wytrenowaną do rozróżniania zdjęć kotów, psów, koni i owiec, warstwa wyjściowa softmax miałaby cztery neurony, każdy odpowiednio powiązany z kotem, psem, koniem lub owcą. Intencją byłoby, aby każde konkretne zdjęcie generowało wartość bliską 1 w jednym z neuronów wyjściowych i bliską zera w pozostałych trzech, aby skategoryzować zdjęcie. W innych zastosowaniach wyjście może być wektorem liczbowym opisującym wejście w sposób abstrakcyjny. Na przykład w tak zwanych zastosowaniach osadzania wyjście sieciowe jest wielowymiarowym wektorem, który stara się "opisać" wejście (choć niekoniecznie w sposób zrozumiały dla człowieka), takie, że podobne wejścia generują numerycznie podobne wyjścia. Zastosowanie tej koncepcji do dużej ilości danych powoduje wypełnienie przestrzeni wielowymiarowej dyskretnymi punktami danych, które są powiązane przez bliskość numeryczną w tej przestrzeni osadzania.
Trening
Dla danej sieci neuronowej będzie ona miała zdefiniowaną strukturę (sieć lub topologię), konkretnie liczbę neuronów w każdej warstwie iliczbę warstw. Ta struktura określi również całkowitą liczbę wag i odchyleń ze wszystkich neuronów w sieci. Te wagi i odchylenia to parametry, które można zmienić podczas procesu szkolenia (lub uczenia się) i ostatecznie określają, w jaki sposób sieć neuronowa reaguje (wyprowadzawartości) na wszelkie dane wejściowe, które są jej prezentowane. Etap szkolenia ma na celu zmianę wewnętrznych parametrów sieci neuronowej. Będzie to wykorzystywać iteracyjny proces uczenia się w celu określenia zmian tych parametrów. Proces uczenia się będzie wykorzystywał zbiór danych szkoleniowych, zbiór danych walidacyjnych i funkcję straty (lub kosztu). Będzie on wielokrotnie przedstawiał zbiór danych szkoleniowych sieci neuronowej i określał, w jaki sposób modyfikować parametry sieci, aby zmniejszyć błąd w jej klasyfikacji (przewidywany wynik). Zadaniem funkcji straty jest określenie różnicy
(lub błędu) między pożądanymi wynikami (często nazywanymi celami) a rzeczywistym wynikiem generowanym przez sieć. Proces uczenia się będzie następnie proporcjonalnie wykorzystywał ten błąd do wprowadzania niewielkich zmian w parametrach sieci. Proces ten jest powtarzany dla każdego przykładu w zestawie danych treningowych. Jednym z bardzo powszechnych podejść jest tzw. propagacja wsteczna. Może ona wykorzystywać funkcję straty średniego błędu kwadratowego (MSE), chociaż inne funkcje straty mogą być używane z propagacją wsteczną, w tym entropia krzyżowa. Stwierdzono, że entropia krzyżowa jest wysoce skuteczna w przypadku problemów klasyfikacji kategorii. Funkcja straty jest po prostu miarą różnicy między wynikiem sieci a pożądanym wynikiem. Jeden cykl zestawu danych treningowych nazywa się epoką. Po kilku epokach zestaw danych walidacyjnych jest prezentowany sieci, a błąd między celami a rzeczywistymi wynikami jest obliczany. W miarę trwania procesu uczenia się możemy zobaczyć, jak błąd zmniejsza się dla
zestawu danych walidacyjnych. Służy to do monitorowania postępów uczenia się i pomaga określić, kiedy zatrzymać proces uczenia się. Zestaw danych walidacyjnych nie jest używany do modyfikowania parametrów sieci. Proces uczenia się będzie miał również kilka zmiennych wewnętrznych, które wpływają na proces uczenia się. Są one nazywane hiperparametrami i chociaż mają pewien wpływ na proces uczenia się, nie są częścią sieci i nie są używane na etapie wnioskowania. Niektóre reżimy szkoleniowe mają potencjał do ponownego zdefiniowania topologii sieci neuronowej. Na przykład, oprócz modyfikowania wag i odchyleń, neurony mogą być usuwane ("przycinane") z ukrytych warstw (jeśli na przykład wszystkie wagi zbliżają się do zera dla określonego neuronu), co dynamicznie modyfikuje strukturę sieci, ponieważ neuron o wartości wagi bliskiej zeru prawdopodobnie nie wpłynie na wynik. Zestawy danych i generalizacja Aby osiągnąć dobrą generalizację, sieci neuronowe wymagają dużych ilości adnotowanych danych treningowych. W
konkretnym przykładzie klasyfikacji powinny one być idealnie zrównoważone w kategoriach (np. obrazy psów, kotów, koni i owiec), umożliwiając sieci identyfikację cech w danych wejściowych, które są powiązane z każdą kategorią. Zjawisko nadmiernego dopasowania występuje, gdy wyszkolona sieć nie generalizuje prawidłowo dla niewidzianych danych. Niedopasowanie oznacza, że wyszkolona sieć nie nauczyła się wystarczająco danych treningowych. Jest to równowaga między niedopasowaniem i nadmiernym dopasowaniem kontrolowana przez złożoność sieci pod względem (a) liczby neuronów na warstwę i (b) całkowitej liczby warstw między warstwami wejściowymi i wyjściowymi.
Maszyna rozpoznająca wzorce
Po wytrenowaniu sieci neuronowej przechodzimy do drugiego etapu i używamy jej do wnioskowania, w przykładowym i łatwym do zrozumienia przypadku, klasyfikacji (prognoz) z nowymi przykładami danych (wcześniej niewidocznymi dla sieci podczas treningu). Tutaj topologia sieci i parametry pozostają zamrożone (statyczne). Pozwala to na implementację konkretnej implementacji tej maszyny rozpoznającej wzorce (silnika wnioskowania) na wiele sposobów i w różnych formach. Chociaż o sztucznej inteligencji i sieciach neuronowych często mówi się w kontekście emulacji programowej, jak wspomniałem powyżej, niekoniecznie tak jest. Specjalistyczny sprzęt firm takich jak NVIDIA i Graphcore zapewnia architektury sprzętowe, które generują topologie sieci neuronowych, umożliwiając bezpośrednie mapowanie architektury sieciowej na architekturę sprzętową. Takie podejście sprawia, że uruchomienie wytrenowanej sieci neuronowej jest znacznie szybsze niż za pomocą symulacji programowej, zwłaszcza biorąc pod uwagę wszechobecną dostępność komputerów. Staje się to coraz ważniejsze, ponieważ topologia sieci neuronowych staje się coraz większa. Takie sprzętowe przyspieszenie jest również szeroko stosowane do trenowania sieci neuronowych, ponieważ jest to proces bardziej intensywny obliczeniowo. Takie podejścia sprzętowe są stosowane zarówno w projektach badawczych, jak i komercyjnych. W emulacjach oprogramowania symulowana jest ta sama architektura (lub emulowana), działająca w ten sam sposób. Implementacje oprogramowania i sprzętu są takie same pod względem architektury, wag i odchyleń oraz wytwarzanych wyników. To tylko kwestia tego, co jest wygodniejsze lub wydajniejsze w użyciu w danym scenariuszu.
Podejścia do uczenia się
Istnieją cztery główne typy uczenia maszynowego: uczenie nadzorowane, uczenie bez nadzoru, uczenie półnadzorowane i uczenie przez wzmacnianie:
1 W uczeniu nadzorowanym algorytm jest trenowany na oznaczonym zestawie danych, gdzie dla każdego przykładu dostarczane są prawidłowe wyniki. Ten typ uczenia się jest stosowany w zadaniach takich jak regresja i klasyfikacja.
2 W uczeniu bez nadzoru algorytm nie jest dostarczany z oznaczonymi przykładami i musi odkryć podstawową strukturę danych za pomocą technik takich jak klasteryzacja i redukcja wymiarowości.
3 W uczeniu półnadzorowanym algorytm otrzymuje częściowo oznaczony zestaw danych i musi uczyć się zarówno z oznaczonych, jak i nieoznaczonych przykładów.
4 W uczeniu przez wzmacnianie algorytm uczy się poprzez interakcję ze swoim otoczeniem i otrzymywanie nagród lub kar za określone działania.
Uczenie maszynowe ma szeroki zakres zastosowań, w tym rozpoznawanie obrazów i mowy, przetwarzanie języka naturalnego i analitykę predykcyjną. To, co widzieliśmy w ciągu ostatnich kilku lat, to eksplozja aplikacji wykorzystujących uczenie maszynowe, dostarczających szeroki zakres nowych możliwości funkcjonalnych w wielu różnych branżach (od usług finansowych po produkcję i opiekę zdrowotną) oraz we wszystkich częściach operacji biznesowych.
Uczenie nadzorowane
W uczeniu nadzorowanym celem jest wytrenowanie modelu, aby mógł tworzyć prognozy na podstawie oznaczonych przykładów. Istnieją dwa główne typy uczenia nadzorowanego: regresja i klasyfikacja. Regresja polega na przewidywaniu ciągłej wartości wyjściowej, takiej jak cena lub prawdopodobieństwo. Typowe algorytmy regresji obejmują regresję liniową, regresję logistyczną i maszyny wektorów nośnych. Klasyfikacja polega na przewidywaniu dyskretnej wartości wyjściowej, takiej jak etykieta lub klasa. Typowe algorytmy klasyfikacji obejmują k najbliższych sąsiadów, drzewa decyzyjne i naiwny Bayes. Ocena wydajności modelu uczenia nadzorowanego jest ważna, aby upewnić się, że dokonuje on dokładnych prognoz. Typowe metryki oceny dla regresji obejmują średni błąd kwadratowy i średni błąd bezwzględny, podczas gdy typowe metryki oceny dla klasyfikacji obejmują dokładność, precyzję i odwołanie. Nadmierne dopasowanie i niedostateczne dopasowanie to typowe problemy, które mogą wystąpić podczas trenowania modelu uczenia nadzorowanego. Nadmierne dopasowanie występuje, gdy model jest zbyt złożony i jest w stanie idealnie dopasować dane treningowe, ale słabo uogólnia się na nowe dane. Niedopasowanie występuje, gdy model jest zbyt prosty i nie jest w stanie uchwycić podstawowego wzorca danych
Uczenie się przez wzmacnianie
Uczenie się przez wzmacnianie to rodzaj uczenia maszynowego, w którym agent uczy się poprzez interakcję ze swoim otoczeniem i otrzymywanie nagród lub kar za określone działania. Celem jest nauczenie się przez agenta polityki, która maksymalizuje skumulowaną nagrodę w czasie. Uczenie się przez wzmacnianie ma szeroki zakres zastosowań, w tym robotykę, systemy sterowania i gry. Zostało wykorzystane do opracowania udanych systemów sztucznej inteligencji do zadań takich jak gra w szachy i Go. Istnieją trzy główne typy uczenia się przez wzmacnianie: oparte na wartościach, oparte na polityce i oparte na modelach.
Podsumowanie
Uczenie maszynowe (definiowanie modelu predykcyjnego na podstawie danych) jest największą i najbardziej udaną poddziedziną sztucznej inteligencji do tej pory. Naprawdę przełamuje schemat sposobu, w jaki tradycyjnie budowaliśmy technologię. Wcześniej logika decyzyjna i algorytmy były funkcjonalnie definiowane przez analityków biznesowych współpracujących z użytkownikami biznesowymi, którzy rozumieli, w jaki sposób chcą, aby działały aplikacje wspierające ich pracę. Ta główna modyfikacja sposobu tworzenia złożonych algorytmów (lub w terminologii ML, modeli) jest transformacyjna w sektorze IT, a dla tych, którzy nie są zaznajomieni z tym, jak działa ML, początkowo może być trudno się do niej przystosować. Nie chodzi tylko o tę zmianę w sposobie definiowania algorytmów, ale o niepewność praktyki nauki o danych z koniecznością eksperymentowania zarówno z danymi, jak i typami ML używanymi w celu uzyskania najlepszej wydajności. Innowacje i badania w zakresie uczenia maszynowego są siłą napędową wszystkich ostatnich sukcesów, które widzieliśmy (z tysiącami artykułów ML publikowanych każdego miesiąca). Inwestycje w badania stosowane w wielu największych firmach technologicznych przesuwają ML do przodu w niewiarygodnym tempie, a istnieje ogromny potencjał dalszych innowacji w tej przestrzeni w ciągu następnej dekady i później. Podczas gdy koncentrowano się na budowaniu maszyn, które mogą się uczyć, naprawdę potrzebujemy pełnego zakresu zdolności inteligencji, w tym rozumienia, rozumowania, reprezentacji wiedzy, świadomości emocjonalnej i zdrowego rozsądku, aby zbliżyć się do ludzkiego poziomu inteligencji. W tym rozdziale omówiliśmy szeroki zakres technik i metodologii ML, aby dać każdemu nowicjuszowi solidne podstawowe zrozumienie tego, czym jest uczenie maszynowe i jakie są jego podstawowe koncepcje. Skupiliśmy się na głównym obszarze uczenia maszynowego, sieciach neuronowych, które są inspirowane neuronami w biologicznych mózgach, ponieważ była to najbardziej udana technika wraz z postępem metodologii głębokiego uczenia się w ostatnich latach. Pod wieloma względami uczenie maszynowe jest fundamentem, na którym budowane są aplikacje i systemy AI. Podczas gdy ML obejmuje szeroki zakres technik, istnieje wiele innych podejść poza ML, które nadal mieszczą się w szerszym polu AI. Często rozwiązania będą wymagały połączenia technologii obejmujących zarówno ML, jak i AI. kilka).
Technologia
Sztuczna inteligencja to nie tylko jedna technologia, to zbiór wielu różnych technik w ramach różnych metodologii. Jest to również odniesienie do naszych najbardziej zaawansowanych technologii, które cały czas ewoluują, ponieważ staramy się tworzyć bardziej inteligentną technologię, która może pomóc nam rozwiązywać trudniejsze problemy. W miarę postępu technologii zrozumienie pełnego zakresu dostępnych podejść jest jednym z głównych wyzwań dla współczesnego naukowca zajmującego się danymi. Uczenie maszynowe to tylko jeden obszar tej dziedziny; prawdziwy potencjał AI zostanie zrealizowany tylko dzięki połączeniu wielu technik i podejść. Opracowywanie rozwiązań opartych na AI dla najbardziej złożonych problemów jest również trudne ze względu na szeroki zakres dostępnych opcji. Duża część sztuki i umiejętności naukowca zajmującego się danymi polega na tym, aby instynktownie wiedzieć, jaki typ AI lub ML najlepiej rozwiązać dany problem - a to naprawdę przychodzi tylko z doświadczeniem. Jesteśmy również w niezwykle szybkim okresie, w którym badania i rozwój stosowany osiągają poziom wydajności, jakiego nigdy wcześniej nie widziano; to, co dzisiaj jest przełomową technologią, stanie się przestarzałe w ciągu kilku miesięcy, a nawet tygodni. Nadążanie za wszystkimi tymi zmianami jest trudne; Nie da się też stworzyć rozwiązań, które przetrwają próbę czasu; konieczne są ciągłe udoskonalenia w miarę pojawiania się nowych możliwości.
Zrozumienie AI
Przegląd
Termin sztuczna inteligencja obejmuje całą dziedzinę nauki, której celem jest wytworzenie inteligentnych zdolności. Obejmuje wiele obszarów wiedzy, od informatyki i neuronauki po matematykę, filozofię, psychologię, a nawet fizykę. W ciągu ostatnich 70 lat wytworzyła również wiele różnych metodologii, teorii, technik i technologii. Branża doświadczyła fal zainteresowania tym tematem, a okresy spadkowe znane są jako zimy AI. Badania i rozwój AI są obecnie na najwyższym poziomie, a nowe prace badawcze są publikowane co tydzień na temat nowych algorytmów i architektur. Z dekady na dekadę zmienia się to, co jest uważane za najbardziej zaawansowany typ AI, a teraz widzimy znacznie szybsze postępy, w wykładniczym tempie zmian i dalej. Ale to może być złe, prowadząc do ograniczonego sposobu myślenia o rozwoju technologii, a branża staje się obsesyjnie skupiona na jednej poddziedzinie lub technice, zapominając, że prawdziwa inteligencja będzie wymagać szeregu inteligentnych zdolności. Poprzednie "zimy AI" pokazały nam, że mamy tendencję do powierzania całej wiary jednemu podejściu, dopóki nie zdamy sobie sprawy z jego ograniczeń i nie będziemy w stanie rozwiązać problemów bez przyjęcia znacznie szerszej perspektywy.
Historia AI
Historię AI można prześledzić do lat 50. XX wieku, kiedy to naukowcy po raz pierwszy zaczęli badać pomysł stworzenia maszyn, które mogłyby wykonywać zadania, które normalnie wymagałyby ludzkiej inteligencji. Konferencja Dartmouth w 1956 roku jest powszechnie uważana za miejsce narodzin AI. Naukowcy zebrali się, aby omówić możliwość zbudowania maszyn, które mogłyby wykonywać zadania, które normalnie wymagałyby ludzkiej inteligencji, takie jak rozumienie języka naturalnego, rozpoznawanie obiektów i rozwiązywanie problemów. W latach 60. XX wieku opracowano pierwsze programy AI, w tym Logic Theorist Johna McCarthy′ego i General Problem Solver Herberta Simona. Programy te były w stanie wykonywać proste zadania, takie jak rozwiązywanie problemów matematycznych, granie w gry i tłumaczenie języków. Jednak w 1966 roku rozpoczęła się pierwsza zima AI (termin używany do określenia okresu ochłodzenia lub spowolnienia w branży AI) w wyniku przesadnych oczekiwań i wynikającego z tego niedofinansowania. Pomimo wczesnych sukcesów, naukowcy nie byli w stanie opracować maszyn, które mogłyby wykonywać bardziej złożone zadania, co doprowadziło do zmniejszenia finansowania i spowolnienia postępu. Następnie w latach 70. XX wieku AI przeżyło odrodzenie wraz z rozwojem systemów eksperckich, które były w stanie wykonywać określone zadania, które normalnie wymagają ludzkiej wiedzy specjalistycznej, takie jak diagnozowanie chorób, zalecanie leczenia i dokonywanie prognoz finansowych. Nasza druga zima AI rozpoczęła się pod koniec lat 80. XX wieku z powodu połączenia przesadnych oczekiwań i braku postępu w rozwijaniu prawdziwie inteligentnych maszyn. Finansowanie badań nad AI zmniejszyło się, a wielu badaczy opuściło tę dziedzinę. W połowie i pod koniec lat 90. XX wieku przeżyliśmy kolejny odrodzenie wraz z rozwojem algorytmów uczenia maszynowego, takich jak drzewa decyzyjne, sieci neuronowe i maszyny wektorów nośnych, które pozwoliły maszynom uczyć się na podstawie danych i poprawiać swoją wydajność w czasie. Następnie w 1997 roku odbyła się rozgrywka szachowa między Deep Blue a Garrym Kasparowem, w której Deep Blue, system AI opracowany przez IBM, pokonał mistrza świata w szachach. Był to znaczący kamień milowy w rozwoju AI, pokazujący zdolność maszyn do wykonywania zadań wymagających inteligencji na poziomie ludzkim. Rozpoczęło to kolejną falę entuzjazmu w latach 2010. wraz z rozwojem algorytmów głębokiego uczenia, które umożliwiły maszynom uczenie się i tworzenie prognoz na podstawie dużych ilości danych. Algorytmy te zostały wykorzystane do osiągnięcia najnowocześniejszych wyników w zadaniach, takich jak rozpoznawanie obrazu i mowy, przetwarzanie języka naturalnego i autonomiczne prowadzenie pojazdów - i po raz pierwszy w naszej historii są w stanie wykazać się lepszą wydajnością niż ludzie w określonych zadaniach. Obecnie sztuczna inteligencja jest wykorzystywana w szerokim zakresie zastosowań, od opieki zdrowotnej po finanse, i odgrywa coraz ważniejszą rolę w naszym codziennym życiu. Pomimo tego postępu rozwój prawdziwie inteligentnych maszyn pozostaje wyzwaniem, a sztuczna inteligencja nadal jest aktywnym obszarem badań i rozwoju. Historia sztucznej inteligencji jest naznaczona okresami szybkiego postępu, po których następują zimy sztucznej inteligencji. Wielu ekspertów w tej dziedzinie uważa, że zmierzamy w kierunku kolejnej zimy sztucznej inteligencji, przy czym obecne przecenianie możliwości głębokiego uczenia się i dużych modeli językowych oraz znaczne koszty budowy takich głębokich modeli stają się główną barierą wejścia. To, w jaki sposób branża dojrzeje i rozszerzy się w ciągu najbliższych kilku lat, będzie miało kluczowe znaczenie dla długoterminowego sukcesu i uniknięcia trzeciej zimy sztucznej inteligencji.
Bardziej szczegółowa oś czasu kluczowych kamieni milowych AI
Oto niektóre z kluczowych kamieni milowych w podróży do AI od jej wczesnych początków. Nie jest to ostateczna lista wydarzeń z ostatnich 70 lat, ale da ci ona przedsmak znacznej ilości pracy, która została wykonana przez wiele dekad, aby doprowadzić nas do miejsca, w którym jesteśmy teraz. Nadal mamy wiele do zrobienia, ale już stoimy na ramionach gigantów dzięki temu, co było przed nami:
1943: Warren McCulloch i Walter Pitts opracowują pierwszą sztuczną sieć neuronową, która jest inspirowana strukturą ludzkiego mózgu i jest w stanie uczyć się i dostosowywać do nowych danych.
1950: Alan Turing proponuje test Turinga, miarę zdolności maszyny do wykazywania inteligentnego zachowania równoważnego lub nieodróżnialnego od zachowania człowieka.
1956: John McCarthy wymyśla termin "sztuczna inteligencja" i organizuje konferencję Dartmouth, gdzie powstaje dziedzina AI.
1966: Joseph Weizenbaum tworzy ELIZA, jeden z pierwszych programów do przetwarzania języka naturalnego.
Lata 70.: Badania nad sztuczną inteligencją koncentrują się na rozwoju systemów eksperckich, które są w stanie wykonywać zadania takie jak diagnostyka medyczna i prognozowanie finansowe z wysokim stopniem dokładności.
Lata 80.: Naukowcy opracowują algorytmy uczenia maszynowego, które pozwalają komputerom uczyć się na podstawie danych bez wyraźnego programowania.
Lata 90.: Internet i dostępność dużych ilości danych powodują odrodzenie zainteresowania i finansowania badań nad sztuczną inteligencją.
2002: Po raz pierwszy odbywa się DARPA Grand Challenge, konkurs dla pojazdów autonomicznych.
2005: Komputer Deep Blue firmy IBM pokonuje mistrza świata w szachach Garriego Kasparowa, co oznacza, że komputer po raz pierwszy pokonał eksperta w szachach.
2010: Apple wprowadza Siri, wirtualnego asystenta osobistego, który wykorzystuje przetwarzanie języka naturalnego do rozumienia i reagowania na polecenia głosowe.
2011: Komputer Watson firmy IBM pokonuje dwóch ludzkich mistrzów w teleturnieju Jeopardy!, demonstrując możliwości uczenia maszynowego i przetwarzania języka naturalnego.
2014: AlphaGo firmy Google DeepMind pokonuje mistrza świata w grze planszowej Go, grze uważanej za znacznie bardziej skomplikowaną niż szachy.
2015: Tesla wypuszcza swój pierwszy autonomiczny samochód, Tesla Autopilot.
2016: AlphaGo firmy Google DeepMind ponownie pokonuje najlepszego gracza w Go na świecie, tym razem używając bardziej zaawansowanej wersji algorytmu.
2018: Google ogłasza, że jego system sztucznej inteligencji DeepMind osiągnął "nadludzką" wydajność w wielu grach wideo Atari 2600.
2020: Wydany zostaje model sztucznej inteligencji generującej język GPT-3 firmy OpenAI. Jest to jeden z największych i najbardziej zaawansowanych modeli językowych do tej pory, z 175 miliardami parametrów.
2022: ChatGPT zostaje wydany i wzbudza ogromne zainteresowanie opinii publicznej tymi generatywnymi AI (zarówno konwersacyjnymi AI, jak i generowaniem obrazów i wideo).
2023: Duże firmy technologiczne przyjmują generatywną i konwersacyjną AI, aby ulepszyć swoje produkty i usługi, w tym zrewolucjonizować wyszukiwanie w Internecie.
2024: Dojrzałość technologii generatywnej AI trwa, a wiele firm chce wdrożyć AI, aby uzyskać korzyści w zakresie produktywności.
Innowacja z prędkością myśli
Krajobraz zmienia się szybciej niż kiedykolwiek wcześniej. Wszyscy musimy dostosować się do tego dynamicznego środowiska. Jest to wyzwanie dla firm, które wcześniej prowadziły działalność w ten sam sposób przez dziesięciolecia. Przyjęcie cyfrowego świata tubylczego będzie dla niektórych zbyt trudne i ostatecznie poniosą porażkę. Odkryliśmy elektryczność w latach 1700., ale zajęło nam 200 lat, aby naprawdę opanować jej zastosowanie. Sztuczna inteligencja została po raz pierwszy pomyślana w latach 50., a technologia ta jest nadal w powijakach. Biorąc pod uwagę wykładnicze przyspieszenie postępu technologicznego, zdefiniowane przez Światowe Forum Ekonomiczne jako Czwarta Rewolucja Przemysłowa, staje się dla nas niemal niemożliwe wyobrażenie sobie, jak będzie wyglądał nasz świat za 30 lub 40 lat. Cała branża niewątpliwie zmieni się dramatycznie w nadchodzących latach i chociaż będzie ona wzmocniona możliwościami tworzonymi przez tysiące badaczy i programistów AI pracujących na całym świecie, będzie skupiona na doświadczeniu klienta wymaganym przez młodsze pokolenia klientów, którzy są domyślnie cyfrowymi tubylcami i mają zupełnie inne wymagania niż poprzednie pokolenia. Będzie bardzo ciekawie zobaczyć, jak branża zareaguje na ten zmieniający się krajobraz; na razie trudno przewidzieć, kto będzie zwycięzcą, a kto przegranym w tym nowym konkurencyjnym środowisku.
Przegląd AI
Teraz następuje bardzo skrócone wprowadzenie do różnych form sztucznej inteligencji. Musimy zacząć od ośmiu filarów AI, którymi są zdolności rozumienia, reprezentacji wiedzy, rozumowania, uczenia się, planowania, zdrowego rozsądku, kreatywności i rozwiązywania. Są to główne obszary AI, o których można łatwo zapomnieć, ponieważ skupienie się na jednym z obszarów może dominować, jak w tej chwili w przypadku metod uczenia maszynowego. Systemy eksperckie, systemy oparte na regułach i drzewa decyzyjne Jedną z wcześniejszych metod sztucznej inteligencji nazywano systemami eksperckimi. Często systemy eksperckie były również znane jako systemy oparte na regułach. Początkowo polegały na wydobywaniu wiedzy od ekspertów domenowych w formie obserwacji, wywiadów i ankiet, a następnie kodowaniu tej wiedzy jako reguł w systemie eksperckim, który mógł być używany jako substytut tego eksperta w danym procesie lub przepływie pracy. Problem z tymi systemami polegał na tym, że trudno było wydobyć całą wewnętrzną wiedzę od eksperta, zwłaszcza wszystkie przypadki skrajne/krańcowe. W niektórych przypadkach eksperci nie chcieli dzielić się całą swoją wiedzą, ponieważ obawiali się o własną pracę. Innym problemem z tymi systemami opartymi na regułach było to, że z czasem liczba reguł stała się nadmiernie duża i potencjalnie trudna do utrzymania, a nawet powodowała konflikty między regułami. Te problemy wymagały metod wspomagających, aby pomóc przyciąć reguły i wyróżnić potencjalne nakładanie się i konflikty. Nowoczesne wersje tych systemów eksperckich nazywane są drzewami decyzyjnymi i obecnie wykorzystują dane bezpośrednio do definiowania reguł. Drzewa decyzyjne są bardzo przydatną techniką uczenia maszynowego z domyślnie wbudowaną możliwością wyjaśniania i przejrzystością decyzji. Umożliwia to łatwe określenie dokładnych reguł, które zostały użyte do podjęcia konkretnej decyzji.
Reprezentacja wiedzy
Systemy oparte na wiedzy to metody przechowywania wyodrębnionych informacji i wiedzy. Najnowszym i najpopularniejszym typem bazy wiedzy jest baza danych grafowa. Tutaj wiedza jest przechowywana w formie trójek (podmiot-predykat-obiekt), często nazywanych grafem wiedzy, ponieważ można mieć jeden podmiot z wieloma predykatami. Jest to często używane do reprezentowania wiedzy o relacjach między jednostkami wyodrębnionymi z innych danych lub informacji. Takie bazy wiedzy lub grafy umożliwiają wyszukiwanie osadzonej wiedzy za pomocą łatwych do zrozumienia zapytań.
Uczenie maszynowe
Wszystkie metody uczenia maszynowego wykorzystują dane do nauki, zwane danymi treningowymi. Umiejętność polega na wybraniu właściwej metody uczenia maszynowego, a także właściwego podzbioru danych do wykorzystania jako danych treningowych w celu osiągnięcia pożądanego wyniku. Istnieje ogromna różnorodność metod, inspirowanych różnymi obszarami, od matematyki, prawdopodobieństwa i statystyki po rozumienie poznawcze i ewolucyjne. Matematyka, a w szczególności statystyka, była kluczowym elementem wielu technik AI; wykorzystując koncepcje prawdopodobieństw, te metody dostarczają niektórych podstawowych elementów składowych dla zdolności inteligencji. Metody matematyczne (inne niż statystyczne) obejmują maszyny wektorów nośnych, słowniki rozproszone i metody oparte na regułach (uczenie się reguł asocjacyjnych/indukcyjne programowanie logiczne/podobieństwo i uczenie metryczne). Metody inspirowane biologicznie obejmują zarówno metody poznawcze (w tym sieci neuronowe, głębokie uczenie się i hierarchiczną pamięć czasową), jak i metody ewolucyjne (algorytmy oparte na agentach i genetyczne). Następnie przechodzimy do niektórych z najbardziej zaawansowanych metod, które wykazały znaczną obietnicę w ostatnich latach, w tym głębokie uczenie się i uczenie się wzmacniające.
Głębokie uczenie się
W ciągu ostatnich kilku lat metoda zwana głębokim uczeniem się stała się najbardziej interesująca dla społeczności badawczej. Jest to forma uczenia maszynowego, w szczególności sieci neuronowe, która wykorzystuje bardziej złożone topologie i liczbę warstw neuronów. Dwie główne formy głębokiego uczenia się stały się popularne, jedna zwana splotowymi sieciami neuronowymi (CNN), a druga rekurencyjnymi sieciami neuronowymi (RNN). Zasadniczo pierwszy jest dobry w analizie obrazu i wykrywaniu obiektów, drugi jest dobry w przetwarzaniu języka.
Uczenie się przez wzmacnianie
To w rzeczywistości algorytm szkoleniowy, który pozwala, aby informacje zwrotne ze środowiska wpływały na naukę, zapewniając, że pozytywne wyniki w środowisku (takie jak zwiększenie wyniku w grze) są nagradzane przez zwiększoną naukę działania, które doprowadziło do tego wyniku. To podejście wydaje się powielać w uproszczonej formie sposób, w jaki ludzie uczą się metodą prób i błędów, otrzymując informacje zwrotne ze środowiska zewnętrznego jako metodę pomiaru sukcesu.
Inne techniki
Istnieje wiele innych technik AI, co w rzeczywistości stanowi część wyzwania dla naukowców zajmujących się danymi, którzy budują modele dla zastosowań inteligencji. Przy tak wielu dostępnych technikach, częścią umiejętności budowania systemu inteligencji jest właściwy wybór techniki AI do rozwiązania problemu z wymaganym poziomem wydajności, dopasowując złożoność problemu do złożoności rozwiązania. Krajobraz technik również szybko się zmienia; tysiące badaczy, zarówno akademickich, jak i komercyjnych, publikuje artykuły co tydzień, prezentując postęp w metodach i technikach, przesuwając granice zarówno teorii, jak i zastosowań sztucznej inteligencji. To bardzo ekscytujący czas dla osób zajmujących się tą dziedziną nauki, ale nadążanie za najnowszymi osiągnięciami stanowi prawdziwe wyzwanie.
Piękno inteligencji i ludzkiego mózgu
Wydaje się, że można śmiało powiedzieć, że w ludzkim mózgu występuje niezwykła złożoność, i to na wielu różnych poziomach. W przeciętnym ludzkim mózgu znajduje się 100 miliardów neuronów i do 1000 bilionów połączeń synaptycznych. Z różnorodności samych neuronów, ich topologii i funkcjonowania wynikają liczne wariacje w warstwowaniu strukturalnym i hierarchii w różnych częściach mózgu. Bez wątpienia jest to najbardziej złożona maszyna, jaką kiedykolwiek zbudowano. Dopiero zaczynamy rozumieć, jak działa. Dodajmy dynamiczną naturę tego, jak się uczy, rosnące połączenia między neuronami, zmieniające się ciężary połączeń, gdy stale się uczy i adaptuje, nowe neurony zastępując stare neurony. Obserwowanie, jak ten proces faktycznie zachodzi, pozwala nam uświadomić sobie prawdziwe piękno inteligencji i rozpoznać, że nasz umysł jest najcenniejszym obiektem we wszechświecie. Jeśli kiedykolwiek potrzebowałeś motywacji do studiowania jakiegoś przedmiotu, z pewnością pomoże ci uznanie, że inteligencja jest tworzona przez najpiękniejszy i najbardziej złożony obiekt we wszechświecie! Oczywiste jest, że umysły zwierząt i ludzi stopniowo rozwijały się i rozwijały dzięki korzyściom ewolucji w czasie. Niektóre zwierzęta wykazują bardzo podobne zdolności poznawcze do ludzkich, podczas gdy inne mają wyraźnie inne układy i struktury, ale nadal wykazują stosunkowo wysoką jakość inteligencji. Skorzystanie z ewolucyjnego projektu naturalnej inteligencji bez wątpienia pomoże nam stworzyć bardziej zdolną sztuczną inteligencję. Zrozumienie, jak działa ludzki mózg, z pewnością poszerzy naszą wiedzę na temat tego, jak budować zaawansowane systemy AI, a nawet jeśli nie będziemy dokładnie przestrzegać konstrukcji ludzkiego mózgu, z pewnością będzie on dla nas bardzo dobrym przewodnikiem, z którego będziemy się uczyć. Możemy traktować go jako wzór inteligencji.
Sztuczna inteligencja ogólna
Dzięki ostatnim osiągnięciom w zakresie generatywnej AI i dużych modeli językowych (LLM) zaczynamy dostrzegać przejście od wąskich do bardziej ogólnych możliwości AI. Posiadanie jednego narzędzia, które można wykorzystać w wielu różnych aplikacjach (od pisania materiałów marketingowych po zdawanie egzaminów i tworzenie kodów) z pewnością wydaje się przykładem ogólnej inteligencji. Niektórzy spekulowali nawet, że najlepsze LLM zaczynają wykazywać pojawiające się właściwości inteligencji (takie jak zrozumienie i rozumowanie). Jednak wielu innych ekspertów podkreśliło, że LLM to po prostu stochastyczne papugi, podatne na błędy i halucynacje. Podczas gdy możliwości ChatGPT i innych podobnych generatywnych i konwersacyjnych AI zadziwiły świat (ponad 100 milionów użytkowników zapisało się do korzystania z ChatGPT w ciągu pierwszego miesiąca od jego publicznego udostępnienia), jego prawdziwy poziom inteligencji jest wysoce wątpliwy. Wielu doświadczonych ekspertów w tej dziedzinie uważa, że LLM nie są rozwiązaniem dla prawdziwego rozumienia języka. Inni, w tym ja, uważają, że AGI zostanie wytworzona z połączenia wielu różnych technik i metod AI. Zastanawiając się nad złożonością, o której wiemy w mózgach zwierząt i ludzi, sugerowałoby to, że potrzebujemy znacznie większego wyrafinowania w naszych architekturach i paradygmatach uczenia się. Istnieje tak wiele aspektów inteligencji, których nie byliśmy jeszcze w stanie odtworzyć - rozumowanie z wyjaśnieniem, planowanie i rozwiązywanie, zdrowy rozsądek, samoświadomość, kreatywność i emocje. Nasze dotychczasowe próby były w stanie naśladować tylko nasze własne odpowiedzi bez żadnych niezależnych zdolności poznawczych. Jest to główna przeszkoda, która będzie zarówno kontrowersyjna, jak i trudna do rozwinięcia i pokonania przez branżę w nadchodzących latach i dekadach.
Superinteligencja i osobliwość
Gdy AGI zostanie osiągnięta i będziemy mieć pojedynczy byt, który ma poziomy inteligencji w wielu (jeśli nie we wszystkich) podmiotach wykraczające poza zbiorową inteligencję ludzi, wkraczamy w kolejny ważny kamień milowy w ewolucji człowieka i inteligencji. Superinteligencja ucieleśni poziom inteligencji, którego wcześniej nie doświadczyliśmy i którego potencjalnie nie będziemy w stanie zrozumieć. Możliwe, że będzie konstruować sugestie, które pomogą nam rozwiązać dany problem, który dla nas nie ma jasnego rozwiązania. Ta sytuacja stanie się bardzo niekomfortowa dla ludzi - posiadanie sztucznie inteligentnego agenta tak inteligentnego, że jego sugestie dla nas, choć najprawdopodobniej poprawne, są trudne, jeśli nie niemożliwe do zrozumienia. To, w jaki sposób zdecydujemy się zaufać temu superinteligentnemu agentowi, zdefiniuje nas. Superinteligencja będzie również posiadać wiedzę na temat sztucznej inteligencji, tak dużą, że będzie w stanie wymyślać nowe wersje samej siebie, nadal się udoskonalać i dalej rozwijać swoją inteligencję. Stworzyłoby to pokolenie po pokoleniu nowe wersje superinteligentnych systemów AI - to samotworzenie technologii nazywane jest osobliwością. To może doprowadzić do powstania systemu AI, którego najlepsi badacze AI na świecie nie rozumieją. To, jak nasza relacja z technologią, zwłaszcza sztuczną inteligencją, będzie się rozwijać przez następne kilka dekad, potencjalnie ukształtuje naszą własną ludzką ewolucję. Będziemy musieli zdecydować, jak wykorzystać korzyści dostępne dzięki takiej mocy, nie narażając się na niektóre ryzyka i wyzwania.
Pomiar inteligencji
Jednym z wyzwań, przed którymi stoimy jako branża, jest dwojakie. Po pierwsze, potrzebujemy solidnej definicji sztucznej inteligencji. Może to brzmieć jak dziwna sytuacja dla branży AI, biorąc pod uwagę, że technologia ta ma 70 lat. Możemy oczywiście wykorzystać oryginalną definicję, którą podał John McCarthy, gdy po raz pierwszy ukuł ten termin w 1956 roku. To nie jest zły punkt wyjścia, ale dziedzina ta rozwinęła się, a kilku ekspertów ma nieco odmienne wersje tej definicji. Ostatecznie podobieństwa są większe niż różnice, więc jest to nieco akademicki punkt. Drugi punkt, co ważniejsze, to to, że musimy zrozumieć, jak możemy dokładnie zmierzyć poziom inteligencji osiągnięty przez dowolną formę sztucznej inteligencji. Tak, mamy testy IQ i inne testy przedmiotowe dla ludzi, a Alan Turing opracował swój Test Turinga dla AI, który nadal jest ważnym punktem wyjścia, ale pomija złożoność i zakres możliwości, które stanowią inteligencję, którą przydałoby się nam skwantyfikować w miarę postępów w budowaniu bardziej zaawansowanych form AI. Podczas gdy inni zaproponowali skalę AI, od podstawowej wąskiej AI do AGI i superinteligencji, brakuje szczegółów i podejścia do pomiaru. Z tego powodu opracowano to, co nazywam Indeksem Inteligencji. Ten indeks zapewnia skalę ruchomą zdolności inteligentnych w pełnym zakresie możliwości inteligencji. Pomoże to branży mieć globalny punkt odniesienia do porównań i uniknąć wszelkich fałszywych oświadczeń lub nadmiernego rozgłaszania przyszłych modeli i systemów AI.
Ostatnie osiągnięcia
Jednym z powodów, dla których byłem tak zainteresowany i zmotywowany do nauki o AI na początku mojej kariery, było moje uświadomienie sobie, że AI oznacza po prostu najbardziej zaawansowaną formę technologii. To stwierdzenie zostało udowodnione w ciągu ostatnich kilku dekad, ponieważ to, co jest uważane za najnowocześniejszy rozwój AI, zmienia się z czasem. Nigdy nie było to bardziej realne niż w ciągu ostatnich kilku lat. Połączenie generatywnej sztucznej inteligencji (opartej na fundamencie techniki znanej jako Transformer) i konwersacyjnej sztucznej inteligencji (wykorzystującej uczenie wzmacniające) dało możliwości zademonstrowane przez OpenAI w listopadzie 2022 r. wraz z wydaniem ChatGPT. To podbiło świat i po raz pierwszy zilustrowało uniwersalną sztuczną inteligencję, zdolną do wykonywania szeregu zadań, od pisania poezji po konstruowanie kodu programistycznego. Podczas gdy pierwsza wersja była imponująca, duże firmy technologiczne dostrzegły jej potencjał i ścigały się, aby zintegrować ją ze swoimi pakietami produktów. Firmy z wyszukiwarkami chciały umożliwić bardziej interaktywne wyszukiwanie, umożliwiając lepsze filtrowanie za pośrednictwem interfejsu konwersacyjnego. Inne firmy dostrzegły potencjał lepszych chatbotów obsługi klienta i asystentów osobistych. Dodatkowe ważne funkcje obejmowały wzrost produktywności w narzędziach dla pracowników wiedzy. Jednak to był dopiero początek wyścigu o zbudowanie tak silnej zdolności podstawowej. Chociaż wyniki tych LLM są imponujące, nadal dostarczają one jedynie stosunkowo ogólnych wyników, co doprowadziło do uświadomienia sobie umiejętności potrzebnych do dostarczania dobrze sformułowanych i kontekstowych podpowiedzi. Do tego stopnia, że narodziła się rola inżyniera podpowiedzi, a internet zalała masa ściąg podpowiedzi do różnych celów. Wszyscy szukali sposobów na zintegrowanie generatywnej AI ze swoimi aplikacjami i usługami, aby zapewnić te najnowocześniejsze możliwości. Jednak wkrótce stało się jasne, że w przypadku wielu rzeczywistych zastosowań LLM potrzebowały więcej informacji, aby poprawić jakość i precyzję odpowiedzi. Szybko na LLM nałożono warstwy drugich pilotów, orkiestracji i technologii łańcuchowych, wraz z bazami wiedzy informacji korporacyjnych i magazynami dokumentów, aby uziemić LLM dodatkowymi informacjami kontekstowymi rozszerzającymi podpowiedź użytkownika. Wymagało to następnie poszerzenia okna tekstu wejściowego, aby zapewnić więcej danych wejściowych do modeli. Ponadto, link do informacji zewnętrznych, wykorzystujący ogromną ilość informacji już dostępnych w wyszukiwarkach i możliwość wykonywania zadań stron trzecich w celu stworzenia platformy automatyzacji koordynowanej przez interfejs konwersacyjnej AI, oba zapewniają główne narzędzie do eksploracji i eksploatacji przez tych, którzy chcą budować inteligentne aplikacje. Z pewnością świat AI jest zafascynowany generatywną AI, a w szczególności dużymi modelami językowymi, ponieważ rzeczywiste zastosowania są znaczące, a dyrektorzy generalni/dyrektorzy techniczni firm każdej wielkości chcą wykorzystać potencjalne zyski produktywności z tego narzędzia. Będzie to nadal postępować w niedalekiej przyszłości, przy znacznym finansowaniu start-upów generatywnej AI, szkoleniu większej liczby modeli open-source i komercyjnych, większym skupieniu na dostosowanych i niestandardowych modelach dla określonych celów i branż. Widzimy już szersze możliwości generatywne, przy czym tworzenie obrazów i wideo ma miejsce również w innych mediach, w tym muzyce, odkryciach naukowych i projektowaniu produktów. Wielu ekspertów ma przeciwne opinie na temat LLM, twierdząc, że mają ograniczone, jeśli w ogóle, zdolności rozumienia lub rozumowania, pomimo możliwości wykazania się pewnym stopniem zdolności w tej dziedzinie. Zasadniczo LLM są po prostu statystycznymi predyktorami następnego słowa w sekwencji, ale po przeszkoleniu na ogromnych ilościach danych i miliardach parametrów wewnętrznych, zademonstrowane wyniki są zdumiewające. Skupiono się na poprawie wydajności LLM, zmniejszeniu halucynacji i większej wrażliwości na kontekst, aby osiągnąć bardziej dostosowane wyniki. Uziemienie podpowiedzi z dodatkowymi informacjami (z bazy wiedzy przedsiębiorstwa lub wykresu) zaaranżowanymi przez drugiego pilota lub próba przeprowadzenia uczenia się udoskonalającego z wykorzystaniem niestandardowych danych były skutecznymi metodami poprawy wyników LLM dla określonych zadań. Musimy jednak pamiętać, że AI nie dotyczy tylko generatywności - to tylko jeden z elementów tego, co AI może zrobić. Musimy również uznać różnorodność opinii na temat prawdziwej, leżącej u podstaw inteligencji w modelach generatywnych, co zasadniczo odnosi się do poprzedniej sekcji dotyczącej tego, jak prawidłowo oceniamy poziom inteligencji osadzonej w tych systemach AI, które budujemy.
Ostatnie przemyślenia
To, co obecnie uważamy za sztuczną inteligencję, znacznie różni się od tego, co mieliśmy w latach 80. i 90. XX wieku, a pod koniec lat 20. i 30. XXI wieku z pewnością będzie o wiele bardziej zaawansowane. Czym ona będzie i do czego będzie zdolna, na tym etapie nikt nie wie, ale z całą pewnością zmierzamy w kierunku sztucznej inteligencji, która będzie bardziej użyteczna, bardziej atrakcyjna dla masowego odbiorcy i będzie coraz bardziej zintegrowana ze wszystkim, co robimy. Powinno to nie tylko zwiększyć naszą produktywność, ale także pomóc nam rozwiązać najtrudniejsze problemy dnia dzisiejszego, które obecnie zagrażają naszej planecie, a nawet naszemu istnieniu. Połączenie człowieka i maszyny już nadeszło. Ilu z was siedzi ciągle przy swoim smartfonie? Ta integracja ludzi i technologii, z których każdy zapewnia unikalne talenty i umiejętności, będzie naszą przyszłością, wykorzystując ogromną moc obliczeniową i przetwarzanie danych ciężkiej pracy sztucznej inteligencji, aby umożliwić nam bardziej szczegółowe i kompetentne spostrzeżenia. Jeśli możemy wykorzystać moc AI, aby popełniać mniej błędów, poprawić naszą przyszłość i pomóc nam stawić czoła wyzwaniom, musimy zrównoważyć te korzyści z wszelkimi potencjalnymi pułapkami lub obawami o bezpieczeństwo. Odpowiedzialna i godna zaufania AI jest naszym kluczem do solidnej i korzystnej przyszłości ludzkości opartej na AI. W tym rozdziale przedstawiliśmy ogólny przegląd pełnego zakresu technik i technologii AI. Dziedzina ta jest różnorodna, złożona i z pewnością obecnie szybko się rozwija, a nowe algorytmy, innowacje i badania są publikowane codziennie. Aby być na bieżąco, wszyscy pracujący w tej dziedzinie muszą poświęcić się ciągłej nauce i mieć dociekliwą naturę, aby zbadać, co dzieje się w innych częściach świata AI. Tak szybkie zmiany i postęp stwarzają realną okazję dla wielu, aby zdobyć wiedzę w określonych obszarach, a nawet, jeśli chcesz, zostać ekspertem w tej dziedzinie. AI to naprawdę ekscytujący, wzmacniający i przełomowy zestaw technologii; zmieni nasz świat i nasze życie na lepsze, potencjalnie zmieniając bieg ewolucji człowieka i, jeśli będziemy go używać odpowiedzialnie, zapewniając nasze długoterminowe przetrwanie jako gatunku.
Perspektywa przyszłości
Do tej pory podróż AI była prawdziwym rollercoasterem, z dwiema poprzednimi zimami AI (gdzie entuzjazm i finansowanie AI ostygły na jakiś czas). Podczas gdy zainteresowanie AI powoli rosło przez ostatnią dekadę lub dłużej, nie było ono szeroko akceptowane ani wykorzystywane aż do niedawna; 2023 był przełomowym rokiem, pokazującym AI jako narzędzie ogólnego przeznaczenia, które po raz pierwszy w swojej historii stawało się prawdziwie masową technologią. Ten pęd przyspieszył od tego czasu, wraz ze znaczącymi osiągnięciami (i inwestycjami) ze strony wszystkich kluczowych graczy w branży technologicznej, aby zmaksymalizować szansę, ponieważ CEO i CTO dużych i małych firm poszukują potencjalnych korzyści ze wzrostu produktywności i ulepszeń funkcjonalnych dzięki integracji najnowszych możliwości AI. Krajobraz i środowisko AI są bardzo dynamiczne, a zmiany zachodzą w zawrotnym tempie, co sprawia, że nawet najbardziej świadomym praktykom trudno jest nadążać za nowymi osiągnięciami w tej dziedzinie, które są wydawane codziennie. Podczas gdy technologia rozwija się szybko, rządy i organy regulacyjne robią, co w ich mocy, aby dotrzymać jej kroku, ale muszą znaleźć równowagę między korzyściami płynącymi z dominacji innowacji i dobrobytu gospodarczego a obawami etycznymi i dotyczącymi bezpieczeństwa oraz konsekwencjami przyznania firmom technologicznym zbyt dużej swobody. Jest to delikatna równowaga, a rządy mają różne opinie na temat tego, jaki jest właściwy poziom nadzoru i kontroli. Mówiąc najprościej, Stany Zjednoczone faworyzują duże technologie, Europa jest bardziej po stronie konsumenta, podczas gdy Wielka Brytania próbuje znaleźć równowagę, aby umożliwić innowacje w zakresie AI, ale z bezpiecznymi kontrolami odpowiedzialnego zarządzania AI. W nadchodzących latach prawdopodobnie nastąpią znaczące innowacje w zakresie etyki i wiarygodności AI, prywatności i zaufania do danych, audytu, zarządzania i kontroli. Rząd Wielkiej Brytanii zorganizował pierwszy na świecie globalny szczyt bezpieczeństwa AI w 2023 r., aby uzyskać globalne porozumienie w sprawie niektórych z tych głównych obaw, podpisując umowę z Bletchley Park i zgadzając się na utworzenie dwóch globalnych instytucji AI w celu testowania modeli pionierskich. Musimy jednak zdać sobie sprawę, że przemysł AI ma zaledwie 70 lat i chociaż dla wielu może się to wydawać długim okresem, większość znaczącego postępu nastąpiła dopiero w ciągu ostatnich dwóch dekad, a nasze algorytmy uczenia się, paradygmaty i architektury są nadal bardzo uproszczone w porównaniu z różnorodnością wzorców neuronowych, które widzimy w ludzkim mózgu. Choć nie jest to rozstrzygające, wydaje się, że sugeruje to, że mamy jeszcze długą drogę do przebycia, zanim będziemy mogli osiągnąć głębokie poziomy inteligentnych zachowań i zdolności porównywalne z naszą własną ludzką inteligencją. Niektórzy będą twierdzić, że postęp, jaki widzieliśmy w ostatnich miesiącach w przypadku dużych modeli językowych, konwersacyjnej i generatywnej AI, świadczy o znacznym postępie, jaki poczyniliśmy, a cel AGI jest znacznie bliższy, niż wcześniej sądzono. Jednak jest wielu innych ekspertów AI, którzy kwestionują prawdziwe możliwości tych LLM i podkreślają potrzebę bardziej solidnego i kompletnego rozwiązania. Zużycie energii przez te ogromne modele jest również powodem do obaw, zwłaszcza gdy weźmie się pod uwagę zużycie energii przez ludzki mózg (około 20 procent całkowitego zużycia energii przez organizm, czyli około 0,3 kilowatogodziny dziennie), podczas gdy LLM może zająć około 10 gigawatogodzin na przeszkolenie (co mniej więcej odpowiada rocznemu zużyciu energii przez ponad 1000 gospodarstw domowych w USA), a w wielu przypadkach nadal wymaga procesora graficznego do uruchomienia modelu w trybie wnioskowania. IBM stoi przed wielkim wyzwaniem stworzenia sztucznej inteligencji, która będzie miała podobne zużycie energii do ludzkiego umysłu, co jest godnym podziwu celem. Potencjał obliczeń kwantowych na skalę komercyjną może również pomóc w skróceniu czasu szkolenia, a w pewnym stopniu również zużycia energii. Ostatecznie prawdopodobnie potrzeba będzie dziesięcioleci kolejnych badań i rozwoju, aby osiągnąć zaawansowaną sztuczną inteligencję na poziomie ludzkiej inteligencji i powyżej niego. Prawdopodobnie będziemy mieli kilka fałszywych startów (jak już mieliśmy) i kilka przesadnie rozreklamowanych i wyolbrzymionych zdolności, które ostatecznie okażą się przesadą lub fałszywymi twierdzeniami. To normalne w przypadku tak szybko rozwijającej się technologii, ale musimy trzymać się najwyższych standardów i unikać w miarę możliwości roszczeń bez wnikliwej oceny i badania przez osoby trzecie. Część tego wyzwania wynika z faktu, że nie mamy standardu branżowego do pomiaru inteligencji. Alan Turing próbował to zrobić za pomocą swojego testu Turinga, ale złożoność inteligencji we wszystkich jej formach wymagała o wiele głębszej i bardziej solidnej skali pomiaru. DeepMind niedawno podzielił się swoją próbą zrobienia tego, ale nawet to nie oddaje sprawiedliwości wielu aspektom inteligentnych możliwości. W tym artykule przyjrzymy się bliżej niektórym trendom, wyzwaniom i szansom, które wpłyną na przyszłość badań i rozwoju w dziedzinie sztucznej inteligencji w nadchodzących latach, a także ukształtują role i możliwości kariery osób, które chcą zgłębić tajniki pracy w dziedzinie sztucznej inteligencji.
Nowe trendy w AI
Generative AI to tylko wierzchołek góry lodowej; mamy o wiele więcej do zrobienia pod względem podstawowych prac, więcej postępów w algorytmach uczenia się, bardziej złożonych architektur, większej różnorodności w modelach neuronowych, więcej innowacji w zakresie szkolenia, testowania, wdrażania i monitorowania wydajności modelu. Mamy całe obszary inteligencji, które wymagają znacznie większych inwestycji, badań i wysiłków rozwojowych. Nowe podejścia do zarządzania danymi w celu lepszego wsparcia prywatności danych i zaufania będą wymagać postępów w stopniowym uczeniu się i oduczaniu. Nowe warstwy infrastruktury w celu wsparcia bezpieczeństwa AI, audytu, kontroli i zarządzania prawdopodobnie staną się częścią standardowych ram i zestawu narzędzi dostępnych dla naukowców zajmujących się danymi - więcej innowacji AI w ciągu najbliższych kilku lat niż widzieliśmy w ciągu ostatnich pięciu do dziesięciu lat. Istnieją jednak inne technologie, które wzmacniają i wspierają giganta AI, w tym kwantowe, IoT, przetwarzanie brzegowe i łączność mobilna 5G. Wszystkie one otworzą nowe aplikacje, infrastruktury i modele biznesowe, a także wiele nowych startupów AI. Niektóre z tych start-upów skupiają się na wykorzystaniu technologii do pomocy w rozwiązaniu niektórych z naszych najważniejszych i potencjalnie zagrażających wyginięciem problemów, takich jak bezpieczeństwo żywnościowe, zmiany klimatu, zielona energia, opieka zdrowotna i ubóstwo finansowe. Te wielkie wyzwania mogą uratować ludzkość przed nią samą i rozwiązać najpilniejsze i najbardziej złożone problemy, z którymi przyjdzie nam się zmierzyć w tym stuleciu.
Droga do sztucznej inteligencji ogólnej
Praca wykonywana zarówno w obszarach badawczych, jak i stosowanych w dziedzinie AI poprowadzi nas ścieżką w kierunku sztucznej inteligencji ogólnej, ale istnieje wiele debat i nieporozumień co do tego, jak i kiedy to naprawdę nastąpi. Wierzę, że zobaczymy kilka fałszywych startów i kilka nieprawdziwych twierdzeń o osiągnięciu AGI. W idealnym przypadku należy nimi odpowiednio zarządzać, z ekspercką recenzją przed udostępnieniem takich twierdzeń mediom głównego nurtu, aby zmniejszyć szum medialny i negatywne skutki twierdzeń, które później okażą się fałszywe. Jednak jest mało prawdopodobne, że tak się stanie; zamiast tego okazja komercyjna i chęć bycia pierwszym na mecie będą zbyt kuszące dla ludzi. Opinie na temat tego, kiedy AGI może zostać osiągnięte, są szeroko podzielone, od tej dekady do setek, jeśli nie tysiąca lat. Faktem jest, że nie wiemy, a ostatnie wydarzenia przyspieszyły rozwój tej dziedziny, ale wiemy, że wciąż jest wiele do zrobienia, zanim zbliżymy się do możliwości AGI. Droga do AGI może przebiegać wieloma różnymi ścieżkami w oparciu o różne podstawowe teorie AI i to, jak mogą one wymagać połączenia, aby utworzyć zunifikowaną teorię AI (która jeszcze nie została zdefiniowana). Zunifikowana teoria AI nie była jeszcze omawiana w branży, tylko modele multimodalne, które byłyby krokiem we właściwym kierunku, ale jedynie próbą bogatszego zrozumienia świata poprzez przyjmowanie wielu informacji sensorycznych.
Rozważania etyczne i społeczne
Przy tak przełomowej technologii największym zmartwieniem, jakie powinniśmy mieć, jest wpływ na społeczeństwo. Przyszłość miejsca pracy zmieni się dramatycznie, a większość ról zostanie uzupełniona o asystentów cyfrowych obsługiwanych przez sztuczną inteligencję, a inne role zostaną znacząco dotknięte, jeśli nie zostaną usunięte. Oczywiście zobaczymy również wiele nowych ról i wymagań dla naukowców zajmujących się danymi i innych ról związanych ze sztuczną inteligencją, ale osoby, których role zostaną zastąpione, mogą nie być w stanie przekwalifikować się i przekwalifikować, aby szybko znaleźć nową pracę. To, jak szybko nastąpi ta rewolucja i jak rządy zareagują, aby pomóc zmniejszyć wpływ i wesprzeć osoby bezpośrednio dotknięte, będzie przełomowym momentem i prawdopodobnie zadecyduje o tym, jak ogół społeczeństwa zaakceptuje tę nową erę technologiczną. Niektórzy wzywali do wprowadzenia powszechnego standardowego dochodu, aby pomóc poradzić sobie z tym problemem; jednak próby tego podejścia zostały przetestowane w innych krajach z ograniczonym powodzeniem. Widzę również potrzebę dostosowania systemu edukacyjnego do sztucznej inteligencji. Widzieliśmy, jak ChatGPT w klasie podzielił opinie nauczycieli, niektórzy zachęcali dzieci do korzystania z niego, podczas gdy inni zakazali jego używania. Ale to tylko odwracanie uwagi od tego, co musi się wydarzyć w sektorze edukacji. Po pierwsze, AI może być używana do poprawy wyników edukacyjnych, dostarczając spersonalizowane materiały dydaktyczne dla każdego ucznia w oparciu o wyniki w nauce. Może to poprawić szybkość zrozumienia poprzez skupienie się na obszarach wymagających uwagi. AI w klasie w tym celu już zaczyna się pojawiać, ale nie jest szeroko rozpowszechniona ani nie jest częścią krajowego programu nauczania. AI zakłóca również przyszłość pracy i potrzeby naszej przyszłej siły roboczej. Wiele pracochłonnych stanowisk zostanie częściowo lub całkowicie zautomatyzowanych za pomocą mechanicznych robotów sterowanych przez AI. Potrzebujemy więcej pracowników wiedzy, bardziej doświadczonych i wykwalifikowanych w zakresie technologii, zarówno do jej wykorzystania, jak i pomocy w jej tworzeniu. Rozważania etyczne są szerokie i ważne dla dostarczania odpowiedzialnych i godnych zaufania aplikacji AI. Należy zrobić więcej, aby zapewnić, że każda firma ma zestaw podstawowych zasad AI, które obejmują rozważania etyczne. Różne instytucje i firmy opublikowały ramy etyczne, które mogą służyć jako dobry punkt wyjścia, ale każda firma musi określić własne podejście i priorytety w tym zakresie. Wierzę, że w miarę dojrzewania branży pojawi się więcej standaryzacji, wraz z praktycznymi narzędziami i ramami, aby wspierać najlepsze praktyki etyczne w różnych branżach i ogólnie, z perspektywy kraju.
Ewolucja karier w dziedzinie AI
Role dostępne w sektorze AI są zróżnicowane i szybko ewoluują. Główna rola, którą widzimy dzisiaj, czyli naukowca danych, została po raz pierwszy szeroko wprowadzona dopiero w 2008 roku.5 Bardziej niedawnym przykładem nowej roli w świecie AI jest inżynier natychmiastowy, nowy w 2023 roku i bezpośrednio związany z wprowadzeniem ChatGPT (połączenie generatywnej i konwersacyjnej AI). Istnieje wiele innych ról, zarówno technicznych, jak i nietechnicznych, potrzebnych do udanego zespołu AI i ML, od inżynierów ML i MLOps po inżynierów danych, a także bardziej tradycyjne role IT, takie jak programiści full-stack i projektanci UX. Pody nauki o danych lub zespoły Agile zazwyczaj obejmują wszystkie te role, a także część lub całość scrum mastera, właściciela produktu i analityka biznesowego. Widzieliśmy również inne role, w tym etykietującego dane, urzędnika ds. etyki i zarządzania oraz dyrektora ds. AI. W ramach każdej roli będą poziomy odpowiedzialności; na przykład w przypadku nauki o danych możesz zacząć jako junior, a następnie z czasem i doświadczeniem awansować na starszego, lidera i ostatecznie na głównego naukowca ds. danych. Następnie rola może się rozszerzyć, aby kierować kilkoma zespołami na poziomie grupy lub działu, a następnie na skalę kraju lub firmy. Chociaż konkretne umiejętności dla każdej z tych ról będą się różnić, każda z nich wymaga poziomu umiejętności interdyscyplinarnych, które obejmują zarówno elementy techniczne, jak i nietechniczne, w tym na przykład dobrą komunikację i opowiadanie historii. Zarządzając karierą i planując przyszłe ruchy i postęp, trzeba być proaktywnym, ponieważ nikt nie skupi się na Twojej karierze tak bardzo, jak Ty i powinieneś. Nie pozostawiaj tego przypadkowi i miej nadzieję, że coś się wydarzy. Musisz dać sobie jak najlepsze szanse na sukces i awans. Obejmuje to nadążanie za najnowszymi osiągnięciami w zakresie technologii i procesów rozwojowych oraz inwestowanie czasu i wysiłku w szkolenie się w tych nowych aspektach.
WSKAZÓWKA DOTYCZĄCA KARIERY: Jednym z najlepszych sposobów, w jaki zaprojektowałem rozwój kariery, było upewnienie się, że pomagam rozwiązywać problemy mojego menedżera. Na przykład pewnego razu wiedziałem, że jeden z moich kolegów zamierza złożyć wypowiedzenie o odejściu z zespołu. Widziałem, że to postawiło mojego menedżera przed problemem, komu ta osoba przekaże swoje obowiązki i własność aplikacji - cóż, był to oczywisty sposób na rozszerzenie mojej własnej platformy, więc natychmiast zgłosiłem się na ochotnika, aby pomóc w przekazaniu obowiązków i przejęciu jego obowiązków.
WSKAZÓWKA DOTYCZĄCA KARIERY: Ponieważ technologia rozwija się tak szybko, brałem tygodniowy urlop, który nazywałem Geek Week. Była to dla mnie okazja, aby oderwać się od codziennej pracy i skupić się na nauce nowych technologii, technik i języków, które chciałem zrozumieć, ale miałem ograniczone możliwości w swojej pracy w tamtym momencie. To służyło mi dobrze przez lata i pozwoliło mi utrzymać moje umiejętności programistyczne na wysokim poziomie.
Badania i innowacje
Na świecie jest więcej badaczy AI i start-upów AI niż kiedykolwiek wcześniej - ponad 300 000 badaczy na uniwersytetach i dużych firmach technologicznych6 i ponad 67 000 firm wykorzystujących lub rozwijających AI. Nasze oczekiwania wobec AI są o wiele wyższe niż wobec naszych własnych zdolności umysłowych; żądamy, aby AI była jak najbardziej bliska doskonałości, jeśli nie całkowicie nieomylna. Na przykład w przypadku samochodów autonomicznych, nawet jeśli średnio możemy wykazać, że są one znacznie bezpieczniejsze niż ludzie-kierowcy, natychmiast zaczynamy się martwić, gdy widzimy jeden wypadek spowodowany przez automatyzację AI. Prawie doskonałość nie jest wystarczająca dla niektórych zastosowań. Wymagamy również, aby nasza AI była w stanie wyjaśnić swoje decyzje, a przejrzystość decyzji i możliwość wyjaśnienia są wymogiem nie tylko dla regulowanych branż, takich jak finanse i medycyna, ale także dla innych procesów decyzyjnych. Stanie się to coraz ważniejsze, ponieważ decyzje podejmowane przez naszą AI za pośrednictwem rekomendacji mogą stać się dla nas mniej oczywiste, ponieważ jej głębokie spostrzeżenia i wiedza wykraczają daleko poza nasze własne ludzkie zdolności. Podczas gdy generatywna sztuczna inteligencja stała się głównym nurtem w przypadku tekstów i obrazów/wideo, zobaczymy głębsze zastosowania, które będą miały bardziej kreatywne wyniki. Z pewnością wierzę, że pierwszy film w całości stworzony przez sztuczną inteligencję, od scenariusza po postacie, scenografię i kąty kamery, muzykę i ścieżkę dźwiękową, zostanie wkrótce wydany. Ale znacznie więcej niż to, generatywna sztuczna inteligencja wkrótce stworzy nowe produkty, dokona nowych odkryć. W 2024 roku DeepMind wydał model sztucznej inteligencji, który określił ponad 380 000 nowych stabilnych materiałów. Będzie to ogromny obszar wzrostu i radykalnie przyspieszy cały sektor naukowy, potencjalnie przesuwając nas daleko poza wzrost wykładniczy do poziomu, z którym będziemy mieli trudności, aby nadążyć. Środowisko akademickie zawsze było znaczącą siłą napędową w rozwoju sztucznej inteligencji; jednak wydaje się, że w ostatnich latach nieco się to zmieniło. Duże firmy technologiczne zainwestowały miliardy dolarów w budowę zespołów badawczych, które mogą rywalizować z badaniami prowadzonymi na uniwersytetach. Wielu profesorów ma nogę w obu obozach, chcąc pozostać w zgodzie z uniwersytetem, ale także chętnie wykorzystując korzyści płynące z zastosowań komercyjnych. Historycznie rzecz biorąc, było to w pewnym stopniu cykliczne, napędzane dostępnym finansowaniem i zainteresowaniem komercyjnym, przy czym poprzednie zimy AI zmniejszyły zainteresowanie i sprowadziły sektor z powrotem do czysto akademickich przedsięwzięć. Chociaż formalna edukacja nie jest dla każdego, zdobycie podstawowych fundamentów edukacji w tak szerokim temacie nie jest złym pomysłem, jeśli masz na to czas i pieniądze. Będzie to dla Ciebie cenne i da Ci zarówno szerokie, jak i głębokie perspektywy, które są ważne w tak dynamicznym środowisku.
Przyszłość pracy
Oczywiste jest, że sposób, w jaki pracujemy, zmienia się, ponieważ potrzeba większej liczby pracy zdalnej przyspieszyła wdrażanie aplikacji opartych na chmurze i innych technologii, do tego stopnia, że niektóre firmy działają teraz w trybie całkowicie zdalnym. Na pierwszy rzut oka może się to wydawać niezwiązane z AI, ale bardzo się mylisz. Praca zdalna prowadzi do zwiększonej izolacji. To z kolei otwiera drzwi dla asystentów cyfrowych, którzy mogą udzielać pracownikom porad i wskazówek w szerokim zakresie kwestii, od polityki kadrowej po zdrowie psychiczne, ale głównie wspierając zadania, które można łatwo zautomatyzować. W niedalekiej przyszłości wszystkie nasze role zostaną uzupełnione o cyfrowych asystentów wspomaganych przez sztuczną inteligencję, którzy mogą zautomatyzować przyziemne czynności i zapewnić ciężką pracę w przypadku wielu powtarzalnych zadań. Dotyczy to zarówno roli naukowca danych, jak i programisty Java, lekarza lub nauczyciela. Każda rola w każdej branży będzie miała agenta AI, który będzie pomagał. Rola naukowca danych będzie ewoluować, ponieważ wiele zgadywania i prób i błędów zostanie zautomatyzowanych (na przykład mamy już proste wersje tego z AutoML). Rola będzie bardziej skoncentrowana na zrozumieniu problemu biznesowego, współpracy z technologią i asystentami w celu jego najlepszego rozwiązania, a następnie prezentowaniu wyników w najlepszy sposób, aby przekazać korzyści. Tworzenie technologii wszelkiego typu będzie zupełnie inną działalnością zawodową niż ta, która miała miejsce dzisiaj i wczoraj. Szybciej i lepiej będzie mottem branży technologicznej.
Wyzwania i niepewności
Świat AI zmienił się tak bardzo w ciągu mojego życia, że trudno jest dokładnie określić, dokąd zmierza i co zostanie osiągnięte w ciągu najbliższych 20-30 lat, zwłaszcza że technologia rozwija się obecnie w tak wykładniczym tempie. Opinie ekspertów są podzielone co do tego, kiedy AGI zostanie osiągnięte lub czy w ogóle jest to możliwe. Wielu uważa, że nie da się naśladować inteligencji na podłożu nieopartym na węglu lub że świadomość to coś więcej niż tylko atomy, cząsteczki oraz sygnały elektryczne i chemiczne w naszych mózgach. Dlatego właśnie ta dziedzina jest tak intrygująca i złożona. Mamy tak wiele nieodpowiedzianych pytań i chociaż zaczęliśmy już budować AI, które może rozwiązać za nas rzeczywiste problemy, wciąż jesteśmy milion mil (lub więcej) od zbudowania superinteligencji, która jest ostatecznym strzałem w dziesiątkę dla branży i ma potencjał, aby odblokować naszą utopijną przyszłość. Dla mnie to sprawia, że praca w dziedzinie AI jest o wiele bardziej atrakcyjna, z tak wieloma innowacjami i odkryciami czekającymi na odkrycie. Historia pokazała nam wiele razy, że tego typu wpływowe odkrycia mogą zostać odkryte przez każdego, niezależnie od tego, gdzie pracujesz i co robisz - krajobraz jest bogaty w zakopane skarby AI, które tylko czekają, aż ktoś je odkopie. To możesz być ty. Następna zima AI (lub epoka lodowcowa) Chociaż teraz bardzo łatwo jest być przesadnym optymistą, powinniśmy spróbować wyciągnąć wnioski z historii. Jako branża mieliśmy już dwie poprzednie zimy AI, a definicją zimy AI jest znaczące zmniejszenie zainteresowania tą dziedziną ze strony inwestorów, praktyków i badaczy. Jest to w zasadzie ochłodzenie w tej dziedzinie na pewien czas z powodu rozczarowania wynikami i osiągnięciami. Ten cykl zainteresowania jest typowy dla wielu dziedzin, nie tylko AI. Jest możliwe, że przy monumentalnym szumie i inwestycjach ciążących w kierunku wszystkiego, co dotyczy generatywnej AI w tej chwili, jesteśmy świadkami początku kolejnego cyklu zimy AI. Czy uświadomienie sobie, że generatywna AI nie dostarczy AGI, będzie wyzwalaczem, który rozpocznie zamrożenie? Pewne jest, że inwestycje w końcu ostygną, a niesamowity postęp, który ostatnio widzieliśmy, może być trudniejszy do osiągnięcia lub lepszy w niedalekiej przyszłości. Ale miejmy nadzieję, że fakt, że AI dostarcza teraz praktycznych korzyści w świecie rzeczywistym, będzie decydującym faktem, który uchroni nas przed trzecią zimą AI. Jak napisałem w niedawnym artykule, "możemy nie być w stanie powstrzymać zimy AI uczenia maszynowego; być może jest to nieunikniony cykl. Ale aby powstrzymać jeszcze gorszą i bardzo, bardzo destrukcyjną epokę lodowcową AI, musimy poszerzyć zakres zainteresowania i postawić AGI z powrotem na nogi".
ZIMA AI MOŻE BYĆ NIEUNIKNIONA. CZEGO POWINNIŚMY SIĘ BARDZIEJ BAĆ : EPOKI LODOWCOWEJ AI
W Gambicie królowej, dramacie Netflixa o geniuszu szachowym, główna bohaterka jest niesamowicie skupiona i zdeterminowana. Można by nawet powiedzieć, że przypomina maszynę. Można by nawet powiedzieć, że jest trochę jak niesamowicie zdeterminowany program AI, taki jak AlphaGo. Mam nadzieję, że nie zdradzę tutaj żadnych spoilerów, ale w dramacie Beth ostatecznie odnosi sukces nie tylko dlatego, że jest szachowym geniuszem, który potrafi przewidzieć wiele ruchów na szachownicy. Odnosi sukces, ponieważ współpracuje z innymi graczami, którzy dają jej wskazówki i porady na temat psychologii i nawyków jej głównego przeciwnika "Wielkiego Szefa". Innymi słowy, stosuje taktykę, strategię, rozumowanie i planowanie; widzi więcej niż szachownicę. Można by rzec, że czyta otoczenie. Emocje odgrywają ogromną rolę we wszystkim, co robi, i są kluczem do jej ostatecznego triumfu w Moskwie. I dlatego potencjalnie mamy duże kłopoty z AI. AlphaGo nie potrafi zrobić niczego z tego, co robią Beth i jej przyjaciele. To genialny kawałek oprogramowania, ale to idiotyczny geniusz - wszystko, co zna, to Go. W tej chwili bardzo mało osób się tym przejmuje. Dlatego obawiam się, że możemy zmierzać nie tylko w stronę kolejnej zimy AI, ale niemal niekończącej się epoki lodowcowej AI, być może dziesięcioleci odrzucenia podejścia, wszystkich zamkniętych dopływów pieniędzy VC, braku funduszy na badania uniwersyteckie - wszystkiego, co widzieliśmy podczas pierwszej zimy AI w latach 1974-1980 i drugiej w latach 1987-1993. Tylko o wiele, wiele gorzej. Prawo Moore'a nadal jest naszym przyjacielem, ale nawet ono ma swoje granice Jestem również przekonany, że jedynym sposobem na uratowanie niesamowitych osiągnięć, jakie widzieliśmy w programach takich jak AlphaGo, jest uczynienie ich bardziej podobnymi do Beth - zdolnymi do "widzenia" o wiele, wiele więcej niż tylko "tablicy" przed sobą. Umieśćmy to wszystko w kontekście. Obecnie bez wątpienia przeżywamy najlepszy okres w historii sztucznej inteligencji. Lata ciężkiej pracy na poziomie teoretycznym szły w parze ze znakomitymi ulepszeniami wydajności sprzętu - połączenie, które podniosło poziom naszej gry, bez proszenia nas o to. Stąd dzisiejsza niewątpliwa historia sukcesu sztucznej inteligencji: uczenie maszynowe. Wszyscy stawiają na to podejście i jego korzenie w głębokim uczeniu się i dużych zbiorach danych, co jest w porządku; prawdziwy postęp i prawdziwe aplikacje są obecnie dostarczane. Ale nadchodzi twardy koniec. Jednym z nieodłącznych problemów głębokiego uczenia się jest to, że potrzebujesz coraz większych sieci neuronowych i parametrów, aby osiągnąć więcej niż ostatnio, więc wkrótce kończysz z niewiarygodną liczbą parametrów: pełna wersja GPT-3 ma 175 miliardów. Ale trenowanie takich rozmiarów sieci wymaga ogromnej mocy obliczeniowej - i chociaż prawo Moore'a nadal jest naszym przyjacielem, nawet to ma swoje ograniczenia. I jesteśmy gotowi je osiągnąć znacznie szybciej, niż wielu chciałoby myśleć. Pomimo reputacji machania rękami i miłości do unobtainium, dziedzina sztucznej inteligencji jest pełna realistów. Większość z nich ma bolesne wspomnienia tego, co wydarzyło się ostatnim razem, gdy obietnica sztucznej inteligencji spotkała się z nieuleczalną rzeczywistością, cykl, który dał początek koncepcji "zimy sztucznej inteligencji". W Wielkiej Brytanii w 1973 r. miażdżąca analiza - niesławny raport Lighthilla - doszła do wniosku, że sztuczna inteligencja po prostu nie jest warta dalszego inwestowania w nią pieniędzy. Podobnie zirytowani, niegdyś niesamowicie hojni płatnicy obrony w USA zakończyli pierwszy boom oparty na heurystycznym wyszukiwaniu, a dziedzina ta popadła w gwałtowny upadek aż do eksplozji systemów eksperckich/inżynierii wiedzy w latach 80., która ostatecznie również "zamarła", gdy zbyt wiele przesadzonych obietnic spotkało się z rzeczywistością. Aby było jasne, oba okresy przyniosły niesamowite postępy, w tym systemy, które oszczędzały pieniądze ludziom i usprawniały branże. Sztuczna inteligencja nigdy nie znika; każdy, kto pracuje w IT, wie, że zawsze gdzieś jest zaawansowane programowanie i inteligentne systemy, które pomagają - nie nazywamy ich już nawet sztuczną inteligencją, po prostu działają bez problemu. Z jednej strony AI się nie zatrzyma, nawet jeśli znów wyjdzie z mody; zmuszanie komputerów i robotów do pomocy nam jest zbyt użytecznym przedsięwzięciem, aby się zatrzymać. Potrzebujemy inteligentnych systemów, które są lepsze w więcej niż jednej "rzeczy". Ale to, co się stanie, to zima AI, która nastąpi po dzisiejszym boomie. Wkrótce nauka o danych przestanie być modna; modele ML przestaną być wiarygodne; przedsiębiorcy oferujący miastu rozwiązanie głębokiego uczenia się dla problemu finansowego X nie otrzymają odpowiedzi na swoje e-maile. A to, co może się wydarzyć później, jest jeszcze gorsze
nie tylko krótki okres wycofania odsetek, ale głębokie, głębokie zamrożenie - trwające 10, 20, 30 lat. Nie chcę, aby to się stało, i to nie dlatego, że kocham AI lub chcę mieć własnego HAL 9000 (chociaż oczywiście, że kocham - ty też). Nie chcę, żeby tak się stało, bo wiem, że sztuczna inteligencja jest prawdziwa i chociaż mogą istnieć naprawdę fascynujące argumenty filozoficzne za i przeciw niej, ostatecznie stworzymy coś, co będzie potrafiło robić rzeczy równie dobrze jak ludzie. Ale zauważ, że powiedziałem "rzeczy". AlphaGo jest lepszy od nas wszystkich (z pewnością ode mnie) w grach. Google Translate jest lepszy ode mnie w tłumaczeniu wielu języków itd. Potrzebujemy inteligentnych systemów, które są lepsze w więcej niż jednej "rzeczy"
które mogą zacząć być inteligentne, nawet na bardzo niskim poziomie, poza bardzo wąską domeną. Krok naprzód AGI, sztuczna inteligencja ogólna, czyli zestawy programów, które stosują inteligencję do szerokiej gamy problemów, w taki sam sposób, w jaki robią to ludzie. Widzimy największy postęp w uczeniu się, ponieważ tam idą wszystkie inwestycje Na przykład, w ciągu ostatnich 15 lat skupialiśmy się tylko na uczeniu się. Ale sztuczna inteligencja, która jest wykonywana prawidłowo, musi obejmować szereg możliwości inteligencji, z których zdolność uczenia się i dostrzegania wzorców jest tylko jedną; jest rozumowanie, jest zrozumienie, jest wiele innych rodzajów możliwości inteligencji, które powinny być częścią ogólnej praktyki lub zdolności sztucznej inteligencji. Wiemy, dlaczego tak jest - skupiamy się na uczeniu się, ponieważ uzyskaliśmy dobrą trakcję w tym zakresie i poczyniliśmy solidne postępy. Ale są wszystkie inne możliwości AI, na które powinniśmy również zwrócić uwagę i zbadać, a po prostu tego nie robimy. To jest błędne koło: wszystkie mądre pieniądze idą w uczenie maszynowe, ponieważ tam widzimy największy postęp, ale widzimy największy postęp tylko w uczeniu się, ponieważ tam idą wszystkie inwestycje! Podsumowując: być może nie będziemy w stanie powstrzymać zimy AI uczenia maszynowego; być może jest to nieunikniony cykl. Ale aby powstrzymać jeszcze gorszą i bardzo, bardzo destrukcyjną epokę lodowcową AI, myślę, że musimy poszerzyć tutaj zakres, postawić AGI z powrotem na nogi i pomóc naszym "Beths" stać się lepszymi w czymś więcej niż tylko "szachach"
albo po prostu zobaczymy, jak są wyłączane, jedno po drugim.
Ostatnie przemyślenia - droga przed nami
Krajobraz AI w ciągu najbliższych pięciu do dziesięciu lat będzie pełen możliwości, nowych ról, nowych podejść, nowych technologii i nowych inteligentnych umiejętności. Ale nie tylko po stronie nauki o danych możliwości będą obfite; podstawowa infrastruktura znacznie się rozwinie, podobnie jak wymagania dotyczące zarządzania danymi, prywatności i zaufania do danych. Nowe podejścia, takie jak rozproszone, federacyjne i kwantowe obliczenia, zmienią metodologie i procesy tworzenia AI. Inne technologie, takie jak Web 3 i metawersum, staną się bardziej masowe i ponownie zmienią krajobraz w sposobie wykorzystania AI. Robotyka to również obszar szybkiego rozwoju; kontrolowane przez AI, zobaczymy powódź robotów, które pomogą w szerokim zakresie zadań związanych z pracą ręczną. Roboty w kształcie Androida są już w fazie rozwoju od Tesli (zwanej Optimus), Boston Dynamics (zwanej Atlas) i innych. Ponownie, ta powiązana dziedzina otworzy wiele nowych możliwości kariery, zarówno w AI, jak i w robotyce. I bez wątpienia pojawią się nowe technologie, których jeszcze sobie nie wyobrażano, a które wejdą do ekosystemu i zmienią zasady gry. Ostatecznie, w trakcie swojej kariery będziesz musiał uczyć się przez całe życie i zmieniać kierunek wraz ze wzrostem doświadczenia i wiedzy. Znalezienie najlepszej roli dla siebie w danym momencie stworzy Twoją unikalną ścieżkę kariery i zdefiniuje, kim staniesz się w przyszłości. Ta podróż jest najbardziej ekscytującą częścią czyjegoś życia zawodowego i będzie pełna niespodzianek, zwrotów akcji, które zapewnią Ci ciągłe wyzwania i aspiracje, których będziesz potrzebować w swoim życiu zawodowym. Sztuczną inteligencję można uznać za najbardziej zaawansowaną technologię dostępną w dowolnym momencie, co częściowo wyjaśnia, dlaczego trudno jest zdefiniować, czym jest sztuczna inteligencja, ponieważ na przestrzeni dekad zmieniała się i będzie się zmieniać w przyszłości. Jednak bycie na granicy rozwoju technologii jest zawsze ekscytujące i wymagające i zapewniło wielu osobom bardzo satysfakcjonującą karierę. W tym rozdziale omówiliśmy niektóre najnowsze osiągnięcia w zakresie badań i rozwoju sztucznej inteligencji (AI), a także niektóre powiązane technologie, które ukształtują przyszły postęp i osiągnięcia, jakich będziemy świadkami w nadchodzących latach w zakresie zaawansowanej sztucznej inteligencji (AI) i sztucznej inteligencji ogólnej (AGI).
Zastosowania AI
Podczas gdy badania nad AI mają na celu rozwijanie podstaw sztucznej inteligencji, AI stosowana to obszar, który stara się używać AI do rozwiązywania rzeczywistych problemów i dostarczać praktycznych spostrzeżeń oraz prognozowania predykcyjnego, aby pomóc w podejmowaniu decyzji strategicznych i taktycznych. Zarówno obszary stosowane, jak i badawcze AI mają znaczny potencjał i możliwości dla Twojej kariery w AI. Piękno AI stosowanej polega na tym, że potrzebujesz również wiedzy na temat odpowiedniego sektora przemysłu. Może się zdarzyć, że masz już doświadczenie i wiedzę specjalistyczną w branży lub chcesz wykorzystać przejście do AI, aby poznać nowy obszar biznesowy. Podczas gdy różne branże przyjmują AI w różnym tempie, rzeczywistość jest taka, że większość, jeśli nie wszystkie branże, aktywnie wdraża AI w jakiejś części swojej działalności i prawdopodobnie rozszerzą tę adopcję w nadchodzących latach. Jeśli nie, zrobią to konkurenci w tej samej branży i uzyskają znaczące korzyści, które uczynią z nich silniejsze wyzwanie w przyszłości. Firmy muszą prowadzić innowacje, aby przetrwać, a obecnie innowacją tą jest wykorzystanie technologii opartych na AI. Przewaga konkurencyjna wynikająca z wczesnego wdrożenia AI może mieć dramatyczny wpływ na firmy, od poprawy produktywności po ulepszenia produktów i usług. W tej części zaprezentujemy kilka branż, które znajdują się na różnych etapach wykorzystania AI, podkreślając niektóre z głównych obszarów zastosowań i korzyści. Zazwyczaj organizacja przechodzi przez 10 etapów wdrażania AI lub, mówiąc prościej, trzy fazy włączania AI . Firmy będą przechodzić z jednego etapu do drugiego w różnym tempie, musząc pokonać różne wyzwania po drodze, co jest powszechną podróżą dla każdego programu transformacji cyfrowej. Zapewniamy wgląd w szereg branż; niektóre są na czele wdrażania AI od jakiegoś czasu, a inne dopiero zaczynają odkrywać korzyści płynące z korzystania z AI. Wykorzystanie AI było do niedawna czymś w rodzaju luksusu, dostępnego tylko dla największych firm z doświadczonymi ludźmi z dostępem do zasobów obliczeniowych i ilości danych, które nie są łatwo dostępne dla mniejszych firm. Ale teraz organizacje każdej wielkości mogą uzyskać dostęp do niezbędnych komponentów, aby tworzyć modele predykcyjne AI i integrować je z istniejącymi aplikacjami.
Opieka zdrowotna
Sztuczna inteligencja w zastosowaniach medycznych i opieki zdrowotnej była badana jedynie jako działalność badawcza, ale rzadko jest wykorzystywana w głównych zastosowaniach. Jednak pandemia Covid-19 zmieniła akceptację technologii sztucznej inteligencji w wielu różnych zastosowaniach, od ponownego wykorzystania leków po alokację zasobów, przewidywanie rozprzestrzeniania się choroby, a nawet roboty sprzątające szpitale. Podczas pandemii zaobserwowaliśmy również gwałtowny wzrost zastosowań w zakresie dobrego samopoczucia wykorzystujących możliwości sztucznej inteligencji w celu zaspokojenia potrzeb osób narażonych na zwiększone nasłonecznienie spowodowane dystansem społecznym, kwarantanną i rozłąką z bliskimi. Długoterminowe ambicje sztucznej inteligencji w sektorze medycznym obejmują bardziej precyzyjne leki dostosowane do DNA osób i ich konkretnych potrzeb, a także pomoc w leczeniu, a nawet zapobieganiu wielu chorobom, których obecnie jesteśmy ofiarami.
Finanse
v
Sektor usług finansowych był jednym z pierwszych, który przyjął wykorzystanie sztucznej inteligencji. Istnieje tak wiele potencjalnych zastosowań w całej branży. Specyficzne dla branży są handel algorytmiczny, rekomendacje handlowe, wykrywanie oszustw i zarządzanie ryzykiem, a ogólniej obsługa klienta, automatyzacja procesów, uzgadnianie danych, generowanie raportów, monitorowanie systemu i konserwacja predykcyjna. Przy dużej liczbie transakcji i wielu powtarzalnych zadaniach, które należy wykonywać codziennie, zakres inteligentnej automatyzacji w obszarach front-, middle- i back-office jest ogromny. Wykorzystanie technologii w celu radzenia sobie z wahaniami codziennych wolumenów zmniejsza presję przetwarzania ręcznego i pozwala zasobom ludzkim radzić sobie z trudniejszymi przerwami w danych i zapytaniami klientów. Klienci oczekują teraz bardziej spersonalizowanej obsługi z bardziej szczegółowymi zaleceniami dostosowanymi do potrzeb i okoliczności danej osoby - co oznacza lepsze możliwości analizy danych i spostrzeżeń w celu zapewnienia tych indywidualnie ukierunkowanych sugestii. Nie tylko duże banki inwestycyjne wdrożyły sztuczną inteligencję; to banki detaliczne, fundusze inwestycyjne i hedgingowe, start-upy fintech i banki challenger, a także sektor ubezpieczeniowy. Przepisy dotyczące sztucznej inteligencji są kluczowym aspektem usług finansowych, a potrzeba przejrzystości decyzji i możliwości wyjaśnienia stanowią główne kwestie.
STUDIUM PRZYPADKU Nuon.AI
Zespół Nuon.AI ma duże doświadczenie w branży ubezpieczeniowej i zbudował platformę cenową w czasie rzeczywistym, wykorzystując najnowocześniejsze technologie AI, w tym uczenie wzmacniające, aby stworzyć pakiet produktów, który może zapewnić wyjątkowe wyniki dla ich klientów. Udostępniają swoją platformę firmom ubezpieczeniowym, brokerom i agentom zarządzającym, działając w różnych sektorach, w tym ubezpieczeniach samochodowych, turystycznych i domowych. Opracowana przez nich technologia pomogła na przykład zwiększyć sprzedaż o 31 procent dla brytyjskiego ubezpieczyciela samochodowego, który konkuruje z większymi firmami ubezpieczeniowymi. Nie tylko wzrosła sprzedaż, ale udało im się również zwiększyć składki o 28 procent, przy łącznym koszcie dyskontowania wynoszącym tylko 1,7 procent. Zastrzeżone algorytmy AI stworzone przez Nuon ułatwiły znalezienie optymalnych punktów cenowych, aby skuteczniej i wydajniej konkurować, jednocześnie znacznie zwiększając sprzedaż i składki bez konieczności dużych dyskontowań. Zasadniczo platforma AI działa jak radar, rozwiązując podstawowy problem ubezpieczycieli i brokerów: jak uzyskać wgląd w zmieniające się warunki rynkowe wystarczająco szybko, aby konkurować rentownie.
Sprzedaż i marketing
v
Generalnie rzecz biorąc, w przypadku każdego rodzaju działalności, działania sprzedażowe i marketingowe mogłyby być wspierane przez podstawowe możliwości AI przez jakiś czas. Jednak generatywna AI otworzyła wiele nowych możliwości dla AI w celu zwiększenia produktywności w tym obszarze. Chatboty sprzedażowe (i chatboty obsługi klienta) istnieją od kilku lat, chociaż zakres rozmów został ograniczony do dobrze zdefiniowanych przepływów dialogowych. Nie tak jest w przypadku konwersacyjnej i generatywnej AI - otwiera ona znacznie szersze możliwości bardziej szczegółowego angażowania obecnych i potencjalnych klientów. Marketing może teraz w dużym stopniu skorzystać z możliwości generatywnej AI, pomagając przyspieszyć tworzenie artykułów i postów na blogu w celu wsparcia każdej kampanii marketingowej lub promocji sprzedaży. Technologia ta pozwala teraz na znacznie większą personalizację, umożliwiając bardziej precyzyjne i ukierunkowane działania sprzedażowe oraz pomagając poprawić wskaźniki konwersji. Można to również zastosować do promocji sprzedaży dodatkowej i krzyżowej, które mają na celu poprawę możliwości przychodowych firmy dzięki lepszej, bardziej odpowiedniej i ukierunkowanej komunikacji z potencjalnymi i obecnymi klientami. Łączenie narzędzi AI z przepływem pracy procesów sprzedaży i marketingu będzie kluczowe dla poprawy produktywności i personalizacji promocji marketingowych i działań sprzedażowych każdej firmy.
Edukacja
Celem AI w edukacji jest pomoc w poprawie i przyspieszeniu nauki uczniów, pomagając lepiej ukierunkować obszary potrzebnego wsparcia poprzez tworzenie bardziej spersonalizowanych programów nauczania, które dostosowują się do bieżących ocen i analiz edukacyjnych. AI w klasie może określić konkretne potrzeby i pomóc nauczycielom w zapewnieniu najbardziej ukierunkowanego wsparcia, aby zapewnić, że żadne dziecko nie zostanie w tyle i że wszyscy będziemy mieli najlepszy start w życiu. Istnieje znaczne wyzwanie dla uczniów korzystających z narzędzi AI, takich jak ChatGPT, aby pomóc im w wykonywaniu zadań. Różne instytucje mają różne opinie na temat tego podejścia i utrudnia to rolę nauczycieli, szczególnie jeśli chodzi o ocenę umiejętności i wiedzy uczniów. Uniwersytety i szkoły będą musiały dostosować się do tych nowych narzędzi, z których mogą korzystać uczniowie, i przygotować ich do ich ulepszonego technologicznie życia zawodowego, które zostanie rozszerzone o wiele aplikacji i systemów inteligencji, współpracujących z ludzką siłą roboczą.
Przemysł i produkcja
Sektor produkcji był nieco wolniejszy w przyjmowaniu technologii AI, z kilkoma wyjątkami. Jednym z pierwszych najbardziej oczywistych zastosowań w tym obszarze jest konserwacja predykcyjna, pomagająca przewidzieć, zanim to nastąpi, kiedy część maszyny wymaga serwisu lub naprawy części, aby uniknąć katastrofalnych awarii lub nieplanowanych przestojów. Przemysł lotniczy jest wspaniałym studium przypadku, ponieważ wiemy, że producent silników Rolls Royce ma wiele czujników na każdym silniku, monitorujących jego wydajność w czasie rzeczywistym. Wszystkie te dane w czasie rzeczywistym są wysyłane z powrotem do ich siedziby w celu szczegółowej analizy, a każda anomalia jest oznaczana jako wskaźnik do zbadania. Widzimy również, że cyfrowe bliźniaki są wykorzystywane do modelowania i symulowania procesów produkcyjnych, a nawet budynków (takich jak szpitale), aby umożliwić symulację scenariuszy typu "co by było, gdyby", pomagając w planowaniu planów awaryjnych, jeśli będzie to wymagane w oparciu o konkretne przyszłe sytuacje. Może to również pomóc w łańcuchu dostaw i innych szczegółowych procesach i procedurach.
Rolnictwo i monitoring środowiska
Możliwości wsparcia tego sektora przez sztuczną inteligencję obejmują cały łańcuch wartości, od rolnictwa i zbioru po transport, przetwarzanie, wysyłkę i produkcję. Inteligentna automatyzacja i analiza sztucznej inteligencji mogą odgrywać znaczącą rolę w każdej części procesu produkcji żywności. Od monitorowania stanu upraw po pomoc w poprawie plonów i jakości produkcji, analiza predykcyjna może dostarczać cennych informacji i ostrzegać ludzi o potencjalnych problemach z wyprzedzeniem. Widzimy nawet, że sztuczna inteligencja jest wykorzystywana w rozwoju żywności, dostosowując się do preferencji klientów i trendów dotyczących smaków, tekstur, aromatów i aspektów odżywczych. Oprócz tych podstawowych możliwości łańcucha wartości, analiza danych i uczenie maszynowe mogą być wykorzystywane do eksploracji spostrzeżeń klientów, od słuchania społecznościowego i analizy nastrojów po angażowanie klientów za pośrednictwem chatbotów i prognozowania sprzedaży.
Branże rozrywkowe i kreatywne
Jest oczywiste, że generatywna sztuczna inteligencja znacząco zrewolucjonizuje branżę rozrywkową i kreatywną. To już się zaczęło. Od generowania tekstu po obrazy i wideo, możliwości generatywnej sztucznej inteligencji poprawiają się w szybkim tempie. Zobaczyłem ogłoszenie o kanale informacyjnym, który będzie całkowicie generowany przez sztuczną inteligencję pod względem prezentera i studia - będzie prezentował wiadomości ze świata rzeczywistego, ale potencjalnie perspektywa relacji będzie dostosowana do preferencji poszczególnych widzów. Prawdopodobnie zobaczymy znacznie więcej hiperpersonalizowanych mediów, generowanych w locie dla każdego indywidualnego konsumenta w sposób i z perspektywy, jakiej chce. Wkrótce zobaczymy również w pełni generowane przez sztuczną inteligencję programy telewizyjne i filmy, a potencjalnie pewnego dnia będą one mogły być generowane w czasie rzeczywistym, co pozwoli nam na prawdziwą interakcję i określanie fabuły i kierunku historii. Będzie to znacząca rewolucja w obecnej branży medialnej i będzie bardzo ciekawie zobaczyć, jak przyjmie tę nową rewolucję technologiczną w ciągu najbliższych kilku lat.
Energia i usługi komunalne
Sektor ten ma trzy aspekty: pierwszy skupia się na samej branży, drugi na konsumencie, a trzeci na przyszłościowej technologii zielonej i czystej energii. W przypadku samej branży potencjalne przypadki użycia obejmują konserwację predykcyjną, zarządzanie siecią, optymalizację zużycia w budynkach, handel energią i zarządzanie ryzykiem, optymalizację magazynowania baterii, a także bezpieczeństwo i wydajność. Dla konsumenta inteligentne liczniki to dopiero początek, ponieważ wykorzystanie analizy danych w celu lepszego przewidywania trendów zużycia i opracowywania strategii i zmian w działaniach, które mogą pomóc oszczędzać energię bez większego wpływu na styl życia, stanie się w przyszłości bardziej powszechne. Sztuczna inteligencja może mieć ogromny wpływ na dziedzinę zielonej i czystej energii, od projektowania nowych produktów po dostarczanie bardziej energooszczędnych budynków (z połączeniem IoT i inteligentnych budynków), analizę i redukcję śladu węglowego oraz prognozowanie energii odnawialnej.
Rząd i usługi publiczne
Podczas gdy rządy i usługi publiczne mają tendencję do większej ostrożności w przyjmowaniu nowych technologii, przyjmując postawę bardziej niechętną ryzyku, korzyści z wykorzystania sztucznej inteligencji są dla nich tak samo oczywiste, jak dla każdej innej działalności komercyjnej. Ostatecznie chodzi o zapewnienie szeregu usług i produktów społeczności użytkowników przy ograniczonej liczbie dostępnych zasobów. Wzrost produktywności może okazać się nieoceniony w dostarczaniu lepiej ukierunkowanych usług dla dużej liczby zasługujących na to przypadków. Wydajność i skuteczność odegrają główną rolę w przyjęciu możliwości związanych ze sztuczną inteligencją w nadchodzących latach w tym sektorze. Z perspektywy krajowej nie chodzi tylko o to, w jaki sposób rząd może wykorzystać sztuczną inteligencję do lepszego świadczenia usług. Muszą również przyjrzeć się szerszym wpływom i konsekwencjom powszechnego stosowania technologii w całym kraju i temu, jak wpływa to na jego obywateli. Jakie regulacje mogą być potrzebne, a także zabezpieczenia i obawy dotyczące prywatności danych i praw jednostek, muszą zostać rozważone. Wiele rządów poważnie podchodzi do tych potencjalnych problemów, dzięki ustawie UE o sztucznej inteligencji, amerykańskiemu rozporządzeniu wykonawczemu w sprawie korzystania ze sztucznej inteligencji i Wielkiej Brytanii, która jest gospodarzem pierwszego na świecie szczytu bezpieczeństwa sztucznej inteligencji.
Prawo i zgodność
Sektor prawny bada możliwości sztucznej inteligencji, w szczególności przetwarzanie języka naturalnego, aby pomóc w przypadku dużej ilości dokumentów, które zazwyczaj muszą przeglądać. Porównywanie podobnych dokumentów umownych i podkreślanie różnic jest zadaniem czasochłonnym, powtarzalnym i nudnym. Sektor przechodzi na bardziej zaawansowane aplikacje, w tym cyfrowych doradców prawnych, analizę materiałów sprawy, formułowanie argumentów prawnych i dostarczanie informacji jako części dowodów w sprawach karnych. Jednak pojawiły się problemy z wykorzystaniem takich technologii, zgodne z fundamentalnym problemem generatywnej sztucznej inteligencji, która ma potencjał do halucynacji faktów, a nawet praw jako części swojego wyniku. Dlatego też należy zachować ostrożność w każdej silnie regulowanej branży z tymi nowymi technologiami, aby upewnić się, że działają one dokładnie i zgodnie z oczekiwaniami. Chociaż branża musi pokonać te wyzwania, technologia z pewnością będzie miała wpływ, zmieniając sposób działania kancelarii prawnych i usług świadczonych zarówno przedsiębiorstwom, jak i osobom fizycznym.
Łańcuch dostaw i logistyka
Większość łańcucha dostaw i logistyki można zautomatyzować i zoptymalizować dzięki zastosowaniu danych analitycznych, analiz i modelowania predykcyjnego, od szacowania popytu na produkty po optymalizację tras dostaw. Chociaż może to nie być najbardziej ekscytujący obszar zastosowań, wpływ narzędzi AI w tej przestrzeni może mieć i będzie miał znaczący wpływ na nasze środowisko i koszt dostarczania przesyłek do naszych domów. Połączenie AI, automatyzacji i robotyki spowoduje drastyczną zmianę w procesach kompleksowych łańcuchów dostaw, a wyzwania związane z ostatnią milą i 100 jardami do progu staną się bardziej zautomatyzowane, a zatem łatwiejsze do opanowania. W przyszłości możemy mieć asystenta dostawczego w postaci androida lub drona, który będzie obsługiwał tę ostatnią część logistyki łańcucha dostaw.
Zasoby ludzkie i zarządzanie talentami
Jak w przypadku każdej funkcji w ramach działalności biznesowej, HR i zarządzanie talentami nie jest inne, z szeregiem potencjalnych zastosowań dla AI. Obejmuje to pozyskiwanie talentów, przesiewanie kandydatów, spostrzeżenia z rozmów kwalifikacyjnych i analizę siły roboczej, a także analizę zaangażowania pracowników i ocenę wyników.
STUDIUM PRZYPADKU WeSoar.AI
Wykorzystanie sztucznej inteligencji do rozbudowy i wsparcia siły roboczej to obszar, na którym skupi się większość organizacji, ponieważ korzystanie z narzędzi sztucznej inteligencji staje się coraz powszechniejsze. Zwiększenie produktywności przedsiębiorstwa poprzez wspieranie i poprawę wydajności siły roboczej jest kluczem do przyszłości firm, które przyjmują swoją przyszłość napędzaną przez sztuczną inteligencję, wraz z podejściem wykorzystującym moc psychologii pozytywnej, w szczególności doceniającego dociekania, które koncentruje się wokół mocnych stron, możliwości, aspiracji i wyników. Platforma WeSoar wykorzystuje szereg technologii analityki danych i sztucznej inteligencji, aby zapewnić zoptymalizowaną wydajność zespołu, poprawić zaangażowanie i zmotywować pracowników do osiągnięcia maksymalnej wydajności dzięki interakcjom z lekkim dotknięciem w aplikacji mobilnej. Zespół WeSoar szybko przyjął również możliwości generatywnej i konwersacyjnej sztucznej inteligencji, wykorzystując koncepcję asystenta cyfrowego do dostarczania wielu funkcjonalnych aspektów platformy. Jest to połączone z bodźcami i przypomnieniami opartymi na sztucznej inteligencji, aby zapewnić bardziej oparte na działaniu wyniki.
Non-profit i wpływ społeczny
Zastosowanie AI w sektorach charytatywnym, non-profit i wpływu społecznego jest coraz ważniejsze; potencjalne korzyści we wszystkim, od łańcucha dostaw po poprawę darowizn, są ogromne. W przypadku inicjatyw reagowania na katastrofy, dostępu do opieki zdrowotnej i edukacji, AI może mieć pozytywny wpływ na dostarczanie i wydajność tych usług. Istnieje tak wiele niesamowitych aplikacji, które pomagają osobom radzić sobie z niepełnosprawnościami i je pokonywać, zwalczać handel ludźmi, zwiększać zbiórki funduszy i zaangażowanie darczyńców oraz poprawiać dobrobyt społeczny i dopasowanie usług. Potencjalne korzyści, jakie AI może przynieść w tym obszarze zastosowań, są znaczące i naprawdę zgodne z etosem AI for Good, który podziela wielu praktyków w tej dziedzinie. Organizacje charytatywne często mają ograniczone zasoby i chętnie przyjmą dodatkową pomoc i wsparcie, aby wykorzystać korzyści płynące z analiz opartych na AI. DataKind to organizacja, z którą wcześniej współpracowałem, która pomaga dopasować umiejętności w zakresie nauki o danych do organizacji poszukujących pomocy w projektach. Bardzo ważne jest, abyśmy rozumieli wpływ i względy etyczne technologii AI, zapewniając, że odpowiedzialne praktyki AI są przestrzegane w sektorze non-profit.
Nowe i międzybranżowe zastosowania
Istnieje wiele branż, które przecinają się z obszarem AI, umożliwiając go - na przykład obliczenia kwantowe, które mają potencjał, aby radykalnie przyspieszyć rozwój AI. Sprzęt komputerowy jest innym przykładem, z takimi firmami jak NVIDIA, ARM, Graphcore i innymi produkującymi dedykowane procesory do przyspieszenia AI (w szczególności sieci neuronowe).
Głęboka technologia
Głęboka technologia obejmuje szereg branż (i technologii), ale ostatecznie ma na celu tworzenie komercyjnych aplikacji, które są możliwe dzięki najnowszym badaniom naukowym. Wiele firm głębokiej technologii spędza lata na pracach badawczo-rozwojowych, tworząc nowe produkty na podstawie przełomowych osiągnięć w zakresie zaawansowanych technologii. Niektóre wykorzystują AI jako część swoich wysiłków badawczych, potencjalnie w połączeniu z innymi odkryciami naukowymi. Tego typu firmy oferują jedne z najtrudniejszych możliwości, ale także najbardziej satysfakcjonujące (przynajmniej z czysto naukowego punktu widzenia).
STUDIUM PRZYPADKU Warwick University Deep Tech Innovation Centre Wiele uniwersytetów coraz częściej pomaga studentom, absolwentom i pracownikom w poszukiwaniu sposobów na komercjalizację ich innowacji badawczych. Warwick Uniwersytet w Wielkiej Brytanii ma cały okręg innowacji skupiony na wspieraniu naukowych przedsiębiorców. Dzielnica innowacji ma kilka centrów, z których każde prowadzi różne programy dla różnych branż lub obszarów zainteresowania. Programy pomagają założycielom tworzyć produkty na podstawie ich wynalazków, budować zespoły i szukać finansowania dla swoich firm, aby się rozwijały. Pomaga to również edukować i informować osoby zainteresowane start-upami jako opcją kariery. Program Deep Tech to sześciomiesięczny cykl warsztatów szkoleniowych i sesji edukacyjnych, mentoringu biznesowego i technicznego oraz matchmakingu z potencjalnymi członkami zespołu, który kończy się wydarzeniem typu pitch w stylu Dragons′ Den.
Ostatnie przemyślenia
Podczas gdy poprzednie rewolucje przemysłowe skupiały się wokół jednej kluczowej branży, przełomowa natura AI polega na tym, że można ją stosować w wielu, jeśli nie we wszystkich branżach. Wpływa również na wszystkie działy i funkcje w firmie, co sprawia, że potencjał AI do zmiany krajobrazu komercyjnego i ekonomii modeli biznesowych jest znaczący. Jeszcze nie widzieliśmy pełnego wpływu tego, a wynikające z tego wstrząsy wtórne stworzą zarówno nowe możliwości, jak i wyzwania, z którymi wszyscy będziemy musieli się zmierzyć. Niektóre branże i firmy będą prosperować, inne padną ofiarą tego nowego porządku inteligentnej automatyzacji. Jednak osoby pragnące pracować w dziedzinie AI znajdą nieograniczone możliwości w dowolnej liczbie obszarów zastosowań i branż. Pytanie będzie dotyczyło tego, w jakim obszarze i branży chcesz się specjalizować. Przyszłość stosowanej AI będzie polegała na dostarczaniu bardziej wydajnych analiz i spostrzeżeń, które wspierają podstawowe funkcje i misję firmy, łącząc inteligentne podejmowanie decyzji w całej organizacji, zapewniając klientom bardziej spersonalizowaną obsługę i pomagając firmie przewidywać przyszłość i planować z wyprzedzeniem, aby zminimalizować problemy. Funkcjonalność AI oznacza, że firmy muszą podnieść poprzeczkę i dostarczać klientom więcej wartości niż kiedykolwiek wcześniej, poprzez personalizację, wydajność, poprawę jakości lub nowe produkty i usługi. Tempo innowacji i zmian, które firmy będą musiały wprowadzić, wywrze dodatkową presję na zespoły zarządzające i będzie wymagać od firm poszukiwania przewagi, gdziekolwiek ją znajdą. Dzięki tej powszechnej adopcji i wyścigowi o korzyści z aplikacji i funkcji opartych na AI, możliwości kariery w AI będą tylko rosły w nadchodzących latach - osoby, które potrafią stosować AI do rozwiązywania trudnych problemów, będą bardzo poszukiwane.
Mity na temat AI
Istnieje wiele powszechnych mitów na temat AI, które należy rozwiać, aby mieć pewność, że masz solidne podstawy zrozumienia AI i nie stać się częścią machiny marketingowej, która nabierała rozpędu w ciągu ostatnich kilku lat. Łatwo wpaść w pułapkę, uwierzyć w hałas i przyjąć dystopijną perspektywę tego, jak AI może się rozwijać w nadchodzących latach. Niektórzy obawiają się, że AI celowo lub błędnie zniszczy ludzkość, aby usunąć nas jako główne źródło zniszczenia na planecie Ziemia. Inni wydają się myśleć, że możemy stać się niewolnikami władców AI, wraz ze wzrostem liczby maszyn stających się bardziej inteligentnymi, silniejszymi i sprawniejszymi (z perspektywy Darwina). Albo możemy stać się tak ważni dla AI, jak mrówki są dla nas, postrzegani nie tylko jako zwierzęta domowe, ale po prostu jako irytacja, która współistnieje, ale tak naprawdę nie jest potrzebna. Mam bardziej pozytywną (nawet utopijną) perspektywę tego, jak AI będzie się rozwijać i nas wspierać. W końcu AI to tylko kolejne narzędzie technologiczne, które budujemy, aby nam pomóc, a w najgorszym przypadku możemy je po prostu wyłączyć lub uruchomić w symulacji. Nie widzę scenariusza, w którym usunęlibyśmy człowieka z pętli i całkowicie zautomatyzowali wszystko do tego stopnia, że narazilibyśmy własne istnienie - to po prostu by się nie wydarzyło. Istnieje kilka powodów, dla których mity i nieporozumienia utrzymują się, jeśli chodzi o temat sztucznej inteligencji. Oto kilka kluczowych uzasadnień:
1 Przedstawienia Hollywood: Filmy i kultura popularna często przedstawiają AI w przesadny i fantastyczny sposób, co prowadzi do błędnych przekonań. Filmy takie jak Terminator i Matrix przedstawiają AI jako superinteligentne, złowrogie byty, co jest dalekie od obecnego stanu lub przewidywalnej przyszłości technologii AI.
2 Brak zrozumienia: AI to złożona dziedzina obejmująca różne poddziedziny, takie jak uczenie maszynowe, sieci neuronowe i przetwarzanie języka naturalnego. Wiele osób nie ma wiedzy technicznej, aby w pełni zrozumieć te koncepcje, co prowadzi do uproszczonych i niedokładnych przekonań.
3 Medialny szum: Media często sensacyjnie przedstawiają przełomy i badania nad AI, prezentując je jako bardziej zaawansowane i zdolne niż są w rzeczywistości. Tworzy to nierealistyczne oczekiwania i podsyca mity na temat obecnych możliwości AI.
4 Antropomorfizm: Ludzie mają tendencję do antropomorfizacji AI, przypisując maszynom cechy i intencje podobne do ludzkich. Może to prowadzić do błędnych przekonań, że AI posiada świadomość, emocje lub złośliwe intencje.
5 Strach przed nieznanym: Strach i niepewność co do przyszłości AI mogą prowadzić do mitów i błędnych przekonań. Ludzie mogą przeceniać ryzyko i możliwości AI ze względu na nieznaną naturę jej rozwoju.
6 Marketingowy szum: Firmy i organizacje często używają AI jako słowa kluczy do promowania swoich produktów i usług, czasami naciągając definicję AI. Może to powodować zamieszanie co do tego, czym AI jest naprawdę i co może zrobić.
7 Obawy etyczne: Dyskusje na temat etyki AI, stronniczości i potencjalnej utraty pracy mogą wzmacniać obawy i błędne przekonania dotyczące AI. Chociaż są to uzasadnione obawy, mogą być one doprowadzone do skrajności, które nie odzwierciedlają niuansów technologii AI.
8 Szybkie postępy: AI to szybko rozwijająca się dziedzina, a to, co było prawdą kilka lat temu, może już nie być dokładne. Ta dynamiczna natura AI może prowadzić do przestarzałych przekonań i zawyżonych oczekiwań co do przyszłych postępów.
9 Brak przejrzystości: Niektóre systemy AI działają jak "czarne skrzynki", co oznacza, że ich procesy decyzyjne nie są łatwe do wyjaśnienia. jego brak przejrzystości może przyczyniać się do mitów i podejrzeń dotyczących wewnętrznego działania AI.
Podsumowując, mity dotyczące AI utrzymują się z powodu kombinacji czynników, napędzanych głównie przez przedstawienia w kulturze popularnej, sensację medialną i brak zrozumienia technicznego. Przyjrzyjmy się niektórym z najbardziej rozpowszechnionych mitów dotyczących AI. Poniżej przedstawiamy niektóre z najpopularniejszych lub najpowszechniej promowanych mitów dotyczących AI i staramy się przedstawić inną opinię, aby obalić argument.
Mit 1: AI to tylko chwilowa moda, która wkrótce przeminie
Jednym z najczęstszych błędnych przekonań na temat AI jest to, że to tylko chwilowa moda. Jednak nic nie może być dalsze od prawdy. Rzeczywistość jest taka, że AI istnieje od dziesięcioleci, ale dopiero niedawno zaczęła wchodzić do głównego nurtu świadomości, głównie dzięki postępowi w mocy obliczeniowej i pojemności pamięci masowej, w połączeniu z użytecznością najnowszych modeli (w tym LLM), które mogą zapewnić wiele różnych przypadków użycia. Obecnie firmy każdej wielkości zaczynają dostrzegać potencjał AI i zaczynają inwestować w tę transformacyjną technologię. W rzeczywistości, według niedawnego raportu International Data Corporation (IDC), światowe wydatki na systemy skoncentrowane na AI przekroczą 300 miliardów dolarów do 2026 roku.1 Trudno przewidzieć, jak AI zaniknie, ponieważ korzyści, które zapewnia, są tak dalekosiężne i wpływowe, że po wdrożeniu mało prawdopodobne jest, aby firmy zdecydowały się na wyłączenie. Jednak widzieliśmy już wcześniej, jak entuzjazm dla AI słabł, wraz z tym, co nazywa się zimą AI.2 Dzieje się tak, gdy główne oczekiwania wobec AI są znacznie większe niż to, co jest technicznie możliwe w danym momencie, inwestorzy i firmy są rozczarowani, a w krótkim okresie cała uwaga skupia się na czymś innym. Jednak historia pokazała nam, że z czasem, wraz z kolejną innowacją o charakterze zmiany, taką jak nowy algorytm uczenia się lub podejście, świat wraca do AI jako najbardziej interesującej i zaawansowanej technologii, która ma nas przybliżyć do osiągnięcia celu, jakim jest sztuczna inteligencja ogólna lub superinteligencja.
Mit 2: Tylko duże firmy mogą sobie pozwolić na AI
Innym powszechnym błędnym przekonaniem na temat AI jest to, że jest ona dostępna tylko dla dużych firm z dużymi kieszeniami. Jednak to po prostu nieprawda. Dzięki usługom opartym na chmurze, takim jak Amazon Web Services (AWS) i Google Cloud Platform (GCP), nawet małe firmy mogą teraz korzystać z AI bez nadwyrężania budżetu. Na przykład AWS oferuje szeroki zakres usług do tworzenia i wdrażania aplikacji AI, w tym wstępnie wyszkolone modele, które można wykorzystać do zadań takich jak rozpoznawanie obrazów i klasyfikacja tekstu. GCP oferuje również kilka gotowych do użycia modeli uczenia maszynowego, które można wdrożyć za pomocą kilku kliknięć. Inne platformy w chmurze również zapewniają szeroki zakres możliwości AI, w tym Microsoft Azure (który zintegrował teraz możliwości z OpenAI), IBM Cloud, Oracle Cloud i Alibaba. Z pewnością duże organizacje miały fundusze i budżety na inwestowanie w innowacje AI w ciągu ostatnich pięciu lat, aby zbadać, w jaki sposób technologia ta może mieć zastosowanie w ich operacjach biznesowych, a w wielu przypadkach przyjąć wczesne wdrożenia w celu zapewnienia wydajności produktywności, takie jak chatboty dla klientów. Jednak obecnie coraz więcej małych i średnich przedsiębiorstw, dysponujących ograniczonymi budżetami i zasobami, bada również, w jaki sposób sztuczna inteligencja może pomóc w usprawnieniu działalności i produktywności. Wyzwaniem dla tych przedsiębiorstw jest to, że podczas gdy wdrażanie stosunkowo łatwych przypadków użycia można przeprowadzić bez dużych inwestycji, w przypadku niektórych trudniejszych problemów prawdopodobnie konieczne będzie niestandardowe rozwiązanie, którego dostarczenie będzie wymagało pewnego poziomu inwestycji. Tylko poprzez zrozumienie tego i ustalenie priorytetów przypadków użycia sztucznej inteligencji, tak aby tylko te, które mogą zwrócić się z inwestycji i dostarczyć rozwiązanie konkretnego problemu biznesowego, każdy program sztucznej inteligencji będzie postrzegany jako udany. Kluczem dla mniejszych przedsiębiorstw z ograniczonymi zasobami jest selektywność i skupienie się na rozwiązywaniu rzeczywistych problemów.
Mit 3: Maszyny wkrótce zastąpią ludzi w miejscu pracy
Mit ten prawdopodobnie wywodzi się z hollywoodzkich filmów, takich jak Terminator i Matrix, które przedstawiają dystopijną przyszłość, w której maszyny przejęły władzę nad światem, a ludzie są niczym więcej niż niewolnikami (lub czymś gorszym). Ze wszystkich wymienionych przez nas mitów ten jest najbardziej kontrowersyjny i w pewnym sensie najbliższy realizacji. W rzeczywistości jednak nie ma potrzeby martwić się o zbliżający się bunt robotów. Maszyny nie zastąpią wszystkich ludzi w miejscu pracy w najbliższym czasie - i nie są do tego zaprojektowane. Zamiast tego maszyny będą uzupełniać ludzkich pracowników, podejmując się powtarzalnych i niebezpiecznych zadań, aby ludzie mogli skupić się na bardziej kreatywnej pracy. Będziemy obserwować ciągłe procesy z udziałem człowieka w pętli, w których sztuczna inteligencja będzie wspomagać nasze ludzkie podejmowanie decyzji, analizując ogromne ilości danych, które trudno nam zrozumieć. Dla większości nasze prace ulegną zmianie, ulepszeniu, a automatyzacja i możliwości sztucznej inteligencji będą wspierać nasze codzienne zadania. Jednak będą pewne prace i role, które bardzo szybko będzie można w pełni zautomatyzować za pomocą technologii. Podobnie jak każda przełomowa technologia, środowisko pracy ulegnie zmianie i wszyscy będziemy musieli się dostosować. Niektóre role znikną, inne zostaną utworzone, a większość zostanie rozszerzona o technologię. Wyzwaniem dla niektórych jest to, jak trudno jest szybko przekwalifikować się i znaleźć nową rolę, która odpowiada Twoim umiejętnościom i doświadczeniu. W zależności od tempa zmian stanie się to poważnym problemem dla krajów, a rządy będą musiały współpracować z przedsiębiorstwami i branżami, aby znaleźć odpowiednie rozwiązania w celu ochrony i wsparcia pracowników, którzy zostaną przemieszczeni. Czym ta rewolucja przemysłowa różni się od poprzednich, jest to, że AI dotyczy każdej branży i każdej roli, więc potencjalne zakłócenia są znaczące, jeśli nie są odpowiednio zarządzane, kontrolowane i ograniczone. To, w jaki sposób rządy i organy regulacyjne będą nadzorować i kierować tą zmianą, będzie decydujące dla tego, jak dobrze wszyscy będziemy w stanie dostosować się do świata z inteligentną technologią u naszego boku.
Mit 4: AI jest zbyt trudne do wdrożenia
Choć może się wydawać, że rozpoczęcie i wdrożenie pierwszego zastosowania AI w Twojej firmie jest zbyt trudne, istnieje ogromna ilość informacji i wsparcia, które pozwolą Ci na pomyślne pierwsze wdrożenie. Jednym ze sposobów na zwiększenie szans na sukces jest wybranie przypadku użycia, który jest wewnętrzny dla firmy (ograniczając ekspozycję na Twoich klientów) i jest mniej złożony w porównaniu z innymi potencjalnymi kandydatami na przypadki użycia. Obecnie dostępnych jest tak wiele narzędzi i aplikacji, że rozpoczęcie korzystania z AI jest łatwiejsze niż kiedykolwiek, co pozwala firmom każdej wielkości eksperymentować z wykorzystaniem AI w wielu różnych obszarach. Z pewnością rozpoczęcie od czegoś prostego i nauka poprzez działanie to kluczowe podejście, które pozwoli ludziom w organizacji uczyć się stopniowo i odkrywać różne sposoby, w jakie AI może dodawać wartości do firmy. Skalowanie AI w całej organizacji może być trudniejsze i pojawią się pewne przeszkody i wyzwania, które trzeba będzie pokonać. Istnieje wiele sposobów na zwiększenie szans na sukces we wdrażaniu AI, od zrozumienia wizji i misji AI dla przyszłego sukcesu Twojej firmy, po kierowanie podejściem do wdrażania od pierwszych innowacyjnych dowodów koncepcji do skalowanego wdrożenia AI w całej firmie. Dostępnych jest również wiele źródeł informacji, które mogą wspierać proces zrozumienia możliwości AI i sposobu prawidłowego wdrażania. Innym kluczem do sukcesu jest zdefiniowanie strategii AI Twojej firmy, ponieważ pomoże Ci to określić, co jest potrzebne do położenia fundamentów pod wdrożenie AI na dużą skalę. Istnieją wyzwania związane z wdrażaniem AI; niektóre z nich wynikają z braku standaryzacji zarówno technologii, jak i procesu. Istnieją jednak doradcy i doświadczeni naukowcy danych, którzy mogą pomóc Tobie i Twojej firmie zdefiniować najlepsze praktyki, aby zapewnić pomyślne wdrożenia.
Mit 5: AI nigdy nie będzie w stanie odtworzyć ludzkiego poziomu inteligencji
Niektórzy praktycy branżowi uważają, że prawdziwych zaawansowanych możliwości inteligencji po prostu nie da się odtworzyć przy użyciu technologii opartych na krzemie. Nie ma dowodów, które potwierdzałyby lub zaprzeczały tej tezie. Z pewnością na tym etapie nie ma niczego konkretnego, co czyniłoby to rzeczywistym problemem. Mamy jednak o wiele więcej do zbadania i wiele konkretnych inteligentnych zdolności do zbudowania, więc tylko czas pokaże. Osobiście uważam, że nie ma niczego w biologicznych umysłach, czego nie można by funkcjonalnie zduplikować za pomocą innych technologii. AI jest przedmiotem interdyscyplinarnym i prawdopodobnie będzie wymagać wkładu z wielu obszarów, aby zbliżyć nas do ludzkiego poziomu inteligencji. Będzie również wymagać szerokiego zakresu metodologii i technik, aby dostarczyć coś zbliżonego do wysoce złożonych zdolności, które widzimy w ludzkiej inteligencji. Wielu uważa, że dzięki ostatnim postępom w generatywnej AI jesteśmy znacznie bliżej sztucznej inteligencji ogólnej; jednak opinie ekspertów na temat tego, kiedy AGI zostanie osiągnięte, są ogromnie podzielone - od 10 do 1000 lat. Jasne jest, że branża AI chce pracować nad osiągnięciem tego celu i osiągnąć go, ponieważ stworzy on znaczną przewagę konkurencyjną dla osoby lub firmy, która jako pierwsza dostarczy system obsługujący AGI. Branża koncentruje się obecnie na uczeniu maszynowym, ale będzie musiała przyjąć szerszą perspektywę na wszystkie podstawowe zdolności inteligencji, jeśli ma odtworzyć ludzki poziom inteligencji.
Mit 6: Musisz być technologiem, aby pracować w dziedzinie AI
v
Chociaż umiejętności techniczne są cenne i niezbędne do pełnienia niektórych ról w rozwoju AI, dziedzina AI jest zróżnicowana i oferuje możliwości dla osób o szerokim zakresie wykształcenia i doświadczenia. W istocie dziedzina AI jest interdyscyplinarna i wita osoby o zróżnicowanych umiejętnościach i doświadczeniu. Chociaż wiedza techniczna może być korzystna w niektórych rolach, rośnie zapotrzebowanie na profesjonalistów, którzy mogą wnieść wkład w AI z nietechnicznych punktów widzenia, czy to w etykę, strategię, komunikację czy inne obszary. Tak więc niekoniecznie musisz być technologiem, aby mieć znaczącą i wpływową karierę w AI. Niektóre z potencjalnych obszarów i ról, które nie wymagają szczegółowej wiedzy technicznej ani doświadczenia, obejmują:
1 Etyka i polityka AI: W miarę jak technologie AI stają się coraz bardziej powszechne, rośnie zapotrzebowanie na ekspertów w zakresie etyki i polityki AI. Profesjonaliści w tej dziedzinie pracują nad etycznymi, prawnymi i społecznymi implikacjami AI, zapewniając, że systemy AI są rozwijane i wykorzystywane w sposób odpowiedzialny.
2 Strategia i zarządzanie AI: Firmy i organizacje potrzebują osób, które potrafią formułować strategie AI, podejmować świadome decyzje dotyczące wdrażania AI i zarządzać projektami AI. Wiedza biznesowa i myślenie strategiczne są niezwykle cenne w tych rolach.
3 Badania i analiza AI: AI generuje ogromne ilości danych, a analitycy i badacze są potrzebni, aby interpretować te dane, wyciągać wnioski i informować o podejmowaniu decyzji. W tym obszarze niezbędne są silne umiejętności analityczne.
4 Doświadczenie użytkownika (UX) i projektowanie: Projektanci i eksperci UX odgrywają kluczową rolę w tworzeniu przyjaznych dla użytkownika interfejsów i aplikacji AI. Zapewniają, że technologie AI są dostępne i intuicyjne dla użytkowników.
5 Edukacja i szkolenia AI: Edukatorzy i trenerzy są potrzebni, aby nauczać koncepcji AI szerokiego grona odbiorców, od studentów po profesjonalistów. Opracowywanie materiałów edukacyjnych i kursów na temat AI może być cennym wkładem.
6 Dziennikarstwo i komunikacja AI: Dziennikarze i komunikatorzy, którzy potrafią wyjaśnić rozwój AI, przełomy i ich wpływ społeczny ogółowi społeczeństwa, pomagają zasypać przepaść między technologami a szerszą społecznością.
7 Sprzedaż i marketing AI: Firmy sprzedające produkty i usługi AI potrzebują profesjonalistów ds. sprzedaży i marketingu, którzy potrafią przekazywać wartość rozwiązań AI potencjalnym klientom.
8 Zarządzanie projektami AI: Zarządzanie projektami AI obejmuje koordynację różnych aspektów, od rozwoju technicznego po współpracę zespołową. Umiejętności zarządzania projektami są kluczowe dla zapewnienia pomyślnej realizacji projektów AI.
9 Prawo dotyczące AI i własność intelektualna: Prawnicy specjalizujący się w prawie dotyczącym AI mogą pomóc w poruszaniu się po zawiłościach prawnych związanych z AI, w tym kwestiach własności intelektualnej, prywatności i odpowiedzialności. Mit 7: Tworzenie AI stanie się w pełni zautomatyzowane Sama AI jest wykorzystywana do automatyzacji różnych zadań i procesów.
Mit 7: Tworzenie AI stanie się w pełni zautomatyzowane
Sama AI jest wykorzystywana do automatyzacji różnych zadań i procesów, ale proces tworzenia i rozwijania systemów AI jest daleki od pełnej automatyzacji. Podczas gdy AI może automatyzować wiele zadań i zwiększać wydajność, proces budowania systemów AI pozostaje wspólnym wysiłkiem, który opiera się na ludzkiej wiedzy specjalistycznej, kreatywności i nadzorze na różnych etapach. Rozwój AI nie jest w pełni zautomatyzowany i jest mało prawdopodobne, aby stał się taki w przewidywalnej przyszłości, ponieważ wiąże się ze złożonym podejmowaniem decyzji, wiedzą specyficzną dla danej dziedziny i rozważaniami etycznymi, które wymagają zaangażowania człowieka. Oto dlaczego:
1 Złożoność rozwoju AI: Tworzenie systemów AI to złożony, multidyscyplinarny proces, który obejmuje różne etapy, w tym formułowanie problemu, zbieranie i wstępne przetwarzanie danych, wybór i szkolenie algorytmów, ocenę modelu i wdrożenie. Każdy z tych etapów wymaga ludzkiej wiedzy specjalistycznej i osądu.
2 Zrozumienie problemu: Systemy AI są projektowane w celu rozwiązywania określonych problemów lub wykonywania zadań. Zdefiniowanie problemu, zrozumienie niuansów i ustalenie celów często wymaga ludzkiej wiedzy specjalistycznej. System AI nie może automatycznie rozróżnić celów bez jasnego ludzkiego przewodnictwa.
3 Jakość danych i wstępne przetwarzanie: Modele AI w dużym stopniu opierają się na danych, a zapewnienie jakości, trafności i uczciwości danych używanych do szkolenia jest kluczowym krokiem. Wstępne przetwarzanie, czyszczenie i etykietowanie danych często wymaga interwencji człowieka w celu obsługi niejednoznacznych lub złożonych danych.
4 Wybór i dostrajanie algorytmu: Wybór odpowiednich algorytmów i modeli do danego zadania jest kluczową decyzją w rozwoju AI. Wymaga to ludzkiej wiedzy fachowej, aby ocenić przydatność różnych technik i dostroić je w celu uzyskania optymalnej wydajności.
5 Interpretowalność modelu i względy etyczne: Zrozumienie, w jaki sposób modele AI podejmują decyzje i zapewnienie, że są etycznie zaprojektowane, to ważne kwestie. Nadzór ludzki jest wymagany do interpretowania wyników modelu, identyfikowania uprzedzeń i podejmowania etycznych decyzji dotyczących zachowania modelu.
6 Ciągły monitoring i konserwacja: Systemy AI wymagają ciągłego monitorowania i konserwacji, aby dostosować się do zmieniających się warunków i zapewnić, że działają zgodnie z przeznaczeniem. Wiąże się to z nadzorem człowieka w celu wykrywania problemów, aktualizowania modeli i wprowadzania niezbędnych ulepszeń.
7 Kreatywność i innowacja: Wiele przełomów w badaniach nad AI jest wynikiem kreatywnego myślenia i innowacji. Badacze i inżynierowie nieustannie przesuwają granice możliwości sztucznej inteligencji, wymyślając nowe algorytmy i podejścia.
8 Wymagania regulacyjne i zgodności: Zgodność z ramami prawnymi i regulacyjnymi, takimi jak przepisy o ochronie danych i standardy branżowe, często wymaga ludzkiej wiedzy fachowej, aby poruszać się po złożonych wymaganiach i zapewnić zgodność systemów sztucznej inteligencji.
9 Interakcja i doświadczenie użytkownika: Projektowanie przyjaznych dla użytkownika interfejsów dla aplikacji sztucznej inteligencji oraz uwzględnianie potrzeb i opinii użytkowników wymaga zorientowanych na człowieka zasad projektowania, których nie można w pełni zautomatyzować.
10 Zrozumienie kontekstowe: Systemy sztucznej inteligencji nie mają głębokiego zrozumienia kontekstu i zdrowego rozsądku, które posiadają ludzie. Ludzki osąd jest kluczowy dla interpretowania i działania na podstawie informacji generowanych przez sztuczną inteligencję
Mit 8: AI jest nieomylna i zawsze ma rację
Systemy AI, podobnie jak każda technologia, nie są nieomylne i mogą popełniać błędy lub dostarczać niepoprawnych wyników z kilku powodów. Ważne jest, aby pamiętać, że AI jest narzędziem stworzonym przez ludzi, a jego wydajność zależy od jakości danych, projektu modelu i wiedzy programistów. Chociaż AI może być w wielu przypadkach niesamowicie wydajna i dokładna, nie jest gwarancją doskonałości, a jej ograniczenia i potencjał błędów należy wziąć pod uwagę podczas korzystania z systemów AI. Nadzór ludzki i myślenie krytyczne pozostają niezbędne podczas podejmowania decyzji w oparciu o spostrzeżenia generowane przez AI. Niektóre z problemów powodujących podatność AI na błędy obejmują:
1 Błąd danych: systemy AI uczą się na podstawie danych historycznych, a jeśli dane szkoleniowe są stronnicze lub niekompletne, AI może utrwalać te błędy. Może to skutkować niesprawiedliwymi lub stronniczymi decyzjami, szczególnie w takich zastosowaniach jak zatrudnianie, udzielanie pożyczek lub wymiar sprawiedliwości w sprawach karnych.
2 Niewystarczające dane szkoleniowe: Jeśli zbiór danych szkoleniowych nie jest reprezentatywny lub brakuje mu różnorodności, modele AI mogą nie uogólniać się dobrze na nowe lub nieznane sytuacje. Mogą działać słabo w przypadku danych różniących się od danych szkoleniowych.
3 Ograniczenia modelu: Modele AI mają ograniczenia wynikające z ich architektury i algorytmów, których używają. Mogą nie być dobrze przystosowane do niektórych zadań lub mogą mieć problemy ze złożonym rozumowaniem i zrozumieniem kontekstu.
4 Zakłócone dane: Zakłócenia lub błędy w danych mogą negatywnie wpłynąć na wydajność AI. Nawet niewielkie ilości nieprawidłowych danych mogą prowadzić do niedokładnych wyników. 5 Zmieniające się środowiska: Modele AI są trenowane na danych historycznych i mogą nie dostosowywać się dobrze do szybko zmieniających się środowisk lub nieprzewidzianych zdarzeń. Brakuje im zdolności uczenia się w czasie rzeczywistym.
6 Ataki adwersarskie: Systemy AI mogą być podatne na ataki specjalnie zaprojektowane w celu wykorzystania ich słabości. Na przykład dodanie niezauważalnego szumu do obrazu może oszukać systemy rozpoznawania obrazu.
7 Niepewność: Modele AI często podają wyniki pewności lub prawdopodobieństwa wraz ze swoimi przewidywaniami. Wysoka niepewność może wskazywać, że model nie jest pewien konkretnej prognozy i nie zawsze może być ona prawidłowa.
8 Dylematy etyczne i moralne: AI może podejmować decyzje w oparciu o dane i algorytmy, ale nie może wydawać osądów etycznych ani moralnych. Decyzje podejmowane przez systemy AI mogą nie być zgodne z ludzkimi wartościami i etyką.
9 Błędy techniczne: Jak każde oprogramowanie, systemy AI mogą mieć błędy techniczne lub problemy, które wpływają na ich wydajność i niezawodność.
10 Nadzór ludzki: W wielu zastosowaniach AI nadzór ludzki jest niezbędny do walidacji wyników generowanych przez AI i korygowania błędów. Poleganie wyłącznie na AI bez przeglądu przez człowieka może prowadzić do nieprawidłowych wyników.
Inne mity
Istnieje wiele innych mitów związanych ze sztuczną inteligencją, a nowe pojawiają się cały czas w miarę rozwoju dziedziny nauki i dostarczanych możliwości:
1 Umiejętności ludzkie są nieistotne: przekonanie, że tylko umiejętności techniczne mają znaczenie podczas pracy z sztuczną inteligencją, zaniedbując znaczenie umiejętności ludzkich, takich jak kreatywność, empatia i myślenie krytyczne.
2 Sztuczna inteligencja rozwiązuje wszystkie problemy biznesowe: idea, że sztuczna inteligencja jest rozwiązaniem uniwersalnym, które może sprostać każdemu wyzwaniu biznesowemu, bez uwzględnienia potrzeby starannego ujęcia problemu i rozwiązań specyficznych dla kontekstu.
3 Innowacje napędzane sztuczną inteligencją: mit, że sztuczna inteligencja może sama napędzać innowację, bez potrzeby ludzkiej idei, kreatywności i strategicznego myślenia.
4 Trwała implementacja sztucznej inteligencji: błędne przekonanie, że systemy sztucznej inteligencji można wdrożyć raz i nie wymagają one dalszych dostosowań ani konserwacji, ignorując potrzebę ciągłego monitorowania i adaptacji. Jest to kluczowy element systemów sztucznej inteligencji i uczenia maszynowego w tej chwili i jest potrzebny, ponieważ podstawowe dane zmieniają się w czasie. Mity o przyszłej sztucznej inteligencji
Przyjrzymy się przyszłej perspektywie sztucznej inteligencji w kolejnej sekcji, ale poruszymy kwestię, w jaki sposób różne perspektywy mogą przyczyniać się do mitów i nieporozumień na temat sztucznej inteligencji. W komentarzach dotyczących technologii można przyjąć perspektywę utopijną lub dystopijną, postrzegając równowagę w użyteczności jako siłę dobra lub zła. Istnieją poważne obawy dotyczące etyki, zarządzania i kontroli zaawansowanej sztucznej inteligencji, co prowadzi do sztucznej inteligencji ogólnej i superinteligencji. To, w jaki sposób unikniemy wymknięcia się technologii spod kontroli lub potencjalnego stworzenia wydarzenia wyginięcia, które zniszczy całą ludzkość, jest poważnym problemem, ponieważ możemy nie mieć drugiej szansy, aby to naprawić. Faktem jest, że tworzymy sztuczną inteligencję, która pewnego dnia może rywalizować, a nawet przewyższyć naszą własną zbiorową inteligencję ludzką, zastępując nas jako dominujący gatunek na planecie Ziemia. Ten szybko zmieniający się postęp technologiczny jest taki, że naturalnie tworzy środowisko dla mitów i nieporozumień, w niektórych przypadkach wzmacnianych przez tych, którzy mogą czerpać korzyści finansowe i komercyjne z tego szumu i sensacyjnych nagłówków.
Dystopia
Niektórzy obawiają się, że AI ostatecznie stanie się tak inteligentna, że znajdzie sposób na kontrolowanie świata. Choć jest to świetny materiał na hollywoodzkie filmy, jest mało prawdopodobne, aby tak się stało. AI, podobnie jak każda technologia, jest narzędziem, narzędziem, które kontrolujemy i możemy wyłączyć w razie potrzeby. Jednak niezależnie od tego, jak mało prawdopodobne to może być, jest to możliwe. Ale wbudowujemy zabezpieczenia i bramki w programowanie, aby zapobiec samej możliwości w pełni zautomatyzowanego przejęcia przez agentów AI.
Utopia
Chociaż ma to również zadatki na hollywoodzki hit, ma bardziej pożądany wynik dla ludzi: życie w krainie bez cierpienia, ubóstwa, chorób i przestępczości. Utopijny pogląd to taki, w którym AI pomaga nam rozwiązywać wszystkie najtrudniejsze problemy, z którymi obecnie się borykamy, w tym zmiany klimatyczne i kryzys energetyczny. Wydaje się to osiągalne, ale czasami zbyt piękne, aby było prawdziwe. Musi być jakiś haczyk, wada, kompromis, który będziemy musieli ponieść, aby uzyskać wszystkie te korzyści. Być może to stopniowe oddalanie się od technologii, którą stworzyliśmy, aby rozwiązać te problemy, dystansowanie się w czasie, sprawi, że ostatecznie zapomnimy, jak budować i utrzymywać takie systemy.
Neutropia
Przy dwóch skrajnościach, dystopijnej i utopijnej perspektywie, pogląd neutropijny podąża ścieżką pomiędzy nimi, biorąc elementy obu i dążąc do rozwoju w sferze rzeczywistości. Powinniśmy zdać sobie sprawę, że prawdopodobnie znajdziemy się w świecie z połączeniem technologii AI i ludzkości, z pozytywnymi i negatywnymi stronami. Z taką perspektywą podchodzimy do AI z najbardziej racjonalną i zrównoważoną perspektywą.
Obalanie mitów
Dziedzina AI jest wysoce wyspecjalizowana, a większość populacji ma tylko częściowe zrozumienie, jak działa ta technologia. Ponadto dziedzina ta rozwija się w tak ogromnym tempie, że większości ludzi trudno jest odróżnić, co jest science fiction, a co faktem naukowym. Trzecie prawo sir Arthura C. Clarke′a głosi, że "Każda wystarczająco zaawansowana technologia jest nieodróżnialna od magii". To właśnie zaczynamy dostrzegać wraz z postępem AI. Oczywiście, biorąc pod uwagę tak wpływową i ważną technologię, rozsądne jest ostrożne podejście, podkreślenie pełnego zakresu rozważań, podniesienie świadomości i zapewnienie, że wywieramy odpowiedni poziom presji na tych, którzy kształtują przyszłość za pomocą AI, aby upewnić się, że robią to w sposób odpowiedzialny i godny zaufania. Ale również ci, którzy pracują w branży, mają obowiązek rozwiać te mity i pomóc ludziom naprawdę zrozumieć piękno i wyzwania technologii opartej na AI. Mity dotyczące AI często rodzą się bardziej z niezrozumienia technologii niż z głęboko zakorzenionego strachu. Nadal będziemy zaskakiwani możliwościami i tym, co jest możliwe dzięki AI, ale oznacza to, że musimy po prostu zainwestować w zrozumienie, które pomoże nam złagodzić nasze zmartwienia i obawy. Jednak w przypadku każdej przełomowej nowej technologii zobaczymy problemy, awarie i pewne niezamierzone konsekwencje, którymi trzeba będzie zarządzać i kontrolować, aby ograniczyć wpływ i uniknąć opiekuńczości i strachu, które mogą opóźnić innowację AI o dziesięciolecia
Dlaczego warto pracować w AI?
Przyszłość pracy jest już z nami. Pandemia Covid-19 dramatycznie pomogła przyspieszyć transformację cyfrową, a handel detaliczny online i praca zdalna stały się ważne dla przetrwania wielu firm, a nawet przyspieszenie chatbotów opartych na AI do obsługi klienta, ponieważ pracownicy obsługi klienta musieli pracować z domu, a w niektórych przypadkach mieli problemy ze zdalnym dostępem. Microsoft opisuje to jako 2 lata transformacji cyfrowej w 2 miesiące, a przyspieszenie transformacji cyfrowej otworzyło również drzwi do zwiększonej adopcji technologii AI. Wszyscy musimy dostosować się do środowiska, w którym na pierwszym miejscu jest technologia, stając się cyfrowymi tubylcami. Oczywiście będą pewne branże i role, które nie będą miały żadnego zastosowania dla AI, ale ponieważ świat nadal będzie polegał bardziej na handlu opartym na technologii, zobaczymy potrzebę zwiększenia edukacji, umiejętności i szkoleń, aby wspierać zmieniający się krajobraz miejsca pracy. Technologia jest czynnikiem umożliwiającym, pomagającym firmom osiągać cele wydajniej i dokładniej. Od czasu pierwszych programów maszynowych i komputerów mainframe możliwości technologii wzrosły w szybkim tempie na przestrzeni dziesięcioleci. Chociaż dziedzina sztucznej inteligencji narodziła się w latach 50. XX wieku, to dopiero w ciągu ostatnich 20 lat zaobserwowaliśmy powszechną adopcję i akceptację aplikacji i systemów opartych na AI. Pomimo tej 70-letniej tradycji, branża AI jest wciąż stosunkowo nowa, częściowo dlatego, że to, czym jest AI, ciągle się zmienia, a badania i rozwój odbywają się obecnie w zawrotnym tempie, niektórzy mogliby powiedzieć wykładniczym. Doskonałym przykładem tej szybkiej zmiany jest termin i rola naukowca zajmującego się danymi. Termin ten jest stosunkowo nowy w powszechnym użyciu; chociaż został po raz pierwszy użyty w latach 60. i 70. XX wieku, po raz pierwszy wspomniano o nim na konferencjach dopiero pod koniec lat 90. Porozmawiamy więcej o roli naukowca zajmującego się danymi w dalszej części , ale na razie wystarczy zademonstrować stale zmieniające się oblicze AI, z nowymi algorytmami, sprzętem, modelami szkoleniowymi i rolami zawodowymi. Widzimy również, jak zawód AI staje się coraz bardziej dojrzały, kładąc większy nacisk na przyjmowanie dokładnego i solidnego podejścia. Narzędzia, ramy i platformy również dojrzały w ostatnich latach, aby zapewnić infrastrukturę pomocniczą ułatwiającą bardziej profesjonalne rezultaty. Jest to spotęgowane przez wymagania organów regulacyjnych i wewnętrznych procesów zarządzania firm, aby zapewnić etyczne i wiarygodne wdrożenia aplikacji i systemów AI. Ten nowy poziom profesjonalizmu pomoże kontrolować pęd do innowacji i przewagi konkurencyjnej, co nieuchronnie spowoduje pewne niedociągnięcia i niepowodzenia. Z pewnością świat AI jest teraz głównym nurtem. Uniwersalne zastosowanie generatywnej AI obudziło świat biznesu do jej różnych możliwości i korzyści w całym łańcuchu wartości biznesowej, od sprzedaży i marketingu i obsługi klienta po operacje zaplecza i przetwarzanie transakcji. Tak więc, aby zadać pytanie, dlaczego jakakolwiek młoda osoba nowa w miejscu pracy lub profesjonaliści szukający zmiany kariery chcieliby pracować w dziedzinie AI? Możemy argumentować, że dziedzina ta jest zbyt złożona i dynamiczna, a zatem zbyt ryzykowne jest zaangażowanie się w karierę w AI. Kontrargumentem jest to, że dziedzina AI jest ostatecznym postępem technologii, a fakt, że jest to obecnie tak złożone i dynamiczne środowisko, oznacza, że istnieje wiele możliwości rozwoju błyskotliwej kariery - wiele miejsca w dziedzinie AI, aby stać się liderem i ekspertem, a także wiele innowacji, które dopiero mają się wydarzyć, z dużym polem do rozwoju kariery i komercyjnego wykorzystania. To ogromny krajobraz możliwości. Istnieje również naturalna tendencja do zakładania, że aby pracować w technologii, trzeba być technicznym. Z pewnością tak nie jest. Wiele osób, które znam, a które pracują w technologii, nie studiowało jej w szkole ani na uniwersytecie i przeniosło się do obszaru technologii dopiero po rozpoczęciu pracy. Jednak ci, którzy pracowali w obszarze technologii, byli ciekawi, aby się o niej uczyć i poświęcili czas, aby zdobyć wiedzę. Istnieje wiele różnych ścieżek kariery, z licznymi rolami wymagającymi szeregu umiejętności i predyspozycji - istnieje świat możliwości dla każdego, kto jest zainteresowany pracą w sztucznej inteligencji. Ludzie zmieniają pracę średnio co trzy do pięciu lat i często byłaby to znacząca zmiana kariery. Znam wielu doświadczonych programistów oprogramowania, którzy postanowili przekwalifikować się na naukowców danych. Inni przechodzą z IT do funkcji biznesowych, a niektórzy całkowicie zmieniają branże. Zmiana firmy, zmiana roli, a nawet branży jest możliwa i wiele osób robi to w trakcie swojej kariery. Przy szybkim tempie zmian w technologii i biznesie, niemal niemożliwe jest, aby nie musieć się redefiniować, rozwijać się wraz ze swoją wiedzą i doświadczeniem oraz szukać nowych możliwości tam, gdzie się pojawią. Jednak pomimo tego, że rynek pracy jest stosunkowo płynny, jest to nadal rynek konkurencyjny, więc musisz dać sobie jak największą szansę na zdobycie pracy, której pragniesz. Dotyczy to zarówno nowych absolwentów wchodzących na rynek pracy po raz pierwszy, jak i bardziej doświadczonych profesjonalistów, którzy chcą dokonać zmiany. Przyjrzyjmy się różnym możliwościom kariery dla tych, którzy chcą zbliżyć się do świata AI.
Badacz
Najbardziej naukowo powiązaną karierą byłby badacz AI, pomagający w rozwijaniu podstawowych metodologii, algorytmów i architektur AI i ML. Podczas gdy świat AI rozwija się szybko, w nadchodzących latach nadal potrzeba ogromnej ilości badań i rozwoju. Wielu uważa, że generatywna AI przyspieszyła nasz postęp w kierunku AGI (sztucznej inteligencji ogólnej), ale nadal mamy długą drogę do przebycia i wiele aspektów inteligencji do opanowania. Jedną ze ścieżek są role postdoktoranckie na uniwersytetach; wiele dużych firm technologicznych ma również dedykowane działy badawcze, ale ich cele będą bardziej skoncentrowane na stosowanej AI dla określonych wyników i zastosowań, podczas gdy uniwersytety są bardziej otwarte i mniej ograniczone. Dziedzina AI jest również znaczna, obejmując nie tylko uczenie maszynowe, ale wiele innych ważnych obszarów, w tym rozumienie języka, reprezentację wiedzy, rozumowanie, planowanie, strategię, zdrowy rozsądek i kreatywność, aby wymienić tylko kilka. Istnieje więc szereg obszarów badawczych, w których można osiągnąć postęp i wpływ. Ostatecznie wierzę, że prawdziwie zaawansowana AI będzie połączeniem wielu podejść i metodologii, które połączą się w jedną skonsolidowaną technologię. Podczas gdy ten wybór kariery jest godny podziwu, a zapotrzebowanie na bardziej zdolnych do badań programistów AI będzie nadal rosło, nie jest to dla wszystkich i istnieje wiele innych poziomów naukowców zajmujących się danymi, którzy nadal mogą wnieść duży wkład w dziedzinę AI bez konieczności tworzenia nowych podejść, do których dążą badacze
Naukowiec danych
Stosunkowo nowy termin w świecie AI, ale zasadniczo związany ze stosowaniem technik AI i ML do konkretnych problemów i zestawów danych. Istnieją różne poziomy doświadczenia i wiedzy wymagane od naukowców danych, w zależności od wymagań firmy zatrudniającej. Na przykład, jeśli zadanie wymaga stworzenia nowego rozwiązania, ten typ roli jest zarówno badaczem, jak i programistą AI stosowanej. W przypadku innych, mniej złożonych zadań, znalezienie istniejącego, wstępnie wyszkolonego modelu i dostosowanie go do konkretnego zestawu danych i zadania może być prostą czynnością. Niezależnie od wymaganego poziomu złożoności, rola naukowca danych jest zarówno sztuką, jak i nauką, wymagającą wykorzystania doświadczenia i wiedzy, aby wybrać odpowiedni rodzaj techniki i skonfigurować architekturę i parametry w celu zoptymalizowania wydajności wyjściowej. Aby odnieść sukces jako naukowiec danych, ważne jest posiadanie solidnych podstaw w matematyce, statystyce i informatyce, a także wiedzy i umiejętności specyficznych dla danej dziedziny. Naukowcy danych powinni również mieć silne umiejętności rozwiązywania problemów i komunikacji oraz być w stanie efektywnie pracować w zespole. Podczas gdy umiejętności matematyczne, analityczne i informatyczne są bardzo ważne, umiejętności komunikacyjne są również istotną częścią tej roli. Podczas gdy wizualizacja danych pomaga w tym, podstawowym aspektem roli naukowca danych jest umiejętność tworzenia właściwej narracji z implikacjami biznesowymi tego, co pokazują spostrzeżenia i wyniki modelu. Rola naukowca danych jest naprawdę multidyscyplinarna, wymagająca szerokiego zakresu umiejętności twardych i miękkich, aby dobrze ją wykonywać. Dlatego jestem zwolennikiem tego, aby naukowcy danych mieli szerokie podstawy wiedzy i doświadczenia - sprawia to, że osoby pochodzące z różnych obszarów i mające różne wcześniejsze doświadczenia są silnymi kandydatami, ale nie jest to obowiązkowe. Choć niektórzy naukowcy zajmujący się danymi posiadają pewien poziom formalnego przeszkolenia i wykształcenia, osoby pracujące już w branży technologicznej mają duże szanse na utrzymanie stanowiska i przejście na stanowisko związane z nauką o danych.
Szef nauki o danych
Rozwój kariery jako naukowca danych przebiegałby zgodnie ze standardową ścieżką, stając się starszym, a następnie głównym naukowcem danych w zespole złożonym z innych osób, a następnie szefem nauki o danych w grupie lub dziale. Z czasem może to otworzyć możliwości stania się szefem nauki o danych w całej firmie, a nawet uzyskania tytułu dyrektora ds. sztucznej inteligencji, jeśli firma uznałaby taką rolę za potrzebną na poziomie zarządu. Podobnie jak w przypadku każdej roli polegającej na kierowaniu zespołem ludzi, wymagane umiejętności rozszerzają się na zarządzanie ludźmi tak samo jak wiedzę techniczną. Umiejętności te są często nabywane z czasem wraz ze wzrostem wielkości zespołu i obowiązków. Często określane jako umiejętności miękkie, obejmują również dobre umiejętności komunikacyjne (które będą potrzebne w różnych rolach w nauce o danych), zarządzanie czasem oraz umiejętność ustalania priorytetów, delegowania i poruszania się w strukturze organizacyjnej. Jednak podczas gdy najbardziej pożądane jest, aby szef nauki o danych miał doświadczenie w nauce o danych, możliwe jest, aby inni technologowie, którzy mają dobre połączenie umiejętności technologicznych i zarządzania ludźmi, objęli takie stanowisko (i poznali szczegóły nauki o danych w pracy).
Inne role techniczne
Istnieje wiele innych ról w technologii, które wspierają rozwój i wdrażanie AI, i są to opcje kariery dla tych, którzy chcą się rozwijać w tym obszarze i angażować się w projekty, które budują możliwości AI. Obejmują one:
v
Inżynieria danych: Rola z odpowiedzialnością za zarządzanie i kontrolowanie danych na wybranych platformach. Pomoc w zbieraniu i przetwarzaniu danych w celu ułatwienia zadań szerszego zespołu.
Inżynieria ML: Praca nad skalowaniem wdrożeń AI i wdrażanie mechanizmów, aby jak najbardziej ułatwić przenoszenie modeli zbudowanych przez naukowców danych do środowisk produkcyjnych.
MLOps: Definiowanie, wdrażanie i zarządzanie zautomatyzowanymi potokami do rozwoju, testowania, wdrażania, monitorowania i konserwacji nauki o danych. Wspieranie naukowców danych w zakresie wszelkich dodatków lub zmian, których potrzebują w potoku dla określonych modeli lub zadań.
Etykieciarz danych: Wspieranie naukowców danych w zakresie wszelkich wymagań dotyczących etykietowania danych dla nowych lub istniejących danych.
Trenerzy ML: Praca nad optymalizacją konfiguracji i hiperparametrów w celu tworzenia najlepiej działających modeli ML.
Istnieją inne role techniczne, które będą wspierać zespoły AI we wdrażaniu, uruchamianiu i monitorowaniu systemów i aplikacji AI, w tym:
• architekci
• projektanci produktów i doświadczeń użytkownika
administratorzy platformy i infrastruktury
• administratorzy systemów baz danych
Rolki mniej techniczne będą również ściśle związane z wdrażaniem AI w organizacji, w tym:
• właściciele produktów
• scrum masterzy
• analitycy biznesowi
• kierownicy projektów
• kierownicy programów
• testerzy i kierownicy ds. zapewnienia jakości (QA)
• zespoły wsparcia i kierownicy
Jako część sprintu lub zespołu Agile, inne role, w tym programiści full-stack i projektanci UX, mogą również brać udział w projektach budowania narzędzi i aplikacji AI
Starsze role
Istnieją również bardziej starsze role, które mają pewien nadzór i wpływ na obszar rozwoju i wdrażania AI, w tym:
•  Menedżer lub dyrektor ds. etyki AI - zapewnia, że perspektywy etyczne, społeczne i polityczne są brane pod uwagę podczas projektowania, tworzenia i wdrażania aplikacji AI.
• Specjalista ds. ryzyka i zgodności - odpowiedzialny za zarządzanie i zarządzanie ryzykiem w firmie.
• Dyrektor ds. danych - skoncentrowany na zarządzaniu w całej firmie i użyteczności danych jako zasobu.
• Dyrektor ds. operacyjnych - odpowiedzialny za sprawne działanie wszystkich systemów i procesów w firmie, w tym ludzi i logistyki.
• Dyrektor ds. informatyki - odpowiedzialny za wszystkie systemy informatyczne w przedsiębiorstwie.
• Dyrektor ds. technologii - skoncentrowany na wszystkich operacjach technologicznych, w tym tworzeniu nowych systemów i aplikacji.
Każda z tych ról będzie miała mieszankę umiejętności, wiedzy i doświadczenia, ale nie będzie wymagała głębokiego poziomu technicznego zaplecza AI potrzebnego do bardziej technicznych ról. Zasadniczo każda z naszych ścieżek kariery jest wyjątkowa, każda z nich pełni szereg różnych ról w różnych firmach na przestrzeni czasu. Przejście z jednej roli do drugiej, chociaż może być trudne, nie jest w żadnym wypadku niemożliwe, a tam, gdzie jest duży popyt i mała podaż, jak obecnie w dziedzinie AI, dokonanie tego ruchu jest nieco łatwiejsze niż mogłoby być w innym przypadku. Kluczowym elementem kształtowania i kierowania swoją karierą jest poinformowanie ludzi, co chcesz robić; naturalnie stworzy to nowe opcje kariery.
Nowe role
Przyspieszenie AI otwiera możliwości nowych ról na wszystkich szczeblach organizacji, od dyrektora ds. AI po najnowsze pojawiające się role, takie jak inżynier ds. natychmiastowych. W miarę rozwoju tej dziedziny w nadchodzących latach najprawdopodobniej zobaczymy tworzenie jeszcze większej liczby ról, wraz ze zmianami istniejących ról pod względem wymaganych obowiązków i umiejętności.
Dyrektor ds. AI
Obecnie tylko największe organizacje mogłyby skorzystać z dedykowanego dyrektora ds. AI. Wiele mniejszych firm może potrzebować jedynie ułamkowej roli CAIO. Rola ta obejmuje pełny nadzór nad wszystkimi wdrożeniami AI w firmie, definiowanie i wdrażanie strategii AI, zapewnianie właściwego zarządzania, audytu i kontroli, uwzględnianie wszystkich kwestii etycznych w praktykach roboczych oraz przekazywanie wszystkich odpowiednich zasad AI całej sile roboczej.
Inżynier natychmiastowy
Wraz z pojawieniem się generatywnej i konwersacyjnej AI, potrzeba optymalizacji monitów dostarczanych do modelu LLM w celu zmaksymalizowania wydajności i uzyskania jak najlepszych wyników z narzędzia oznaczała, że technika inżynierii natychmiastowej stała się coraz ważniejsza. Łatwo było zademonstrować, w jaki sposób wyniki wyjściowe zostały ulepszone poprzez uczynienie monitów bardziej informacyjnymi o pożądanym wyniku z jak największym kontekstem. Stworzyło to rolę inżyniera natychmiastowego; jednak ta umiejętność zostanie ostatecznie wchłonięta przez naukowców zajmujących się danymi, a z czasem może być tylko ograniczona liczba dedykowanych inżynierów natychmiastowych. Po prostu nie wiemy, czy ta rola utrzyma się w dłuższej perspektywie, czy też może ewoluować, dodając do roli inne podobne umiejętności, na przykład wybór danych szkoleniowych do szkolenia na zamówienie modelu LLM. Inne kluczowe umiejętności i zdolności. Istnieje wiele umiejętności i zdolności kluczowych dla osiągnięcia sukcesu w dziedzinie AI, od bardziej oczywistej matematyki i statystyki po mniej oczywiste umiejętności komunikacyjne i opowiadanie historii.
Matematyka i statystyka
Nauka o danych obejmuje wykorzystanie matematyki i statystyki w celu wyodrębnienia spostrzeżeń i wiedzy z danych. Istnieje wiele różnych pojęć i technik matematycznych i statystycznych, które są wykorzystywane w nauce o danych, a konkretne pojęcia i techniki, które są potrzebne, będą zależeć od konkretnych celów i zadań projektu. Oto kilka przykładów pojęć i technik matematycznych i statystycznych, które są powszechnie wykorzystywane w nauce o danych:
Algebra liniowa: Dział matematyki zajmujący się równaniami liniowymi i transformacjami liniowymi. Jest stosowana w nauce o danych do zadań takich jak redukcja wymiarowości, rozkład macierzy i analiza głównych składowych. Niektóre z kluczowych pojęć algebry liniowej obejmują wektory, macierze i transformacje liniowe. Algebra liniowa jest stosowana w nauce o danych do przedstawiania i manipulowania danymi w sposób ustrukturyzowany i wydajny
Rachunek różniczkowy i całkowy: Dział matematyki zajmujący się badaniem tempa zmian i akumulacji wielkości. Jest stosowana w nauce o danych do zadań takich jak optymalizacja i gradient zstępujący. Niektóre z kluczowych pojęć rachunku różniczkowego i całkowego obejmują pochodne, całki i granice. Rachunek różniczkowy i całkowy jest stosowany w nauce o danych do wykonywania optymalizacji matematycznej i zrozumienia zachowania modeli uczenia maszynowego.
Prawdopodobieństwo: Badanie zdarzeń losowych i prawdopodobieństwa ich wystąpienia. Jest stosowana w nauce o danych do zadań takich jak ocena modelu, testowanie hipotez i wnioskowanie bayesowskie. Niektóre z kluczowych pojęć prawdopodobieństwa obejmują rozkłady prawdopodobieństwa, zmienne losowe i niezależność statystyczną. Prawdopodobieństwo jest wykorzystywane w nauce o danych do analizowania i rozumienia niepewności i losowości inherentnej dla danych.
Statystyka: Dział matematyki zajmujący się gromadzeniem, analizą, interpretacją, prezentacją i organizacją danych. Jest wykorzystywany w nauce o danych do zadań takich jak eksploracja danych, wizualizacja danych i modelowanie statystyczne. Niektóre z kluczowych pojęć w statystyce obejmują statystykę opisową, wnioskowanie statystyczne i modelowanie statystyczne. Statystyka jest wykorzystywana w nauce o danych do analizowania i rozumienia wzorców i trendów w danych oraz do wyciągania wniosków i dokonywania przewidywań na podstawie danych.
Wprowadzenie do programowania
Programowanie jest podstawową umiejętnością dla naukowców zajmujących się danymi, ponieważ pozwala im pracować z danymi w sposób ustrukturyzowany i zautomatyzowany. Istnieje kilka języków programowania używanych w nauce o danych; dwa z najpopularniejszych to Python i R. Python to uniwersalny język programowania, który jest szeroko stosowany w nauce o danych ze względu na duży ekosystem bibliotek i struktur. Jest to potężny język, którego łatwo się nauczyć i który jest używany do zadań takich jak manipulacja danymi, wizualizacja i uczenie maszynowe. R to język programowania specjalnie zaprojektowany do obliczeń statystycznych i wizualizacji danych. Jest popularny w społeczności naukowców zajmujących się danymi ze względu na szeroki zakres funkcji statystycznych i graficznych oraz zdolność do obsługi dużych i złożonych zestawów danych. Chociaż skupienie się na aspektach uczenia maszynowego i szkolenia modeli tych języków programowania może być kuszące, posiadanie szerszych umiejętności programistycznych, takich jak zarządzanie danymi i przetwarzanie, będzie Ci służyć w dłuższej perspektywie. Duże dane i chmura Jednym z czynników umożliwiających głębokie uczenie się był dostęp do ogromnych ilości danych. Zostało to osiągnięte dzięki rozwojowi technologii big data, które umożliwiły przetwarzanie i analizę danych na skalę, której tradycyjne systemy baz danych nie były w stanie obsłużyć. Ulepszenia skalowalnych i równoległych technik obliczeniowych umożliwiły ogromne ilości danych i przetwarzanie potrzebne do generowania modeli uczenia maszynowego w oparciu o znaczne repozytoria danych historycznych. Posiadanie pewnej wiedzy na temat jednej lub więcej platform chmurowych i różnych dostępnych technologii baz danych będzie bardzo cenne, ponieważ znaczną częścią pracy w nauce o danych jest zarządzanie danymi i manipulowanie nimi w celu wykorzystania ich do trenowania i testowania modeli predykcyjnych.
Big Data i chmura
v
Jednym z czynników umożliwiających głębokie uczenie się był dostęp do ogromnych ilości danych. Zostało to osiągnięte dzięki rozwojowi technologii big data, które umożliwiły przetwarzanie i analizę danych na skalę, której tradycyjne systemy baz danych nie były w stanie obsłużyć. Ulepszenia skalowalnych i równoległych technik obliczeniowych umożliwiły ogromne ilości danych i przetwarzanie potrzebne do generowania modeli uczenia maszynowego w oparciu o znaczne repozytoria danych historycznych. Posiadanie pewnej wiedzy na temat jednej lub więcej platform chmurowych i różnych dostępnych technologii baz danych będzie bardzo cenne, ponieważ znaczną częścią pracy w nauce o danych jest zarządzanie danymi i manipulowanie nimi w celu wykorzystania ich do trenowania i testowania modeli predykcyjnych.
Inżynieria danych
Inżynieria danych to praktyka projektowania, budowania i utrzymywania infrastruktury i procesów przechowywania, przetwarzania i analizowania danych. Inżynierowie danych są odpowiedzialni za budowanie i utrzymywanie potoków danych, procesów ekstrakcji, transformacji i ładowania (ETL) oraz systemów przechowywania i zarządzania danymi. Podczas gdy ilość danych zbieranych i przechowywanych przez firmy wzrastała w ciągu ostatnich kilku dekad, chęć przetwarzania i analizowania tych historycznych danych znacznie wzrosła. To rozwinęło dziedzinę inżynierii danych i wytworzyło nowe technologie baz danych, narzędzia i możliwości w celu obsługi większej liczby rozwiązań w czasie rzeczywistym, analiz i spostrzeżeń.
Wizualizacja danych
Wizualizacja danych jest ważną częścią procesu nauki o danych, ponieważ pozwala eksplorować i rozumieć dane, komunikować swoje ustalenia innym oraz identyfikować wzorce i trendy. Istnieje wiele zaawansowanych technik i narzędzi dostępnych do tworzenia interaktywnych i dynamicznych wizualizacji, takich jak pulpity nawigacyjne i wykresy internetowe. Narzędzia takie jak D3.js, Matplotlib, Seaborn i Plotly umożliwiają tworzenie niestandardowych wizualizacji przy użyciu JavaScript i oferują szereg opcji dostosowywania i interaktywnych funkcji. Wizualizacja danych jest kluczowa dla pokazania użytkownikom biznesowym wartości biznesowej uczenia maszynowego. Jako naukowiec zajmujący się danymi musisz zrozumieć, co mówią Ci spostrzeżenia z modelu, a następnie stworzyć odpowiednią narrację, aby opowiedzieć tę historię użytkownikom. Wizualne reprezentacje spostrzeżeń zapewniają dramatyczny kontekst, więc doskonalenie umiejętności tworzenia wizualizacji danych będzie kluczową umiejętnością.
Komunikacja i opowiadanie historii
Komunikacja i opowiadanie historii są ważne dla naukowca zajmującego się danymi, ponieważ pomagają przekazać spostrzeżenia i ustalenia z analizy danych szerszej publiczności. Naukowiec zajmujący się danymi może współpracować z szeroką gamą interesariuszy, w tym innymi naukowcami zajmującymi się danymi, liderami biznesowymi i ekspertami technicznymi, a ważne jest, aby móc skutecznie komunikować się z tymi różnymi grupami. Aby to zrobić, naukowiec zajmujący się danymi może potrzebować różnych metod i technik komunikacji, takich jak pisanie raportów, prezentowanie ustaleń na spotkaniach lub konferencjach oraz tworzenie wizualizacji i innych rodzajów treści opartych na danych. Opowiadanie historii jest szczególnie ważne dla naukowca zajmującego się danymi, ponieważ pomaga uczynić złożone dane i analizy bardziej dostępnymi i zrozumiałymi dla odbiorców nietechnicznych. Poprzez ujęcie danych i spostrzeżeń w kontekście historii lub narracji, naukowiec zajmujący się danymi może pomóc zaangażować i zainspirować innych oraz przekonać ich do podjęcia działań w oparciu o ustalenia. Ogólnie rzecz biorąc, skuteczna komunikacja i opowiadanie historii są niezbędnymi umiejętnościami dla naukowca zajmującego się danymi, ponieważ pomagają zapewnić, że wartość analizy danych jest rozpoznawana i rozumiana przez innych, a spostrzeżenia i zalecenia generowane przez dane są skutecznie wdrażane i przyjmowane.
Pięć czynników sukcesu dla AI
Wiele branż, takich jak usługi finansowe i telekomunikacja, zawsze było znaczącymi użytkownikami najnowszych osiągnięć technologicznych, ale również pomogło, z perspektywy innowacji, w rozwijaniu możliwości różnych technologii. Dzisiaj nie różni się to od ostatnich kilku dekad pod tym względem, poza pięcioma bardzo ważnymi czynnikami sukcesu, które umożliwiają rzeczywiste przyspieszenie zastosowań AI. Te pięć czynników sukcesu, jeśli firmy potrafią je dobrze zrozumieć, radykalnie poprawi potencjalne korzyści z wdrażania AI i pozwoli firmom wdrażać AI na skalę we wszystkich działach organizacji. Po pierwsze, w ramach Czwartej Rewolucji Przemysłowej obserwujemy, jak postęp technologiczny podąża wykładniczą ścieżką rozwoju. Technologie rozwijają się w szybkim tempie, a każda z pozornie niezwiązanych ze sobą technologii w rzeczywistości wzmacnia i przyspiesza zastosowanie uczenia maszynowego. Na przykład pragnienie lepszej wydajności kart graficznych w celu ulepszenia gier o wysokiej rozdzielczości jest idealną architekturą wieloprocesorową do przyspieszenia treningu głębokiego uczenia. Obietnica obliczeń kwantowych ma również potencjał, aby radykalnie skrócić czas potrzebny na szkolenie modeli uczenia maszynowego. Platformy big data umożliwiły przechwytywanie większej ilości bogatszych danych, paliwa dla algorytmów szkoleniowych, zwłaszcza głębokiego uczenia się, które wymaga ogromnych ilości przykładów szkoleniowych. To tempo zmian stwarza wyzwanie dla wszystkich branż, aby nadążyć. Po drugie, tworzenie aplikacji, które osadzają modele uczenia maszynowego, to zupełnie inny proces niż bardziej tradycyjne metody tworzenia aplikacji. Wcześniej wymagania biznesowe były zbierane i przekształcane w wymagania funkcjonalne, które zespoły programistów wykorzystywały jako przewodnik do pisania kodu, który dostarczał te możliwości funkcjonalne w istniejących lub nowych aplikacjach. Wraz z uczeniem maszynowym paradygmat uległ zmianie. Dane historyczne wcześniej przechwycone przez istniejące systemy są wykorzystywane do określania funkcjonalności (modelu) algorytmu uczenia maszynowego. To skok wiary. Wymaga on, aby w pierwszej kolejności przechwycono dane dobrej jakości. Wymaga również analizy, aby zapewnić, że równość danych reprezentuje wszystkie grupy w sposób uczciwy i bezstronny. Jest to obecnie ogromny temat i jest określany ogólnie jako odpowiedzialna sztuczna inteligencja lub etyka sztucznej inteligencji. Znalezienie lub przeszkolenie osób z wymaganym zestawem umiejętności i wiedzy to kolejne wyzwanie, z którym mierzy się wiele branż. Po trzecie, przejście od działalności innowacyjnej, z kilkoma małymi modelami proof-of-concept lub proof-of-value, do możliwości skalowania możliwości dostarczania w całej organizacji, umożliwiając właściwe zorganizowanie całego cyklu życia, interakcję z wieloma interesariuszami i grupami biznesowymi w skoordynowany sposób, który zapewnia prawidłowe zarządzanie i walidację, nie jest prostym działaniem. Wymaga to kulturowych i organizacyjnych platform oraz rozważań ramowych, aby to się stało. Nieliczne organizacje, które są na tym etapie podróży wdrażania AI, zdają sobie sprawę, że jest to nietrywialny proces, a niektóre nadal mają problemy z dostarczeniem skalowanych modeli uczenia maszynowego do środowisk produkcyjnych. Po czwarte, szkolenie modelu uczenia maszynowego i wdrożenie go w środowisku produkcyjnym to nie koniec historii. Ponieważ podstawowa natura biznesu zmienia się w czasie, zmieniają się również dane, a zatem dokładność wydajności dowolnego modelu szkoleniowego. Powoduje to potrzebę ciągłego monitorowania wydajności modelu i potencjalnego regularnego ponownego szkolenia na najnowszych zestawach danych. Może to być kwartalne, miesięczne, tygodniowe, codzienne lub dla pewnych szczególnych potrzeb online/strumieniowe (dla każdego nowego elementu danych model jest ponownie szkolony z tymi danymi zawartymi w zestawie danych szkoleniowych). Wymaga to dodatkowych zadań i wsparcia dla systemów, które wcześniej nie były potrzebne. Wreszcie, szybkie wdrażanie automatyzacji i rozszerzanie pracy przekształca miejsce pracy. Określane jako "przyszłość pracy", rola każdego ulega zmianie, a przyziemne i powtarzalne zadania są przejmowane przez automatyzację procesów robotycznych (znaną jako RPA). Ale dokąd nas to zaprowadzi? W miarę jak sztuczna inteligencja i uczenie maszynowe stają się coraz bardziej zdolne do wykonywania zadań związanych z obliczeniami kognitywnymi (takich jak czytanie i rozumienie tekstu i mowy, rozumienie reakcji emocjonalnych klientów, wizualna inspekcja obrazów i dokumentów), będą mogły automatyzować bardziej złożone zadania i przepływy pracy. To wywiera presję na firmy, aby zdefiniowały swoje procesy na nowo i wprowadziły innowacje w to, co jest możliwe. Te pięć znaczących zmian w sposobie działania firm niewątpliwie stworzy możliwości, gdy firmy przekształcą się, aby przyjąć te nowe technologie. Zasadniczo jest to część cyfrowej transformacji, którą obecnie podejmują wszystkie organizacje i branże. Po raz pierwszy klienci domagają się wysoce spersonalizowanego doświadczenia wielokanałowego. Tworzy to impuls do wykorzystania zaawansowanej analityki danych i opracowywania nowych produktów i usług cyfrowych. Ostatecznie te usługi o wartości dodanej tworzą bardziej konkurencyjne i dynamiczne środowisko dla firm, narażając je na zwiększoną presję, aby dostarczały. Wyścig się rozpoczął, a ci, którzy są w stanie przyjąć nowych klientów cyfrowych, będą starali się prosperować i przetrwać ten okres zakłóceń.
Przewińmy do przodu o 10 lat
Technologia zmienia się w niezwykłym tempie. Najprawdopodobniej wszystkie stanowiska pracy we wszystkich branżach zostaną uzupełnione o narzędzia i aplikacje AI. Już teraz widzimy narzędzia pomagające w programowaniu komputerowym. Pewna automatyzacja została już opracowana dla naukowców zajmujących się danymi (na przykład AutoML3), co eliminuje część zgadywania przy wyborze odpowiedniego modelu i parametrów (ale pod wieloma względami przypomina to rozbijanie jajka młotem kowalskim). Nie jest jednak zbyt daleko idące stwierdzenie, że za trzy do pięciu lat będziemy rozmawiać z asystentem AI, który pomoże nam opracować potrzebne nam modele ML i aplikacje komputerowe. Rola naukowca zajmującego się danymi może się zmienić, a w przyszłości ważniejsze staną się umiejętności interpersonalne, zapewniające wskazówki i nadzór agentom AI (i użytkownikom biznesowym) w celu tworzenia modeli w celu osiągnięcia wymaganych celów. Zasadniczo proces nauki o danych stanie się w przyszłości bardziej usprawniony i wydajny. Jeśli chodzi o badania i innowacje, musimy wymyślić o wiele więcej, zanim osiągniemy cokolwiek zbliżonego do ludzkiego poziomu inteligencji - większość ekspertów w tej dziedzinie uważa, że minie jeszcze wiele dekad pracy, zanim będziemy mogli stworzyć sztuczną inteligencję ogólną. Z pewnością informatyka zmierza w kierunku budowania inteligentnych systemów i aplikacji, a w nadchodzących latach będzie się kładło duży nacisk na rozszerzanie możliwości tych zaawansowanych aplikacji inteligencji. Rola naukowca danych zmieni się w ciągu najbliższych 10 lat, ale zapotrzebowanie na ludzi, którzy rozumieją, jak budować inteligentne systemy, będzie nadal rosło. Od czasu pandemii Covid-19 obserwowaliśmy, jak przyszłość pracy znacząco ewoluuje, wraz z ogromnymi transformacjami cyfrowymi w wielu różnych branżach. Będzie to kontynuowane w latach 2020. i później, ponieważ będziemy używać większej liczby agentów AI, aby rozszerzyć nasze życie, zarówno osobiste, jak i zawodowe. Naukowcy danych wykorzystają również agentów i narzędzia AI, aby pomóc im zoptymalizować tworzone przez siebie aplikacje, ponieważ środowisko pracy dla wszystkich programistów i naukowców danych będzie się rozwijać w nadchodzących latach. Wraz ze wzrostem zapotrzebowania i rozwojem technologii zapotrzebowanie na ludzi, którzy rozumieją i potrafią budować te systemy, będzie nadal rosło przez wiele lat. Podczas gdy zawód będzie dojrzewał, a poziom złożoności wzrastał, ludzie nadal będą odgrywać ważną rolę w tworzeniu i ewolucji aplikacji i narzędzi inteligencji, które przyniosą korzyści nam wszystkim. Ta znacząca zaawansowana zdolność do budowania technologii i systemów AI będzie miała przełomowy wpływ na wiele innych branż, sprawiając, że przyszłość dla wszystkich będzie bardziej przypominać odcinek Star Treka. Możliwość wykorzystania technologii do pomocy w opracowywaniu nowych produktów i usług, których opracowanie zajęłoby wiele lat bez takiego przyspieszenia, zakłóci branże, zmieniając miejsce pracy i podstawową naturę samej pracy. Niektóre branże zostaną dotknięte nie do poznania, a nowi uczestnicy będą stanowić wyzwanie dla ugruntowanych firm, które zdecydują się nie wprowadzać innowacji tak szybko.
Dlaczego nie pracować w AI?
Niezależnie od tego, czy jest to początek Twojej kariery w AI, czy poważna zmiana kierunku kariery, może to być bardzo niekomfortowe - zasadniczo strach przed nieznanym. Jednak wkrótce zdasz sobie sprawę, że to ścieżka kariery jest najważniejszym i najbardziej wpływowym elementem Twoich przyszłych opcji kariery. Staniesz się czymś większym niż suma wszystkich ról i branż, w których pracowałeś przez lata. Zasadniczo to podróż, która czyni Cię wyjątkowym w miejscu pracy. Niezależnie od tego, kim jesteś lub na jakim etapie kariery się znajdujesz, wszyscy uczymy się i rozszerzamy nasze role i obowiązki. Osoby wokół Ciebie najprawdopodobniej będą Cię wspierać i zachęcać do Twojej wyjątkowej kariery. AI to najważniejszy i najbardziej ekscytujący obszar technologii oraz najważniejszy postęp w historii ludzkości - jest całkowicie zrozumiałe, że chcesz być współtwórcą tego ważnego kamienia milowego w ewolucji człowieka. Zbudowanie zupełnie nowej formy inteligencji, która mogłaby rywalizować z naszą własną, nie jest małym zadaniem i będziemy potrzebować jak największej liczby osób, aby pomóc to osiągnąć. Można to uznać za wielkie wyzwanie, aby rywalizować z nimi wszystkimi - najważniejsza innowacja technologiczna, jaką kiedykolwiek stworzymy. Kolejny krok w naszym ewolucyjnym rozwoju, żadna inna inteligencja nie była w stanie odtworzyć inteligentnego zachowania w sztucznej formie. W tym rozdziale przedstawiłem Ci uzasadnienie, aby rozważyć rolę w dziedzinie sztucznej inteligencji i przedstawiłem ogólny przegląd różnorodności ról w branży AI
Wprowadzenie
Świat się zmienia, i to szybko. Znacznie szybciej niż kiedykolwiek wcześniej i w takim tempie, że coraz trudniej nadążyć za różnymi postępami. W przeciwieństwie do poprzednich rewolucji przemysłowych, postępy zachodzą w wielu różnych branżach. Niektórzy twierdzą, że tempo zmian jest wykładnicze, ale w rzeczywistości wydaje się szybsze. Technologia napędza znaczną część tej transformacji, umożliwiając nam zwiększenie produktywności, podejmowanie bardziej świadomych decyzji i rozwiązywanie wielu problemów, z którymi wcześniej się zmagaliśmy. Sztuczna inteligencja ma znaczący wpływ na każdą branżę i każdy aspekt biznesu i miejsca pracy. Jest to prawdopodobnie najbardziej przełomowa technologia, jaką kiedykolwiek zobaczymy, prawdopodobnie zmieni nasz świat w sposób, którego jeszcze sobie nie wyobrażaliśmy. Doświadczyliśmy prawdziwego przełomowego momentu w 2023 roku, kiedy pierwsza uniwersalna sztuczna inteligencja zyskała popularność na rynku masowym ze względu na zakres zastosowań i użyteczność. Świat obudził się do potencjału sztucznej inteligencji i jej szerokiego wpływu. Można powiedzieć, że sztuczna inteligencja dojrzała, znalazła swoją użyteczność i zademonstrowała masowe zastosowanie, z którego mogą korzystać osoby prywatne i firmy każdej wielkości i z każdej branży. Branża technologiczna szybko integrowała podstawowe elementy, a następnie dostosowywała i rozszerzała swoje możliwości, aby w pełni wykorzystać ich potencjał dla wszystkich. Oznacza to, że więcej ról w miejscu pracy będzie musiało wykorzystywać możliwości AI jako część swojej pracy. Zrozumienie i używanie AI stanie się podstawową umiejętnością w miejscu pracy. W przyszłości wszyscy będziemy musieli być pewni AI, nie tylko w miejscu pracy; będzie ona odgrywać znaczącą rolę również w naszym życiu osobistym. Oczywiste jest, że każda rola w każdej branży zostanie rozszerzona o szereg narzędzi i aplikacji AI, a wiele osób skorzysta z cyfrowych asystentów opartych na AI, którzy będą nas wspierać w naszej pracy, automatyzując zadania, wykonując przyziemne prace i uwalniając ludzi, aby mogli skupić się na bardziej złożonych, kreatywnych i trudnych zadaniach, które należy wykonać. Korzystanie z AI do wykonywania zadań, które są łatwe do zautomatyzowania, da nam więcej czasu na zajęcie się trudniejszymi czynnościami. W miarę jak technologia i AI nadal zmieniają nasz świat, wszyscy musimy lepiej zrozumieć, czym ona jest i jak działa, aby umożliwić nam maksymalizację korzyści i zysków produktywności wynikających z jej zastosowania. Musimy się edukować na temat mocnych i słabych stron technologii, rozumiejąc wyzwania i możliwości, jakie ona stwarza. Z pewnością wraz z wprowadzeniem ChatGPT w listopadzie 2022 r. zastosowania AI, a w szczególności połączenie generatywnej i konwersacyjnej AI, szybko stały się powszechne, a ponad 100 milionów użytkowników narzędzia OpenAI w ciągu kilku miesięcy. Było to pierwsze szeroko stosowane uniwersalne AI, zdolne do wykonywania szerokiego zakresu zadań, od tworzenia wierszy po pisanie kodu programistycznego. Narzędzie, którego każdy może używać do wielu zadań, jego użyteczność wydaje się nieograniczona, a teraz potencjał AI jest nieograniczony. Branża technologiczna wzięła generatywną AI i pobiegła z nią z prędkością w 2023 r., rozszerzając i wzmacniając możliwości ChatGPT za pomocą drugich pilotów i uziemienia, wtyczek i udoskonaleń; branża technologiczna nigdy nie wyprodukowała tak wiele w tak szybkim tempie. Nie dotyczyło to tylko dużych firm technologicznych; zaobserwowaliśmy znaczny wzrost liczby start-upów zajmujących się generatywną AI i ugruntowanych firm budujących na fundamentach. To zmieniło zasady gry dla wszystkich. Profesjonalne usługi i firmy konsultingowe również musiały dostosować swoje strategie, a wiele z nich zainwestowało duże środki, aby zdobyć wiedzę specjalistyczną i umiejętności, które mogłyby zaoferować swoim klientom. Inne firmy musiały zmienić swoje modele biznesowe, produkty i usługi, aby dostosować się do tej nowej normy asystentów cyfrowych i łatwego wzrostu produktywności. Będziemy wspominać rok 2023 jako ważny kamień milowy w adopcji AI, ponieważ wiele firm, które wcześniej nie zwracały uwagi na możliwości AI, teraz poważnie rozważa zastosowanie AI w całej swojej działalności. Zespoły zarządzające firmami wszystkich rozmiarów i branż zaczynają dostrzegać innowacje i zakłócenia, jakie AI wprowadza do środowiska. Stworzy to więcej możliwości dla tych, którzy mają umiejętności i wiedzę, aby pracować z AI, zmieniając środowisko siły roboczej znacznie bardziej niż faks, maszyna do pisania czy komputer osobisty.
Przegląd
Dziedzina sztucznej inteligencji jest złożona i pod wieloma względami wciąż w powijakach. Chociaż termin ten został wymyślony w latach 50. XX wieku, dopiero w ciągu ostatnich kilku dekad zaczęliśmy dostrzegać przełomowe odkrycia, które pozwoliły nam na zbudowanie użytecznych narzędzi i aplikacji, które zaczęły rozwiązywać niektóre trudne problemy. Technologia ogólnie dojrzewa szybko, a wielu ekspertów twierdzi, że tempo zmian jest teraz wykładnicze. Widzieliśmy to na własne oczy w 2023 r., gdy duże firmy technologiczne uruchomiły własne wersje generatywnej AI, wraz z wariantami open source dużych modeli językowych (LLM), integracjami z wieloma różnymi produktami i ewolucją drugich pilotów, umożliwiając innym łatwiejsze wykorzystanie technologii i stosowanie jej do wielu różnych problemów. Po raz pierwszy w naszej historii sztuczna inteligencja ogólnego przeznaczenia (GPAI) osiągnęła główny udział w rynku, a co ważniejsze, pobudziła wyobraźnię milionów ludzi na temat nieograniczonych możliwości aplikacji opartych na AI. Dlatego jest to idealny czas na karierę w dziedzinie AI, ponieważ firmy każdej wielkości i z większości branż zwracają prawdziwą uwagę na to, w jaki sposób AI może przynieść korzyści ich celom biznesowym, stworzyć przewagę konkurencyjną i zapewnić wzrost produktywności. To kolejny cykl innowacji (znany jako krzywa S innowacji) i wyścig z konkurentami o przejęcie korzyści z AI. W tym szybko zmieniającym się dynamicznym środowisku będą zwycięzcy i przegrani. Widzimy to już w konkurencji między dużymi firmami technologicznymi, z których każda próbuje zaznaczyć swój autorytet, wiedzę specjalistyczną i przywództwo, szybko wydając własne modele i narzędzia oparte na AI.
Złoty wiek algorytmu
Wydaje się oczywiste, że przyszłość bogactwa i dobrobytu będzie napędzana przez wiedzę specjalistyczną z zakresu zaawansowanych algorytmów. Niektórzy nazywają to kolejnym wyścigiem kosmicznym, inni kolejnym wyścigiem zbrojeń, ale tak czy inaczej wkraczamy w złoty wiek algorytmu. To nie tylko wyścig narodowy, ale także wyścig komercyjny i indywidualny. Słyszeliśmy już o pilocie myśliwca AI, który jest bardziej wydajny i zdolny niż najlepsi z najlepszych pilotów testowych, a także o aplikacjach AI, które pomagają bronić się przed cyberatakami na bezpieczeństwo. Komputery hakują komputery. Jak to nie jest cyfrowa wojna? Ale nie chodzi tu tylko o tradycyjną wojnę; chodzi również o sukces biznesowy i komercyjny. Przetrwają tylko te firmy, które docenią korzyści, jakie mogą zapewnić zaawansowane algorytmy. To będzie nowy główny czynnik różnicujący firmy. Wystarczy spojrzeć na niektóre pionierskie firmy, aby zobaczyć, że to się dzieje. Modele biznesowe zmieniają się dramatycznie, a globalne start-upy, jednorożce, zdefiniowały krajobraz wielu tradycyjnych firm. Algorytmy będą miały również ogromny wpływ na jednostki. W wielu przypadkach już tak jest, od zatwierdzania kredytów hipotecznych, diagnoz medycznych i rekomendacji dotyczących zakupów po to, z kim powinieneś się umawiać, wpływają na nasze życie na tak wiele różnych i zazwyczaj ukrytych sposobów, że można argumentować, że jesteśmy już kształtowani i kontrolowani przez moc algorytmu. Robimy to, ponieważ ufamy, że dane zawierają uniwersalną prawdę i że podejmujemy lepsze decyzje, pokładając wiarę w algorytmach, które analizują te ogromne zbiory danych. Rodzi to wiele pytań dotyczących etyki AI, zarządzania AI i bezpieczeństwa AI. Są to gorące tematy i wielu znanych zwolenników podkreśla potrzebę większych inwestycji i badań w tych tematach, aby wesprzeć rozwój AI w ogóle. Bez tych ram wsparcia algorytmy mogłyby wymknąć się spod kontroli.
Prawda o (inteligentnej) automatyzacji
Prawdą jest, że możliwości automatyzacji we wszystkich branżach rozwijają się od bardzo dawna, ale dopiero teraz zaczynamy dostrzegać główny wpływ takiej całkowitej automatyzacji. Od wykorzystania koni do pomocy w oraniu pól, przez traktory, aż po robo-uprawy, które automatycznie usuwają chwasty na polach - weźmy dowolną branżę, a znajdziesz przykłady, od pierwszej rewolucji przemysłowej po obecną, automatyzacji, która powoli staje się coraz potężniejsza, bardziej kompletna i bardziej transformacyjna. Tym razem różnica polega na tym, że możemy dostrzec realne możliwości całkowitej i całkowitej automatyzacji, nawet w przypadku zadań i prac, które mogły być uważane za niemożliwe do zautomatyzowania jeszcze kilka lat temu. Jest to napędzane przez moc algorytmu, a konkretnie możliwości uczenia maszynowego, które znacznie rozwinęły się w ciągu ostatnich pięciu lat. Tutaj widzimy połączenie technik automatyzacji z uczeniem maszynowym w celu uzupełnienia automatyzacji o inteligentne podejmowanie decyzji. Ten brak inteligencji ze strony automatyzacji był wąskim gardłem powstrzymującym naszą zdolność do pełnej automatyzacji kompletnych procesów. Automatyzacja występuje również w różnych postaciach, od automatyzacji oprogramowania (często określanej jako automatyzacja procesów robotycznych), przez automatyzację produkcji (linia produkcyjna), po robotykę humanoidalną (androidy), która może być wielofunkcyjna w swojej funkcji. Jednym ze sposobów, w jaki firmy chcą wprowadzić sztuczną inteligencję i uczenie maszynowe, jest dodanie inteligencji do automatyzacji oprogramowania, zmieniając automatyzację procesów robotycznych (RPA) w inteligentną automatyzację procesów (IPA). Nie powinniśmy się tego bać - to po prostu kolejny krok w naszej ewolucji. Powinniśmy to zaakceptować i pomóc zrozumieć, co to oznacza dla ludzkości - potencjał tej automatyzacji przekracza nasze najśmielsze marzenia. Mówiąc to, nie chcę pomijać potencjalnego negatywnego wpływu na niektóre role i branże; jak każda rewolucja przemysłowa lub przełomowa technologia, będziemy musieli przezwyciężyć wyzwania, ale to, jak sobie z tym poradzimy w skali krajowej i globalnej, będzie kluczem do naszego sukcesu. Osobiście nie mogę się doczekać, aż moja praca zostanie rozszerzona o inteligentne maszyny automatyczne, które pozwolą mi zaoszczędzić trochę czasu, aby skupić się na ciekawszych wyzwaniach. Mam nadzieję, że wielu z nas może przyjąć zmiany w ten sam sposób.
Krótka historia AI
Historię sztucznej inteligencji można prześledzić do lat 50. XX wieku, kiedy to naukowcy po raz pierwszy zaczęli badać pomysł tworzenia maszyn, które mogłyby wykonywać zadania, które normalnie wymagałyby ludzkiej inteligencji. Konferencja Dartmouth w 1956 roku jest powszechnie uważana za miejsce narodzin AI. Naukowcy zebrali się, aby omówić możliwość zbudowania maszyn, które mogłyby wykonywać zadania, które normalnie wymagają ludzkiej inteligencji, takie jak rozumienie języka naturalnego, rozpoznawanie obiektów i rozwiązywanie problemów. W latach 60-tych XX wieku opracowano pierwsze programy AI, w tym Logic Theorist Johna McCarthy′ego i General Problem Solver Herberta Simona. Programy te były w stanie wykonywać proste zadania, takie jak rozwiązywanie problemów matematycznych, granie w gry i tłumaczenie języków. Jednak w 1966 roku rozpoczęła się pierwsza zima AI (termin używany do określenia okresu ochłodzenia lub spowolnienia w branży AI) w wyniku przesadnych oczekiwań i niedofinansowania. Pomimo wczesnych sukcesów, naukowcy nie byli w stanie opracować maszyn, które mogłyby wykonywać bardziej złożone zadania, co doprowadziło do zmniejszenia finansowania i spowolnienia postępu. Następnie w latach 70. XX wieku AI przeżyło odrodzenie wraz z rozwojem systemów eksperckich zdolnych do wykonywania określonych zadań, które normalnie wymagają ludzkiej wiedzy specjalistycznej, takich jak diagnozowanie chorób, zalecanie leczenia i dokonywanie prognoz finansowych. Nasza druga zima AI rozpoczęła się pod koniec lat 80. XX wieku z powodu połączenia przesadnych oczekiwań i braku postępu w rozwijaniu prawdziwie inteligentnych maszyn. Finansowanie badań nad AI zmniejszyło się, a wielu badaczy opuściło tę dziedzinę. W połowie lub pod koniec lat 90. XX wieku przeżyliśmy kolejne odrodzenie wraz z rozwojem algorytmów uczenia maszynowego, takich jak drzewa decyzyjne, sieci neuronowe i maszyny wektorów nośnych, które pozwoliły maszynom uczyć się na podstawie danych i poprawiać swoją wydajność w czasie. Następnie w 1997 roku odbyła się rozgrywka szachowa między Deep Blue a Garrym Kasparowem, w której Deep Blue, system AI opracowany przez IBM, pokonał mistrza świata w szachach. Był to znaczący kamień milowy w rozwoju AI, pokazujący zdolność maszyn do wykonywania zadań wymagających inteligencji na poziomie ludzkim. Rozpoczęło to kolejną falę entuzjazmu w latach 2010. wraz z rozwojem algorytmów głębokiego uczenia, które pozwoliły maszynom uczyć się i tworzyć prognozy na podstawie dużych ilości danych. Algorytmy te zostały wykorzystane do osiągnięcia najnowocześniejszych wyników w zadaniach takich jak rozpoznawanie obrazów i mowy, przetwarzanie języka naturalnego i autonomiczne prowadzenie pojazdów - i po raz pierwszy w naszej historii są w stanie wykazać się lepszą wydajnością niż ludzie w określonych zadaniach. DeepMind, brytyjska firma AI, obecnie należąca do Google, zaprezentowała szereg aplikacji, w tym AlphaGo i AlphaFold, które wykorzystały nowe techniki, takie jak uczenie przez wzmacnianie, i przyniosły oszałamiające wyniki, pokazujące światu prawdziwy potencjał AI. A pod koniec 2022 roku OpenAI zadziwiło świat swoim narzędziem ChatGPT, sprawiając, że cała branża AI i szersza branża technologiczna skupiły się na generatywnej i konwersacyjnej AI oraz integrując tę technologię z innymi narzędziami i produktami. Podczas gdy szum wokół tej nowej zdolności AI był intensywny i oczywiście wiązał się z pewnymi problemami (halucynacje, wyciek danych, prywatność danych i zaufanie), uczynił on AI głównym nurtem i otworzył oczy wielu dyrektorów generalnych na możliwości, jakie może zapewnić. Coraz większy nacisk kładzie się również na bezpieczeństwo, odpowiedzialność, etykę i zarządzanie AI, co w niedalekiej przyszłości otworzy więcej możliwości kariery i ról. Wielka Brytania była gospodarzem pierwszego globalnego szczytu bezpieczeństwa AI pod koniec 2023 r., aby zachęcić liderów z krajów na całym świecie do spotkania się i uzgodnienia nadzorowania odpowiedzialnego tworzenia modeli pionierskich. Obecnie AI jest wykorzystywana w szerokim zakresie zastosowań, od opieki zdrowotnej po finanse, i odgrywa coraz ważniejszą rolę w naszym codziennym życiu. Pomimo tego postępu, rozwój prawdziwie inteligentnych maszyn pozostaje wyzwaniem, a AI nadal jest aktywnym obszarem badań i rozwoju.
Podstawowe umiejętności pracy z AI
Istnieje wiele możliwości pracy w dziedzinie AI, a podczas gdy niektóre będą wymagały wiedzy technicznej i wykształcenia informatycznego, wiele innych będzie wymagało innych umiejętności i doświadczenia, otwierając możliwości pracy w sektorze AI dla niezliczonej liczby osób. Możesz być studentem pracującym nad uzyskaniem tytułu magistra w zakresie uczenia maszynowego lub sztucznej inteligencji, dążącym do kariery w badaniach naukowych lub do pracy w zespole zajmującym się nauką o danych, budującym rozwiązania AI i uczenia maszynowego dla swojego pracodawcy lub klienta. Zapotrzebowanie na osoby posiadające umiejętności w zakresie AI i uczenia maszynowego jest najwyższe w historii i wydaje się, że w ciągu najbliższych kilku lat będzie tylko rosło, ponieważ coraz więcej firm chce przyjąć te technologie do swojego środowiska i osadzić je w swoich produktach i usługach. Szacuje się, że globalne zapotrzebowanie na naukowców zajmujących się danymi wzrośnie o 11,5 miliona do 2026 roku. Możesz być technologiem pracującym już z bardziej tradycyjnymi językami programowania i technologiami, ale chcącym przekwalifikować się na naukowca zajmującego się danymi lub inżyniera ML Ops. Tutaj dostępne są różne możliwości edukacyjne i szkoleniowe, z wieloma bezpłatnymi zasobami do podstawowego szkolenia, które pomogą Ci zacząć. Coraz większe jest również zapotrzebowanie na kadrę zarządzającą średniego i wyższego szczebla, aby dowiedzieć się więcej o AI, zrozumieć, jak działa i co może zrobić. Ponownie, istnieje ogromna ilość informacji dostępnych online, a różne warsztaty i sesje szkoleniowe można zorganizować w celu uzyskania bardziej spersonalizowanej i dostosowanej edukacji. Jednak poza tymi klasycznymi ścieżkami kariery istnieje wiele innych sposobów, w jakie możesz pracować z AI w swojej pracy. Możesz być częścią działu technologicznego firmy, ale nie tworzyć bezpośrednio używanej AI - na przykład możesz być oficerem ds. zgodności, analitykiem biznesowym lub członkiem zespołu testującego. Role w całej organizacji będą również użytkownikami AI, od zespołów sprzedaży i marketingu po zasoby ludzkie, finanse, operacje, dział prawny i wiele innych. Zanim rozważymy wszystkie nowe role, które powoli pojawiają się w miejscu pracy; ostatnio zaobserwowaliśmy wzrost roli inżyniera szybkiego z generatywną AI, na przykład. Jest to rola nietechniczna, w której ludzie pomagają uzyskać najlepsze wyniki z tych narzędzi, wprowadzając zmiany w dostarczonych danych wejściowych. Wreszcie, wszyscy jesteśmy konsumentami aplikacji i narzędzi, które zaczynają wykorzystywać AI w celu zapewnienia dodatkowej inteligentnej i spersonalizowanej funkcjonalności. Wszystkie te różne role, ścieżki kariery i sposoby, w jakie wchodzimy w interakcję z technologią, określą konkretne umiejętności i wiedzę, których potrzebujemy, aby zmaksymalizować naszą produktywność wykorzystując AI. Przyjrzymy się tym różnym ścieżkom kariery i różnym umiejętnościom potrzebnym do osiągnięcia w nich doskonałości. Możesz czytać to, myśląc, że musisz mieć głębokie zrozumienie technologii lub sztucznej inteligencji, aby wykorzystać technologię. Z pewnością tak nie jest i czytając tę książkę, zrozumiesz, że wiele różnych rodzajów umiejętności, doświadczenia i wiedzy będzie cenionych i korzystnych dla tych, którzy chcą w pełni wykorzystać technologie AI w miejscu pracy.