Mail:







Wczoraj , Dziś … Jutro









[]






"Ponieważ nadal rozwijamy i rozwijamy sztuczną inteligencję, musimy to robić w sposób, który odzwierciedla nasze wartości i aspiracje jako społeczeństwa. Od nas zależy, czy sztuczna inteligencja będzie wykorzystywana do poprawy naszego życia, a nie do wyrządzania mu szkody. Poprzez współpracę , ciągłe badania i rozwój oraz zobowiązanie do odpowiedzialnego i korzystnego wykorzystania, możemy wykorzystać moc sztucznej inteligencji, aby stworzyć lepszą przyszłość dla wszystkich".

- ChatGPT




(Sztuczna) Inteligencja … Ab ovo




Sztuczna Inteligencja vs. Inteligencja Naturalna




 

A.I : Od A do Z



>>>  LINK  <<<





Pewna SI: Podstawowe umiejętności pracy ze sztuczną inteligencją (8)


Dane i infrastruktura

Dane są paliwem napędzającym AI i ML; bez nich nic nie jest możliwe. W rzeczywistości technologie takie jak platformy big data i przetwarzanie w chmurze były kluczowymi czynnikami umożliwiającymi osiągnięcia AI w ciągu ostatniej dekady. W ciągu ostatnich kilku lat przechowywaliśmy i analizowaliśmy znacznie więcej danych niż w poprzedniej dekadzie; każdego roku ilość zapisywanych danych rośnie w niespotykanym dotąd tempie. W rzeczywistości mamy tak dużo danych, że staje się wyzwaniem zarówno ich przechowywanie, jak i analizowanie. Jedną z podstawowych czynności naukowców zajmujących się danymi jest organizacja i wstępne przetwarzanie danych potrzebnych do trenowania i testowania modeli ML. W wielu przypadkach może to stać się znaczącą częścią ogólnego procesu tworzenia modeli ML, ponieważ często wymaga eksperymentowania pod względem używanego zestawu danych i funkcji udostępnianych w dostępnych polach danych. Systemy zarządzania danymi i narzędzia przetwarzania danych dostępne dla naukowców zajmujących się danymi mogą mieć ogromny wpływ na szybkość i wydajność wykonywanej pracy oraz na jakość modeli ML. W tym rozdziale podkreślimy różne zagadnienia, platformy, ramy i narzędzia dostępne dla zespołów zajmujących się nauką o danych w celu zbierania i wstępnego przetwarzania danych potrzebnych do zbudowania potrzebnych modeli predykcyjnych. Podkreślimy również niektóre wyzwania i najnowsze osiągnięcia technologiczne dostępne w zakresie infrastruktury danych i zarządzania nimi.

Podstawy danych

Dane odgrywają kluczową rolę w dziedzinie sztucznej inteligencji i uczenia maszynowego. Naukowcy zajmujący się danymi, którzy budują modele ML, spędzają około 80 procent swojego czasu na pracy z danymi używanymi do trenowania i testowania modelu. Obejmuje to wybór odpowiedniego zestawu danych, oczyszczanie danych, wybór funkcji, usuwanie stronniczości danych, poprawę jakości danych, etykietowanie danych, a nawet, w razie potrzeby, tworzenie danych syntetycznych. Zarządzanie danymi ewoluowało przez wiele dekad, od baz danych transakcyjnych po magazyny danych, duże magazyny danych, jeziora danych, struktury danych, a teraz siatki danych, ale wszystkie mają na celu łączenie danych przedsiębiorstwa i umożliwienie różnym konsumentom danych interakcji z danymi w sposób, którego potrzebują. Zadanie nauki o danych można znacznie usprawnić dzięki łatwemu dostępowi do danych w jednym miejscu za pomocą narzędzi do manipulowania danymi i ich przekształcania, określanego jako wstępne przetwarzanie danych. Uznajemy równi eż, że strategia i podstawy danych stale się zmieniają w ramach trwających programów prac mających na celu ulepszenie zarządzania danymi, konsolidację infrastruktury, migrację do chmury i wykorzystanie najnowszych projektów architektonicznych i technologii. Nowoczesne platformy danych i architektura Od lat 90. i początku XXI wieku, wraz z wprowadzeniem technologii dużych danych umożliwiających konsolidację danych z wielu źródeł w celu umożliwienia bardziej intensywnych obliczeniowo analiz i raportowania, obszar zarządzania danymi i infrastruktury danych szybko ewoluował. Zostało to wzmocnione przez wprowadzenie chmury obliczeniowej w 2006 r. przez AWS (Amazon z usługą Elastic Compute EC2). Od tego czasu widzieliśmy, jak ewolucja infrastruktur danych nadal wprowadza innowacje w jeziorach danych (2011) i siatce danych (2019).

Widok klienta 360°

Często, w wyniku długoterminowego rozwoju systemów i aplikacji, dane klienta lub konsumenta są rozproszone w całej organizacji, gromadzone w różnych repozytoriach danych, a bez wdrożenia siatki danych zapewnienie dostępu do odpowiednich danych odpowiednim osobom może być trudne. Najlepsze praktyki obecnie polegają na opracowaniu widoku 360° danych klienta, co pozwala na uzyskanie pełnego obrazu klienta, co następnie lepiej informuje o podejmowaniu decyzji i analizach w aplikacjach i funkcjach firmy. Kanały wstępnego przetwarzania danych Aby przygotować dane szkoleniowe i testowe dla modeli ML oraz wykonać te same transformacje jako część wnioskowania modelu, konieczne będzie utworzenie kanału danych w celu ukształtowania danych do prawidłowego formatu dla modeli uczenia maszynowego. Te kanały danych będą znajdować się na górze warstwy danych w architekturze przedsiębiorstwa; mogą działać w różnych trybach, od przesyłania strumieniowego w czasie rzeczywistym po przetwarzanie wsadowe, i stanowić kluczowy składnik ogólnego stosu technologicznego dla wdrożeń AI/ML. Ustrukturyzowane i nieustrukturyzowane dane Większość firm, niezależnie od branży, będzie mieć mieszankę ustrukturyzowanych i nieustrukturyzowanych danych. Wykorzystanie niestrukturalnych danych w sposób, który ujawnia cenne informacje i spostrzeżenia, jest kluczowym elementem każdej nowoczesnej platformy do zarządzania danymi i ich przetwarzania. Wprowadzenie technologii big data, języków zapytań NoSQL i elastycznych schematów danych otworzyło możliwości wykorzystania danych z dokumentów i innych źródeł, co byłoby trudniejsze w przypadku transakcyjnych baz danych relacyjnych. Istnieją podejścia i architektury, które mogą obsługiwać analizę i przetwarzanie niestrukturalnych danych.

Dane jako usługa (DaaS)

W przypadku nowoczesnych architektur danych podejście polega na traktowaniu danych jako usługi, co pozwala producentom i konsumentom mieć większą kontrolę nad danymi, które posiadają lub potrzebują.

Zarządzanie danymi i pochodzenie danych

Ze względu na znaczne znaczenie danych dla uczenia maszynowego, posiadanie silnego audytu, zarządzania i śledzenia (pochodzenie danych) jest głównym wymogiem zarówno dla zespołu ds. nauki o danych, jak i kierownictwa IT, zapewniając audyt i przejrzystość w opracowywaniu modeli. Dostępne są różne narzędzia i ramy, których można użyć do zapewnienia pochodzenia danych i audytu danych używanych podczas szkolenia różnych modeli ML. Pomoże to zapewnić pełną przejrzystość i zarządzanie modelami w produkcji oraz danymi używanymi do ich trenowania i testowania. Pomaga to również zespołom zajmującym się nauką o danych, gdy będą musieli aktualizować modele w przyszłości. Potrzeba tego typu możliwości wzrośnie wraz ze wzrostem liczby wdrożonych modeli.

Infrastruktura techniczna i architektura
Istnieją dwa aspekty infrastruktury technicznej z perspektywy AI i uczenia maszynowego. Pierwszy dotyczy ogólnego procesu i przepływu pracy związanego z opracowywaniem modelu ML, który wymaga większości ciężkiej pracy (jeśli potrzebne jest jakiekolwiek szkolenie na zamówienie lub udoskonalenie), a drugi to wnioskowanie modelu (czyli korzystanie z wyszkolonego modelu w środowisku produkcyjnym lub na żywo). W zależności od rozmiaru używanego modelu ML nawet wnioskowanie może być stosunkowo kosztowne obliczeniowo (największe generatywne modele AI lub duże modele językowe nadal wymagają procesora graficznego do uruchomienia modelu). Wpływ na infrastrukturę techniczną zależy również od podejścia do dostarczania. W przypadku korzystania z dostawcy lub konsultanta złożoność techniczna szkolenia modelu może być współdzielona lub w pełni zlecona na zewnątrz. W przypadku korzystania z modelu wstępnie wytrenowanego przez dostawcę chmury, nacisk zostanie położony na integrację wywołań API do tego modelu z innych części aplikacji oprogramowania. Będą również sytuacje, gdy modele ML stron trzecich będą używane i udostępniane za pośrednictwem prostego wywołania API, dlatego też użycie i integracja będą miały miejsce na poziomie aplikacji, aby zapewnić, że właściwe modele będą wywoływane z właściwych środowisk technicznych. Może być konieczne równoważenie obciążenia i ograniczanie wywołań, aby właściwie kontrolować korzystanie z takich usług.

Platformy chmurowe

Dostawcy chmury mają wiele wewnętrznych modeli ML, które mogą być używane jako część rozwiązania AI. W przypadku wielu standardowych możliwości wszyscy będą mieli podobne modele, które działają na porównywalnym poziomie. Jednak będą istnieć bardziej zaawansowane wymagania funkcjonalne, które ma jeden dostawca chmury, a inni nie, lub jeden działa znacznie lepiej niż inni. W takich sytuacjach będziemy musieli być bardziej celowi w projektowaniu i wdrażaniu architektury, aby mieć pewność, że dostarczamy najlepsze wyniki dla klientów, niezależnie od ich preferowanej platformy chmurowej. W przypadku procesów wewnętrznych i ulepszeń produktywności te rozważania będą mniej restrykcyjne, co da nam większą swobodę wyboru najlepszych opcji.

Skalowalna architektura

Zarówno w przypadku szkolenia, jak i wnioskowania, kluczem jest zaprojektowanie skalowalnej architektury, która umożliwia wzrost pojemności wraz z konsumpcją użytkownika. Tutaj platformy chmurowe wchodzą w grę i zapewniają architektury projektów, które umożliwiają dynamiczną (lub inną) poziomą skalowalność, aby utrzymać wydajność systemów na odpowiednim poziomie.

Przepływ pracy i proces nauki o danych

Kluczowym nowym zestawem wymagań, gdy wprowadza się naukę o danych i uczenie maszynowe do miksu dostaw technicznych, będzie przepływ pracy nauki o danych i proces rozwoju nauki o danych. Omówię to szczegółowo w następnej sekcji, ale warto tutaj zaznaczyć, że istnieje potrzeba zapewnienia dopasowania między obecnym zasięgiem technologicznym a wszelkimi nowymi narzędziami i ramami wprowadzonymi dla nauki o danych. Konkretne potrzeby zespołu nauki o danych będą ewoluować w czasie, w miarę dojrzewania zespołu i zwiększania skali dostarczania AI i ML. Każdy zespół i lider nauki o danych będzie również miał swój własny zestaw narzędzi preferencji. Jednym z największych zagrożeń dla wdrożenia AI/ML jest dopasowanie między obecnym zasięgiem technologicznym a dodatkami potrzebnymi do wdrożeń nauki o danych. Często zespół nauki o danych będzie miał wiele narzędzi, których używa podczas prototypowania i rozwoju, i będzie się martwił o środowisko produkcyjne dopiero pod koniec pierwszej dostawy. Może to powodować niepotrzebne opóźnienia i potencjalne konflikty, które mogą być trudne do rozwiązania. Należy zachować ostrożność, aby zmapować wymagania we wszystkich środowiskach technologicznych, aby możliwe było płynne przejście do produkcji na żywo.

MLOps

Operacje uczenia maszynowego (lub MLOps) są rozszerzeniem funkcji DevOps, ale dotyczą niuansów opracowywania modeli uczenia maszynowego. W przypadku dużych zespołów zajmujących się nauką o danych narzędzia i struktury ułatwiające automatyzację operacji tworzenia, wdrażania i testowania uczenia maszynowego staną się niezbędne. Konkretne narzędzia MLOps będą zależały od preferencji członków zespołu zajmującego się nauką o danych, innych używanych narzędzi do nauki o danych i skali wykonywanej pracy. Funkcje MLOps byłyby zazwyczaj tworzone i zarządzane przez inżyniera ML, ale w mniejszych zespołach jeden z naukowców zajmujących się danymi mógłby również pełnić tę rolę. Czasami termin AIOps jest również używany w odniesieniu do tej funkcji, ale może być również używany, myląco, w odniesieniu do sztucznej inteligencji stosowanej w obszarze operacji bardziej ogólnie.

Szkolenie kontra wnioskowanie

Istnieją dwie odrębne czynności podczas tworzenia modeli uczenia maszynowego, które mają różne wymagania dotyczące danych i obliczeń, co zmienia architekturę potrzebną do obsługi każdej z nich. W przypadku szkolenia podstawowym wymogiem jest manipulowanie zestawami danych, wstępne przetwarzanie danych w celu poprawy jakości danych, oczyszczanie danych, transformacja danych i redukcja danych w celu wytworzenia zestawu sygnałów, które można wykorzystać do szkolenia modelu. Szkolenie modelu jest intensywne obliczeniowo, ponieważ topologia i hiperparametry muszą zostać zoptymalizowane metodą prób i błędów, aby zmaksymalizować wydajność wyszkolonego modelu. Po wyszkoleniu modelu jego użycie (znane jako wnioskowanie) ma inny profil danych i obliczeniowy, nadal wymagając podobnego wstępnego przetwarzania danych, ale konfiguracja obliczeniowa musi być skoncentrowana na skalowanym uruchomieniu modelu na zasadzie ad hoc dostosowanej do zapotrzebowania użytkownika. Zazwyczaj architektury techniczne do szkolenia i wnioskowania są różne, ale muszą być dostosowane, aby umożliwić płynny postęp od opracowywania modeli do wdrożenia w środowisku produkcyjnym. Wyszkolone modele są zazwyczaj udostępniane reszcie infrastruktury IT i aplikacjom za pośrednictwem interfejsu API, wywołania interfejsu API aktywują model, prezentując mu zestaw sygnałów wejściowych, a model zapewni powiązaną odpowiedź wyjściową, która jest następnie przekazywana z powrotem za pośrednictwem interfejsu API do aplikacji wywołującej.

Monitorowanie wydajności

Będzie konieczne monitorowanie działania i wydajności wdrożonych modeli. Wynika to z faktu, że wydajność modelu może się pogarszać w czasie, ponieważ dane mogą się zmieniać lub dryfować w pewnym okresie czasu (gdy użytkownicy zmieniają sposób pracy i sposób korzystania z systemów i danych). Można sobie z tym poradzić, ponownie szkoląc model przy użyciu bardziej aktualnych informacji; na przykład można ponownie szkolić model raz w miesiącu, aby uwzględnić dane z ostatniego miesiąca, tak aby przechwycił najnowsze informacje. Wdrożenie modelu w środowisku produkcyjnym jest tylko częścią procesu potoku (a nie końcem, jak może to mieć miejsce w przypadku innych systemów IT); ciągłe monitorowanie i testowanie wydajności z potencjalnym ponownym szkoleniem to potencjalne potrzeby wielu modeli.

Opcje infrastruktury i platformy

Wszyscy dostawcy usług w chmurze - Amazon, Microsoft, Google, IBM, Alibaba, Oracle i Salesforce - udostępniają klientom ramy, narzędzia i wstępnie wyszkolone modele, które są zintegrowane z aplikacjami i rozwiązaniami. Dostarczają głównych bloków konstrukcyjnych, ale nadal trzeba włożyć sporo wysiłku, aby przekształcić je w odpowiednie możliwości AI/ML, z których zespoły zajmujące się nauką o danych będą mogły wygodnie korzystać w ramach swojego procesu i przepływu pracy. Istnieją również specjalistyczne platformy od dostawców; dwie z najbardziej znanych to H20 i C3. Oferują one szereg skalowalnych platform dla użytkowników korporacyjnych, którzy chcą wdrażać AI na dużą skalę.

Platformy rodzime

Niektóre organizacje, a widzieliśmy to szeroko w sektorze usług finansowych, wolą budować własne platformy na zamówienie, łącząc zbiór narzędzi i ram z różnych źródeł. Ta opcja zapewnia największą elastyczność i kontrolę, ale jej utworzenie i utrzymanie byłoby najkosztowniejsze. Ta opcja miałaby sens tylko wtedy, gdybyś miał do przetworzenia znacznie większą ilość danych (usługi finansowe mogą mieć miliony transakcji na godzinę) i musiałbyś wprowadzać szybkie i częste zmiany w systemie. Organizacje będą coraz częściej postrzegać używane przez siebie modele ML jako klejnoty koronne pod względem możliwości algorytmicznych firmy, a platformy bazowe staną się bardziej powszechne, jak widzieliśmy w przypadku technologii big data i chmury. Dlatego to unikalne zestawy danych firmy i zdolność do opracowywania niestandardowych modeli ML stworzą przewagę konkurencyjną dzięki implementacjom AI.

Podsumowanie

Tutaj zbadaliśmy, jak ważne są dane dla dostarczania funkcjonalności AI i ML, ale także jak trudne i skomplikowane mogą być. Najlepsi w swojej klasie naukowcy danych potrzebują najlepszego możliwego zarządzania danymi i infrastruktury, aby ułatwić wybór zestawów danych szkoleniowych i testowych w celu wytworzenia najbardziej wydajnych modeli. Ta sekcja zawiera również szereg sugerowanych ram i narzędzi, które mogą pomóc w skonstruowaniu najlepszego w swojej klasie przepływu pracy przetwarzania danych. Możliwość wyodrębnienia jak największej liczby spostrzeżeń z podstawowych danych dostępnych w dowolnej organizacji będzie podstawowym wymogiem dla firm, aby podejmować lepsze decyzje i rozumieć swoich klientów, aby zapewnić bardziej spersonalizowaną obsługę. Przejście na większą liczbę raportów w czasie rzeczywistym i pulpitów nawigacyjnych jest również kluczowym ulepszeniem umożliwiającym bardziej reaktywne podejmowanie decyzji, co może pomóc organizacjom radzić sobie z dynamicznymi zmianami środowiskowymi i ekonomicznymi szybciej, niż byłoby to możliwe w inny sposób. Jednak dostarczenie tego poziomu transformacji cyfrowej wymaga pewnego poziomu inwestycji (i czasu) w zależności od tego, gdzie obecnie znajduje się Twoja infrastruktura danych. Zarządzanie danymi to rozwijający się temat, który będzie musiał zostać ulepszony w niektórych obszarach, aby wspierać specyficzne potrzeby AI w nadchodzących latach. Wykracza to poza pochodzenie danych i audyt, do zdolności do obsługi rygorystycznych metodologii prywatności danych, które działają zarówno dla właścicieli danych, jak i użytkowników danych. Ponieważ bezpieczeństwo AI i zaufanie cyfrowe stają się gorącymi tematami, warstwy infrastruktury danych będą musiały wprowadzać innowacje, aby sprostać takim wymaganiom, aby zabezpieczyć się na przyszłość i pomóc w dostarczaniu bardziej zaawansowanych wymagań analitycznych.



Pewna SI: Podstawowe umiejętności pracy ze sztuczną inteligencją (7)


Przegląd uczenia maszynowego

Uczenie maszynowe to poddziedzina sztucznej inteligencji, która obejmuje algorytmy szkoleniowe, aby automatycznie uczyły się i ulepszały na podstawie danych bez wyraźnego programowania. Jest to znaczące odejście od sposobu, w jaki wcześniej budowaliśmy systemy technologiczne i aplikacje, i nadal odkrywamy najlepsze sposoby, aby to zrobić, aby pomóc nam uniknąć takich rzeczy, jak stronniczość decyzyjna i inne wyzwania etyczne. W tym rozdziale przedstawiono podstawowe koncepcje uczenia maszynowego, w tym typowe algorytmy i podejścia, takie jak uczenie nadzorowane i nienadzorowane.

Podstawy uczenia maszynowego

Metody uczenia maszynowego wykorzystują dwa etapy. Pierwszy etap nazywany jest szkoleniem i zazwyczaj wykorzystuje adnotowany zestaw danych szkoleniowych, w którym abstrakcyjna maszyna autonomicznie identyfikuje powiązania i wzorce w danych związanych z pożądaną odpowiedzią wyjściową (często znaną jako prognoza). Proces uczenia przedstawi zestaw danych szkoleniowych sieci neuronowej i na podstawie obliczonego błędu między pożądanym (lub docelowym) wyjściem a rzeczywistym wyjściem, wewnętrzne parametry maszyny, tj. wewnętrzne wagi połączeń, są dostosowywane w celu stopniowego wprowadzania ulepszeń do pożądanego wyjścia. Proces ten jest powtarzany wielokrotnie w całym zestawie danych. Uczenie maszynowe eliminuje potrzebę definiowania złożonych, ręcznie tworzonych reguł, które ściśle przestrzegają określonej specyfikacji napisanej przez programistę (jak ma to miejsce w przypadku opracowywania programów komputerowych), ponieważ abstrakcyjna maszyna w technologii ML/AI nie przetwarza danych na podstawie instrukcji krok po kroku, ale zamiast tego wykorzystuje dane szkoleniowe do nauki logiki rozwiązywania określonego problemu i w ten sposób rekonfiguruje maszynę. Uczenie maszynowe nie stosuje zatem podejścia opartego na instrukcji "jeśli-to". Na poziomie abstrakcji sprzętowej każda iteracja jest emulacją nowej i lepszej topologii strukturalnej zdefiniowanej na końcu procesu, a nie na początku. Zamiast tego, funkcjonalna zdolność ANN (sztucznej sieci neuronowej) jest definiowana poprzez stworzenie wewnętrznego modelu niezależnego od programisty oprogramowania i niezależnego od wyrażenia lub języka wybranego przez programistę oprogramowania. Ten pierwszy etap będzie również wykorzystywał oddzielny zestaw danych walidacyjnych, aby pomóc w kierowaniu procesem szkolenia lub uczenia się poprzez pomiar dokładności częściowo wyszkolonego modelu w celu wywnioskowania poprawnego wyjścia dla zestawu danych walidacyjnych. Po wyszkoleniu modelu ANN można go użyć na drugim etapie, często znanym jako wnioskowanie, do tworzenia prognoz na podstawie nowych danych przedstawionych na wejściach modelu. Ten drugi etap wykorzystuje wyszkolony model do generowania prognoz na podstawie tego, czego nauczył się ze zbioru danych treningowych na podstawie nowych danych przedstawionych mu. Istotą szkolenia ANN jest symulacja sieci strukturalnej (topologii) sieci neuronowej, która jest bardzo uproszczonym przybliżeniem neuronów w ludzkim mózgu. Metodę symulacji można wdrożyć na różne sposoby, w tym za pomocą elektroniki sprzętowej, dedykowanych akceleratorów sprzętowych, sprzętu wieloprocesorowego (takiego jak karty graficzne) i oprogramowania symulacyjnego. We wszystkich przypadkach parametry połączeń synaptycznych i neuronów są zmieniane w celu poprawy dokładności działania całej maszyny. Po skutecznym przeszkoleniu, a w zasadzie po każdej iteracji, nowa inteligentna maszyna jest lepszą inteligentną maszyną.

Podstawowe struktury

Sieć neuronowa składa się ze zbioru neuronów. Neurony te są ułożone w strukturę warstw. Warstwy te są oznaczone jako warstwa wejściowa, warstwa(y) ukryta(e) i warstwa wyjściowa. Warstwy ukryte znajdują się pomiędzy warstwami wejściową i wyjściową. Zazwyczaj jest więcej niż jedna warstwa ukryta, chociaż w najprostszej formie warstwa ukryta jest opcjonalna, a warstwy wejściowa i wyjściowa mogą być bezpośrednio połączone. W topologii w pełni połączonej wyjścia z neuronów w jednej warstwie są połączone z wejściami wszystkich neuronów w następnej warstwie. Dane wejściowe są prezentowane neuronom warstwy wejściowej, a sieć przetwarza te informacje przez neurony w każdej warstwie po kolei, aż neurony warstwy wyjściowej przedstawią wynik wyjściowy. Proces ten nazywa się feed-forward.

Neurony

Neuron przyjmie jedno lub więcej danych wejściowych z poprzedniej warstwy (lub danych wejściowych, jeśli znajdują się w samej warstwie wejściowej). Dla każdego wejścia będzie miał on oddzielną wartość wagi (która zmienia się w trakcie procesu uczenia się), którą stosuje do wartości wejściowej. Te ważone dane wejściowe są następnie agregowane razem z wartością odchylenia (która również może się zmieniać w trakcie procesu uczenia się). Następnie funkcja aktywacji (w prostym przykładzie jest to funkcja sigmoidalna) jest używana na tej zagregowanej wartości, aby wygenerować wartość wyjściową neuronu. Wartość wyjściowa neuronu służy następnie jako wartość wejściowa z tego neuronu do połączonych neuronów w następnej warstwie neuronów. Ten prosty proces przepływu sygnału, zarówno na etapie szkolenia, jak i przewidywania, może być wykonywany w komputerze, elektronice sprzętowej (znanej jako cyfrowy sprzęt neuromorficzny), a także w programowalnych układach bramkowych (FPGA).

Warstwy

Typowa sieć neuronowa składa się z wielu neuronów ułożonych w warstwy. Sieć neuronowa zazwyczaj ma warstwę wejściową, jedną lub więcej warstw ukrytych i warstwę wyjściową. Nie jest konieczne, aby w każdej warstwie znajdowała się taka sama liczba neuronów, a często tak nie jest. Dane wejściowe byłyby prezentowane neuronom w warstwie wejściowej. W topologii w pełni połączonej wyjścia neuronów w jednej warstwie są połączone z wejściami wszystkich neuronów w następnej warstwie. Dane te byłyby następnie propagowane przez neurony wejściowe i do neuronów w warstwach ukrytych, przy czym każdy neuron przetwarzałby swoje dane wejściowe i obliczał własne dane wyjściowe. Z ostatniej warstwy ukrytej dane będą propagowane do warstwy wyjściowej neuronów, a na końcu neurony wyjściowe dostarczą wynik przewidywania wyjściowego. Na każdej warstwie neurony pobiorą dane wejściowe i zmodyfikują je na podstawie ich wewnętrznych wag, aby obliczyć dane wyjściowe tego neuronu (które są następnie propagowane jako dane wejściowe do neuronów w następnej warstwie). W sieciach neuronowych występują takie rzeczy jak "warstwy splotowe". Proste wyjaśnienie jest takie, że dane wejściowe do warstwy splotowej są dwuwymiarowe, np. macierz. Warstwy splotowe są zatem w stanie uczyć się wzorców 2D w danych wejściowych, np. pionowych krawędzi na fotografii lub okrągłych kształtów na wyjściu poprzedniej warstwy. Warstwa wyjściowa neuronów przedstawi określoną liczbęwartości wyjściowych (często znanych jako wektor wyjściowy). Jako łatwe do zrozumienia zastosowanie, te dane wyjściowe są używane do kategoryzowania danych wejściowych im przedstawionych, przy czym każdy neuron wyjściowy reprezentuje inną kategorię. W przypadku niektórych klasyfikacji kategorii chcemy, aby sieć podała nam najbardziej prawdopodobną (najwyższe prawdopodobieństwo) kategorię dla danych wejściowych. Funkcja "softmax" jest używana do normalizacji wartości wyjściowych (we wszystkich neuronach wyjściowych), więc suma wszystkich wartości na wyjściu wynosi 1, a każde wyjście jest między 0 a 1. Każde wyjście reprezentuje prawdopodobieństwo, że dane wejściowe powinny zostać sklasyfikowanejako należące do tego "koszyka" wyjściowego. W efektywnej i dobrze zaimplementowanej sieci neuronowej spowodowałoby to, że najbardziej prawdopodobna kategoria miałaby wartość bliską 1, a inne mniej prawdopodobne kategorie miałyby wartości bliższe 0. Tak więc, na przykład, gdybyś miał sieć neuronową wytrenowaną do rozróżniania zdjęć kotów, psów, koni i owiec, warstwa wyjściowa softmax miałaby cztery neurony, każdy odpowiednio powiązany z kotem, psem, koniem lub owcą. Intencją byłoby, aby każde konkretne zdjęcie generowało wartość bliską 1 w jednym z neuronów wyjściowych i bliską zera w pozostałych trzech, aby skategoryzować zdjęcie. W innych zastosowaniach wyjście może być wektorem liczbowym opisującym wejście w sposób abstrakcyjny. Na przykład w tak zwanych zastosowaniach osadzania wyjście sieciowe jest wielowymiarowym wektorem, który stara się "opisać" wejście (choć niekoniecznie w sposób zrozumiały dla człowieka), takie, że podobne wejścia generują numerycznie podobne wyjścia. Zastosowanie tej koncepcji do dużej ilości danych powoduje wypełnienie przestrzeni wielowymiarowej dyskretnymi punktami danych, które są powiązane przez bliskość numeryczną w tej przestrzeni osadzania.

Trening

Dla danej sieci neuronowej będzie ona miała zdefiniowaną strukturę (sieć lub topologię), konkretnie liczbę neuronów w każdej warstwie iliczbę warstw. Ta struktura określi również całkowitą liczbę wag i odchyleń ze wszystkich neuronów w sieci. Te wagi i odchylenia to parametry, które można zmienić podczas procesu szkolenia (lub uczenia się) i ostatecznie określają, w jaki sposób sieć neuronowa reaguje (wyprowadzawartości) na wszelkie dane wejściowe, które są jej prezentowane. Etap szkolenia ma na celu zmianę wewnętrznych parametrów sieci neuronowej. Będzie to wykorzystywać iteracyjny proces uczenia się w celu określenia zmian tych parametrów. Proces uczenia się będzie wykorzystywał zbiór danych szkoleniowych, zbiór danych walidacyjnych i funkcję straty (lub kosztu). Będzie on wielokrotnie przedstawiał zbiór danych szkoleniowych sieci neuronowej i określał, w jaki sposób modyfikować parametry sieci, aby zmniejszyć błąd w jej klasyfikacji (przewidywany wynik). Zadaniem funkcji straty jest określenie różnicy (lub błędu) między pożądanymi wynikami (często nazywanymi celami) a rzeczywistym wynikiem generowanym przez sieć. Proces uczenia się będzie następnie proporcjonalnie wykorzystywał ten błąd do wprowadzania niewielkich zmian w parametrach sieci. Proces ten jest powtarzany dla każdego przykładu w zestawie danych treningowych. Jednym z bardzo powszechnych podejść jest tzw. propagacja wsteczna. Może ona wykorzystywać funkcję straty średniego błędu kwadratowego (MSE), chociaż inne funkcje straty mogą być używane z propagacją wsteczną, w tym entropia krzyżowa. Stwierdzono, że entropia krzyżowa jest wysoce skuteczna w przypadku problemów klasyfikacji kategorii. Funkcja straty jest po prostu miarą różnicy między wynikiem sieci a pożądanym wynikiem. Jeden cykl zestawu danych treningowych nazywa się epoką. Po kilku epokach zestaw danych walidacyjnych jest prezentowany sieci, a błąd między celami a rzeczywistymi wynikami jest obliczany. W miarę trwania procesu uczenia się możemy zobaczyć, jak błąd zmniejsza się dla zestawu danych walidacyjnych. Służy to do monitorowania postępów uczenia się i pomaga określić, kiedy zatrzymać proces uczenia się. Zestaw danych walidacyjnych nie jest używany do modyfikowania parametrów sieci. Proces uczenia się będzie miał również kilka zmiennych wewnętrznych, które wpływają na proces uczenia się. Są one nazywane hiperparametrami i chociaż mają pewien wpływ na proces uczenia się, nie są częścią sieci i nie są używane na etapie wnioskowania. Niektóre reżimy szkoleniowe mają potencjał do ponownego zdefiniowania topologii sieci neuronowej. Na przykład, oprócz modyfikowania wag i odchyleń, neurony mogą być usuwane ("przycinane") z ukrytych warstw (jeśli na przykład wszystkie wagi zbliżają się do zera dla określonego neuronu), co dynamicznie modyfikuje strukturę sieci, ponieważ neuron o wartości wagi bliskiej zeru prawdopodobnie nie wpłynie na wynik. Zestawy danych i generalizacja Aby osiągnąć dobrą generalizację, sieci neuronowe wymagają dużych ilości adnotowanych danych treningowych. W konkretnym przykładzie klasyfikacji powinny one być idealnie zrównoważone w kategoriach (np. obrazy psów, kotów, koni i owiec), umożliwiając sieci identyfikację cech w danych wejściowych, które są powiązane z każdą kategorią. Zjawisko nadmiernego dopasowania występuje, gdy wyszkolona sieć nie generalizuje prawidłowo dla niewidzianych danych. Niedopasowanie oznacza, że wyszkolona sieć nie nauczyła się wystarczająco danych treningowych. Jest to równowaga między niedopasowaniem i nadmiernym dopasowaniem kontrolowana przez złożoność sieci pod względem (a) liczby neuronów na warstwę i (b) całkowitej liczby warstw między warstwami wejściowymi i wyjściowymi.

Maszyna rozpoznająca wzorce

Po wytrenowaniu sieci neuronowej przechodzimy do drugiego etapu i używamy jej do wnioskowania, w przykładowym i łatwym do zrozumienia przypadku, klasyfikacji (prognoz) z nowymi przykładami danych (wcześniej niewidocznymi dla sieci podczas treningu). Tutaj topologia sieci i parametry pozostają zamrożone (statyczne). Pozwala to na implementację konkretnej implementacji tej maszyny rozpoznającej wzorce (silnika wnioskowania) na wiele sposobów i w różnych formach. Chociaż o sztucznej inteligencji i sieciach neuronowych często mówi się w kontekście emulacji programowej, jak wspomniałem powyżej, niekoniecznie tak jest. Specjalistyczny sprzęt firm takich jak NVIDIA i Graphcore zapewnia architektury sprzętowe, które generują topologie sieci neuronowych, umożliwiając bezpośrednie mapowanie architektury sieciowej na architekturę sprzętową. Takie podejście sprawia, że uruchomienie wytrenowanej sieci neuronowej jest znacznie szybsze niż za pomocą symulacji programowej, zwłaszcza biorąc pod uwagę wszechobecną dostępność komputerów. Staje się to coraz ważniejsze, ponieważ topologia sieci neuronowych staje się coraz większa. Takie sprzętowe przyspieszenie jest również szeroko stosowane do trenowania sieci neuronowych, ponieważ jest to proces bardziej intensywny obliczeniowo. Takie podejścia sprzętowe są stosowane zarówno w projektach badawczych, jak i komercyjnych. W emulacjach oprogramowania symulowana jest ta sama architektura (lub emulowana), działająca w ten sam sposób. Implementacje oprogramowania i sprzętu są takie same pod względem architektury, wag i odchyleń oraz wytwarzanych wyników. To tylko kwestia tego, co jest wygodniejsze lub wydajniejsze w użyciu w danym scenariuszu.

Podejścia do uczenia się

Istnieją cztery główne typy uczenia maszynowego: uczenie nadzorowane, uczenie bez nadzoru, uczenie półnadzorowane i uczenie przez wzmacnianie:

1 W uczeniu nadzorowanym algorytm jest trenowany na oznaczonym zestawie danych, gdzie dla każdego przykładu dostarczane są prawidłowe wyniki. Ten typ uczenia się jest stosowany w zadaniach takich jak regresja i klasyfikacja.
2 W uczeniu bez nadzoru algorytm nie jest dostarczany z oznaczonymi przykładami i musi odkryć podstawową strukturę danych za pomocą technik takich jak klasteryzacja i redukcja wymiarowości.
3 W uczeniu półnadzorowanym algorytm otrzymuje częściowo oznaczony zestaw danych i musi uczyć się zarówno z oznaczonych, jak i nieoznaczonych przykładów.
4 W uczeniu przez wzmacnianie algorytm uczy się poprzez interakcję ze swoim otoczeniem i otrzymywanie nagród lub kar za określone działania.

Uczenie maszynowe ma szeroki zakres zastosowań, w tym rozpoznawanie obrazów i mowy, przetwarzanie języka naturalnego i analitykę predykcyjną. To, co widzieliśmy w ciągu ostatnich kilku lat, to eksplozja aplikacji wykorzystujących uczenie maszynowe, dostarczających szeroki zakres nowych możliwości funkcjonalnych w wielu różnych branżach (od usług finansowych po produkcję i opiekę zdrowotną) oraz we wszystkich częściach operacji biznesowych.

Uczenie nadzorowane

W uczeniu nadzorowanym celem jest wytrenowanie modelu, aby mógł tworzyć prognozy na podstawie oznaczonych przykładów. Istnieją dwa główne typy uczenia nadzorowanego: regresja i klasyfikacja. Regresja polega na przewidywaniu ciągłej wartości wyjściowej, takiej jak cena lub prawdopodobieństwo. Typowe algorytmy regresji obejmują regresję liniową, regresję logistyczną i maszyny wektorów nośnych. Klasyfikacja polega na przewidywaniu dyskretnej wartości wyjściowej, takiej jak etykieta lub klasa. Typowe algorytmy klasyfikacji obejmują k najbliższych sąsiadów, drzewa decyzyjne i naiwny Bayes. Ocena wydajności modelu uczenia nadzorowanego jest ważna, aby upewnić się, że dokonuje on dokładnych prognoz. Typowe metryki oceny dla regresji obejmują średni błąd kwadratowy i średni błąd bezwzględny, podczas gdy typowe metryki oceny dla klasyfikacji obejmują dokładność, precyzję i odwołanie. Nadmierne dopasowanie i niedostateczne dopasowanie to typowe problemy, które mogą wystąpić podczas trenowania modelu uczenia nadzorowanego. Nadmierne dopasowanie występuje, gdy model jest zbyt złożony i jest w stanie idealnie dopasować dane treningowe, ale słabo uogólnia się na nowe dane. Niedopasowanie występuje, gdy model jest zbyt prosty i nie jest w stanie uchwycić podstawowego wzorca danych

Uczenie się przez wzmacnianie

Uczenie się przez wzmacnianie to rodzaj uczenia maszynowego, w którym agent uczy się poprzez interakcję ze swoim otoczeniem i otrzymywanie nagród lub kar za określone działania. Celem jest nauczenie się przez agenta polityki, która maksymalizuje skumulowaną nagrodę w czasie. Uczenie się przez wzmacnianie ma szeroki zakres zastosowań, w tym robotykę, systemy sterowania i gry. Zostało wykorzystane do opracowania udanych systemów sztucznej inteligencji do zadań takich jak gra w szachy i Go. Istnieją trzy główne typy uczenia się przez wzmacnianie: oparte na wartościach, oparte na polityce i oparte na modelach.

Podsumowanie

Uczenie maszynowe (definiowanie modelu predykcyjnego na podstawie danych) jest największą i najbardziej udaną poddziedziną sztucznej inteligencji do tej pory. Naprawdę przełamuje schemat sposobu, w jaki tradycyjnie budowaliśmy technologię. Wcześniej logika decyzyjna i algorytmy były funkcjonalnie definiowane przez analityków biznesowych współpracujących z użytkownikami biznesowymi, którzy rozumieli, w jaki sposób chcą, aby działały aplikacje wspierające ich pracę. Ta główna modyfikacja sposobu tworzenia złożonych algorytmów (lub w terminologii ML, modeli) jest transformacyjna w sektorze IT, a dla tych, którzy nie są zaznajomieni z tym, jak działa ML, początkowo może być trudno się do niej przystosować. Nie chodzi tylko o tę zmianę w sposobie definiowania algorytmów, ale o niepewność praktyki nauki o danych z koniecznością eksperymentowania zarówno z danymi, jak i typami ML używanymi w celu uzyskania najlepszej wydajności. Innowacje i badania w zakresie uczenia maszynowego są siłą napędową wszystkich ostatnich sukcesów, które widzieliśmy (z tysiącami artykułów ML publikowanych każdego miesiąca). Inwestycje w badania stosowane w wielu największych firmach technologicznych przesuwają ML do przodu w niewiarygodnym tempie, a istnieje ogromny potencjał dalszych innowacji w tej przestrzeni w ciągu następnej dekady i później. Podczas gdy koncentrowano się na budowaniu maszyn, które mogą się uczyć, naprawdę potrzebujemy pełnego zakresu zdolności inteligencji, w tym rozumienia, rozumowania, reprezentacji wiedzy, świadomości emocjonalnej i zdrowego rozsądku, aby zbliżyć się do ludzkiego poziomu inteligencji. W tym rozdziale omówiliśmy szeroki zakres technik i metodologii ML, aby dać każdemu nowicjuszowi solidne podstawowe zrozumienie tego, czym jest uczenie maszynowe i jakie są jego podstawowe koncepcje. Skupiliśmy się na głównym obszarze uczenia maszynowego, sieciach neuronowych, które są inspirowane neuronami w biologicznych mózgach, ponieważ była to najbardziej udana technika wraz z postępem metodologii głębokiego uczenia się w ostatnich latach. Pod wieloma względami uczenie maszynowe jest fundamentem, na którym budowane są aplikacje i systemy AI. Podczas gdy ML obejmuje szeroki zakres technik, istnieje wiele innych podejść poza ML, które nadal mieszczą się w szerszym polu AI. Często rozwiązania będą wymagały połączenia technologii obejmujących zarówno ML, jak i AI. kilka).



Pewna SI: Podstawowe umiejętności pracy ze sztuczną inteligencją (6)


Technologia

Sztuczna inteligencja to nie tylko jedna technologia, to zbiór wielu różnych technik w ramach różnych metodologii. Jest to również odniesienie do naszych najbardziej zaawansowanych technologii, które cały czas ewoluują, ponieważ staramy się tworzyć bardziej inteligentną technologię, która może pomóc nam rozwiązywać trudniejsze problemy. W miarę postępu technologii zrozumienie pełnego zakresu dostępnych podejść jest jednym z głównych wyzwań dla współczesnego naukowca zajmującego się danymi. Uczenie maszynowe to tylko jeden obszar tej dziedziny; prawdziwy potencjał AI zostanie zrealizowany tylko dzięki połączeniu wielu technik i podejść. Opracowywanie rozwiązań opartych na AI dla najbardziej złożonych problemów jest również trudne ze względu na szeroki zakres dostępnych opcji. Duża część sztuki i umiejętności naukowca zajmującego się danymi polega na tym, aby instynktownie wiedzieć, jaki typ AI lub ML najlepiej rozwiązać dany problem - a to naprawdę przychodzi tylko z doświadczeniem. Jesteśmy również w niezwykle szybkim okresie, w którym badania i rozwój stosowany osiągają poziom wydajności, jakiego nigdy wcześniej nie widziano; to, co dzisiaj jest przełomową technologią, stanie się przestarzałe w ciągu kilku miesięcy, a nawet tygodni. Nadążanie za wszystkimi tymi zmianami jest trudne; Nie da się też stworzyć rozwiązań, które przetrwają próbę czasu; konieczne są ciągłe udoskonalenia w miarę pojawiania się nowych możliwości.

Zrozumienie AI

Przegląd


Termin sztuczna inteligencja obejmuje całą dziedzinę nauki, której celem jest wytworzenie inteligentnych zdolności. Obejmuje wiele obszarów wiedzy, od informatyki i neuronauki po matematykę, filozofię, psychologię, a nawet fizykę. W ciągu ostatnich 70 lat wytworzyła również wiele różnych metodologii, teorii, technik i technologii. Branża doświadczyła fal zainteresowania tym tematem, a okresy spadkowe znane są jako zimy AI. Badania i rozwój AI są obecnie na najwyższym poziomie, a nowe prace badawcze są publikowane co tydzień na temat nowych algorytmów i architektur. Z dekady na dekadę zmienia się to, co jest uważane za najbardziej zaawansowany typ AI, a teraz widzimy znacznie szybsze postępy, w wykładniczym tempie zmian i dalej. Ale to może być złe, prowadząc do ograniczonego sposobu myślenia o rozwoju technologii, a branża staje się obsesyjnie skupiona na jednej poddziedzinie lub technice, zapominając, że prawdziwa inteligencja będzie wymagać szeregu inteligentnych zdolności. Poprzednie "zimy AI" pokazały nam, że mamy tendencję do powierzania całej wiary jednemu podejściu, dopóki nie zdamy sobie sprawy z jego ograniczeń i nie będziemy w stanie rozwiązać problemów bez przyjęcia znacznie szerszej perspektywy.

Historia AI
Historię AI można prześledzić do lat 50. XX wieku, kiedy to naukowcy po raz pierwszy zaczęli badać pomysł stworzenia maszyn, które mogłyby wykonywać zadania, które normalnie wymagałyby ludzkiej inteligencji. Konferencja Dartmouth w 1956 roku jest powszechnie uważana za miejsce narodzin AI. Naukowcy zebrali się, aby omówić możliwość zbudowania maszyn, które mogłyby wykonywać zadania, które normalnie wymagałyby ludzkiej inteligencji, takie jak rozumienie języka naturalnego, rozpoznawanie obiektów i rozwiązywanie problemów. W latach 60. XX wieku opracowano pierwsze programy AI, w tym Logic Theorist Johna McCarthy′ego i General Problem Solver Herberta Simona. Programy te były w stanie wykonywać proste zadania, takie jak rozwiązywanie problemów matematycznych, granie w gry i tłumaczenie języków. Jednak w 1966 roku rozpoczęła się pierwsza zima AI (termin używany do określenia okresu ochłodzenia lub spowolnienia w branży AI) w wyniku przesadnych oczekiwań i wynikającego z tego niedofinansowania. Pomimo wczesnych sukcesów, naukowcy nie byli w stanie opracować maszyn, które mogłyby wykonywać bardziej złożone zadania, co doprowadziło do zmniejszenia finansowania i spowolnienia postępu. Następnie w latach 70. XX wieku AI przeżyło odrodzenie wraz z rozwojem systemów eksperckich, które były w stanie wykonywać określone zadania, które normalnie wymagają ludzkiej wiedzy specjalistycznej, takie jak diagnozowanie chorób, zalecanie leczenia i dokonywanie prognoz finansowych. Nasza druga zima AI rozpoczęła się pod koniec lat 80. XX wieku z powodu połączenia przesadnych oczekiwań i braku postępu w rozwijaniu prawdziwie inteligentnych maszyn. Finansowanie badań nad AI zmniejszyło się, a wielu badaczy opuściło tę dziedzinę. W połowie i pod koniec lat 90. XX wieku przeżyliśmy kolejny odrodzenie wraz z rozwojem algorytmów uczenia maszynowego, takich jak drzewa decyzyjne, sieci neuronowe i maszyny wektorów nośnych, które pozwoliły maszynom uczyć się na podstawie danych i poprawiać swoją wydajność w czasie. Następnie w 1997 roku odbyła się rozgrywka szachowa między Deep Blue a Garrym Kasparowem, w której Deep Blue, system AI opracowany przez IBM, pokonał mistrza świata w szachach. Był to znaczący kamień milowy w rozwoju AI, pokazujący zdolność maszyn do wykonywania zadań wymagających inteligencji na poziomie ludzkim. Rozpoczęło to kolejną falę entuzjazmu w latach 2010. wraz z rozwojem algorytmów głębokiego uczenia, które umożliwiły maszynom uczenie się i tworzenie prognoz na podstawie dużych ilości danych. Algorytmy te zostały wykorzystane do osiągnięcia najnowocześniejszych wyników w zadaniach, takich jak rozpoznawanie obrazu i mowy, przetwarzanie języka naturalnego i autonomiczne prowadzenie pojazdów - i po raz pierwszy w naszej historii są w stanie wykazać się lepszą wydajnością niż ludzie w określonych zadaniach. Obecnie sztuczna inteligencja jest wykorzystywana w szerokim zakresie zastosowań, od opieki zdrowotnej po finanse, i odgrywa coraz ważniejszą rolę w naszym codziennym życiu. Pomimo tego postępu rozwój prawdziwie inteligentnych maszyn pozostaje wyzwaniem, a sztuczna inteligencja nadal jest aktywnym obszarem badań i rozwoju. Historia sztucznej inteligencji jest naznaczona okresami szybkiego postępu, po których następują zimy sztucznej inteligencji. Wielu ekspertów w tej dziedzinie uważa, że zmierzamy w kierunku kolejnej zimy sztucznej inteligencji, przy czym obecne przecenianie możliwości głębokiego uczenia się i dużych modeli językowych oraz znaczne koszty budowy takich głębokich modeli stają się główną barierą wejścia. To, w jaki sposób branża dojrzeje i rozszerzy się w ciągu najbliższych kilku lat, będzie miało kluczowe znaczenie dla długoterminowego sukcesu i uniknięcia trzeciej zimy sztucznej inteligencji.

Bardziej szczegółowa oś czasu kluczowych kamieni milowych AI

Oto niektóre z kluczowych kamieni milowych w podróży do AI od jej wczesnych początków. Nie jest to ostateczna lista wydarzeń z ostatnich 70 lat, ale da ci ona przedsmak znacznej ilości pracy, która została wykonana przez wiele dekad, aby doprowadzić nas do miejsca, w którym jesteśmy teraz. Nadal mamy wiele do zrobienia, ale już stoimy na ramionach gigantów dzięki temu, co było przed nami:

1943: Warren McCulloch i Walter Pitts opracowują pierwszą sztuczną sieć neuronową, która jest inspirowana strukturą ludzkiego mózgu i jest w stanie uczyć się i dostosowywać do nowych danych.
1950: Alan Turing proponuje test Turinga, miarę zdolności maszyny do wykazywania inteligentnego zachowania równoważnego lub nieodróżnialnego od zachowania człowieka.
1956: John McCarthy wymyśla termin "sztuczna inteligencja" i organizuje konferencję Dartmouth, gdzie powstaje dziedzina AI.
1966: Joseph Weizenbaum tworzy ELIZA, jeden z pierwszych programów do przetwarzania języka naturalnego.
Lata 70.: Badania nad sztuczną inteligencją koncentrują się na rozwoju systemów eksperckich, które są w stanie wykonywać zadania takie jak diagnostyka medyczna i prognozowanie finansowe z wysokim stopniem dokładności.
Lata 80.: Naukowcy opracowują algorytmy uczenia maszynowego, które pozwalają komputerom uczyć się na podstawie danych bez wyraźnego programowania.
Lata 90.: Internet i dostępność dużych ilości danych powodują odrodzenie zainteresowania i finansowania badań nad sztuczną inteligencją.
2002: Po raz pierwszy odbywa się DARPA Grand Challenge, konkurs dla pojazdów autonomicznych.
2005: Komputer Deep Blue firmy IBM pokonuje mistrza świata w szachach Garriego Kasparowa, co oznacza, że komputer po raz pierwszy pokonał eksperta w szachach.
2010: Apple wprowadza Siri, wirtualnego asystenta osobistego, który wykorzystuje przetwarzanie języka naturalnego do rozumienia i reagowania na polecenia głosowe.
2011: Komputer Watson firmy IBM pokonuje dwóch ludzkich mistrzów w teleturnieju Jeopardy!, demonstrując możliwości uczenia maszynowego i przetwarzania języka naturalnego.
2014: AlphaGo firmy Google DeepMind pokonuje mistrza świata w grze planszowej Go, grze uważanej za znacznie bardziej skomplikowaną niż szachy.
2015: Tesla wypuszcza swój pierwszy autonomiczny samochód, Tesla Autopilot.
2016: AlphaGo firmy Google DeepMind ponownie pokonuje najlepszego gracza w Go na świecie, tym razem używając bardziej zaawansowanej wersji algorytmu.
2018: Google ogłasza, że jego system sztucznej inteligencji DeepMind osiągnął "nadludzką" wydajność w wielu grach wideo Atari 2600.
2020: Wydany zostaje model sztucznej inteligencji generującej język GPT-3 firmy OpenAI. Jest to jeden z największych i najbardziej zaawansowanych modeli językowych do tej pory, z 175 miliardami parametrów.
2022: ChatGPT zostaje wydany i wzbudza ogromne zainteresowanie opinii publicznej tymi generatywnymi AI (zarówno konwersacyjnymi AI, jak i generowaniem obrazów i wideo).
2023: Duże firmy technologiczne przyjmują generatywną i konwersacyjną AI, aby ulepszyć swoje produkty i usługi, w tym zrewolucjonizować wyszukiwanie w Internecie.
2024: Dojrzałość technologii generatywnej AI trwa, a wiele firm chce wdrożyć AI, aby uzyskać korzyści w zakresie produktywności.

Innowacja z prędkością myśli

Krajobraz zmienia się szybciej niż kiedykolwiek wcześniej. Wszyscy musimy dostosować się do tego dynamicznego środowiska. Jest to wyzwanie dla firm, które wcześniej prowadziły działalność w ten sam sposób przez dziesięciolecia. Przyjęcie cyfrowego świata tubylczego będzie dla niektórych zbyt trudne i ostatecznie poniosą porażkę. Odkryliśmy elektryczność w latach 1700., ale zajęło nam 200 lat, aby naprawdę opanować jej zastosowanie. Sztuczna inteligencja została po raz pierwszy pomyślana w latach 50., a technologia ta jest nadal w powijakach. Biorąc pod uwagę wykładnicze przyspieszenie postępu technologicznego, zdefiniowane przez Światowe Forum Ekonomiczne jako Czwarta Rewolucja Przemysłowa, staje się dla nas niemal niemożliwe wyobrażenie sobie, jak będzie wyglądał nasz świat za 30 lub 40 lat. Cała branża niewątpliwie zmieni się dramatycznie w nadchodzących latach i chociaż będzie ona wzmocniona możliwościami tworzonymi przez tysiące badaczy i programistów AI pracujących na całym świecie, będzie skupiona na doświadczeniu klienta wymaganym przez młodsze pokolenia klientów, którzy są domyślnie cyfrowymi tubylcami i mają zupełnie inne wymagania niż poprzednie pokolenia. Będzie bardzo ciekawie zobaczyć, jak branża zareaguje na ten zmieniający się krajobraz; na razie trudno przewidzieć, kto będzie zwycięzcą, a kto przegranym w tym nowym konkurencyjnym środowisku.

Przegląd AI

Teraz następuje bardzo skrócone wprowadzenie do różnych form sztucznej inteligencji. Musimy zacząć od ośmiu filarów AI, którymi są zdolności rozumienia, reprezentacji wiedzy, rozumowania, uczenia się, planowania, zdrowego rozsądku, kreatywności i rozwiązywania. Są to główne obszary AI, o których można łatwo zapomnieć, ponieważ skupienie się na jednym z obszarów może dominować, jak w tej chwili w przypadku metod uczenia maszynowego. Systemy eksperckie, systemy oparte na regułach i drzewa decyzyjne Jedną z wcześniejszych metod sztucznej inteligencji nazywano systemami eksperckimi. Często systemy eksperckie były również znane jako systemy oparte na regułach. Początkowo polegały na wydobywaniu wiedzy od ekspertów domenowych w formie obserwacji, wywiadów i ankiet, a następnie kodowaniu tej wiedzy jako reguł w systemie eksperckim, który mógł być używany jako substytut tego eksperta w danym procesie lub przepływie pracy. Problem z tymi systemami polegał na tym, że trudno było wydobyć całą wewnętrzną wiedzę od eksperta, zwłaszcza wszystkie przypadki skrajne/krańcowe. W niektórych przypadkach eksperci nie chcieli dzielić się całą swoją wiedzą, ponieważ obawiali się o własną pracę. Innym problemem z tymi systemami opartymi na regułach było to, że z czasem liczba reguł stała się nadmiernie duża i potencjalnie trudna do utrzymania, a nawet powodowała konflikty między regułami. Te problemy wymagały metod wspomagających, aby pomóc przyciąć reguły i wyróżnić potencjalne nakładanie się i konflikty. Nowoczesne wersje tych systemów eksperckich nazywane są drzewami decyzyjnymi i obecnie wykorzystują dane bezpośrednio do definiowania reguł. Drzewa decyzyjne są bardzo przydatną techniką uczenia maszynowego z domyślnie wbudowaną możliwością wyjaśniania i przejrzystością decyzji. Umożliwia to łatwe określenie dokładnych reguł, które zostały użyte do podjęcia konkretnej decyzji.

Reprezentacja wiedzy

Systemy oparte na wiedzy to metody przechowywania wyodrębnionych informacji i wiedzy. Najnowszym i najpopularniejszym typem bazy wiedzy jest baza danych grafowa. Tutaj wiedza jest przechowywana w formie trójek (podmiot-predykat-obiekt), często nazywanych grafem wiedzy, ponieważ można mieć jeden podmiot z wieloma predykatami. Jest to często używane do reprezentowania wiedzy o relacjach między jednostkami wyodrębnionymi z innych danych lub informacji. Takie bazy wiedzy lub grafy umożliwiają wyszukiwanie osadzonej wiedzy za pomocą łatwych do zrozumienia zapytań.

Uczenie maszynowe

Wszystkie metody uczenia maszynowego wykorzystują dane do nauki, zwane danymi treningowymi. Umiejętność polega na wybraniu właściwej metody uczenia maszynowego, a także właściwego podzbioru danych do wykorzystania jako danych treningowych w celu osiągnięcia pożądanego wyniku. Istnieje ogromna różnorodność metod, inspirowanych różnymi obszarami, od matematyki, prawdopodobieństwa i statystyki po rozumienie poznawcze i ewolucyjne. Matematyka, a w szczególności statystyka, była kluczowym elementem wielu technik AI; wykorzystując koncepcje prawdopodobieństw, te metody dostarczają niektórych podstawowych elementów składowych dla zdolności inteligencji. Metody matematyczne (inne niż statystyczne) obejmują maszyny wektorów nośnych, słowniki rozproszone i metody oparte na regułach (uczenie się reguł asocjacyjnych/indukcyjne programowanie logiczne/podobieństwo i uczenie metryczne). Metody inspirowane biologicznie obejmują zarówno metody poznawcze (w tym sieci neuronowe, głębokie uczenie się i hierarchiczną pamięć czasową), jak i metody ewolucyjne (algorytmy oparte na agentach i genetyczne). Następnie przechodzimy do niektórych z najbardziej zaawansowanych metod, które wykazały znaczną obietnicę w ostatnich latach, w tym głębokie uczenie się i uczenie się wzmacniające.

Głębokie uczenie się

W ciągu ostatnich kilku lat metoda zwana głębokim uczeniem się stała się najbardziej interesująca dla społeczności badawczej. Jest to forma uczenia maszynowego, w szczególności sieci neuronowe, która wykorzystuje bardziej złożone topologie i liczbę warstw neuronów. Dwie główne formy głębokiego uczenia się stały się popularne, jedna zwana splotowymi sieciami neuronowymi (CNN), a druga rekurencyjnymi sieciami neuronowymi (RNN). Zasadniczo pierwszy jest dobry w analizie obrazu i wykrywaniu obiektów, drugi jest dobry w przetwarzaniu języka.

Uczenie się przez wzmacnianie

To w rzeczywistości algorytm szkoleniowy, który pozwala, aby informacje zwrotne ze środowiska wpływały na naukę, zapewniając, że pozytywne wyniki w środowisku (takie jak zwiększenie wyniku w grze) są nagradzane przez zwiększoną naukę działania, które doprowadziło do tego wyniku. To podejście wydaje się powielać w uproszczonej formie sposób, w jaki ludzie uczą się metodą prób i błędów, otrzymując informacje zwrotne ze środowiska zewnętrznego jako metodę pomiaru sukcesu.

Inne techniki

Istnieje wiele innych technik AI, co w rzeczywistości stanowi część wyzwania dla naukowców zajmujących się danymi, którzy budują modele dla zastosowań inteligencji. Przy tak wielu dostępnych technikach, częścią umiejętności budowania systemu inteligencji jest właściwy wybór techniki AI do rozwiązania problemu z wymaganym poziomem wydajności, dopasowując złożoność problemu do złożoności rozwiązania. Krajobraz technik również szybko się zmienia; tysiące badaczy, zarówno akademickich, jak i komercyjnych, publikuje artykuły co tydzień, prezentując postęp w metodach i technikach, przesuwając granice zarówno teorii, jak i zastosowań sztucznej inteligencji. To bardzo ekscytujący czas dla osób zajmujących się tą dziedziną nauki, ale nadążanie za najnowszymi osiągnięciami stanowi prawdziwe wyzwanie.

Piękno inteligencji i ludzkiego mózgu

Wydaje się, że można śmiało powiedzieć, że w ludzkim mózgu występuje niezwykła złożoność, i to na wielu różnych poziomach. W przeciętnym ludzkim mózgu znajduje się 100 miliardów neuronów i do 1000 bilionów połączeń synaptycznych. Z różnorodności samych neuronów, ich topologii i funkcjonowania wynikają liczne wariacje w warstwowaniu strukturalnym i hierarchii w różnych częściach mózgu. Bez wątpienia jest to najbardziej złożona maszyna, jaką kiedykolwiek zbudowano. Dopiero zaczynamy rozumieć, jak działa. Dodajmy dynamiczną naturę tego, jak się uczy, rosnące połączenia między neuronami, zmieniające się ciężary połączeń, gdy stale się uczy i adaptuje, nowe neurony zastępując stare neurony. Obserwowanie, jak ten proces faktycznie zachodzi, pozwala nam uświadomić sobie prawdziwe piękno inteligencji i rozpoznać, że nasz umysł jest najcenniejszym obiektem we wszechświecie. Jeśli kiedykolwiek potrzebowałeś motywacji do studiowania jakiegoś przedmiotu, z pewnością pomoże ci uznanie, że inteligencja jest tworzona przez najpiękniejszy i najbardziej złożony obiekt we wszechświecie! Oczywiste jest, że umysły zwierząt i ludzi stopniowo rozwijały się i rozwijały dzięki korzyściom ewolucji w czasie. Niektóre zwierzęta wykazują bardzo podobne zdolności poznawcze do ludzkich, podczas gdy inne mają wyraźnie inne układy i struktury, ale nadal wykazują stosunkowo wysoką jakość inteligencji. Skorzystanie z ewolucyjnego projektu naturalnej inteligencji bez wątpienia pomoże nam stworzyć bardziej zdolną sztuczną inteligencję. Zrozumienie, jak działa ludzki mózg, z pewnością poszerzy naszą wiedzę na temat tego, jak budować zaawansowane systemy AI, a nawet jeśli nie będziemy dokładnie przestrzegać konstrukcji ludzkiego mózgu, z pewnością będzie on dla nas bardzo dobrym przewodnikiem, z którego będziemy się uczyć. Możemy traktować go jako wzór inteligencji.

Sztuczna inteligencja ogólna

Dzięki ostatnim osiągnięciom w zakresie generatywnej AI i dużych modeli językowych (LLM) zaczynamy dostrzegać przejście od wąskich do bardziej ogólnych możliwości AI. Posiadanie jednego narzędzia, które można wykorzystać w wielu różnych aplikacjach (od pisania materiałów marketingowych po zdawanie egzaminów i tworzenie kodów) z pewnością wydaje się przykładem ogólnej inteligencji. Niektórzy spekulowali nawet, że najlepsze LLM zaczynają wykazywać pojawiające się właściwości inteligencji (takie jak zrozumienie i rozumowanie). Jednak wielu innych ekspertów podkreśliło, że LLM to po prostu stochastyczne papugi, podatne na błędy i halucynacje. Podczas gdy możliwości ChatGPT i innych podobnych generatywnych i konwersacyjnych AI zadziwiły świat (ponad 100 milionów użytkowników zapisało się do korzystania z ChatGPT w ciągu pierwszego miesiąca od jego publicznego udostępnienia), jego prawdziwy poziom inteligencji jest wysoce wątpliwy. Wielu doświadczonych ekspertów w tej dziedzinie uważa, że LLM nie są rozwiązaniem dla prawdziwego rozumienia języka. Inni, w tym ja, uważają, że AGI zostanie wytworzona z połączenia wielu różnych technik i metod AI. Zastanawiając się nad złożonością, o której wiemy w mózgach zwierząt i ludzi, sugerowałoby to, że potrzebujemy znacznie większego wyrafinowania w naszych architekturach i paradygmatach uczenia się. Istnieje tak wiele aspektów inteligencji, których nie byliśmy jeszcze w stanie odtworzyć - rozumowanie z wyjaśnieniem, planowanie i rozwiązywanie, zdrowy rozsądek, samoświadomość, kreatywność i emocje. Nasze dotychczasowe próby były w stanie naśladować tylko nasze własne odpowiedzi bez żadnych niezależnych zdolności poznawczych. Jest to główna przeszkoda, która będzie zarówno kontrowersyjna, jak i trudna do rozwinięcia i pokonania przez branżę w nadchodzących latach i dekadach.

Superinteligencja i osobliwość

Gdy AGI zostanie osiągnięta i będziemy mieć pojedynczy byt, który ma poziomy inteligencji w wielu (jeśli nie we wszystkich) podmiotach wykraczające poza zbiorową inteligencję ludzi, wkraczamy w kolejny ważny kamień milowy w ewolucji człowieka i inteligencji. Superinteligencja ucieleśni poziom inteligencji, którego wcześniej nie doświadczyliśmy i którego potencjalnie nie będziemy w stanie zrozumieć. Możliwe, że będzie konstruować sugestie, które pomogą nam rozwiązać dany problem, który dla nas nie ma jasnego rozwiązania. Ta sytuacja stanie się bardzo niekomfortowa dla ludzi - posiadanie sztucznie inteligentnego agenta tak inteligentnego, że jego sugestie dla nas, choć najprawdopodobniej poprawne, są trudne, jeśli nie niemożliwe do zrozumienia. To, w jaki sposób zdecydujemy się zaufać temu superinteligentnemu agentowi, zdefiniuje nas. Superinteligencja będzie również posiadać wiedzę na temat sztucznej inteligencji, tak dużą, że będzie w stanie wymyślać nowe wersje samej siebie, nadal się udoskonalać i dalej rozwijać swoją inteligencję. Stworzyłoby to pokolenie po pokoleniu nowe wersje superinteligentnych systemów AI - to samotworzenie technologii nazywane jest osobliwością. To może doprowadzić do powstania systemu AI, którego najlepsi badacze AI na świecie nie rozumieją. To, jak nasza relacja z technologią, zwłaszcza sztuczną inteligencją, będzie się rozwijać przez następne kilka dekad, potencjalnie ukształtuje naszą własną ludzką ewolucję. Będziemy musieli zdecydować, jak wykorzystać korzyści dostępne dzięki takiej mocy, nie narażając się na niektóre ryzyka i wyzwania.

Pomiar inteligencji

Jednym z wyzwań, przed którymi stoimy jako branża, jest dwojakie. Po pierwsze, potrzebujemy solidnej definicji sztucznej inteligencji. Może to brzmieć jak dziwna sytuacja dla branży AI, biorąc pod uwagę, że technologia ta ma 70 lat. Możemy oczywiście wykorzystać oryginalną definicję, którą podał John McCarthy, gdy po raz pierwszy ukuł ten termin w 1956 roku. To nie jest zły punkt wyjścia, ale dziedzina ta rozwinęła się, a kilku ekspertów ma nieco odmienne wersje tej definicji. Ostatecznie podobieństwa są większe niż różnice, więc jest to nieco akademicki punkt. Drugi punkt, co ważniejsze, to to, że musimy zrozumieć, jak możemy dokładnie zmierzyć poziom inteligencji osiągnięty przez dowolną formę sztucznej inteligencji. Tak, mamy testy IQ i inne testy przedmiotowe dla ludzi, a Alan Turing opracował swój Test Turinga dla AI, który nadal jest ważnym punktem wyjścia, ale pomija złożoność i zakres możliwości, które stanowią inteligencję, którą przydałoby się nam skwantyfikować w miarę postępów w budowaniu bardziej zaawansowanych form AI. Podczas gdy inni zaproponowali skalę AI, od podstawowej wąskiej AI do AGI i superinteligencji, brakuje szczegółów i podejścia do pomiaru. Z tego powodu opracowano to, co nazywam Indeksem Inteligencji. Ten indeks zapewnia skalę ruchomą zdolności inteligentnych w pełnym zakresie możliwości inteligencji. Pomoże to branży mieć globalny punkt odniesienia do porównań i uniknąć wszelkich fałszywych oświadczeń lub nadmiernego rozgłaszania przyszłych modeli i systemów AI.

Ostatnie osiągnięcia

Jednym z powodów, dla których byłem tak zainteresowany i zmotywowany do nauki o AI na początku mojej kariery, było moje uświadomienie sobie, że AI oznacza po prostu najbardziej zaawansowaną formę technologii. To stwierdzenie zostało udowodnione w ciągu ostatnich kilku dekad, ponieważ to, co jest uważane za najnowocześniejszy rozwój AI, zmienia się z czasem. Nigdy nie było to bardziej realne niż w ciągu ostatnich kilku lat. Połączenie generatywnej sztucznej inteligencji (opartej na fundamencie techniki znanej jako Transformer) i konwersacyjnej sztucznej inteligencji (wykorzystującej uczenie wzmacniające) dało możliwości zademonstrowane przez OpenAI w listopadzie 2022 r. wraz z wydaniem ChatGPT. To podbiło świat i po raz pierwszy zilustrowało uniwersalną sztuczną inteligencję, zdolną do wykonywania szeregu zadań, od pisania poezji po konstruowanie kodu programistycznego. Podczas gdy pierwsza wersja była imponująca, duże firmy technologiczne dostrzegły jej potencjał i ścigały się, aby zintegrować ją ze swoimi pakietami produktów. Firmy z wyszukiwarkami chciały umożliwić bardziej interaktywne wyszukiwanie, umożliwiając lepsze filtrowanie za pośrednictwem interfejsu konwersacyjnego. Inne firmy dostrzegły potencjał lepszych chatbotów obsługi klienta i asystentów osobistych. Dodatkowe ważne funkcje obejmowały wzrost produktywności w narzędziach dla pracowników wiedzy. Jednak to był dopiero początek wyścigu o zbudowanie tak silnej zdolności podstawowej. Chociaż wyniki tych LLM są imponujące, nadal dostarczają one jedynie stosunkowo ogólnych wyników, co doprowadziło do uświadomienia sobie umiejętności potrzebnych do dostarczania dobrze sformułowanych i kontekstowych podpowiedzi. Do tego stopnia, że narodziła się rola inżyniera podpowiedzi, a internet zalała masa ściąg podpowiedzi do różnych celów. Wszyscy szukali sposobów na zintegrowanie generatywnej AI ze swoimi aplikacjami i usługami, aby zapewnić te najnowocześniejsze możliwości. Jednak wkrótce stało się jasne, że w przypadku wielu rzeczywistych zastosowań LLM potrzebowały więcej informacji, aby poprawić jakość i precyzję odpowiedzi. Szybko na LLM nałożono warstwy drugich pilotów, orkiestracji i technologii łańcuchowych, wraz z bazami wiedzy informacji korporacyjnych i magazynami dokumentów, aby uziemić LLM dodatkowymi informacjami kontekstowymi rozszerzającymi podpowiedź użytkownika. Wymagało to następnie poszerzenia okna tekstu wejściowego, aby zapewnić więcej danych wejściowych do modeli. Ponadto, link do informacji zewnętrznych, wykorzystujący ogromną ilość informacji już dostępnych w wyszukiwarkach i możliwość wykonywania zadań stron trzecich w celu stworzenia platformy automatyzacji koordynowanej przez interfejs konwersacyjnej AI, oba zapewniają główne narzędzie do eksploracji i eksploatacji przez tych, którzy chcą budować inteligentne aplikacje. Z pewnością świat AI jest zafascynowany generatywną AI, a w szczególności dużymi modelami językowymi, ponieważ rzeczywiste zastosowania są znaczące, a dyrektorzy generalni/dyrektorzy techniczni firm każdej wielkości chcą wykorzystać potencjalne zyski produktywności z tego narzędzia. Będzie to nadal postępować w niedalekiej przyszłości, przy znacznym finansowaniu start-upów generatywnej AI, szkoleniu większej liczby modeli open-source i komercyjnych, większym skupieniu na dostosowanych i niestandardowych modelach dla określonych celów i branż. Widzimy już szersze możliwości generatywne, przy czym tworzenie obrazów i wideo ma miejsce również w innych mediach, w tym muzyce, odkryciach naukowych i projektowaniu produktów. Wielu ekspertów ma przeciwne opinie na temat LLM, twierdząc, że mają ograniczone, jeśli w ogóle, zdolności rozumienia lub rozumowania, pomimo możliwości wykazania się pewnym stopniem zdolności w tej dziedzinie. Zasadniczo LLM są po prostu statystycznymi predyktorami następnego słowa w sekwencji, ale po przeszkoleniu na ogromnych ilościach danych i miliardach parametrów wewnętrznych, zademonstrowane wyniki są zdumiewające. Skupiono się na poprawie wydajności LLM, zmniejszeniu halucynacji i większej wrażliwości na kontekst, aby osiągnąć bardziej dostosowane wyniki. Uziemienie podpowiedzi z dodatkowymi informacjami (z bazy wiedzy przedsiębiorstwa lub wykresu) zaaranżowanymi przez drugiego pilota lub próba przeprowadzenia uczenia się udoskonalającego z wykorzystaniem niestandardowych danych były skutecznymi metodami poprawy wyników LLM dla określonych zadań. Musimy jednak pamiętać, że AI nie dotyczy tylko generatywności - to tylko jeden z elementów tego, co AI może zrobić. Musimy również uznać różnorodność opinii na temat prawdziwej, leżącej u podstaw inteligencji w modelach generatywnych, co zasadniczo odnosi się do poprzedniej sekcji dotyczącej tego, jak prawidłowo oceniamy poziom inteligencji osadzonej w tych systemach AI, które budujemy.

Ostatnie przemyślenia

To, co obecnie uważamy za sztuczną inteligencję, znacznie różni się od tego, co mieliśmy w latach 80. i 90. XX wieku, a pod koniec lat 20. i 30. XXI wieku z pewnością będzie o wiele bardziej zaawansowane. Czym ona będzie i do czego będzie zdolna, na tym etapie nikt nie wie, ale z całą pewnością zmierzamy w kierunku sztucznej inteligencji, która będzie bardziej użyteczna, bardziej atrakcyjna dla masowego odbiorcy i będzie coraz bardziej zintegrowana ze wszystkim, co robimy. Powinno to nie tylko zwiększyć naszą produktywność, ale także pomóc nam rozwiązać najtrudniejsze problemy dnia dzisiejszego, które obecnie zagrażają naszej planecie, a nawet naszemu istnieniu. Połączenie człowieka i maszyny już nadeszło. Ilu z was siedzi ciągle przy swoim smartfonie? Ta integracja ludzi i technologii, z których każdy zapewnia unikalne talenty i umiejętności, będzie naszą przyszłością, wykorzystując ogromną moc obliczeniową i przetwarzanie danych ciężkiej pracy sztucznej inteligencji, aby umożliwić nam bardziej szczegółowe i kompetentne spostrzeżenia. Jeśli możemy wykorzystać moc AI, aby popełniać mniej błędów, poprawić naszą przyszłość i pomóc nam stawić czoła wyzwaniom, musimy zrównoważyć te korzyści z wszelkimi potencjalnymi pułapkami lub obawami o bezpieczeństwo. Odpowiedzialna i godna zaufania AI jest naszym kluczem do solidnej i korzystnej przyszłości ludzkości opartej na AI. W tym rozdziale przedstawiliśmy ogólny przegląd pełnego zakresu technik i technologii AI. Dziedzina ta jest różnorodna, złożona i z pewnością obecnie szybko się rozwija, a nowe algorytmy, innowacje i badania są publikowane codziennie. Aby być na bieżąco, wszyscy pracujący w tej dziedzinie muszą poświęcić się ciągłej nauce i mieć dociekliwą naturę, aby zbadać, co dzieje się w innych częściach świata AI. Tak szybkie zmiany i postęp stwarzają realną okazję dla wielu, aby zdobyć wiedzę w określonych obszarach, a nawet, jeśli chcesz, zostać ekspertem w tej dziedzinie. AI to naprawdę ekscytujący, wzmacniający i przełomowy zestaw technologii; zmieni nasz świat i nasze życie na lepsze, potencjalnie zmieniając bieg ewolucji człowieka i, jeśli będziemy go używać odpowiedzialnie, zapewniając nasze długoterminowe przetrwanie jako gatunku.



Pewna SI: Podstawowe umiejętności pracy ze sztuczną inteligencją (5)


Perspektywa przyszłości

Do tej pory podróż AI była prawdziwym rollercoasterem, z dwiema poprzednimi zimami AI (gdzie entuzjazm i finansowanie AI ostygły na jakiś czas). Podczas gdy zainteresowanie AI powoli rosło przez ostatnią dekadę lub dłużej, nie było ono szeroko akceptowane ani wykorzystywane aż do niedawna; 2023 był przełomowym rokiem, pokazującym AI jako narzędzie ogólnego przeznaczenia, które po raz pierwszy w swojej historii stawało się prawdziwie masową technologią. Ten pęd przyspieszył od tego czasu, wraz ze znaczącymi osiągnięciami (i inwestycjami) ze strony wszystkich kluczowych graczy w branży technologicznej, aby zmaksymalizować szansę, ponieważ CEO i CTO dużych i małych firm poszukują potencjalnych korzyści ze wzrostu produktywności i ulepszeń funkcjonalnych dzięki integracji najnowszych możliwości AI. Krajobraz i środowisko AI są bardzo dynamiczne, a zmiany zachodzą w zawrotnym tempie, co sprawia, że nawet najbardziej świadomym praktykom trudno jest nadążać za nowymi osiągnięciami w tej dziedzinie, które są wydawane codziennie. Podczas gdy technologia rozwija się szybko, rządy i organy regulacyjne robią, co w ich mocy, aby dotrzymać jej kroku, ale muszą znaleźć równowagę między korzyściami płynącymi z dominacji innowacji i dobrobytu gospodarczego a obawami etycznymi i dotyczącymi bezpieczeństwa oraz konsekwencjami przyznania firmom technologicznym zbyt dużej swobody. Jest to delikatna równowaga, a rządy mają różne opinie na temat tego, jaki jest właściwy poziom nadzoru i kontroli. Mówiąc najprościej, Stany Zjednoczone faworyzują duże technologie, Europa jest bardziej po stronie konsumenta, podczas gdy Wielka Brytania próbuje znaleźć równowagę, aby umożliwić innowacje w zakresie AI, ale z bezpiecznymi kontrolami odpowiedzialnego zarządzania AI. W nadchodzących latach prawdopodobnie nastąpią znaczące innowacje w zakresie etyki i wiarygodności AI, prywatności i zaufania do danych, audytu, zarządzania i kontroli. Rząd Wielkiej Brytanii zorganizował pierwszy na świecie globalny szczyt bezpieczeństwa AI w 2023 r., aby uzyskać globalne porozumienie w sprawie niektórych z tych głównych obaw, podpisując umowę z Bletchley Park i zgadzając się na utworzenie dwóch globalnych instytucji AI w celu testowania modeli pionierskich. Musimy jednak zdać sobie sprawę, że przemysł AI ma zaledwie 70 lat i chociaż dla wielu może się to wydawać długim okresem, większość znaczącego postępu nastąpiła dopiero w ciągu ostatnich dwóch dekad, a nasze algorytmy uczenia się, paradygmaty i architektury są nadal bardzo uproszczone w porównaniu z różnorodnością wzorców neuronowych, które widzimy w ludzkim mózgu. Choć nie jest to rozstrzygające, wydaje się, że sugeruje to, że mamy jeszcze długą drogę do przebycia, zanim będziemy mogli osiągnąć głębokie poziomy inteligentnych zachowań i zdolności porównywalne z naszą własną ludzką inteligencją. Niektórzy będą twierdzić, że postęp, jaki widzieliśmy w ostatnich miesiącach w przypadku dużych modeli językowych, konwersacyjnej i generatywnej AI, świadczy o znacznym postępie, jaki poczyniliśmy, a cel AGI jest znacznie bliższy, niż wcześniej sądzono. Jednak jest wielu innych ekspertów AI, którzy kwestionują prawdziwe możliwości tych LLM i podkreślają potrzebę bardziej solidnego i kompletnego rozwiązania. Zużycie energii przez te ogromne modele jest również powodem do obaw, zwłaszcza gdy weźmie się pod uwagę zużycie energii przez ludzki mózg (około 20 procent całkowitego zużycia energii przez organizm, czyli około 0,3 kilowatogodziny dziennie), podczas gdy LLM może zająć około 10 gigawatogodzin na przeszkolenie (co mniej więcej odpowiada rocznemu zużyciu energii przez ponad 1000 gospodarstw domowych w USA), a w wielu przypadkach nadal wymaga procesora graficznego do uruchomienia modelu w trybie wnioskowania. IBM stoi przed wielkim wyzwaniem stworzenia sztucznej inteligencji, która będzie miała podobne zużycie energii do ludzkiego umysłu, co jest godnym podziwu celem. Potencjał obliczeń kwantowych na skalę komercyjną może również pomóc w skróceniu czasu szkolenia, a w pewnym stopniu również zużycia energii. Ostatecznie prawdopodobnie potrzeba będzie dziesięcioleci kolejnych badań i rozwoju, aby osiągnąć zaawansowaną sztuczną inteligencję na poziomie ludzkiej inteligencji i powyżej niego. Prawdopodobnie będziemy mieli kilka fałszywych startów (jak już mieliśmy) i kilka przesadnie rozreklamowanych i wyolbrzymionych zdolności, które ostatecznie okażą się przesadą lub fałszywymi twierdzeniami. To normalne w przypadku tak szybko rozwijającej się technologii, ale musimy trzymać się najwyższych standardów i unikać w miarę możliwości roszczeń bez wnikliwej oceny i badania przez osoby trzecie. Część tego wyzwania wynika z faktu, że nie mamy standardu branżowego do pomiaru inteligencji. Alan Turing próbował to zrobić za pomocą swojego testu Turinga, ale złożoność inteligencji we wszystkich jej formach wymagała o wiele głębszej i bardziej solidnej skali pomiaru. DeepMind niedawno podzielił się swoją próbą zrobienia tego, ale nawet to nie oddaje sprawiedliwości wielu aspektom inteligentnych możliwości. W tym artykule przyjrzymy się bliżej niektórym trendom, wyzwaniom i szansom, które wpłyną na przyszłość badań i rozwoju w dziedzinie sztucznej inteligencji w nadchodzących latach, a także ukształtują role i możliwości kariery osób, które chcą zgłębić tajniki pracy w dziedzinie sztucznej inteligencji.

Nowe trendy w AI

Generative AI to tylko wierzchołek góry lodowej; mamy o wiele więcej do zrobienia pod względem podstawowych prac, więcej postępów w algorytmach uczenia się, bardziej złożonych architektur, większej różnorodności w modelach neuronowych, więcej innowacji w zakresie szkolenia, testowania, wdrażania i monitorowania wydajności modelu. Mamy całe obszary inteligencji, które wymagają znacznie większych inwestycji, badań i wysiłków rozwojowych. Nowe podejścia do zarządzania danymi w celu lepszego wsparcia prywatności danych i zaufania będą wymagać postępów w stopniowym uczeniu się i oduczaniu. Nowe warstwy infrastruktury w celu wsparcia bezpieczeństwa AI, audytu, kontroli i zarządzania prawdopodobnie staną się częścią standardowych ram i zestawu narzędzi dostępnych dla naukowców zajmujących się danymi - więcej innowacji AI w ciągu najbliższych kilku lat niż widzieliśmy w ciągu ostatnich pięciu do dziesięciu lat. Istnieją jednak inne technologie, które wzmacniają i wspierają giganta AI, w tym kwantowe, IoT, przetwarzanie brzegowe i łączność mobilna 5G. Wszystkie one otworzą nowe aplikacje, infrastruktury i modele biznesowe, a także wiele nowych startupów AI. Niektóre z tych start-upów skupiają się na wykorzystaniu technologii do pomocy w rozwiązaniu niektórych z naszych najważniejszych i potencjalnie zagrażających wyginięciem problemów, takich jak bezpieczeństwo żywnościowe, zmiany klimatu, zielona energia, opieka zdrowotna i ubóstwo finansowe. Te wielkie wyzwania mogą uratować ludzkość przed nią samą i rozwiązać najpilniejsze i najbardziej złożone problemy, z którymi przyjdzie nam się zmierzyć w tym stuleciu.

Droga do sztucznej inteligencji ogólnej

Praca wykonywana zarówno w obszarach badawczych, jak i stosowanych w dziedzinie AI poprowadzi nas ścieżką w kierunku sztucznej inteligencji ogólnej, ale istnieje wiele debat i nieporozumień co do tego, jak i kiedy to naprawdę nastąpi. Wierzę, że zobaczymy kilka fałszywych startów i kilka nieprawdziwych twierdzeń o osiągnięciu AGI. W idealnym przypadku należy nimi odpowiednio zarządzać, z ekspercką recenzją przed udostępnieniem takich twierdzeń mediom głównego nurtu, aby zmniejszyć szum medialny i negatywne skutki twierdzeń, które później okażą się fałszywe. Jednak jest mało prawdopodobne, że tak się stanie; zamiast tego okazja komercyjna i chęć bycia pierwszym na mecie będą zbyt kuszące dla ludzi. Opinie na temat tego, kiedy AGI może zostać osiągnięte, są szeroko podzielone, od tej dekady do setek, jeśli nie tysiąca lat. Faktem jest, że nie wiemy, a ostatnie wydarzenia przyspieszyły rozwój tej dziedziny, ale wiemy, że wciąż jest wiele do zrobienia, zanim zbliżymy się do możliwości AGI. Droga do AGI może przebiegać wieloma różnymi ścieżkami w oparciu o różne podstawowe teorie AI i to, jak mogą one wymagać połączenia, aby utworzyć zunifikowaną teorię AI (która jeszcze nie została zdefiniowana). Zunifikowana teoria AI nie była jeszcze omawiana w branży, tylko modele multimodalne, które byłyby krokiem we właściwym kierunku, ale jedynie próbą bogatszego zrozumienia świata poprzez przyjmowanie wielu informacji sensorycznych.

Rozważania etyczne i społeczne

Przy tak przełomowej technologii największym zmartwieniem, jakie powinniśmy mieć, jest wpływ na społeczeństwo. Przyszłość miejsca pracy zmieni się dramatycznie, a większość ról zostanie uzupełniona o asystentów cyfrowych obsługiwanych przez sztuczną inteligencję, a inne role zostaną znacząco dotknięte, jeśli nie zostaną usunięte. Oczywiście zobaczymy również wiele nowych ról i wymagań dla naukowców zajmujących się danymi i innych ról związanych ze sztuczną inteligencją, ale osoby, których role zostaną zastąpione, mogą nie być w stanie przekwalifikować się i przekwalifikować, aby szybko znaleźć nową pracę. To, jak szybko nastąpi ta rewolucja i jak rządy zareagują, aby pomóc zmniejszyć wpływ i wesprzeć osoby bezpośrednio dotknięte, będzie przełomowym momentem i prawdopodobnie zadecyduje o tym, jak ogół społeczeństwa zaakceptuje tę nową erę technologiczną. Niektórzy wzywali do wprowadzenia powszechnego standardowego dochodu, aby pomóc poradzić sobie z tym problemem; jednak próby tego podejścia zostały przetestowane w innych krajach z ograniczonym powodzeniem. Widzę również potrzebę dostosowania systemu edukacyjnego do sztucznej inteligencji. Widzieliśmy, jak ChatGPT w klasie podzielił opinie nauczycieli, niektórzy zachęcali dzieci do korzystania z niego, podczas gdy inni zakazali jego używania. Ale to tylko odwracanie uwagi od tego, co musi się wydarzyć w sektorze edukacji. Po pierwsze, AI może być używana do poprawy wyników edukacyjnych, dostarczając spersonalizowane materiały dydaktyczne dla każdego ucznia w oparciu o wyniki w nauce. Może to poprawić szybkość zrozumienia poprzez skupienie się na obszarach wymagających uwagi. AI w klasie w tym celu już zaczyna się pojawiać, ale nie jest szeroko rozpowszechniona ani nie jest częścią krajowego programu nauczania. AI zakłóca również przyszłość pracy i potrzeby naszej przyszłej siły roboczej. Wiele pracochłonnych stanowisk zostanie częściowo lub całkowicie zautomatyzowanych za pomocą mechanicznych robotów sterowanych przez AI. Potrzebujemy więcej pracowników wiedzy, bardziej doświadczonych i wykwalifikowanych w zakresie technologii, zarówno do jej wykorzystania, jak i pomocy w jej tworzeniu. Rozważania etyczne są szerokie i ważne dla dostarczania odpowiedzialnych i godnych zaufania aplikacji AI. Należy zrobić więcej, aby zapewnić, że każda firma ma zestaw podstawowych zasad AI, które obejmują rozważania etyczne. Różne instytucje i firmy opublikowały ramy etyczne, które mogą służyć jako dobry punkt wyjścia, ale każda firma musi określić własne podejście i priorytety w tym zakresie. Wierzę, że w miarę dojrzewania branży pojawi się więcej standaryzacji, wraz z praktycznymi narzędziami i ramami, aby wspierać najlepsze praktyki etyczne w różnych branżach i ogólnie, z perspektywy kraju.

Ewolucja karier w dziedzinie AI

Role dostępne w sektorze AI są zróżnicowane i szybko ewoluują. Główna rola, którą widzimy dzisiaj, czyli naukowca danych, została po raz pierwszy szeroko wprowadzona dopiero w 2008 roku.5 Bardziej niedawnym przykładem nowej roli w świecie AI jest inżynier natychmiastowy, nowy w 2023 roku i bezpośrednio związany z wprowadzeniem ChatGPT (połączenie generatywnej i konwersacyjnej AI). Istnieje wiele innych ról, zarówno technicznych, jak i nietechnicznych, potrzebnych do udanego zespołu AI i ML, od inżynierów ML i MLOps po inżynierów danych, a także bardziej tradycyjne role IT, takie jak programiści full-stack i projektanci UX. Pody nauki o danych lub zespoły Agile zazwyczaj obejmują wszystkie te role, a także część lub całość scrum mastera, właściciela produktu i analityka biznesowego. Widzieliśmy również inne role, w tym etykietującego dane, urzędnika ds. etyki i zarządzania oraz dyrektora ds. AI. W ramach każdej roli będą poziomy odpowiedzialności; na przykład w przypadku nauki o danych możesz zacząć jako junior, a następnie z czasem i doświadczeniem awansować na starszego, lidera i ostatecznie na głównego naukowca ds. danych. Następnie rola może się rozszerzyć, aby kierować kilkoma zespołami na poziomie grupy lub działu, a następnie na skalę kraju lub firmy. Chociaż konkretne umiejętności dla każdej z tych ról będą się różnić, każda z nich wymaga poziomu umiejętności interdyscyplinarnych, które obejmują zarówno elementy techniczne, jak i nietechniczne, w tym na przykład dobrą komunikację i opowiadanie historii. Zarządzając karierą i planując przyszłe ruchy i postęp, trzeba być proaktywnym, ponieważ nikt nie skupi się na Twojej karierze tak bardzo, jak Ty i powinieneś. Nie pozostawiaj tego przypadkowi i miej nadzieję, że coś się wydarzy. Musisz dać sobie jak najlepsze szanse na sukces i awans. Obejmuje to nadążanie za najnowszymi osiągnięciami w zakresie technologii i procesów rozwojowych oraz inwestowanie czasu i wysiłku w szkolenie się w tych nowych aspektach.

WSKAZÓWKA DOTYCZĄCA KARIERY: Jednym z najlepszych sposobów, w jaki zaprojektowałem rozwój kariery, było upewnienie się, że pomagam rozwiązywać problemy mojego menedżera. Na przykład pewnego razu wiedziałem, że jeden z moich kolegów zamierza złożyć wypowiedzenie o odejściu z zespołu. Widziałem, że to postawiło mojego menedżera przed problemem, komu ta osoba przekaże swoje obowiązki i własność aplikacji - cóż, był to oczywisty sposób na rozszerzenie mojej własnej platformy, więc natychmiast zgłosiłem się na ochotnika, aby pomóc w przekazaniu obowiązków i przejęciu jego obowiązków.

WSKAZÓWKA DOTYCZĄCA KARIERY: Ponieważ technologia rozwija się tak szybko, brałem tygodniowy urlop, który nazywałem Geek Week. Była to dla mnie okazja, aby oderwać się od codziennej pracy i skupić się na nauce nowych technologii, technik i języków, które chciałem zrozumieć, ale miałem ograniczone możliwości w swojej pracy w tamtym momencie. To służyło mi dobrze przez lata i pozwoliło mi utrzymać moje umiejętności programistyczne na wysokim poziomie.

Badania i innowacje

Na świecie jest więcej badaczy AI i start-upów AI niż kiedykolwiek wcześniej - ponad 300 000 badaczy na uniwersytetach i dużych firmach technologicznych6 i ponad 67 000 firm wykorzystujących lub rozwijających AI. Nasze oczekiwania wobec AI są o wiele wyższe niż wobec naszych własnych zdolności umysłowych; żądamy, aby AI była jak najbardziej bliska doskonałości, jeśli nie całkowicie nieomylna. Na przykład w przypadku samochodów autonomicznych, nawet jeśli średnio możemy wykazać, że są one znacznie bezpieczniejsze niż ludzie-kierowcy, natychmiast zaczynamy się martwić, gdy widzimy jeden wypadek spowodowany przez automatyzację AI. Prawie doskonałość nie jest wystarczająca dla niektórych zastosowań. Wymagamy również, aby nasza AI była w stanie wyjaśnić swoje decyzje, a przejrzystość decyzji i możliwość wyjaśnienia są wymogiem nie tylko dla regulowanych branż, takich jak finanse i medycyna, ale także dla innych procesów decyzyjnych. Stanie się to coraz ważniejsze, ponieważ decyzje podejmowane przez naszą AI za pośrednictwem rekomendacji mogą stać się dla nas mniej oczywiste, ponieważ jej głębokie spostrzeżenia i wiedza wykraczają daleko poza nasze własne ludzkie zdolności. Podczas gdy generatywna sztuczna inteligencja stała się głównym nurtem w przypadku tekstów i obrazów/wideo, zobaczymy głębsze zastosowania, które będą miały bardziej kreatywne wyniki. Z pewnością wierzę, że pierwszy film w całości stworzony przez sztuczną inteligencję, od scenariusza po postacie, scenografię i kąty kamery, muzykę i ścieżkę dźwiękową, zostanie wkrótce wydany. Ale znacznie więcej niż to, generatywna sztuczna inteligencja wkrótce stworzy nowe produkty, dokona nowych odkryć. W 2024 roku DeepMind wydał model sztucznej inteligencji, który określił ponad 380 000 nowych stabilnych materiałów. Będzie to ogromny obszar wzrostu i radykalnie przyspieszy cały sektor naukowy, potencjalnie przesuwając nas daleko poza wzrost wykładniczy do poziomu, z którym będziemy mieli trudności, aby nadążyć. Środowisko akademickie zawsze było znaczącą siłą napędową w rozwoju sztucznej inteligencji; jednak wydaje się, że w ostatnich latach nieco się to zmieniło. Duże firmy technologiczne zainwestowały miliardy dolarów w budowę zespołów badawczych, które mogą rywalizować z badaniami prowadzonymi na uniwersytetach. Wielu profesorów ma nogę w obu obozach, chcąc pozostać w zgodzie z uniwersytetem, ale także chętnie wykorzystując korzyści płynące z zastosowań komercyjnych. Historycznie rzecz biorąc, było to w pewnym stopniu cykliczne, napędzane dostępnym finansowaniem i zainteresowaniem komercyjnym, przy czym poprzednie zimy AI zmniejszyły zainteresowanie i sprowadziły sektor z powrotem do czysto akademickich przedsięwzięć. Chociaż formalna edukacja nie jest dla każdego, zdobycie podstawowych fundamentów edukacji w tak szerokim temacie nie jest złym pomysłem, jeśli masz na to czas i pieniądze. Będzie to dla Ciebie cenne i da Ci zarówno szerokie, jak i głębokie perspektywy, które są ważne w tak dynamicznym środowisku.

Przyszłość pracy

Oczywiste jest, że sposób, w jaki pracujemy, zmienia się, ponieważ potrzeba większej liczby pracy zdalnej przyspieszyła wdrażanie aplikacji opartych na chmurze i innych technologii, do tego stopnia, że niektóre firmy działają teraz w trybie całkowicie zdalnym. Na pierwszy rzut oka może się to wydawać niezwiązane z AI, ale bardzo się mylisz. Praca zdalna prowadzi do zwiększonej izolacji. To z kolei otwiera drzwi dla asystentów cyfrowych, którzy mogą udzielać pracownikom porad i wskazówek w szerokim zakresie kwestii, od polityki kadrowej po zdrowie psychiczne, ale głównie wspierając zadania, które można łatwo zautomatyzować. W niedalekiej przyszłości wszystkie nasze role zostaną uzupełnione o cyfrowych asystentów wspomaganych przez sztuczną inteligencję, którzy mogą zautomatyzować przyziemne czynności i zapewnić ciężką pracę w przypadku wielu powtarzalnych zadań. Dotyczy to zarówno roli naukowca danych, jak i programisty Java, lekarza lub nauczyciela. Każda rola w każdej branży będzie miała agenta AI, który będzie pomagał. Rola naukowca danych będzie ewoluować, ponieważ wiele zgadywania i prób i błędów zostanie zautomatyzowanych (na przykład mamy już proste wersje tego z AutoML). Rola będzie bardziej skoncentrowana na zrozumieniu problemu biznesowego, współpracy z technologią i asystentami w celu jego najlepszego rozwiązania, a następnie prezentowaniu wyników w najlepszy sposób, aby przekazać korzyści. Tworzenie technologii wszelkiego typu będzie zupełnie inną działalnością zawodową niż ta, która miała miejsce dzisiaj i wczoraj. Szybciej i lepiej będzie mottem branży technologicznej.

Wyzwania i niepewności

Świat AI zmienił się tak bardzo w ciągu mojego życia, że trudno jest dokładnie określić, dokąd zmierza i co zostanie osiągnięte w ciągu najbliższych 20-30 lat, zwłaszcza że technologia rozwija się obecnie w tak wykładniczym tempie. Opinie ekspertów są podzielone co do tego, kiedy AGI zostanie osiągnięte lub czy w ogóle jest to możliwe. Wielu uważa, że nie da się naśladować inteligencji na podłożu nieopartym na węglu lub że świadomość to coś więcej niż tylko atomy, cząsteczki oraz sygnały elektryczne i chemiczne w naszych mózgach. Dlatego właśnie ta dziedzina jest tak intrygująca i złożona. Mamy tak wiele nieodpowiedzianych pytań i chociaż zaczęliśmy już budować AI, które może rozwiązać za nas rzeczywiste problemy, wciąż jesteśmy milion mil (lub więcej) od zbudowania superinteligencji, która jest ostatecznym strzałem w dziesiątkę dla branży i ma potencjał, aby odblokować naszą utopijną przyszłość. Dla mnie to sprawia, że praca w dziedzinie AI jest o wiele bardziej atrakcyjna, z tak wieloma innowacjami i odkryciami czekającymi na odkrycie. Historia pokazała nam wiele razy, że tego typu wpływowe odkrycia mogą zostać odkryte przez każdego, niezależnie od tego, gdzie pracujesz i co robisz - krajobraz jest bogaty w zakopane skarby AI, które tylko czekają, aż ktoś je odkopie. To możesz być ty. Następna zima AI (lub epoka lodowcowa) Chociaż teraz bardzo łatwo jest być przesadnym optymistą, powinniśmy spróbować wyciągnąć wnioski z historii. Jako branża mieliśmy już dwie poprzednie zimy AI, a definicją zimy AI jest znaczące zmniejszenie zainteresowania tą dziedziną ze strony inwestorów, praktyków i badaczy. Jest to w zasadzie ochłodzenie w tej dziedzinie na pewien czas z powodu rozczarowania wynikami i osiągnięciami. Ten cykl zainteresowania jest typowy dla wielu dziedzin, nie tylko AI. Jest możliwe, że przy monumentalnym szumie i inwestycjach ciążących w kierunku wszystkiego, co dotyczy generatywnej AI w tej chwili, jesteśmy świadkami początku kolejnego cyklu zimy AI. Czy uświadomienie sobie, że generatywna AI nie dostarczy AGI, będzie wyzwalaczem, który rozpocznie zamrożenie? Pewne jest, że inwestycje w końcu ostygną, a niesamowity postęp, który ostatnio widzieliśmy, może być trudniejszy do osiągnięcia lub lepszy w niedalekiej przyszłości. Ale miejmy nadzieję, że fakt, że AI dostarcza teraz praktycznych korzyści w świecie rzeczywistym, będzie decydującym faktem, który uchroni nas przed trzecią zimą AI. Jak napisałem w niedawnym artykule, "możemy nie być w stanie powstrzymać zimy AI uczenia maszynowego; być może jest to nieunikniony cykl. Ale aby powstrzymać jeszcze gorszą i bardzo, bardzo destrukcyjną epokę lodowcową AI, musimy poszerzyć zakres zainteresowania i postawić AGI z powrotem na nogi".

ZIMA AI MOŻE BYĆ NIEUNIKNIONA. CZEGO POWINNIŚMY SIĘ BARDZIEJ BAĆ : EPOKI LODOWCOWEJ AI

W Gambicie królowej, dramacie Netflixa o geniuszu szachowym, główna bohaterka jest niesamowicie skupiona i zdeterminowana. Można by nawet powiedzieć, że przypomina maszynę. Można by nawet powiedzieć, że jest trochę jak niesamowicie zdeterminowany program AI, taki jak AlphaGo. Mam nadzieję, że nie zdradzę tutaj żadnych spoilerów, ale w dramacie Beth ostatecznie odnosi sukces nie tylko dlatego, że jest szachowym geniuszem, który potrafi przewidzieć wiele ruchów na szachownicy. Odnosi sukces, ponieważ współpracuje z innymi graczami, którzy dają jej wskazówki i porady na temat psychologii i nawyków jej głównego przeciwnika "Wielkiego Szefa". Innymi słowy, stosuje taktykę, strategię, rozumowanie i planowanie; widzi więcej niż szachownicę. Można by rzec, że czyta otoczenie. Emocje odgrywają ogromną rolę we wszystkim, co robi, i są kluczem do jej ostatecznego triumfu w Moskwie. I dlatego potencjalnie mamy duże kłopoty z AI. AlphaGo nie potrafi zrobić niczego z tego, co robią Beth i jej przyjaciele. To genialny kawałek oprogramowania, ale to idiotyczny geniusz - wszystko, co zna, to Go. W tej chwili bardzo mało osób się tym przejmuje. Dlatego obawiam się, że możemy zmierzać nie tylko w stronę kolejnej zimy AI, ale niemal niekończącej się epoki lodowcowej AI, być może dziesięcioleci odrzucenia podejścia, wszystkich zamkniętych dopływów pieniędzy VC, braku funduszy na badania uniwersyteckie - wszystkiego, co widzieliśmy podczas pierwszej zimy AI w latach 1974-1980 i drugiej w latach 1987-1993. Tylko o wiele, wiele gorzej. Prawo Moore'a nadal jest naszym przyjacielem, ale nawet ono ma swoje granice Jestem również przekonany, że jedynym sposobem na uratowanie niesamowitych osiągnięć, jakie widzieliśmy w programach takich jak AlphaGo, jest uczynienie ich bardziej podobnymi do Beth - zdolnymi do "widzenia" o wiele, wiele więcej niż tylko "tablicy" przed sobą. Umieśćmy to wszystko w kontekście. Obecnie bez wątpienia przeżywamy najlepszy okres w historii sztucznej inteligencji. Lata ciężkiej pracy na poziomie teoretycznym szły w parze ze znakomitymi ulepszeniami wydajności sprzętu - połączenie, które podniosło poziom naszej gry, bez proszenia nas o to. Stąd dzisiejsza niewątpliwa historia sukcesu sztucznej inteligencji: uczenie maszynowe. Wszyscy stawiają na to podejście i jego korzenie w głębokim uczeniu się i dużych zbiorach danych, co jest w porządku; prawdziwy postęp i prawdziwe aplikacje są obecnie dostarczane. Ale nadchodzi twardy koniec. Jednym z nieodłącznych problemów głębokiego uczenia się jest to, że potrzebujesz coraz większych sieci neuronowych i parametrów, aby osiągnąć więcej niż ostatnio, więc wkrótce kończysz z niewiarygodną liczbą parametrów: pełna wersja GPT-3 ma 175 miliardów. Ale trenowanie takich rozmiarów sieci wymaga ogromnej mocy obliczeniowej - i chociaż prawo Moore'a nadal jest naszym przyjacielem, nawet to ma swoje ograniczenia. I jesteśmy gotowi je osiągnąć znacznie szybciej, niż wielu chciałoby myśleć. Pomimo reputacji machania rękami i miłości do unobtainium, dziedzina sztucznej inteligencji jest pełna realistów. Większość z nich ma bolesne wspomnienia tego, co wydarzyło się ostatnim razem, gdy obietnica sztucznej inteligencji spotkała się z nieuleczalną rzeczywistością, cykl, który dał początek koncepcji "zimy sztucznej inteligencji". W Wielkiej Brytanii w 1973 r. miażdżąca analiza - niesławny raport Lighthilla - doszła do wniosku, że sztuczna inteligencja po prostu nie jest warta dalszego inwestowania w nią pieniędzy. Podobnie zirytowani, niegdyś niesamowicie hojni płatnicy obrony w USA zakończyli pierwszy boom oparty na heurystycznym wyszukiwaniu, a dziedzina ta popadła w gwałtowny upadek aż do eksplozji systemów eksperckich/inżynierii wiedzy w latach 80., która ostatecznie również "zamarła", gdy zbyt wiele przesadzonych obietnic spotkało się z rzeczywistością. Aby było jasne, oba okresy przyniosły niesamowite postępy, w tym systemy, które oszczędzały pieniądze ludziom i usprawniały branże. Sztuczna inteligencja nigdy nie znika; każdy, kto pracuje w IT, wie, że zawsze gdzieś jest zaawansowane programowanie i inteligentne systemy, które pomagają - nie nazywamy ich już nawet sztuczną inteligencją, po prostu działają bez problemu. Z jednej strony AI się nie zatrzyma, nawet jeśli znów wyjdzie z mody; zmuszanie komputerów i robotów do pomocy nam jest zbyt użytecznym przedsięwzięciem, aby się zatrzymać. Potrzebujemy inteligentnych systemów, które są lepsze w więcej niż jednej "rzeczy". Ale to, co się stanie, to zima AI, która nastąpi po dzisiejszym boomie. Wkrótce nauka o danych przestanie być modna; modele ML przestaną być wiarygodne; przedsiębiorcy oferujący miastu rozwiązanie głębokiego uczenia się dla problemu finansowego X nie otrzymają odpowiedzi na swoje e-maile. A to, co może się wydarzyć później, jest jeszcze gorsze… nie tylko krótki okres wycofania odsetek, ale głębokie, głębokie zamrożenie - trwające 10, 20, 30 lat. Nie chcę, aby to się stało, i to nie dlatego, że kocham AI lub chcę mieć własnego HAL 9000 (chociaż oczywiście, że kocham - ty też). Nie chcę, żeby tak się stało, bo wiem, że sztuczna inteligencja jest prawdziwa i chociaż mogą istnieć naprawdę fascynujące argumenty filozoficzne za i przeciw niej, ostatecznie stworzymy coś, co będzie potrafiło robić rzeczy równie dobrze jak ludzie. Ale zauważ, że powiedziałem "rzeczy". AlphaGo jest lepszy od nas wszystkich (z pewnością ode mnie) w grach. Google Translate jest lepszy ode mnie w tłumaczeniu wielu języków itd. Potrzebujemy inteligentnych systemów, które są lepsze w więcej niż jednej "rzeczy"… które mogą zacząć być inteligentne, nawet na bardzo niskim poziomie, poza bardzo wąską domeną. Krok naprzód AGI, sztuczna inteligencja ogólna, czyli zestawy programów, które stosują inteligencję do szerokiej gamy problemów, w taki sam sposób, w jaki robią to ludzie. Widzimy największy postęp w uczeniu się, ponieważ tam idą wszystkie inwestycje Na przykład, w ciągu ostatnich 15 lat skupialiśmy się tylko na uczeniu się. Ale sztuczna inteligencja, która jest wykonywana prawidłowo, musi obejmować szereg możliwości inteligencji, z których zdolność uczenia się i dostrzegania wzorców jest tylko jedną; jest rozumowanie, jest zrozumienie, jest wiele innych rodzajów możliwości inteligencji, które powinny być częścią ogólnej praktyki lub zdolności sztucznej inteligencji. Wiemy, dlaczego tak jest - skupiamy się na uczeniu się, ponieważ uzyskaliśmy dobrą trakcję w tym zakresie i poczyniliśmy solidne postępy. Ale są wszystkie inne możliwości AI, na które powinniśmy również zwrócić uwagę i zbadać, a po prostu tego nie robimy. To jest błędne koło: wszystkie mądre pieniądze idą w uczenie maszynowe, ponieważ tam widzimy największy postęp, ale widzimy największy postęp tylko w uczeniu się, ponieważ tam idą wszystkie inwestycje! Podsumowując: być może nie będziemy w stanie powstrzymać zimy AI uczenia maszynowego; być może jest to nieunikniony cykl. Ale aby powstrzymać jeszcze gorszą i bardzo, bardzo destrukcyjną epokę lodowcową AI, myślę, że musimy poszerzyć tutaj zakres, postawić AGI z powrotem na nogi i pomóc naszym "Beths" stać się lepszymi w czymś więcej niż tylko "szachach" … albo po prostu zobaczymy, jak są wyłączane, jedno po drugim.

Ostatnie przemyślenia - droga przed nami

Krajobraz AI w ciągu najbliższych pięciu do dziesięciu lat będzie pełen możliwości, nowych ról, nowych podejść, nowych technologii i nowych inteligentnych umiejętności. Ale nie tylko po stronie nauki o danych możliwości będą obfite; podstawowa infrastruktura znacznie się rozwinie, podobnie jak wymagania dotyczące zarządzania danymi, prywatności i zaufania do danych. Nowe podejścia, takie jak rozproszone, federacyjne i kwantowe obliczenia, zmienią metodologie i procesy tworzenia AI. Inne technologie, takie jak Web 3 i metawersum, staną się bardziej masowe i ponownie zmienią krajobraz w sposobie wykorzystania AI. Robotyka to również obszar szybkiego rozwoju; kontrolowane przez AI, zobaczymy powódź robotów, które pomogą w szerokim zakresie zadań związanych z pracą ręczną. Roboty w kształcie Androida są już w fazie rozwoju od Tesli (zwanej Optimus), Boston Dynamics (zwanej Atlas) i innych. Ponownie, ta powiązana dziedzina otworzy wiele nowych możliwości kariery, zarówno w AI, jak i w robotyce. I bez wątpienia pojawią się nowe technologie, których jeszcze sobie nie wyobrażano, a które wejdą do ekosystemu i zmienią zasady gry. Ostatecznie, w trakcie swojej kariery będziesz musiał uczyć się przez całe życie i zmieniać kierunek wraz ze wzrostem doświadczenia i wiedzy. Znalezienie najlepszej roli dla siebie w danym momencie stworzy Twoją unikalną ścieżkę kariery i zdefiniuje, kim staniesz się w przyszłości. Ta podróż jest najbardziej ekscytującą częścią czyjegoś życia zawodowego i będzie pełna niespodzianek, zwrotów akcji, które zapewnią Ci ciągłe wyzwania i aspiracje, których będziesz potrzebować w swoim życiu zawodowym. Sztuczną inteligencję można uznać za najbardziej zaawansowaną technologię dostępną w dowolnym momencie, co częściowo wyjaśnia, dlaczego trudno jest zdefiniować, czym jest sztuczna inteligencja, ponieważ na przestrzeni dekad zmieniała się i będzie się zmieniać w przyszłości. Jednak bycie na granicy rozwoju technologii jest zawsze ekscytujące i wymagające i zapewniło wielu osobom bardzo satysfakcjonującą karierę. W tym rozdziale omówiliśmy niektóre najnowsze osiągnięcia w zakresie badań i rozwoju sztucznej inteligencji (AI), a także niektóre powiązane technologie, które ukształtują przyszły postęp i osiągnięcia, jakich będziemy świadkami w nadchodzących latach w zakresie zaawansowanej sztucznej inteligencji (AI) i sztucznej inteligencji ogólnej (AGI).



Pewna SI: Podstawowe umiejętności pracy ze sztuczną inteligencją (4)


Zastosowania AI

Podczas gdy badania nad AI mają na celu rozwijanie podstaw sztucznej inteligencji, AI stosowana to obszar, który stara się używać AI do rozwiązywania rzeczywistych problemów i dostarczać praktycznych spostrzeżeń oraz prognozowania predykcyjnego, aby pomóc w podejmowaniu decyzji strategicznych i taktycznych. Zarówno obszary stosowane, jak i badawcze AI mają znaczny potencjał i możliwości dla Twojej kariery w AI. Piękno AI stosowanej polega na tym, że potrzebujesz również wiedzy na temat odpowiedniego sektora przemysłu. Może się zdarzyć, że masz już doświadczenie i wiedzę specjalistyczną w branży lub chcesz wykorzystać przejście do AI, aby poznać nowy obszar biznesowy. Podczas gdy różne branże przyjmują AI w różnym tempie, rzeczywistość jest taka, że większość, jeśli nie wszystkie branże, aktywnie wdraża AI w jakiejś części swojej działalności i prawdopodobnie rozszerzą tę adopcję w nadchodzących latach. Jeśli nie, zrobią to konkurenci w tej samej branży i uzyskają znaczące korzyści, które uczynią z nich silniejsze wyzwanie w przyszłości. Firmy muszą prowadzić innowacje, aby przetrwać, a obecnie innowacją tą jest wykorzystanie technologii opartych na AI. Przewaga konkurencyjna wynikająca z wczesnego wdrożenia AI może mieć dramatyczny wpływ na firmy, od poprawy produktywności po ulepszenia produktów i usług. W tej części zaprezentujemy kilka branż, które znajdują się na różnych etapach wykorzystania AI, podkreślając niektóre z głównych obszarów zastosowań i korzyści. Zazwyczaj organizacja przechodzi przez 10 etapów wdrażania AI lub, mówiąc prościej, trzy fazy włączania AI . Firmy będą przechodzić z jednego etapu do drugiego w różnym tempie, musząc pokonać różne wyzwania po drodze, co jest powszechną podróżą dla każdego programu transformacji cyfrowej. Zapewniamy wgląd w szereg branż; niektóre są na czele wdrażania AI od jakiegoś czasu, a inne dopiero zaczynają odkrywać korzyści płynące z korzystania z AI. Wykorzystanie AI było do niedawna czymś w rodzaju luksusu, dostępnego tylko dla największych firm z doświadczonymi ludźmi z dostępem do zasobów obliczeniowych i ilości danych, które nie są łatwo dostępne dla mniejszych firm. Ale teraz organizacje każdej wielkości mogą uzyskać dostęp do niezbędnych komponentów, aby tworzyć modele predykcyjne AI i integrować je z istniejącymi aplikacjami.

Opieka zdrowotna

Sztuczna inteligencja w zastosowaniach medycznych i opieki zdrowotnej była badana jedynie jako działalność badawcza, ale rzadko jest wykorzystywana w głównych zastosowaniach. Jednak pandemia Covid-19 zmieniła akceptację technologii sztucznej inteligencji w wielu różnych zastosowaniach, od ponownego wykorzystania leków po alokację zasobów, przewidywanie rozprzestrzeniania się choroby, a nawet roboty sprzątające szpitale. Podczas pandemii zaobserwowaliśmy również gwałtowny wzrost zastosowań w zakresie dobrego samopoczucia wykorzystujących możliwości sztucznej inteligencji w celu zaspokojenia potrzeb osób narażonych na zwiększone nasłonecznienie spowodowane dystansem społecznym, kwarantanną i rozłąką z bliskimi. Długoterminowe ambicje sztucznej inteligencji w sektorze medycznym obejmują bardziej precyzyjne leki dostosowane do DNA osób i ich konkretnych potrzeb, a także pomoc w leczeniu, a nawet zapobieganiu wielu chorobom, których obecnie jesteśmy ofiarami.

Finanse
v Sektor usług finansowych był jednym z pierwszych, który przyjął wykorzystanie sztucznej inteligencji. Istnieje tak wiele potencjalnych zastosowań w całej branży. Specyficzne dla branży są handel algorytmiczny, rekomendacje handlowe, wykrywanie oszustw i zarządzanie ryzykiem, a ogólniej obsługa klienta, automatyzacja procesów, uzgadnianie danych, generowanie raportów, monitorowanie systemu i konserwacja predykcyjna. Przy dużej liczbie transakcji i wielu powtarzalnych zadaniach, które należy wykonywać codziennie, zakres inteligentnej automatyzacji w obszarach front-, middle- i back-office jest ogromny. Wykorzystanie technologii w celu radzenia sobie z wahaniami codziennych wolumenów zmniejsza presję przetwarzania ręcznego i pozwala zasobom ludzkim radzić sobie z trudniejszymi przerwami w danych i zapytaniami klientów. Klienci oczekują teraz bardziej spersonalizowanej obsługi z bardziej szczegółowymi zaleceniami dostosowanymi do potrzeb i okoliczności danej osoby - co oznacza lepsze możliwości analizy danych i spostrzeżeń w celu zapewnienia tych indywidualnie ukierunkowanych sugestii. Nie tylko duże banki inwestycyjne wdrożyły sztuczną inteligencję; to banki detaliczne, fundusze inwestycyjne i hedgingowe, start-upy fintech i banki challenger, a także sektor ubezpieczeniowy. Przepisy dotyczące sztucznej inteligencji są kluczowym aspektem usług finansowych, a potrzeba przejrzystości decyzji i możliwości wyjaśnienia stanowią główne kwestie.

STUDIUM PRZYPADKU Nuon.AI

Zespół Nuon.AI ma duże doświadczenie w branży ubezpieczeniowej i zbudował platformę cenową w czasie rzeczywistym, wykorzystując najnowocześniejsze technologie AI, w tym uczenie wzmacniające, aby stworzyć pakiet produktów, który może zapewnić wyjątkowe wyniki dla ich klientów. Udostępniają swoją platformę firmom ubezpieczeniowym, brokerom i agentom zarządzającym, działając w różnych sektorach, w tym ubezpieczeniach samochodowych, turystycznych i domowych. Opracowana przez nich technologia pomogła na przykład zwiększyć sprzedaż o 31 procent dla brytyjskiego ubezpieczyciela samochodowego, który konkuruje z większymi firmami ubezpieczeniowymi. Nie tylko wzrosła sprzedaż, ale udało im się również zwiększyć składki o 28 procent, przy łącznym koszcie dyskontowania wynoszącym tylko 1,7 procent. Zastrzeżone algorytmy AI stworzone przez Nuon ułatwiły znalezienie optymalnych punktów cenowych, aby skuteczniej i wydajniej konkurować, jednocześnie znacznie zwiększając sprzedaż i składki bez konieczności dużych dyskontowań. Zasadniczo platforma AI działa jak radar, rozwiązując podstawowy problem ubezpieczycieli i brokerów: jak uzyskać wgląd w zmieniające się warunki rynkowe wystarczająco szybko, aby konkurować rentownie.

Sprzedaż i marketing
v Generalnie rzecz biorąc, w przypadku każdego rodzaju działalności, działania sprzedażowe i marketingowe mogłyby być wspierane przez podstawowe możliwości AI przez jakiś czas. Jednak generatywna AI otworzyła wiele nowych możliwości dla AI w celu zwiększenia produktywności w tym obszarze. Chatboty sprzedażowe (i chatboty obsługi klienta) istnieją od kilku lat, chociaż zakres rozmów został ograniczony do dobrze zdefiniowanych przepływów dialogowych. Nie tak jest w przypadku konwersacyjnej i generatywnej AI - otwiera ona znacznie szersze możliwości bardziej szczegółowego angażowania obecnych i potencjalnych klientów. Marketing może teraz w dużym stopniu skorzystać z możliwości generatywnej AI, pomagając przyspieszyć tworzenie artykułów i postów na blogu w celu wsparcia każdej kampanii marketingowej lub promocji sprzedaży. Technologia ta pozwala teraz na znacznie większą personalizację, umożliwiając bardziej precyzyjne i ukierunkowane działania sprzedażowe oraz pomagając poprawić wskaźniki konwersji. Można to również zastosować do promocji sprzedaży dodatkowej i krzyżowej, które mają na celu poprawę możliwości przychodowych firmy dzięki lepszej, bardziej odpowiedniej i ukierunkowanej komunikacji z potencjalnymi i obecnymi klientami. Łączenie narzędzi AI z przepływem pracy procesów sprzedaży i marketingu będzie kluczowe dla poprawy produktywności i personalizacji promocji marketingowych i działań sprzedażowych każdej firmy.

Edukacja

Celem AI w edukacji jest pomoc w poprawie i przyspieszeniu nauki uczniów, pomagając lepiej ukierunkować obszary potrzebnego wsparcia poprzez tworzenie bardziej spersonalizowanych programów nauczania, które dostosowują się do bieżących ocen i analiz edukacyjnych. AI w klasie może określić konkretne potrzeby i pomóc nauczycielom w zapewnieniu najbardziej ukierunkowanego wsparcia, aby zapewnić, że żadne dziecko nie zostanie w tyle i że wszyscy będziemy mieli najlepszy start w życiu. Istnieje znaczne wyzwanie dla uczniów korzystających z narzędzi AI, takich jak ChatGPT, aby pomóc im w wykonywaniu zadań. Różne instytucje mają różne opinie na temat tego podejścia i utrudnia to rolę nauczycieli, szczególnie jeśli chodzi o ocenę umiejętności i wiedzy uczniów. Uniwersytety i szkoły będą musiały dostosować się do tych nowych narzędzi, z których mogą korzystać uczniowie, i przygotować ich do ich ulepszonego technologicznie życia zawodowego, które zostanie rozszerzone o wiele aplikacji i systemów inteligencji, współpracujących z ludzką siłą roboczą.

Przemysł i produkcja

Sektor produkcji był nieco wolniejszy w przyjmowaniu technologii AI, z kilkoma wyjątkami. Jednym z pierwszych najbardziej oczywistych zastosowań w tym obszarze jest konserwacja predykcyjna, pomagająca przewidzieć, zanim to nastąpi, kiedy część maszyny wymaga serwisu lub naprawy części, aby uniknąć katastrofalnych awarii lub nieplanowanych przestojów. Przemysł lotniczy jest wspaniałym studium przypadku, ponieważ wiemy, że producent silników Rolls Royce ma wiele czujników na każdym silniku, monitorujących jego wydajność w czasie rzeczywistym. Wszystkie te dane w czasie rzeczywistym są wysyłane z powrotem do ich siedziby w celu szczegółowej analizy, a każda anomalia jest oznaczana jako wskaźnik do zbadania. Widzimy również, że cyfrowe bliźniaki są wykorzystywane do modelowania i symulowania procesów produkcyjnych, a nawet budynków (takich jak szpitale), aby umożliwić symulację scenariuszy typu "co by było, gdyby", pomagając w planowaniu planów awaryjnych, jeśli będzie to wymagane w oparciu o konkretne przyszłe sytuacje. Może to również pomóc w łańcuchu dostaw i innych szczegółowych procesach i procedurach.

Rolnictwo i monitoring środowiska

Możliwości wsparcia tego sektora przez sztuczną inteligencję obejmują cały łańcuch wartości, od rolnictwa i zbioru po transport, przetwarzanie, wysyłkę i produkcję. Inteligentna automatyzacja i analiza sztucznej inteligencji mogą odgrywać znaczącą rolę w każdej części procesu produkcji żywności. Od monitorowania stanu upraw po pomoc w poprawie plonów i jakości produkcji, analiza predykcyjna może dostarczać cennych informacji i ostrzegać ludzi o potencjalnych problemach z wyprzedzeniem. Widzimy nawet, że sztuczna inteligencja jest wykorzystywana w rozwoju żywności, dostosowując się do preferencji klientów i trendów dotyczących smaków, tekstur, aromatów i aspektów odżywczych. Oprócz tych podstawowych możliwości łańcucha wartości, analiza danych i uczenie maszynowe mogą być wykorzystywane do eksploracji spostrzeżeń klientów, od słuchania społecznościowego i analizy nastrojów po angażowanie klientów za pośrednictwem chatbotów i prognozowania sprzedaży.

Branże rozrywkowe i kreatywne

Jest oczywiste, że generatywna sztuczna inteligencja znacząco zrewolucjonizuje branżę rozrywkową i kreatywną. To już się zaczęło. Od generowania tekstu po obrazy i wideo, możliwości generatywnej sztucznej inteligencji poprawiają się w szybkim tempie. Zobaczyłem ogłoszenie o kanale informacyjnym, który będzie całkowicie generowany przez sztuczną inteligencję pod względem prezentera i studia - będzie prezentował wiadomości ze świata rzeczywistego, ale potencjalnie perspektywa relacji będzie dostosowana do preferencji poszczególnych widzów. Prawdopodobnie zobaczymy znacznie więcej hiperpersonalizowanych mediów, generowanych w locie dla każdego indywidualnego konsumenta w sposób i z perspektywy, jakiej chce. Wkrótce zobaczymy również w pełni generowane przez sztuczną inteligencję programy telewizyjne i filmy, a potencjalnie pewnego dnia będą one mogły być generowane w czasie rzeczywistym, co pozwoli nam na prawdziwą interakcję i określanie fabuły i kierunku historii. Będzie to znacząca rewolucja w obecnej branży medialnej i będzie bardzo ciekawie zobaczyć, jak przyjmie tę nową rewolucję technologiczną w ciągu najbliższych kilku lat.

Energia i usługi komunalne

Sektor ten ma trzy aspekty: pierwszy skupia się na samej branży, drugi na konsumencie, a trzeci na przyszłościowej technologii zielonej i czystej energii. W przypadku samej branży potencjalne przypadki użycia obejmują konserwację predykcyjną, zarządzanie siecią, optymalizację zużycia w budynkach, handel energią i zarządzanie ryzykiem, optymalizację magazynowania baterii, a także bezpieczeństwo i wydajność. Dla konsumenta inteligentne liczniki to dopiero początek, ponieważ wykorzystanie analizy danych w celu lepszego przewidywania trendów zużycia i opracowywania strategii i zmian w działaniach, które mogą pomóc oszczędzać energię bez większego wpływu na styl życia, stanie się w przyszłości bardziej powszechne. Sztuczna inteligencja może mieć ogromny wpływ na dziedzinę zielonej i czystej energii, od projektowania nowych produktów po dostarczanie bardziej energooszczędnych budynków (z połączeniem IoT i inteligentnych budynków), analizę i redukcję śladu węglowego oraz prognozowanie energii odnawialnej.

Rząd i usługi publiczne

Podczas gdy rządy i usługi publiczne mają tendencję do większej ostrożności w przyjmowaniu nowych technologii, przyjmując postawę bardziej niechętną ryzyku, korzyści z wykorzystania sztucznej inteligencji są dla nich tak samo oczywiste, jak dla każdej innej działalności komercyjnej. Ostatecznie chodzi o zapewnienie szeregu usług i produktów społeczności użytkowników przy ograniczonej liczbie dostępnych zasobów. Wzrost produktywności może okazać się nieoceniony w dostarczaniu lepiej ukierunkowanych usług dla dużej liczby zasługujących na to przypadków. Wydajność i skuteczność odegrają główną rolę w przyjęciu możliwości związanych ze sztuczną inteligencją w nadchodzących latach w tym sektorze. Z perspektywy krajowej nie chodzi tylko o to, w jaki sposób rząd może wykorzystać sztuczną inteligencję do lepszego świadczenia usług. Muszą również przyjrzeć się szerszym wpływom i konsekwencjom powszechnego stosowania technologii w całym kraju i temu, jak wpływa to na jego obywateli. Jakie regulacje mogą być potrzebne, a także zabezpieczenia i obawy dotyczące prywatności danych i praw jednostek, muszą zostać rozważone. Wiele rządów poważnie podchodzi do tych potencjalnych problemów, dzięki ustawie UE o sztucznej inteligencji, amerykańskiemu rozporządzeniu wykonawczemu w sprawie korzystania ze sztucznej inteligencji i Wielkiej Brytanii, która jest gospodarzem pierwszego na świecie szczytu bezpieczeństwa sztucznej inteligencji.

Prawo i zgodność

Sektor prawny bada możliwości sztucznej inteligencji, w szczególności przetwarzanie języka naturalnego, aby pomóc w przypadku dużej ilości dokumentów, które zazwyczaj muszą przeglądać. Porównywanie podobnych dokumentów umownych i podkreślanie różnic jest zadaniem czasochłonnym, powtarzalnym i nudnym. Sektor przechodzi na bardziej zaawansowane aplikacje, w tym cyfrowych doradców prawnych, analizę materiałów sprawy, formułowanie argumentów prawnych i dostarczanie informacji jako części dowodów w sprawach karnych. Jednak pojawiły się problemy z wykorzystaniem takich technologii, zgodne z fundamentalnym problemem generatywnej sztucznej inteligencji, która ma potencjał do halucynacji faktów, a nawet praw jako części swojego wyniku. Dlatego też należy zachować ostrożność w każdej silnie regulowanej branży z tymi nowymi technologiami, aby upewnić się, że działają one dokładnie i zgodnie z oczekiwaniami. Chociaż branża musi pokonać te wyzwania, technologia z pewnością będzie miała wpływ, zmieniając sposób działania kancelarii prawnych i usług świadczonych zarówno przedsiębiorstwom, jak i osobom fizycznym.

Łańcuch dostaw i logistyka

Większość łańcucha dostaw i logistyki można zautomatyzować i zoptymalizować dzięki zastosowaniu danych analitycznych, analiz i modelowania predykcyjnego, od szacowania popytu na produkty po optymalizację tras dostaw. Chociaż może to nie być najbardziej ekscytujący obszar zastosowań, wpływ narzędzi AI w tej przestrzeni może mieć i będzie miał znaczący wpływ na nasze środowisko i koszt dostarczania przesyłek do naszych domów. Połączenie AI, automatyzacji i robotyki spowoduje drastyczną zmianę w procesach kompleksowych łańcuchów dostaw, a wyzwania związane z ostatnią milą i 100 jardami do progu staną się bardziej zautomatyzowane, a zatem łatwiejsze do opanowania. W przyszłości możemy mieć asystenta dostawczego w postaci androida lub drona, który będzie obsługiwał tę ostatnią część logistyki łańcucha dostaw.

Zasoby ludzkie i zarządzanie talentami

Jak w przypadku każdej funkcji w ramach działalności biznesowej, HR i zarządzanie talentami nie jest inne, z szeregiem potencjalnych zastosowań dla AI. Obejmuje to pozyskiwanie talentów, przesiewanie kandydatów, spostrzeżenia z rozmów kwalifikacyjnych i analizę siły roboczej, a także analizę zaangażowania pracowników i ocenę wyników.

STUDIUM PRZYPADKU WeSoar.AI

Wykorzystanie sztucznej inteligencji do rozbudowy i wsparcia siły roboczej to obszar, na którym skupi się większość organizacji, ponieważ korzystanie z narzędzi sztucznej inteligencji staje się coraz powszechniejsze. Zwiększenie produktywności przedsiębiorstwa poprzez wspieranie i poprawę wydajności siły roboczej jest kluczem do przyszłości firm, które przyjmują swoją przyszłość napędzaną przez sztuczną inteligencję, wraz z podejściem wykorzystującym moc psychologii pozytywnej, w szczególności doceniającego dociekania, które koncentruje się wokół mocnych stron, możliwości, aspiracji i wyników. Platforma WeSoar wykorzystuje szereg technologii analityki danych i sztucznej inteligencji, aby zapewnić zoptymalizowaną wydajność zespołu, poprawić zaangażowanie i zmotywować pracowników do osiągnięcia maksymalnej wydajności dzięki interakcjom z lekkim dotknięciem w aplikacji mobilnej. Zespół WeSoar szybko przyjął również możliwości generatywnej i konwersacyjnej sztucznej inteligencji, wykorzystując koncepcję asystenta cyfrowego do dostarczania wielu funkcjonalnych aspektów platformy. Jest to połączone z bodźcami i przypomnieniami opartymi na sztucznej inteligencji, aby zapewnić bardziej oparte na działaniu wyniki.

Non-profit i wpływ społeczny

Zastosowanie AI w sektorach charytatywnym, non-profit i wpływu społecznego jest coraz ważniejsze; potencjalne korzyści we wszystkim, od łańcucha dostaw po poprawę darowizn, są ogromne. W przypadku inicjatyw reagowania na katastrofy, dostępu do opieki zdrowotnej i edukacji, AI może mieć pozytywny wpływ na dostarczanie i wydajność tych usług. Istnieje tak wiele niesamowitych aplikacji, które pomagają osobom radzić sobie z niepełnosprawnościami i je pokonywać, zwalczać handel ludźmi, zwiększać zbiórki funduszy i zaangażowanie darczyńców oraz poprawiać dobrobyt społeczny i dopasowanie usług. Potencjalne korzyści, jakie AI może przynieść w tym obszarze zastosowań, są znaczące i naprawdę zgodne z etosem AI for Good, który podziela wielu praktyków w tej dziedzinie. Organizacje charytatywne często mają ograniczone zasoby i chętnie przyjmą dodatkową pomoc i wsparcie, aby wykorzystać korzyści płynące z analiz opartych na AI. DataKind to organizacja, z którą wcześniej współpracowałem, która pomaga dopasować umiejętności w zakresie nauki o danych do organizacji poszukujących pomocy w projektach. Bardzo ważne jest, abyśmy rozumieli wpływ i względy etyczne technologii AI, zapewniając, że odpowiedzialne praktyki AI są przestrzegane w sektorze non-profit.

Nowe i międzybranżowe zastosowania

Istnieje wiele branż, które przecinają się z obszarem AI, umożliwiając go - na przykład obliczenia kwantowe, które mają potencjał, aby radykalnie przyspieszyć rozwój AI. Sprzęt komputerowy jest innym przykładem, z takimi firmami jak NVIDIA, ARM, Graphcore i innymi produkującymi dedykowane procesory do przyspieszenia AI (w szczególności sieci neuronowe).

Głęboka technologia

Głęboka technologia obejmuje szereg branż (i technologii), ale ostatecznie ma na celu tworzenie komercyjnych aplikacji, które są możliwe dzięki najnowszym badaniom naukowym. Wiele firm głębokiej technologii spędza lata na pracach badawczo-rozwojowych, tworząc nowe produkty na podstawie przełomowych osiągnięć w zakresie zaawansowanych technologii. Niektóre wykorzystują AI jako część swoich wysiłków badawczych, potencjalnie w połączeniu z innymi odkryciami naukowymi. Tego typu firmy oferują jedne z najtrudniejszych możliwości, ale także najbardziej satysfakcjonujące (przynajmniej z czysto naukowego punktu widzenia).

STUDIUM PRZYPADKU Warwick University Deep Tech Innovation Centre Wiele uniwersytetów coraz częściej pomaga studentom, absolwentom i pracownikom w poszukiwaniu sposobów na komercjalizację ich innowacji badawczych. Warwick Uniwersytet w Wielkiej Brytanii ma cały okręg innowacji skupiony na wspieraniu naukowych przedsiębiorców. Dzielnica innowacji ma kilka centrów, z których każde prowadzi różne programy dla różnych branż lub obszarów zainteresowania. Programy pomagają założycielom tworzyć produkty na podstawie ich wynalazków, budować zespoły i szukać finansowania dla swoich firm, aby się rozwijały. Pomaga to również edukować i informować osoby zainteresowane start-upami jako opcją kariery. Program Deep Tech to sześciomiesięczny cykl warsztatów szkoleniowych i sesji edukacyjnych, mentoringu biznesowego i technicznego oraz matchmakingu z potencjalnymi członkami zespołu, który kończy się wydarzeniem typu pitch w stylu Dragons′ Den.

Ostatnie przemyślenia

Podczas gdy poprzednie rewolucje przemysłowe skupiały się wokół jednej kluczowej branży, przełomowa natura AI polega na tym, że można ją stosować w wielu, jeśli nie we wszystkich branżach. Wpływa również na wszystkie działy i funkcje w firmie, co sprawia, że potencjał AI do zmiany krajobrazu komercyjnego i ekonomii modeli biznesowych jest znaczący. Jeszcze nie widzieliśmy pełnego wpływu tego, a wynikające z tego wstrząsy wtórne stworzą zarówno nowe możliwości, jak i wyzwania, z którymi wszyscy będziemy musieli się zmierzyć. Niektóre branże i firmy będą prosperować, inne padną ofiarą tego nowego porządku inteligentnej automatyzacji. Jednak osoby pragnące pracować w dziedzinie AI znajdą nieograniczone możliwości w dowolnej liczbie obszarów zastosowań i branż. Pytanie będzie dotyczyło tego, w jakim obszarze i branży chcesz się specjalizować. Przyszłość stosowanej AI będzie polegała na dostarczaniu bardziej wydajnych analiz i spostrzeżeń, które wspierają podstawowe funkcje i misję firmy, łącząc inteligentne podejmowanie decyzji w całej organizacji, zapewniając klientom bardziej spersonalizowaną obsługę i pomagając firmie przewidywać przyszłość i planować z wyprzedzeniem, aby zminimalizować problemy. Funkcjonalność AI oznacza, że firmy muszą podnieść poprzeczkę i dostarczać klientom więcej wartości niż kiedykolwiek wcześniej, poprzez personalizację, wydajność, poprawę jakości lub nowe produkty i usługi. Tempo innowacji i zmian, które firmy będą musiały wprowadzić, wywrze dodatkową presję na zespoły zarządzające i będzie wymagać od firm poszukiwania przewagi, gdziekolwiek ją znajdą. Dzięki tej powszechnej adopcji i wyścigowi o korzyści z aplikacji i funkcji opartych na AI, możliwości kariery w AI będą tylko rosły w nadchodzących latach - osoby, które potrafią stosować AI do rozwiązywania trudnych problemów, będą bardzo poszukiwane.



Pewna SI: Podstawowe umiejętności pracy ze sztuczną inteligencją (3)


Mity na temat AI

Istnieje wiele powszechnych mitów na temat AI, które należy rozwiać, aby mieć pewność, że masz solidne podstawy zrozumienia AI i nie stać się częścią machiny marketingowej, która nabierała rozpędu w ciągu ostatnich kilku lat. Łatwo wpaść w pułapkę, uwierzyć w hałas i przyjąć dystopijną perspektywę tego, jak AI może się rozwijać w nadchodzących latach. Niektórzy obawiają się, że AI celowo lub błędnie zniszczy ludzkość, aby usunąć nas jako główne źródło zniszczenia na planecie Ziemia. Inni wydają się myśleć, że możemy stać się niewolnikami władców AI, wraz ze wzrostem liczby maszyn stających się bardziej inteligentnymi, silniejszymi i sprawniejszymi (z perspektywy Darwina). Albo możemy stać się tak ważni dla AI, jak mrówki są dla nas, postrzegani nie tylko jako zwierzęta domowe, ale po prostu jako irytacja, która współistnieje, ale tak naprawdę nie jest potrzebna. Mam bardziej pozytywną (nawet utopijną) perspektywę tego, jak AI będzie się rozwijać i nas wspierać. W końcu AI to tylko kolejne narzędzie technologiczne, które budujemy, aby nam pomóc, a w najgorszym przypadku możemy je po prostu wyłączyć lub uruchomić w symulacji. Nie widzę scenariusza, w którym usunęlibyśmy człowieka z pętli i całkowicie zautomatyzowali wszystko do tego stopnia, że narazilibyśmy własne istnienie - to po prostu by się nie wydarzyło. Istnieje kilka powodów, dla których mity i nieporozumienia utrzymują się, jeśli chodzi o temat sztucznej inteligencji. Oto kilka kluczowych uzasadnień:

1 Przedstawienia Hollywood: Filmy i kultura popularna często przedstawiają AI w przesadny i fantastyczny sposób, co prowadzi do błędnych przekonań. Filmy takie jak Terminator i Matrix przedstawiają AI jako superinteligentne, złowrogie byty, co jest dalekie od obecnego stanu lub przewidywalnej przyszłości technologii AI.
2 Brak zrozumienia: AI to złożona dziedzina obejmująca różne poddziedziny, takie jak uczenie maszynowe, sieci neuronowe i przetwarzanie języka naturalnego. Wiele osób nie ma wiedzy technicznej, aby w pełni zrozumieć te koncepcje, co prowadzi do uproszczonych i niedokładnych przekonań.
3 Medialny szum: Media często sensacyjnie przedstawiają przełomy i badania nad AI, prezentując je jako bardziej zaawansowane i zdolne niż są w rzeczywistości. Tworzy to nierealistyczne oczekiwania i podsyca mity na temat obecnych możliwości AI.
4 Antropomorfizm: Ludzie mają tendencję do antropomorfizacji AI, przypisując maszynom cechy i intencje podobne do ludzkich. Może to prowadzić do błędnych przekonań, że AI posiada świadomość, emocje lub złośliwe intencje.
5 Strach przed nieznanym: Strach i niepewność co do przyszłości AI mogą prowadzić do mitów i błędnych przekonań. Ludzie mogą przeceniać ryzyko i możliwości AI ze względu na nieznaną naturę jej rozwoju.
6 Marketingowy szum: Firmy i organizacje często używają AI jako słowa kluczy do promowania swoich produktów i usług, czasami naciągając definicję AI. Może to powodować zamieszanie co do tego, czym AI jest naprawdę i co może zrobić.
7 Obawy etyczne: Dyskusje na temat etyki AI, stronniczości i potencjalnej utraty pracy mogą wzmacniać obawy i błędne przekonania dotyczące AI. Chociaż są to uzasadnione obawy, mogą być one doprowadzone do skrajności, które nie odzwierciedlają niuansów technologii AI.
8 Szybkie postępy: AI to szybko rozwijająca się dziedzina, a to, co było prawdą kilka lat temu, może już nie być dokładne. Ta dynamiczna natura AI może prowadzić do przestarzałych przekonań i zawyżonych oczekiwań co do przyszłych postępów.
9 Brak przejrzystości: Niektóre systemy AI działają jak "czarne skrzynki", co oznacza, że ich procesy decyzyjne nie są łatwe do wyjaśnienia. jego brak przejrzystości może przyczyniać się do mitów i podejrzeń dotyczących wewnętrznego działania AI.

Podsumowując, mity dotyczące AI utrzymują się z powodu kombinacji czynników, napędzanych głównie przez przedstawienia w kulturze popularnej, sensację medialną i brak zrozumienia technicznego. Przyjrzyjmy się niektórym z najbardziej rozpowszechnionych mitów dotyczących AI. Poniżej przedstawiamy niektóre z najpopularniejszych lub najpowszechniej promowanych mitów dotyczących AI i staramy się przedstawić inną opinię, aby obalić argument.

Mit 1: AI to tylko chwilowa moda, która wkrótce przeminie

Jednym z najczęstszych błędnych przekonań na temat AI jest to, że to tylko chwilowa moda. Jednak nic nie może być dalsze od prawdy. Rzeczywistość jest taka, że AI istnieje od dziesięcioleci, ale dopiero niedawno zaczęła wchodzić do głównego nurtu świadomości, głównie dzięki postępowi w mocy obliczeniowej i pojemności pamięci masowej, w połączeniu z użytecznością najnowszych modeli (w tym LLM), które mogą zapewnić wiele różnych przypadków użycia. Obecnie firmy każdej wielkości zaczynają dostrzegać potencjał AI i zaczynają inwestować w tę transformacyjną technologię. W rzeczywistości, według niedawnego raportu International Data Corporation (IDC), światowe wydatki na systemy skoncentrowane na AI przekroczą 300 miliardów dolarów do 2026 roku.1 Trudno przewidzieć, jak AI zaniknie, ponieważ korzyści, które zapewnia, są tak dalekosiężne i wpływowe, że po wdrożeniu mało prawdopodobne jest, aby firmy zdecydowały się na wyłączenie. Jednak widzieliśmy już wcześniej, jak entuzjazm dla AI słabł, wraz z tym, co nazywa się zimą AI.2 Dzieje się tak, gdy główne oczekiwania wobec AI są znacznie większe niż to, co jest technicznie możliwe w danym momencie, inwestorzy i firmy są rozczarowani, a w krótkim okresie cała uwaga skupia się na czymś innym. Jednak historia pokazała nam, że z czasem, wraz z kolejną innowacją o charakterze zmiany, taką jak nowy algorytm uczenia się lub podejście, świat wraca do AI jako najbardziej interesującej i zaawansowanej technologii, która ma nas przybliżyć do osiągnięcia celu, jakim jest sztuczna inteligencja ogólna lub superinteligencja.

Mit 2: Tylko duże firmy mogą sobie pozwolić na AI

Innym powszechnym błędnym przekonaniem na temat AI jest to, że jest ona dostępna tylko dla dużych firm z dużymi kieszeniami. Jednak to po prostu nieprawda. Dzięki usługom opartym na chmurze, takim jak Amazon Web Services (AWS) i Google Cloud Platform (GCP), nawet małe firmy mogą teraz korzystać z AI bez nadwyrężania budżetu. Na przykład AWS oferuje szeroki zakres usług do tworzenia i wdrażania aplikacji AI, w tym wstępnie wyszkolone modele, które można wykorzystać do zadań takich jak rozpoznawanie obrazów i klasyfikacja tekstu. GCP oferuje również kilka gotowych do użycia modeli uczenia maszynowego, które można wdrożyć za pomocą kilku kliknięć. Inne platformy w chmurze również zapewniają szeroki zakres możliwości AI, w tym Microsoft Azure (który zintegrował teraz możliwości z OpenAI), IBM Cloud, Oracle Cloud i Alibaba. Z pewnością duże organizacje miały fundusze i budżety na inwestowanie w innowacje AI w ciągu ostatnich pięciu lat, aby zbadać, w jaki sposób technologia ta może mieć zastosowanie w ich operacjach biznesowych, a w wielu przypadkach przyjąć wczesne wdrożenia w celu zapewnienia wydajności produktywności, takie jak chatboty dla klientów. Jednak obecnie coraz więcej małych i średnich przedsiębiorstw, dysponujących ograniczonymi budżetami i zasobami, bada również, w jaki sposób sztuczna inteligencja może pomóc w usprawnieniu działalności i produktywności. Wyzwaniem dla tych przedsiębiorstw jest to, że podczas gdy wdrażanie stosunkowo łatwych przypadków użycia można przeprowadzić bez dużych inwestycji, w przypadku niektórych trudniejszych problemów prawdopodobnie konieczne będzie niestandardowe rozwiązanie, którego dostarczenie będzie wymagało pewnego poziomu inwestycji. Tylko poprzez zrozumienie tego i ustalenie priorytetów przypadków użycia sztucznej inteligencji, tak aby tylko te, które mogą zwrócić się z inwestycji i dostarczyć rozwiązanie konkretnego problemu biznesowego, każdy program sztucznej inteligencji będzie postrzegany jako udany. Kluczem dla mniejszych przedsiębiorstw z ograniczonymi zasobami jest selektywność i skupienie się na rozwiązywaniu rzeczywistych problemów.

Mit 3: Maszyny wkrótce zastąpią ludzi w miejscu pracy

Mit ten prawdopodobnie wywodzi się z hollywoodzkich filmów, takich jak Terminator i Matrix, które przedstawiają dystopijną przyszłość, w której maszyny przejęły władzę nad światem, a ludzie są niczym więcej niż niewolnikami (lub czymś gorszym). Ze wszystkich wymienionych przez nas mitów ten jest najbardziej kontrowersyjny i w pewnym sensie najbliższy realizacji. W rzeczywistości jednak nie ma potrzeby martwić się o zbliżający się bunt robotów. Maszyny nie zastąpią wszystkich ludzi w miejscu pracy w najbliższym czasie - i nie są do tego zaprojektowane. Zamiast tego maszyny będą uzupełniać ludzkich pracowników, podejmując się powtarzalnych i niebezpiecznych zadań, aby ludzie mogli skupić się na bardziej kreatywnej pracy. Będziemy obserwować ciągłe procesy z udziałem człowieka w pętli, w których sztuczna inteligencja będzie wspomagać nasze ludzkie podejmowanie decyzji, analizując ogromne ilości danych, które trudno nam zrozumieć. Dla większości nasze prace ulegną zmianie, ulepszeniu, a automatyzacja i możliwości sztucznej inteligencji będą wspierać nasze codzienne zadania. Jednak będą pewne prace i role, które bardzo szybko będzie można w pełni zautomatyzować za pomocą technologii. Podobnie jak każda przełomowa technologia, środowisko pracy ulegnie zmianie i wszyscy będziemy musieli się dostosować. Niektóre role znikną, inne zostaną utworzone, a większość zostanie rozszerzona o technologię. Wyzwaniem dla niektórych jest to, jak trudno jest szybko przekwalifikować się i znaleźć nową rolę, która odpowiada Twoim umiejętnościom i doświadczeniu. W zależności od tempa zmian stanie się to poważnym problemem dla krajów, a rządy będą musiały współpracować z przedsiębiorstwami i branżami, aby znaleźć odpowiednie rozwiązania w celu ochrony i wsparcia pracowników, którzy zostaną przemieszczeni. Czym ta rewolucja przemysłowa różni się od poprzednich, jest to, że AI dotyczy każdej branży i każdej roli, więc potencjalne zakłócenia są znaczące, jeśli nie są odpowiednio zarządzane, kontrolowane i ograniczone. To, w jaki sposób rządy i organy regulacyjne będą nadzorować i kierować tą zmianą, będzie decydujące dla tego, jak dobrze wszyscy będziemy w stanie dostosować się do świata z inteligentną technologią u naszego boku.

Mit 4: AI jest zbyt trudne do wdrożenia

Choć może się wydawać, że rozpoczęcie i wdrożenie pierwszego zastosowania AI w Twojej firmie jest zbyt trudne, istnieje ogromna ilość informacji i wsparcia, które pozwolą Ci na pomyślne pierwsze wdrożenie. Jednym ze sposobów na zwiększenie szans na sukces jest wybranie przypadku użycia, który jest wewnętrzny dla firmy (ograniczając ekspozycję na Twoich klientów) i jest mniej złożony w porównaniu z innymi potencjalnymi kandydatami na przypadki użycia. Obecnie dostępnych jest tak wiele narzędzi i aplikacji, że rozpoczęcie korzystania z AI jest łatwiejsze niż kiedykolwiek, co pozwala firmom każdej wielkości eksperymentować z wykorzystaniem AI w wielu różnych obszarach. Z pewnością rozpoczęcie od czegoś prostego i nauka poprzez działanie to kluczowe podejście, które pozwoli ludziom w organizacji uczyć się stopniowo i odkrywać różne sposoby, w jakie AI może dodawać wartości do firmy. Skalowanie AI w całej organizacji może być trudniejsze i pojawią się pewne przeszkody i wyzwania, które trzeba będzie pokonać. Istnieje wiele sposobów na zwiększenie szans na sukces we wdrażaniu AI, od zrozumienia wizji i misji AI dla przyszłego sukcesu Twojej firmy, po kierowanie podejściem do wdrażania od pierwszych innowacyjnych dowodów koncepcji do skalowanego wdrożenia AI w całej firmie. Dostępnych jest również wiele źródeł informacji, które mogą wspierać proces zrozumienia możliwości AI i sposobu prawidłowego wdrażania. Innym kluczem do sukcesu jest zdefiniowanie strategii AI Twojej firmy, ponieważ pomoże Ci to określić, co jest potrzebne do położenia fundamentów pod wdrożenie AI na dużą skalę. Istnieją wyzwania związane z wdrażaniem AI; niektóre z nich wynikają z braku standaryzacji zarówno technologii, jak i procesu. Istnieją jednak doradcy i doświadczeni naukowcy danych, którzy mogą pomóc Tobie i Twojej firmie zdefiniować najlepsze praktyki, aby zapewnić pomyślne wdrożenia.

Mit 5: AI nigdy nie będzie w stanie odtworzyć ludzkiego poziomu inteligencji

Niektórzy praktycy branżowi uważają, że prawdziwych zaawansowanych możliwości inteligencji po prostu nie da się odtworzyć przy użyciu technologii opartych na krzemie. Nie ma dowodów, które potwierdzałyby lub zaprzeczały tej tezie. Z pewnością na tym etapie nie ma niczego konkretnego, co czyniłoby to rzeczywistym problemem. Mamy jednak o wiele więcej do zbadania i wiele konkretnych inteligentnych zdolności do zbudowania, więc tylko czas pokaże. Osobiście uważam, że nie ma niczego w biologicznych umysłach, czego nie można by funkcjonalnie zduplikować za pomocą innych technologii. AI jest przedmiotem interdyscyplinarnym i prawdopodobnie będzie wymagać wkładu z wielu obszarów, aby zbliżyć nas do ludzkiego poziomu inteligencji. Będzie również wymagać szerokiego zakresu metodologii i technik, aby dostarczyć coś zbliżonego do wysoce złożonych zdolności, które widzimy w ludzkiej inteligencji. Wielu uważa, że dzięki ostatnim postępom w generatywnej AI jesteśmy znacznie bliżej sztucznej inteligencji ogólnej; jednak opinie ekspertów na temat tego, kiedy AGI zostanie osiągnięte, są ogromnie podzielone - od 10 do 1000 lat. Jasne jest, że branża AI chce pracować nad osiągnięciem tego celu i osiągnąć go, ponieważ stworzy on znaczną przewagę konkurencyjną dla osoby lub firmy, która jako pierwsza dostarczy system obsługujący AGI. Branża koncentruje się obecnie na uczeniu maszynowym, ale będzie musiała przyjąć szerszą perspektywę na wszystkie podstawowe zdolności inteligencji, jeśli ma odtworzyć ludzki poziom inteligencji.

Mit 6: Musisz być technologiem, aby pracować w dziedzinie AI
v Chociaż umiejętności techniczne są cenne i niezbędne do pełnienia niektórych ról w rozwoju AI, dziedzina AI jest zróżnicowana i oferuje możliwości dla osób o szerokim zakresie wykształcenia i doświadczenia. W istocie dziedzina AI jest interdyscyplinarna i wita osoby o zróżnicowanych umiejętnościach i doświadczeniu. Chociaż wiedza techniczna może być korzystna w niektórych rolach, rośnie zapotrzebowanie na profesjonalistów, którzy mogą wnieść wkład w AI z nietechnicznych punktów widzenia, czy to w etykę, strategię, komunikację czy inne obszary. Tak więc niekoniecznie musisz być technologiem, aby mieć znaczącą i wpływową karierę w AI. Niektóre z potencjalnych obszarów i ról, które nie wymagają szczegółowej wiedzy technicznej ani doświadczenia, obejmują:

1 Etyka i polityka AI: W miarę jak technologie AI stają się coraz bardziej powszechne, rośnie zapotrzebowanie na ekspertów w zakresie etyki i polityki AI. Profesjonaliści w tej dziedzinie pracują nad etycznymi, prawnymi i społecznymi implikacjami AI, zapewniając, że systemy AI są rozwijane i wykorzystywane w sposób odpowiedzialny.
2 Strategia i zarządzanie AI: Firmy i organizacje potrzebują osób, które potrafią formułować strategie AI, podejmować świadome decyzje dotyczące wdrażania AI i zarządzać projektami AI. Wiedza biznesowa i myślenie strategiczne są niezwykle cenne w tych rolach.
3 Badania i analiza AI: AI generuje ogromne ilości danych, a analitycy i badacze są potrzebni, aby interpretować te dane, wyciągać wnioski i informować o podejmowaniu decyzji. W tym obszarze niezbędne są silne umiejętności analityczne.
4 Doświadczenie użytkownika (UX) i projektowanie: Projektanci i eksperci UX odgrywają kluczową rolę w tworzeniu przyjaznych dla użytkownika interfejsów i aplikacji AI. Zapewniają, że technologie AI są dostępne i intuicyjne dla użytkowników.
5 Edukacja i szkolenia AI: Edukatorzy i trenerzy są potrzebni, aby nauczać koncepcji AI szerokiego grona odbiorców, od studentów po profesjonalistów. Opracowywanie materiałów edukacyjnych i kursów na temat AI może być cennym wkładem.
6 Dziennikarstwo i komunikacja AI: Dziennikarze i komunikatorzy, którzy potrafią wyjaśnić rozwój AI, przełomy i ich wpływ społeczny ogółowi społeczeństwa, pomagają zasypać przepaść między technologami a szerszą społecznością.
7 Sprzedaż i marketing AI: Firmy sprzedające produkty i usługi AI potrzebują profesjonalistów ds. sprzedaży i marketingu, którzy potrafią przekazywać wartość rozwiązań AI potencjalnym klientom.
8 Zarządzanie projektami AI: Zarządzanie projektami AI obejmuje koordynację różnych aspektów, od rozwoju technicznego po współpracę zespołową. Umiejętności zarządzania projektami są kluczowe dla zapewnienia pomyślnej realizacji projektów AI.
9 Prawo dotyczące AI i własność intelektualna: Prawnicy specjalizujący się w prawie dotyczącym AI mogą pomóc w poruszaniu się po zawiłościach prawnych związanych z AI, w tym kwestiach własności intelektualnej, prywatności i odpowiedzialności. Mit 7: Tworzenie AI stanie się w pełni zautomatyzowane Sama AI jest wykorzystywana do automatyzacji różnych zadań i procesów.

Mit 7: Tworzenie AI stanie się w pełni zautomatyzowane Sama AI jest wykorzystywana do automatyzacji różnych zadań i procesów, ale proces tworzenia i rozwijania systemów AI jest daleki od pełnej automatyzacji. Podczas gdy AI może automatyzować wiele zadań i zwiększać wydajność, proces budowania systemów AI pozostaje wspólnym wysiłkiem, który opiera się na ludzkiej wiedzy specjalistycznej, kreatywności i nadzorze na różnych etapach. Rozwój AI nie jest w pełni zautomatyzowany i jest mało prawdopodobne, aby stał się taki w przewidywalnej przyszłości, ponieważ wiąże się ze złożonym podejmowaniem decyzji, wiedzą specyficzną dla danej dziedziny i rozważaniami etycznymi, które wymagają zaangażowania człowieka. Oto dlaczego:

1 Złożoność rozwoju AI: Tworzenie systemów AI to złożony, multidyscyplinarny proces, który obejmuje różne etapy, w tym formułowanie problemu, zbieranie i wstępne przetwarzanie danych, wybór i szkolenie algorytmów, ocenę modelu i wdrożenie. Każdy z tych etapów wymaga ludzkiej wiedzy specjalistycznej i osądu.
2 Zrozumienie problemu: Systemy AI są projektowane w celu rozwiązywania określonych problemów lub wykonywania zadań. Zdefiniowanie problemu, zrozumienie niuansów i ustalenie celów często wymaga ludzkiej wiedzy specjalistycznej. System AI nie może automatycznie rozróżnić celów bez jasnego ludzkiego przewodnictwa.
3 Jakość danych i wstępne przetwarzanie: Modele AI w dużym stopniu opierają się na danych, a zapewnienie jakości, trafności i uczciwości danych używanych do szkolenia jest kluczowym krokiem. Wstępne przetwarzanie, czyszczenie i etykietowanie danych często wymaga interwencji człowieka w celu obsługi niejednoznacznych lub złożonych danych.
4 Wybór i dostrajanie algorytmu: Wybór odpowiednich algorytmów i modeli do danego zadania jest kluczową decyzją w rozwoju AI. Wymaga to ludzkiej wiedzy fachowej, aby ocenić przydatność różnych technik i dostroić je w celu uzyskania optymalnej wydajności.
5 Interpretowalność modelu i względy etyczne: Zrozumienie, w jaki sposób modele AI podejmują decyzje i zapewnienie, że są etycznie zaprojektowane, to ważne kwestie. Nadzór ludzki jest wymagany do interpretowania wyników modelu, identyfikowania uprzedzeń i podejmowania etycznych decyzji dotyczących zachowania modelu.
6 Ciągły monitoring i konserwacja: Systemy AI wymagają ciągłego monitorowania i konserwacji, aby dostosować się do zmieniających się warunków i zapewnić, że działają zgodnie z przeznaczeniem. Wiąże się to z nadzorem człowieka w celu wykrywania problemów, aktualizowania modeli i wprowadzania niezbędnych ulepszeń.
7 Kreatywność i innowacja: Wiele przełomów w badaniach nad AI jest wynikiem kreatywnego myślenia i innowacji. Badacze i inżynierowie nieustannie przesuwają granice możliwości sztucznej inteligencji, wymyślając nowe algorytmy i podejścia.
8 Wymagania regulacyjne i zgodności: Zgodność z ramami prawnymi i regulacyjnymi, takimi jak przepisy o ochronie danych i standardy branżowe, często wymaga ludzkiej wiedzy fachowej, aby poruszać się po złożonych wymaganiach i zapewnić zgodność systemów sztucznej inteligencji.
9 Interakcja i doświadczenie użytkownika: Projektowanie przyjaznych dla użytkownika interfejsów dla aplikacji sztucznej inteligencji oraz uwzględnianie potrzeb i opinii użytkowników wymaga zorientowanych na człowieka zasad projektowania, których nie można w pełni zautomatyzować.
10 Zrozumienie kontekstowe: Systemy sztucznej inteligencji nie mają głębokiego zrozumienia kontekstu i zdrowego rozsądku, które posiadają ludzie. Ludzki osąd jest kluczowy dla interpretowania i działania na podstawie informacji generowanych przez sztuczną inteligencję

Mit 8: AI jest nieomylna i zawsze ma rację

Systemy AI, podobnie jak każda technologia, nie są nieomylne i mogą popełniać błędy lub dostarczać niepoprawnych wyników z kilku powodów. Ważne jest, aby pamiętać, że AI jest narzędziem stworzonym przez ludzi, a jego wydajność zależy od jakości danych, projektu modelu i wiedzy programistów. Chociaż AI może być w wielu przypadkach niesamowicie wydajna i dokładna, nie jest gwarancją doskonałości, a jej ograniczenia i potencjał błędów należy wziąć pod uwagę podczas korzystania z systemów AI. Nadzór ludzki i myślenie krytyczne pozostają niezbędne podczas podejmowania decyzji w oparciu o spostrzeżenia generowane przez AI. Niektóre z problemów powodujących podatność AI na błędy obejmują:

1 Błąd danych: systemy AI uczą się na podstawie danych historycznych, a jeśli dane szkoleniowe są stronnicze lub niekompletne, AI może utrwalać te błędy. Może to skutkować niesprawiedliwymi lub stronniczymi decyzjami, szczególnie w takich zastosowaniach jak zatrudnianie, udzielanie pożyczek lub wymiar sprawiedliwości w sprawach karnych.
2 Niewystarczające dane szkoleniowe: Jeśli zbiór danych szkoleniowych nie jest reprezentatywny lub brakuje mu różnorodności, modele AI mogą nie uogólniać się dobrze na nowe lub nieznane sytuacje. Mogą działać słabo w przypadku danych różniących się od danych szkoleniowych.
3 Ograniczenia modelu: Modele AI mają ograniczenia wynikające z ich architektury i algorytmów, których używają. Mogą nie być dobrze przystosowane do niektórych zadań lub mogą mieć problemy ze złożonym rozumowaniem i zrozumieniem kontekstu.
4 Zakłócone dane: Zakłócenia lub błędy w danych mogą negatywnie wpłynąć na wydajność AI. Nawet niewielkie ilości nieprawidłowych danych mogą prowadzić do niedokładnych wyników. 5 Zmieniające się środowiska: Modele AI są trenowane na danych historycznych i mogą nie dostosowywać się dobrze do szybko zmieniających się środowisk lub nieprzewidzianych zdarzeń. Brakuje im zdolności uczenia się w czasie rzeczywistym.
6 Ataki adwersarskie: Systemy AI mogą być podatne na ataki specjalnie zaprojektowane w celu wykorzystania ich słabości. Na przykład dodanie niezauważalnego szumu do obrazu może oszukać systemy rozpoznawania obrazu.
7 Niepewność: Modele AI często podają wyniki pewności lub prawdopodobieństwa wraz ze swoimi przewidywaniami. Wysoka niepewność może wskazywać, że model nie jest pewien konkretnej prognozy i nie zawsze może być ona prawidłowa.
8 Dylematy etyczne i moralne: AI może podejmować decyzje w oparciu o dane i algorytmy, ale nie może wydawać osądów etycznych ani moralnych. Decyzje podejmowane przez systemy AI mogą nie być zgodne z ludzkimi wartościami i etyką.
9 Błędy techniczne: Jak każde oprogramowanie, systemy AI mogą mieć błędy techniczne lub problemy, które wpływają na ich wydajność i niezawodność.
10 Nadzór ludzki: W wielu zastosowaniach AI nadzór ludzki jest niezbędny do walidacji wyników generowanych przez AI i korygowania błędów. Poleganie wyłącznie na AI bez przeglądu przez człowieka może prowadzić do nieprawidłowych wyników.

Inne mity

Istnieje wiele innych mitów związanych ze sztuczną inteligencją, a nowe pojawiają się cały czas w miarę rozwoju dziedziny nauki i dostarczanych możliwości:

1 Umiejętności ludzkie są nieistotne: przekonanie, że tylko umiejętności techniczne mają znaczenie podczas pracy z sztuczną inteligencją, zaniedbując znaczenie umiejętności ludzkich, takich jak kreatywność, empatia i myślenie krytyczne.
2 Sztuczna inteligencja rozwiązuje wszystkie problemy biznesowe: idea, że sztuczna inteligencja jest rozwiązaniem uniwersalnym, które może sprostać każdemu wyzwaniu biznesowemu, bez uwzględnienia potrzeby starannego ujęcia problemu i rozwiązań specyficznych dla kontekstu.
3 Innowacje napędzane sztuczną inteligencją: mit, że sztuczna inteligencja może sama napędzać innowację, bez potrzeby ludzkiej idei, kreatywności i strategicznego myślenia.
4 Trwała implementacja sztucznej inteligencji: błędne przekonanie, że systemy sztucznej inteligencji można wdrożyć raz i nie wymagają one dalszych dostosowań ani konserwacji, ignorując potrzebę ciągłego monitorowania i adaptacji. Jest to kluczowy element systemów sztucznej inteligencji i uczenia maszynowego w tej chwili i jest potrzebny, ponieważ podstawowe dane zmieniają się w czasie. Mity o przyszłej sztucznej inteligencji

Przyjrzymy się przyszłej perspektywie sztucznej inteligencji w kolejnej sekcji, ale poruszymy kwestię, w jaki sposób różne perspektywy mogą przyczyniać się do mitów i nieporozumień na temat sztucznej inteligencji. W komentarzach dotyczących technologii można przyjąć perspektywę utopijną lub dystopijną, postrzegając równowagę w użyteczności jako siłę dobra lub zła. Istnieją poważne obawy dotyczące etyki, zarządzania i kontroli zaawansowanej sztucznej inteligencji, co prowadzi do sztucznej inteligencji ogólnej i superinteligencji. To, w jaki sposób unikniemy wymknięcia się technologii spod kontroli lub potencjalnego stworzenia wydarzenia wyginięcia, które zniszczy całą ludzkość, jest poważnym problemem, ponieważ możemy nie mieć drugiej szansy, aby to naprawić. Faktem jest, że tworzymy sztuczną inteligencję, która pewnego dnia może rywalizować, a nawet przewyższyć naszą własną zbiorową inteligencję ludzką, zastępując nas jako dominujący gatunek na planecie Ziemia. Ten szybko zmieniający się postęp technologiczny jest taki, że naturalnie tworzy środowisko dla mitów i nieporozumień, w niektórych przypadkach wzmacnianych przez tych, którzy mogą czerpać korzyści finansowe i komercyjne z tego szumu i sensacyjnych nagłówków.

Dystopia

Niektórzy obawiają się, że AI ostatecznie stanie się tak inteligentna, że znajdzie sposób na kontrolowanie świata. Choć jest to świetny materiał na hollywoodzkie filmy, jest mało prawdopodobne, aby tak się stało. AI, podobnie jak każda technologia, jest narzędziem, narzędziem, które kontrolujemy i możemy wyłączyć w razie potrzeby. Jednak niezależnie od tego, jak mało prawdopodobne to może być, jest to możliwe. Ale wbudowujemy zabezpieczenia i bramki w programowanie, aby zapobiec samej możliwości w pełni zautomatyzowanego przejęcia przez agentów AI.

Utopia

Chociaż ma to również zadatki na hollywoodzki hit, ma bardziej pożądany wynik dla ludzi: życie w krainie bez cierpienia, ubóstwa, chorób i przestępczości. Utopijny pogląd to taki, w którym AI pomaga nam rozwiązywać wszystkie najtrudniejsze problemy, z którymi obecnie się borykamy, w tym zmiany klimatyczne i kryzys energetyczny. Wydaje się to osiągalne, ale czasami zbyt piękne, aby było prawdziwe. Musi być jakiś haczyk, wada, kompromis, który będziemy musieli ponieść, aby uzyskać wszystkie te korzyści. Być może to stopniowe oddalanie się od technologii, którą stworzyliśmy, aby rozwiązać te problemy, dystansowanie się w czasie, sprawi, że ostatecznie zapomnimy, jak budować i utrzymywać takie systemy.

Neutropia

Przy dwóch skrajnościach, dystopijnej i utopijnej perspektywie, pogląd neutropijny podąża ścieżką pomiędzy nimi, biorąc elementy obu i dążąc do rozwoju w sferze rzeczywistości. Powinniśmy zdać sobie sprawę, że prawdopodobnie znajdziemy się w świecie z połączeniem technologii AI i ludzkości, z pozytywnymi i negatywnymi stronami. Z taką perspektywą podchodzimy do AI z najbardziej racjonalną i zrównoważoną perspektywą.

Obalanie mitów

Dziedzina AI jest wysoce wyspecjalizowana, a większość populacji ma tylko częściowe zrozumienie, jak działa ta technologia. Ponadto dziedzina ta rozwija się w tak ogromnym tempie, że większości ludzi trudno jest odróżnić, co jest science fiction, a co faktem naukowym. Trzecie prawo sir Arthura C. Clarke′a głosi, że "Każda wystarczająco zaawansowana technologia jest nieodróżnialna od magii". To właśnie zaczynamy dostrzegać wraz z postępem AI. Oczywiście, biorąc pod uwagę tak wpływową i ważną technologię, rozsądne jest ostrożne podejście, podkreślenie pełnego zakresu rozważań, podniesienie świadomości i zapewnienie, że wywieramy odpowiedni poziom presji na tych, którzy kształtują przyszłość za pomocą AI, aby upewnić się, że robią to w sposób odpowiedzialny i godny zaufania. Ale również ci, którzy pracują w branży, mają obowiązek rozwiać te mity i pomóc ludziom naprawdę zrozumieć piękno i wyzwania technologii opartej na AI. Mity dotyczące AI często rodzą się bardziej z niezrozumienia technologii niż z głęboko zakorzenionego strachu. Nadal będziemy zaskakiwani możliwościami i tym, co jest możliwe dzięki AI, ale oznacza to, że musimy po prostu zainwestować w zrozumienie, które pomoże nam złagodzić nasze zmartwienia i obawy. Jednak w przypadku każdej przełomowej nowej technologii zobaczymy problemy, awarie i pewne niezamierzone konsekwencje, którymi trzeba będzie zarządzać i kontrolować, aby ograniczyć wpływ i uniknąć opiekuńczości i strachu, które mogą opóźnić innowację AI o dziesięciolecia



Pewna SI: Podstawowe umiejętności pracy ze sztuczną inteligencją (2)


Dlaczego warto pracować w AI?

Przyszłość pracy jest już z nami. Pandemia Covid-19 dramatycznie pomogła przyspieszyć transformację cyfrową, a handel detaliczny online i praca zdalna stały się ważne dla przetrwania wielu firm, a nawet przyspieszenie chatbotów opartych na AI do obsługi klienta, ponieważ pracownicy obsługi klienta musieli pracować z domu, a w niektórych przypadkach mieli problemy ze zdalnym dostępem. Microsoft opisuje to jako 2 lata transformacji cyfrowej w 2 miesiące, a przyspieszenie transformacji cyfrowej otworzyło również drzwi do zwiększonej adopcji technologii AI. Wszyscy musimy dostosować się do środowiska, w którym na pierwszym miejscu jest technologia, stając się cyfrowymi tubylcami. Oczywiście będą pewne branże i role, które nie będą miały żadnego zastosowania dla AI, ale ponieważ świat nadal będzie polegał bardziej na handlu opartym na technologii, zobaczymy potrzebę zwiększenia edukacji, umiejętności i szkoleń, aby wspierać zmieniający się krajobraz miejsca pracy. Technologia jest czynnikiem umożliwiającym, pomagającym firmom osiągać cele wydajniej i dokładniej. Od czasu pierwszych programów maszynowych i komputerów mainframe możliwości technologii wzrosły w szybkim tempie na przestrzeni dziesięcioleci. Chociaż dziedzina sztucznej inteligencji narodziła się w latach 50. XX wieku, to dopiero w ciągu ostatnich 20 lat zaobserwowaliśmy powszechną adopcję i akceptację aplikacji i systemów opartych na AI. Pomimo tej 70-letniej tradycji, branża AI jest wciąż stosunkowo nowa, częściowo dlatego, że to, czym jest AI, ciągle się zmienia, a badania i rozwój odbywają się obecnie w zawrotnym tempie, niektórzy mogliby powiedzieć wykładniczym. Doskonałym przykładem tej szybkiej zmiany jest termin i rola naukowca zajmującego się danymi. Termin ten jest stosunkowo nowy w powszechnym użyciu; chociaż został po raz pierwszy użyty w latach 60. i 70. XX wieku, po raz pierwszy wspomniano o nim na konferencjach dopiero pod koniec lat 90. Porozmawiamy więcej o roli naukowca zajmującego się danymi w dalszej części , ale na razie wystarczy zademonstrować stale zmieniające się oblicze AI, z nowymi algorytmami, sprzętem, modelami szkoleniowymi i rolami zawodowymi. Widzimy również, jak zawód AI staje się coraz bardziej dojrzały, kładąc większy nacisk na przyjmowanie dokładnego i solidnego podejścia. Narzędzia, ramy i platformy również dojrzały w ostatnich latach, aby zapewnić infrastrukturę pomocniczą ułatwiającą bardziej profesjonalne rezultaty. Jest to spotęgowane przez wymagania organów regulacyjnych i wewnętrznych procesów zarządzania firm, aby zapewnić etyczne i wiarygodne wdrożenia aplikacji i systemów AI. Ten nowy poziom profesjonalizmu pomoże kontrolować pęd do innowacji i przewagi konkurencyjnej, co nieuchronnie spowoduje pewne niedociągnięcia i niepowodzenia. Z pewnością świat AI jest teraz głównym nurtem. Uniwersalne zastosowanie generatywnej AI obudziło świat biznesu do jej różnych możliwości i korzyści w całym łańcuchu wartości biznesowej, od sprzedaży i marketingu i obsługi klienta po operacje zaplecza i przetwarzanie transakcji. Tak więc, aby zadać pytanie, dlaczego jakakolwiek młoda osoba nowa w miejscu pracy lub profesjonaliści szukający zmiany kariery chcieliby pracować w dziedzinie AI? Możemy argumentować, że dziedzina ta jest zbyt złożona i dynamiczna, a zatem zbyt ryzykowne jest zaangażowanie się w karierę w AI. Kontrargumentem jest to, że dziedzina AI jest ostatecznym postępem technologii, a fakt, że jest to obecnie tak złożone i dynamiczne środowisko, oznacza, że istnieje wiele możliwości rozwoju błyskotliwej kariery - wiele miejsca w dziedzinie AI, aby stać się liderem i ekspertem, a także wiele innowacji, które dopiero mają się wydarzyć, z dużym polem do rozwoju kariery i komercyjnego wykorzystania. To ogromny krajobraz możliwości. Istnieje również naturalna tendencja do zakładania, że aby pracować w technologii, trzeba być technicznym. Z pewnością tak nie jest. Wiele osób, które znam, a które pracują w technologii, nie studiowało jej w szkole ani na uniwersytecie i przeniosło się do obszaru technologii dopiero po rozpoczęciu pracy. Jednak ci, którzy pracowali w obszarze technologii, byli ciekawi, aby się o niej uczyć i poświęcili czas, aby zdobyć wiedzę. Istnieje wiele różnych ścieżek kariery, z licznymi rolami wymagającymi szeregu umiejętności i predyspozycji - istnieje świat możliwości dla każdego, kto jest zainteresowany pracą w sztucznej inteligencji. Ludzie zmieniają pracę średnio co trzy do pięciu lat i często byłaby to znacząca zmiana kariery. Znam wielu doświadczonych programistów oprogramowania, którzy postanowili przekwalifikować się na naukowców danych. Inni przechodzą z IT do funkcji biznesowych, a niektórzy całkowicie zmieniają branże. Zmiana firmy, zmiana roli, a nawet branży jest możliwa i wiele osób robi to w trakcie swojej kariery. Przy szybkim tempie zmian w technologii i biznesie, niemal niemożliwe jest, aby nie musieć się redefiniować, rozwijać się wraz ze swoją wiedzą i doświadczeniem oraz szukać nowych możliwości tam, gdzie się pojawią. Jednak pomimo tego, że rynek pracy jest stosunkowo płynny, jest to nadal rynek konkurencyjny, więc musisz dać sobie jak największą szansę na zdobycie pracy, której pragniesz. Dotyczy to zarówno nowych absolwentów wchodzących na rynek pracy po raz pierwszy, jak i bardziej doświadczonych profesjonalistów, którzy chcą dokonać zmiany. Przyjrzyjmy się różnym możliwościom kariery dla tych, którzy chcą zbliżyć się do świata AI.

Badacz

Najbardziej naukowo powiązaną karierą byłby badacz AI, pomagający w rozwijaniu podstawowych metodologii, algorytmów i architektur AI i ML. Podczas gdy świat AI rozwija się szybko, w nadchodzących latach nadal potrzeba ogromnej ilości badań i rozwoju. Wielu uważa, że generatywna AI przyspieszyła nasz postęp w kierunku AGI (sztucznej inteligencji ogólnej), ale nadal mamy długą drogę do przebycia i wiele aspektów inteligencji do opanowania. Jedną ze ścieżek są role postdoktoranckie na uniwersytetach; wiele dużych firm technologicznych ma również dedykowane działy badawcze, ale ich cele będą bardziej skoncentrowane na stosowanej AI dla określonych wyników i zastosowań, podczas gdy uniwersytety są bardziej otwarte i mniej ograniczone. Dziedzina AI jest również znaczna, obejmując nie tylko uczenie maszynowe, ale wiele innych ważnych obszarów, w tym rozumienie języka, reprezentację wiedzy, rozumowanie, planowanie, strategię, zdrowy rozsądek i kreatywność, aby wymienić tylko kilka. Istnieje więc szereg obszarów badawczych, w których można osiągnąć postęp i wpływ. Ostatecznie wierzę, że prawdziwie zaawansowana AI będzie połączeniem wielu podejść i metodologii, które połączą się w jedną skonsolidowaną technologię. Podczas gdy ten wybór kariery jest godny podziwu, a zapotrzebowanie na bardziej zdolnych do badań programistów AI będzie nadal rosło, nie jest to dla wszystkich i istnieje wiele innych poziomów naukowców zajmujących się danymi, którzy nadal mogą wnieść duży wkład w dziedzinę AI bez konieczności tworzenia nowych podejść, do których dążą badacze

Naukowiec danych

Stosunkowo nowy termin w świecie AI, ale zasadniczo związany ze stosowaniem technik AI i ML do konkretnych problemów i zestawów danych. Istnieją różne poziomy doświadczenia i wiedzy wymagane od naukowców danych, w zależności od wymagań firmy zatrudniającej. Na przykład, jeśli zadanie wymaga stworzenia nowego rozwiązania, ten typ roli jest zarówno badaczem, jak i programistą AI stosowanej. W przypadku innych, mniej złożonych zadań, znalezienie istniejącego, wstępnie wyszkolonego modelu i dostosowanie go do konkretnego zestawu danych i zadania może być prostą czynnością. Niezależnie od wymaganego poziomu złożoności, rola naukowca danych jest zarówno sztuką, jak i nauką, wymagającą wykorzystania doświadczenia i wiedzy, aby wybrać odpowiedni rodzaj techniki i skonfigurować architekturę i parametry w celu zoptymalizowania wydajności wyjściowej. Aby odnieść sukces jako naukowiec danych, ważne jest posiadanie solidnych podstaw w matematyce, statystyce i informatyce, a także wiedzy i umiejętności specyficznych dla danej dziedziny. Naukowcy danych powinni również mieć silne umiejętności rozwiązywania problemów i komunikacji oraz być w stanie efektywnie pracować w zespole. Podczas gdy umiejętności matematyczne, analityczne i informatyczne są bardzo ważne, umiejętności komunikacyjne są również istotną częścią tej roli. Podczas gdy wizualizacja danych pomaga w tym, podstawowym aspektem roli naukowca danych jest umiejętność tworzenia właściwej narracji z implikacjami biznesowymi tego, co pokazują spostrzeżenia i wyniki modelu. Rola naukowca danych jest naprawdę multidyscyplinarna, wymagająca szerokiego zakresu umiejętności twardych i miękkich, aby dobrze ją wykonywać. Dlatego jestem zwolennikiem tego, aby naukowcy danych mieli szerokie podstawy wiedzy i doświadczenia - sprawia to, że osoby pochodzące z różnych obszarów i mające różne wcześniejsze doświadczenia są silnymi kandydatami, ale nie jest to obowiązkowe. Choć niektórzy naukowcy zajmujący się danymi posiadają pewien poziom formalnego przeszkolenia i wykształcenia, osoby pracujące już w branży technologicznej mają duże szanse na utrzymanie stanowiska i przejście na stanowisko związane z nauką o danych.

Szef nauki o danych

Rozwój kariery jako naukowca danych przebiegałby zgodnie ze standardową ścieżką, stając się starszym, a następnie głównym naukowcem danych w zespole złożonym z innych osób, a następnie szefem nauki o danych w grupie lub dziale. Z czasem może to otworzyć możliwości stania się szefem nauki o danych w całej firmie, a nawet uzyskania tytułu dyrektora ds. sztucznej inteligencji, jeśli firma uznałaby taką rolę za potrzebną na poziomie zarządu. Podobnie jak w przypadku każdej roli polegającej na kierowaniu zespołem ludzi, wymagane umiejętności rozszerzają się na zarządzanie ludźmi tak samo jak wiedzę techniczną. Umiejętności te są często nabywane z czasem wraz ze wzrostem wielkości zespołu i obowiązków. Często określane jako umiejętności miękkie, obejmują również dobre umiejętności komunikacyjne (które będą potrzebne w różnych rolach w nauce o danych), zarządzanie czasem oraz umiejętność ustalania priorytetów, delegowania i poruszania się w strukturze organizacyjnej. Jednak podczas gdy najbardziej pożądane jest, aby szef nauki o danych miał doświadczenie w nauce o danych, możliwe jest, aby inni technologowie, którzy mają dobre połączenie umiejętności technologicznych i zarządzania ludźmi, objęli takie stanowisko (i poznali szczegóły nauki o danych w pracy).

Inne role techniczne

Istnieje wiele innych ról w technologii, które wspierają rozwój i wdrażanie AI, i są to opcje kariery dla tych, którzy chcą się rozwijać w tym obszarze i angażować się w projekty, które budują możliwości AI. Obejmują one:
v Inżynieria danych: Rola z odpowiedzialnością za zarządzanie i kontrolowanie danych na wybranych platformach. Pomoc w zbieraniu i przetwarzaniu danych w celu ułatwienia zadań szerszego zespołu.
Inżynieria ML: Praca nad skalowaniem wdrożeń AI i wdrażanie mechanizmów, aby jak najbardziej ułatwić przenoszenie modeli zbudowanych przez naukowców danych do środowisk produkcyjnych.
MLOps: Definiowanie, wdrażanie i zarządzanie zautomatyzowanymi potokami do rozwoju, testowania, wdrażania, monitorowania i konserwacji nauki o danych. Wspieranie naukowców danych w zakresie wszelkich dodatków lub zmian, których potrzebują w potoku dla określonych modeli lub zadań.
Etykieciarz danych: Wspieranie naukowców danych w zakresie wszelkich wymagań dotyczących etykietowania danych dla nowych lub istniejących danych.
Trenerzy ML: Praca nad optymalizacją konfiguracji i hiperparametrów w celu tworzenia najlepiej działających modeli ML.

Istnieją inne role techniczne, które będą wspierać zespoły AI we wdrażaniu, uruchamianiu i monitorowaniu systemów i aplikacji AI, w tym:

•  architekci
•  projektanci produktów i doświadczeń użytkownika
administratorzy platformy i infrastruktury
•  administratorzy systemów baz danych

Rolki mniej techniczne będą również ściśle związane z wdrażaniem AI w organizacji, w tym:

•  właściciele produktów
•  scrum masterzy
•  analitycy biznesowi
•  kierownicy projektów

•  kierownicy programów •  testerzy i kierownicy ds. zapewnienia jakości (QA)
•  zespoły wsparcia i kierownicy

Jako część sprintu lub zespołu Agile, inne role, w tym programiści full-stack i projektanci UX, mogą również brać udział w projektach budowania narzędzi i aplikacji AI

Starsze role

Istnieją również bardziej starsze role, które mają pewien nadzór i wpływ na obszar rozwoju i wdrażania AI, w tym:

•  Menedżer lub dyrektor ds. etyki AI - zapewnia, że perspektywy etyczne, społeczne i polityczne są brane pod uwagę podczas projektowania, tworzenia i wdrażania aplikacji AI.
•  Specjalista ds. ryzyka i zgodności - odpowiedzialny za zarządzanie i zarządzanie ryzykiem w firmie.
•  Dyrektor ds. danych - skoncentrowany na zarządzaniu w całej firmie i użyteczności danych jako zasobu.
•  Dyrektor ds. operacyjnych - odpowiedzialny za sprawne działanie wszystkich systemów i procesów w firmie, w tym ludzi i logistyki.
•  Dyrektor ds. informatyki - odpowiedzialny za wszystkie systemy informatyczne w przedsiębiorstwie.
•  Dyrektor ds. technologii - skoncentrowany na wszystkich operacjach technologicznych, w tym tworzeniu nowych systemów i aplikacji.

Każda z tych ról będzie miała mieszankę umiejętności, wiedzy i doświadczenia, ale nie będzie wymagała głębokiego poziomu technicznego zaplecza AI potrzebnego do bardziej technicznych ról. Zasadniczo każda z naszych ścieżek kariery jest wyjątkowa, każda z nich pełni szereg różnych ról w różnych firmach na przestrzeni czasu. Przejście z jednej roli do drugiej, chociaż może być trudne, nie jest w żadnym wypadku niemożliwe, a tam, gdzie jest duży popyt i mała podaż, jak obecnie w dziedzinie AI, dokonanie tego ruchu jest nieco łatwiejsze niż mogłoby być w innym przypadku. Kluczowym elementem kształtowania i kierowania swoją karierą jest poinformowanie ludzi, co chcesz robić; naturalnie stworzy to nowe opcje kariery.

Nowe role

Przyspieszenie AI otwiera możliwości nowych ról na wszystkich szczeblach organizacji, od dyrektora ds. AI po najnowsze pojawiające się role, takie jak inżynier ds. natychmiastowych. W miarę rozwoju tej dziedziny w nadchodzących latach najprawdopodobniej zobaczymy tworzenie jeszcze większej liczby ról, wraz ze zmianami istniejących ról pod względem wymaganych obowiązków i umiejętności.

Dyrektor ds. AI

Obecnie tylko największe organizacje mogłyby skorzystać z dedykowanego dyrektora ds. AI. Wiele mniejszych firm może potrzebować jedynie ułamkowej roli CAIO. Rola ta obejmuje pełny nadzór nad wszystkimi wdrożeniami AI w firmie, definiowanie i wdrażanie strategii AI, zapewnianie właściwego zarządzania, audytu i kontroli, uwzględnianie wszystkich kwestii etycznych w praktykach roboczych oraz przekazywanie wszystkich odpowiednich zasad AI całej sile roboczej.

Inżynier natychmiastowy

Wraz z pojawieniem się generatywnej i konwersacyjnej AI, potrzeba optymalizacji monitów dostarczanych do modelu LLM w celu zmaksymalizowania wydajności i uzyskania jak najlepszych wyników z narzędzia oznaczała, że technika inżynierii natychmiastowej stała się coraz ważniejsza. Łatwo było zademonstrować, w jaki sposób wyniki wyjściowe zostały ulepszone poprzez uczynienie monitów bardziej informacyjnymi o pożądanym wyniku z jak największym kontekstem. Stworzyło to rolę inżyniera natychmiastowego; jednak ta umiejętność zostanie ostatecznie wchłonięta przez naukowców zajmujących się danymi, a z czasem może być tylko ograniczona liczba dedykowanych inżynierów natychmiastowych. Po prostu nie wiemy, czy ta rola utrzyma się w dłuższej perspektywie, czy też może ewoluować, dodając do roli inne podobne umiejętności, na przykład wybór danych szkoleniowych do szkolenia na zamówienie modelu LLM. Inne kluczowe umiejętności i zdolności. Istnieje wiele umiejętności i zdolności kluczowych dla osiągnięcia sukcesu w dziedzinie AI, od bardziej oczywistej matematyki i statystyki po mniej oczywiste umiejętności komunikacyjne i opowiadanie historii.

Matematyka i statystyka

Nauka o danych obejmuje wykorzystanie matematyki i statystyki w celu wyodrębnienia spostrzeżeń i wiedzy z danych. Istnieje wiele różnych pojęć i technik matematycznych i statystycznych, które są wykorzystywane w nauce o danych, a konkretne pojęcia i techniki, które są potrzebne, będą zależeć od konkretnych celów i zadań projektu. Oto kilka przykładów pojęć i technik matematycznych i statystycznych, które są powszechnie wykorzystywane w nauce o danych:

Algebra liniowa: Dział matematyki zajmujący się równaniami liniowymi i transformacjami liniowymi. Jest stosowana w nauce o danych do zadań takich jak redukcja wymiarowości, rozkład macierzy i analiza głównych składowych. Niektóre z kluczowych pojęć algebry liniowej obejmują wektory, macierze i transformacje liniowe. Algebra liniowa jest stosowana w nauce o danych do przedstawiania i manipulowania danymi w sposób ustrukturyzowany i wydajny
Rachunek różniczkowy i całkowy: Dział matematyki zajmujący się badaniem tempa zmian i akumulacji wielkości. Jest stosowana w nauce o danych do zadań takich jak optymalizacja i gradient zstępujący. Niektóre z kluczowych pojęć rachunku różniczkowego i całkowego obejmują pochodne, całki i granice. Rachunek różniczkowy i całkowy jest stosowany w nauce o danych do wykonywania optymalizacji matematycznej i zrozumienia zachowania modeli uczenia maszynowego.
Prawdopodobieństwo: Badanie zdarzeń losowych i prawdopodobieństwa ich wystąpienia. Jest stosowana w nauce o danych do zadań takich jak ocena modelu, testowanie hipotez i wnioskowanie bayesowskie. Niektóre z kluczowych pojęć prawdopodobieństwa obejmują rozkłady prawdopodobieństwa, zmienne losowe i niezależność statystyczną. Prawdopodobieństwo jest wykorzystywane w nauce o danych do analizowania i rozumienia niepewności i losowości inherentnej dla danych.
Statystyka: Dział matematyki zajmujący się gromadzeniem, analizą, interpretacją, prezentacją i organizacją danych. Jest wykorzystywany w nauce o danych do zadań takich jak eksploracja danych, wizualizacja danych i modelowanie statystyczne. Niektóre z kluczowych pojęć w statystyce obejmują statystykę opisową, wnioskowanie statystyczne i modelowanie statystyczne. Statystyka jest wykorzystywana w nauce o danych do analizowania i rozumienia wzorców i trendów w danych oraz do wyciągania wniosków i dokonywania przewidywań na podstawie danych.

Wprowadzenie do programowania

Programowanie jest podstawową umiejętnością dla naukowców zajmujących się danymi, ponieważ pozwala im pracować z danymi w sposób ustrukturyzowany i zautomatyzowany. Istnieje kilka języków programowania używanych w nauce o danych; dwa z najpopularniejszych to Python i R. Python to uniwersalny język programowania, który jest szeroko stosowany w nauce o danych ze względu na duży ekosystem bibliotek i struktur. Jest to potężny język, którego łatwo się nauczyć i który jest używany do zadań takich jak manipulacja danymi, wizualizacja i uczenie maszynowe. R to język programowania specjalnie zaprojektowany do obliczeń statystycznych i wizualizacji danych. Jest popularny w społeczności naukowców zajmujących się danymi ze względu na szeroki zakres funkcji statystycznych i graficznych oraz zdolność do obsługi dużych i złożonych zestawów danych. Chociaż skupienie się na aspektach uczenia maszynowego i szkolenia modeli tych języków programowania może być kuszące, posiadanie szerszych umiejętności programistycznych, takich jak zarządzanie danymi i przetwarzanie, będzie Ci służyć w dłuższej perspektywie. Duże dane i chmura Jednym z czynników umożliwiających głębokie uczenie się był dostęp do ogromnych ilości danych. Zostało to osiągnięte dzięki rozwojowi technologii big data, które umożliwiły przetwarzanie i analizę danych na skalę, której tradycyjne systemy baz danych nie były w stanie obsłużyć. Ulepszenia skalowalnych i równoległych technik obliczeniowych umożliwiły ogromne ilości danych i przetwarzanie potrzebne do generowania modeli uczenia maszynowego w oparciu o znaczne repozytoria danych historycznych. Posiadanie pewnej wiedzy na temat jednej lub więcej platform chmurowych i różnych dostępnych technologii baz danych będzie bardzo cenne, ponieważ znaczną częścią pracy w nauce o danych jest zarządzanie danymi i manipulowanie nimi w celu wykorzystania ich do trenowania i testowania modeli predykcyjnych.

Big Data i chmura
v Jednym z czynników umożliwiających głębokie uczenie się był dostęp do ogromnych ilości danych. Zostało to osiągnięte dzięki rozwojowi technologii big data, które umożliwiły przetwarzanie i analizę danych na skalę, której tradycyjne systemy baz danych nie były w stanie obsłużyć. Ulepszenia skalowalnych i równoległych technik obliczeniowych umożliwiły ogromne ilości danych i przetwarzanie potrzebne do generowania modeli uczenia maszynowego w oparciu o znaczne repozytoria danych historycznych. Posiadanie pewnej wiedzy na temat jednej lub więcej platform chmurowych i różnych dostępnych technologii baz danych będzie bardzo cenne, ponieważ znaczną częścią pracy w nauce o danych jest zarządzanie danymi i manipulowanie nimi w celu wykorzystania ich do trenowania i testowania modeli predykcyjnych.

Inżynieria danych

Inżynieria danych to praktyka projektowania, budowania i utrzymywania infrastruktury i procesów przechowywania, przetwarzania i analizowania danych. Inżynierowie danych są odpowiedzialni za budowanie i utrzymywanie potoków danych, procesów ekstrakcji, transformacji i ładowania (ETL) oraz systemów przechowywania i zarządzania danymi. Podczas gdy ilość danych zbieranych i przechowywanych przez firmy wzrastała w ciągu ostatnich kilku dekad, chęć przetwarzania i analizowania tych historycznych danych znacznie wzrosła. To rozwinęło dziedzinę inżynierii danych i wytworzyło nowe technologie baz danych, narzędzia i możliwości w celu obsługi większej liczby rozwiązań w czasie rzeczywistym, analiz i spostrzeżeń.

Wizualizacja danych

Wizualizacja danych jest ważną częścią procesu nauki o danych, ponieważ pozwala eksplorować i rozumieć dane, komunikować swoje ustalenia innym oraz identyfikować wzorce i trendy. Istnieje wiele zaawansowanych technik i narzędzi dostępnych do tworzenia interaktywnych i dynamicznych wizualizacji, takich jak pulpity nawigacyjne i wykresy internetowe. Narzędzia takie jak D3.js, Matplotlib, Seaborn i Plotly umożliwiają tworzenie niestandardowych wizualizacji przy użyciu JavaScript i oferują szereg opcji dostosowywania i interaktywnych funkcji. Wizualizacja danych jest kluczowa dla pokazania użytkownikom biznesowym wartości biznesowej uczenia maszynowego. Jako naukowiec zajmujący się danymi musisz zrozumieć, co mówią Ci spostrzeżenia z modelu, a następnie stworzyć odpowiednią narrację, aby opowiedzieć tę historię użytkownikom. Wizualne reprezentacje spostrzeżeń zapewniają dramatyczny kontekst, więc doskonalenie umiejętności tworzenia wizualizacji danych będzie kluczową umiejętnością.

Komunikacja i opowiadanie historii

Komunikacja i opowiadanie historii są ważne dla naukowca zajmującego się danymi, ponieważ pomagają przekazać spostrzeżenia i ustalenia z analizy danych szerszej publiczności. Naukowiec zajmujący się danymi może współpracować z szeroką gamą interesariuszy, w tym innymi naukowcami zajmującymi się danymi, liderami biznesowymi i ekspertami technicznymi, a ważne jest, aby móc skutecznie komunikować się z tymi różnymi grupami. Aby to zrobić, naukowiec zajmujący się danymi może potrzebować różnych metod i technik komunikacji, takich jak pisanie raportów, prezentowanie ustaleń na spotkaniach lub konferencjach oraz tworzenie wizualizacji i innych rodzajów treści opartych na danych. Opowiadanie historii jest szczególnie ważne dla naukowca zajmującego się danymi, ponieważ pomaga uczynić złożone dane i analizy bardziej dostępnymi i zrozumiałymi dla odbiorców nietechnicznych. Poprzez ujęcie danych i spostrzeżeń w kontekście historii lub narracji, naukowiec zajmujący się danymi może pomóc zaangażować i zainspirować innych oraz przekonać ich do podjęcia działań w oparciu o ustalenia. Ogólnie rzecz biorąc, skuteczna komunikacja i opowiadanie historii są niezbędnymi umiejętnościami dla naukowca zajmującego się danymi, ponieważ pomagają zapewnić, że wartość analizy danych jest rozpoznawana i rozumiana przez innych, a spostrzeżenia i zalecenia generowane przez dane są skutecznie wdrażane i przyjmowane.

Pięć czynników sukcesu dla AI

Wiele branż, takich jak usługi finansowe i telekomunikacja, zawsze było znaczącymi użytkownikami najnowszych osiągnięć technologicznych, ale również pomogło, z perspektywy innowacji, w rozwijaniu możliwości różnych technologii. Dzisiaj nie różni się to od ostatnich kilku dekad pod tym względem, poza pięcioma bardzo ważnymi czynnikami sukcesu, które umożliwiają rzeczywiste przyspieszenie zastosowań AI. Te pięć czynników sukcesu, jeśli firmy potrafią je dobrze zrozumieć, radykalnie poprawi potencjalne korzyści z wdrażania AI i pozwoli firmom wdrażać AI na skalę we wszystkich działach organizacji. Po pierwsze, w ramach Czwartej Rewolucji Przemysłowej obserwujemy, jak postęp technologiczny podąża wykładniczą ścieżką rozwoju. Technologie rozwijają się w szybkim tempie, a każda z pozornie niezwiązanych ze sobą technologii w rzeczywistości wzmacnia i przyspiesza zastosowanie uczenia maszynowego. Na przykład pragnienie lepszej wydajności kart graficznych w celu ulepszenia gier o wysokiej rozdzielczości jest idealną architekturą wieloprocesorową do przyspieszenia treningu głębokiego uczenia. Obietnica obliczeń kwantowych ma również potencjał, aby radykalnie skrócić czas potrzebny na szkolenie modeli uczenia maszynowego. Platformy big data umożliwiły przechwytywanie większej ilości bogatszych danych, paliwa dla algorytmów szkoleniowych, zwłaszcza głębokiego uczenia się, które wymaga ogromnych ilości przykładów szkoleniowych. To tempo zmian stwarza wyzwanie dla wszystkich branż, aby nadążyć. Po drugie, tworzenie aplikacji, które osadzają modele uczenia maszynowego, to zupełnie inny proces niż bardziej tradycyjne metody tworzenia aplikacji. Wcześniej wymagania biznesowe były zbierane i przekształcane w wymagania funkcjonalne, które zespoły programistów wykorzystywały jako przewodnik do pisania kodu, który dostarczał te możliwości funkcjonalne w istniejących lub nowych aplikacjach. Wraz z uczeniem maszynowym paradygmat uległ zmianie. Dane historyczne wcześniej przechwycone przez istniejące systemy są wykorzystywane do określania funkcjonalności (modelu) algorytmu uczenia maszynowego. To skok wiary. Wymaga on, aby w pierwszej kolejności przechwycono dane dobrej jakości. Wymaga również analizy, aby zapewnić, że równość danych reprezentuje wszystkie grupy w sposób uczciwy i bezstronny. Jest to obecnie ogromny temat i jest określany ogólnie jako odpowiedzialna sztuczna inteligencja lub etyka sztucznej inteligencji. Znalezienie lub przeszkolenie osób z wymaganym zestawem umiejętności i wiedzy to kolejne wyzwanie, z którym mierzy się wiele branż. Po trzecie, przejście od działalności innowacyjnej, z kilkoma małymi modelami proof-of-concept lub proof-of-value, do możliwości skalowania możliwości dostarczania w całej organizacji, umożliwiając właściwe zorganizowanie całego cyklu życia, interakcję z wieloma interesariuszami i grupami biznesowymi w skoordynowany sposób, który zapewnia prawidłowe zarządzanie i walidację, nie jest prostym działaniem. Wymaga to kulturowych i organizacyjnych platform oraz rozważań ramowych, aby to się stało. Nieliczne organizacje, które są na tym etapie podróży wdrażania AI, zdają sobie sprawę, że jest to nietrywialny proces, a niektóre nadal mają problemy z dostarczeniem skalowanych modeli uczenia maszynowego do środowisk produkcyjnych. Po czwarte, szkolenie modelu uczenia maszynowego i wdrożenie go w środowisku produkcyjnym to nie koniec historii. Ponieważ podstawowa natura biznesu zmienia się w czasie, zmieniają się również dane, a zatem dokładność wydajności dowolnego modelu szkoleniowego. Powoduje to potrzebę ciągłego monitorowania wydajności modelu i potencjalnego regularnego ponownego szkolenia na najnowszych zestawach danych. Może to być kwartalne, miesięczne, tygodniowe, codzienne lub dla pewnych szczególnych potrzeb online/strumieniowe (dla każdego nowego elementu danych model jest ponownie szkolony z tymi danymi zawartymi w zestawie danych szkoleniowych). Wymaga to dodatkowych zadań i wsparcia dla systemów, które wcześniej nie były potrzebne. Wreszcie, szybkie wdrażanie automatyzacji i rozszerzanie pracy przekształca miejsce pracy. Określane jako "przyszłość pracy", rola każdego ulega zmianie, a przyziemne i powtarzalne zadania są przejmowane przez automatyzację procesów robotycznych (znaną jako RPA). Ale dokąd nas to zaprowadzi? W miarę jak sztuczna inteligencja i uczenie maszynowe stają się coraz bardziej zdolne do wykonywania zadań związanych z obliczeniami kognitywnymi (takich jak czytanie i rozumienie tekstu i mowy, rozumienie reakcji emocjonalnych klientów, wizualna inspekcja obrazów i dokumentów), będą mogły automatyzować bardziej złożone zadania i przepływy pracy. To wywiera presję na firmy, aby zdefiniowały swoje procesy na nowo i wprowadziły innowacje w to, co jest możliwe. Te pięć znaczących zmian w sposobie działania firm niewątpliwie stworzy możliwości, gdy firmy przekształcą się, aby przyjąć te nowe technologie. Zasadniczo jest to część cyfrowej transformacji, którą obecnie podejmują wszystkie organizacje i branże. Po raz pierwszy klienci domagają się wysoce spersonalizowanego doświadczenia wielokanałowego. Tworzy to impuls do wykorzystania zaawansowanej analityki danych i opracowywania nowych produktów i usług cyfrowych. Ostatecznie te usługi o wartości dodanej tworzą bardziej konkurencyjne i dynamiczne środowisko dla firm, narażając je na zwiększoną presję, aby dostarczały. Wyścig się rozpoczął, a ci, którzy są w stanie przyjąć nowych klientów cyfrowych, będą starali się prosperować i przetrwać ten okres zakłóceń.

Przewińmy do przodu o 10 lat

Technologia zmienia się w niezwykłym tempie. Najprawdopodobniej wszystkie stanowiska pracy we wszystkich branżach zostaną uzupełnione o narzędzia i aplikacje AI. Już teraz widzimy narzędzia pomagające w programowaniu komputerowym. Pewna automatyzacja została już opracowana dla naukowców zajmujących się danymi (na przykład AutoML3), co eliminuje część zgadywania przy wyborze odpowiedniego modelu i parametrów (ale pod wieloma względami przypomina to rozbijanie jajka młotem kowalskim). Nie jest jednak zbyt daleko idące stwierdzenie, że za trzy do pięciu lat będziemy rozmawiać z asystentem AI, który pomoże nam opracować potrzebne nam modele ML i aplikacje komputerowe. Rola naukowca zajmującego się danymi może się zmienić, a w przyszłości ważniejsze staną się umiejętności interpersonalne, zapewniające wskazówki i nadzór agentom AI (i użytkownikom biznesowym) w celu tworzenia modeli w celu osiągnięcia wymaganych celów. Zasadniczo proces nauki o danych stanie się w przyszłości bardziej usprawniony i wydajny. Jeśli chodzi o badania i innowacje, musimy wymyślić o wiele więcej, zanim osiągniemy cokolwiek zbliżonego do ludzkiego poziomu inteligencji - większość ekspertów w tej dziedzinie uważa, że minie jeszcze wiele dekad pracy, zanim będziemy mogli stworzyć sztuczną inteligencję ogólną. Z pewnością informatyka zmierza w kierunku budowania inteligentnych systemów i aplikacji, a w nadchodzących latach będzie się kładło duży nacisk na rozszerzanie możliwości tych zaawansowanych aplikacji inteligencji. Rola naukowca danych zmieni się w ciągu najbliższych 10 lat, ale zapotrzebowanie na ludzi, którzy rozumieją, jak budować inteligentne systemy, będzie nadal rosło. Od czasu pandemii Covid-19 obserwowaliśmy, jak przyszłość pracy znacząco ewoluuje, wraz z ogromnymi transformacjami cyfrowymi w wielu różnych branżach. Będzie to kontynuowane w latach 2020. i później, ponieważ będziemy używać większej liczby agentów AI, aby rozszerzyć nasze życie, zarówno osobiste, jak i zawodowe. Naukowcy danych wykorzystają również agentów i narzędzia AI, aby pomóc im zoptymalizować tworzone przez siebie aplikacje, ponieważ środowisko pracy dla wszystkich programistów i naukowców danych będzie się rozwijać w nadchodzących latach. Wraz ze wzrostem zapotrzebowania i rozwojem technologii zapotrzebowanie na ludzi, którzy rozumieją i potrafią budować te systemy, będzie nadal rosło przez wiele lat. Podczas gdy zawód będzie dojrzewał, a poziom złożoności wzrastał, ludzie nadal będą odgrywać ważną rolę w tworzeniu i ewolucji aplikacji i narzędzi inteligencji, które przyniosą korzyści nam wszystkim. Ta znacząca zaawansowana zdolność do budowania technologii i systemów AI będzie miała przełomowy wpływ na wiele innych branż, sprawiając, że przyszłość dla wszystkich będzie bardziej przypominać odcinek Star Treka. Możliwość wykorzystania technologii do pomocy w opracowywaniu nowych produktów i usług, których opracowanie zajęłoby wiele lat bez takiego przyspieszenia, zakłóci branże, zmieniając miejsce pracy i podstawową naturę samej pracy. Niektóre branże zostaną dotknięte nie do poznania, a nowi uczestnicy będą stanowić wyzwanie dla ugruntowanych firm, które zdecydują się nie wprowadzać innowacji tak szybko.

Dlaczego nie pracować w AI?

Niezależnie od tego, czy jest to początek Twojej kariery w AI, czy poważna zmiana kierunku kariery, może to być bardzo niekomfortowe - zasadniczo strach przed nieznanym. Jednak wkrótce zdasz sobie sprawę, że to ścieżka kariery jest najważniejszym i najbardziej wpływowym elementem Twoich przyszłych opcji kariery. Staniesz się czymś większym niż suma wszystkich ról i branż, w których pracowałeś przez lata. Zasadniczo to podróż, która czyni Cię wyjątkowym w miejscu pracy. Niezależnie od tego, kim jesteś lub na jakim etapie kariery się znajdujesz, wszyscy uczymy się i rozszerzamy nasze role i obowiązki. Osoby wokół Ciebie najprawdopodobniej będą Cię wspierać i zachęcać do Twojej wyjątkowej kariery. AI to najważniejszy i najbardziej ekscytujący obszar technologii oraz najważniejszy postęp w historii ludzkości - jest całkowicie zrozumiałe, że chcesz być współtwórcą tego ważnego kamienia milowego w ewolucji człowieka. Zbudowanie zupełnie nowej formy inteligencji, która mogłaby rywalizować z naszą własną, nie jest małym zadaniem i będziemy potrzebować jak największej liczby osób, aby pomóc to osiągnąć. Można to uznać za wielkie wyzwanie, aby rywalizować z nimi wszystkimi - najważniejsza innowacja technologiczna, jaką kiedykolwiek stworzymy. Kolejny krok w naszym ewolucyjnym rozwoju, żadna inna inteligencja nie była w stanie odtworzyć inteligentnego zachowania w sztucznej formie. W tym rozdziale przedstawiłem Ci uzasadnienie, aby rozważyć rolę w dziedzinie sztucznej inteligencji i przedstawiłem ogólny przegląd różnorodności ról w branży AI



Pewna SI: Podstawowe umiejętności pracy ze sztuczną inteligencją


Wprowadzenie

Świat się zmienia, i to szybko. Znacznie szybciej niż kiedykolwiek wcześniej i w takim tempie, że coraz trudniej nadążyć za różnymi postępami. W przeciwieństwie do poprzednich rewolucji przemysłowych, postępy zachodzą w wielu różnych branżach. Niektórzy twierdzą, że tempo zmian jest wykładnicze, ale w rzeczywistości wydaje się szybsze. Technologia napędza znaczną część tej transformacji, umożliwiając nam zwiększenie produktywności, podejmowanie bardziej świadomych decyzji i rozwiązywanie wielu problemów, z którymi wcześniej się zmagaliśmy. Sztuczna inteligencja ma znaczący wpływ na każdą branżę i każdy aspekt biznesu i miejsca pracy. Jest to prawdopodobnie najbardziej przełomowa technologia, jaką kiedykolwiek zobaczymy, prawdopodobnie zmieni nasz świat w sposób, którego jeszcze sobie nie wyobrażaliśmy. Doświadczyliśmy prawdziwego przełomowego momentu w 2023 roku, kiedy pierwsza uniwersalna sztuczna inteligencja zyskała popularność na rynku masowym ze względu na zakres zastosowań i użyteczność. Świat obudził się do potencjału sztucznej inteligencji i jej szerokiego wpływu. Można powiedzieć, że sztuczna inteligencja dojrzała, znalazła swoją użyteczność i zademonstrowała masowe zastosowanie, z którego mogą korzystać osoby prywatne i firmy każdej wielkości i z każdej branży. Branża technologiczna szybko integrowała podstawowe elementy, a następnie dostosowywała i rozszerzała swoje możliwości, aby w pełni wykorzystać ich potencjał dla wszystkich. Oznacza to, że więcej ról w miejscu pracy będzie musiało wykorzystywać możliwości AI jako część swojej pracy. Zrozumienie i używanie AI stanie się podstawową umiejętnością w miejscu pracy. W przyszłości wszyscy będziemy musieli być pewni AI, nie tylko w miejscu pracy; będzie ona odgrywać znaczącą rolę również w naszym życiu osobistym. Oczywiste jest, że każda rola w każdej branży zostanie rozszerzona o szereg narzędzi i aplikacji AI, a wiele osób skorzysta z cyfrowych asystentów opartych na AI, którzy będą nas wspierać w naszej pracy, automatyzując zadania, wykonując przyziemne prace i uwalniając ludzi, aby mogli skupić się na bardziej złożonych, kreatywnych i trudnych zadaniach, które należy wykonać. Korzystanie z AI do wykonywania zadań, które są łatwe do zautomatyzowania, da nam więcej czasu na zajęcie się trudniejszymi czynnościami. W miarę jak technologia i AI nadal zmieniają nasz świat, wszyscy musimy lepiej zrozumieć, czym ona jest i jak działa, aby umożliwić nam maksymalizację korzyści i zysków produktywności wynikających z jej zastosowania. Musimy się edukować na temat mocnych i słabych stron technologii, rozumiejąc wyzwania i możliwości, jakie ona stwarza. Z pewnością wraz z wprowadzeniem ChatGPT w listopadzie 2022 r. zastosowania AI, a w szczególności połączenie generatywnej i konwersacyjnej AI, szybko stały się powszechne, a ponad 100 milionów użytkowników narzędzia OpenAI w ciągu kilku miesięcy. Było to pierwsze szeroko stosowane uniwersalne AI, zdolne do wykonywania szerokiego zakresu zadań, od tworzenia wierszy po pisanie kodu programistycznego. Narzędzie, którego każdy może używać do wielu zadań, jego użyteczność wydaje się nieograniczona, a teraz potencjał AI jest nieograniczony. Branża technologiczna wzięła generatywną AI i pobiegła z nią z prędkością w 2023 r., rozszerzając i wzmacniając możliwości ChatGPT za pomocą drugich pilotów i uziemienia, wtyczek i udoskonaleń; branża technologiczna nigdy nie wyprodukowała tak wiele w tak szybkim tempie. Nie dotyczyło to tylko dużych firm technologicznych; zaobserwowaliśmy znaczny wzrost liczby start-upów zajmujących się generatywną AI i ugruntowanych firm budujących na fundamentach. To zmieniło zasady gry dla wszystkich. Profesjonalne usługi i firmy konsultingowe również musiały dostosować swoje strategie, a wiele z nich zainwestowało duże środki, aby zdobyć wiedzę specjalistyczną i umiejętności, które mogłyby zaoferować swoim klientom. Inne firmy musiały zmienić swoje modele biznesowe, produkty i usługi, aby dostosować się do tej nowej normy asystentów cyfrowych i łatwego wzrostu produktywności. Będziemy wspominać rok 2023 jako ważny kamień milowy w adopcji AI, ponieważ wiele firm, które wcześniej nie zwracały uwagi na możliwości AI, teraz poważnie rozważa zastosowanie AI w całej swojej działalności. Zespoły zarządzające firmami wszystkich rozmiarów i branż zaczynają dostrzegać innowacje i zakłócenia, jakie AI wprowadza do środowiska. Stworzy to więcej możliwości dla tych, którzy mają umiejętności i wiedzę, aby pracować z AI, zmieniając środowisko siły roboczej znacznie bardziej niż faks, maszyna do pisania czy komputer osobisty.

Przegląd

Dziedzina sztucznej inteligencji jest złożona i pod wieloma względami wciąż w powijakach. Chociaż termin ten został wymyślony w latach 50. XX wieku, dopiero w ciągu ostatnich kilku dekad zaczęliśmy dostrzegać przełomowe odkrycia, które pozwoliły nam na zbudowanie użytecznych narzędzi i aplikacji, które zaczęły rozwiązywać niektóre trudne problemy. Technologia ogólnie dojrzewa szybko, a wielu ekspertów twierdzi, że tempo zmian jest teraz wykładnicze. Widzieliśmy to na własne oczy w 2023 r., gdy duże firmy technologiczne uruchomiły własne wersje generatywnej AI, wraz z wariantami open source dużych modeli językowych (LLM), integracjami z wieloma różnymi produktami i ewolucją drugich pilotów, umożliwiając innym łatwiejsze wykorzystanie technologii i stosowanie jej do wielu różnych problemów. Po raz pierwszy w naszej historii sztuczna inteligencja ogólnego przeznaczenia (GPAI) osiągnęła główny udział w rynku, a co ważniejsze, pobudziła wyobraźnię milionów ludzi na temat nieograniczonych możliwości aplikacji opartych na AI. Dlatego jest to idealny czas na karierę w dziedzinie AI, ponieważ firmy każdej wielkości i z większości branż zwracają prawdziwą uwagę na to, w jaki sposób AI może przynieść korzyści ich celom biznesowym, stworzyć przewagę konkurencyjną i zapewnić wzrost produktywności. To kolejny cykl innowacji (znany jako krzywa S innowacji) i wyścig z konkurentami o przejęcie korzyści z AI. W tym szybko zmieniającym się dynamicznym środowisku będą zwycięzcy i przegrani. Widzimy to już w konkurencji między dużymi firmami technologicznymi, z których każda próbuje zaznaczyć swój autorytet, wiedzę specjalistyczną i przywództwo, szybko wydając własne modele i narzędzia oparte na AI.

Złoty wiek algorytmu

Wydaje się oczywiste, że przyszłość bogactwa i dobrobytu będzie napędzana przez wiedzę specjalistyczną z zakresu zaawansowanych algorytmów. Niektórzy nazywają to kolejnym wyścigiem kosmicznym, inni kolejnym wyścigiem zbrojeń, ale tak czy inaczej wkraczamy w złoty wiek algorytmu. To nie tylko wyścig narodowy, ale także wyścig komercyjny i indywidualny. Słyszeliśmy już o pilocie myśliwca AI, który jest bardziej wydajny i zdolny niż najlepsi z najlepszych pilotów testowych, a także o aplikacjach AI, które pomagają bronić się przed cyberatakami na bezpieczeństwo. Komputery hakują komputery. Jak to nie jest cyfrowa wojna? Ale nie chodzi tu tylko o tradycyjną wojnę; chodzi również o sukces biznesowy i komercyjny. Przetrwają tylko te firmy, które docenią korzyści, jakie mogą zapewnić zaawansowane algorytmy. To będzie nowy główny czynnik różnicujący firmy. Wystarczy spojrzeć na niektóre pionierskie firmy, aby zobaczyć, że to się dzieje. Modele biznesowe zmieniają się dramatycznie, a globalne start-upy, jednorożce, zdefiniowały krajobraz wielu tradycyjnych firm. Algorytmy będą miały również ogromny wpływ na jednostki. W wielu przypadkach już tak jest, od zatwierdzania kredytów hipotecznych, diagnoz medycznych i rekomendacji dotyczących zakupów po to, z kim powinieneś się umawiać, wpływają na nasze życie na tak wiele różnych i zazwyczaj ukrytych sposobów, że można argumentować, że jesteśmy już kształtowani i kontrolowani przez moc algorytmu. Robimy to, ponieważ ufamy, że dane zawierają uniwersalną prawdę i że podejmujemy lepsze decyzje, pokładając wiarę w algorytmach, które analizują te ogromne zbiory danych. Rodzi to wiele pytań dotyczących etyki AI, zarządzania AI i bezpieczeństwa AI. Są to gorące tematy i wielu znanych zwolenników podkreśla potrzebę większych inwestycji i badań w tych tematach, aby wesprzeć rozwój AI w ogóle. Bez tych ram wsparcia algorytmy mogłyby wymknąć się spod kontroli.

Prawda o (inteligentnej) automatyzacji

Prawdą jest, że możliwości automatyzacji we wszystkich branżach rozwijają się od bardzo dawna, ale dopiero teraz zaczynamy dostrzegać główny wpływ takiej całkowitej automatyzacji. Od wykorzystania koni do pomocy w oraniu pól, przez traktory, aż po robo-uprawy, które automatycznie usuwają chwasty na polach - weźmy dowolną branżę, a znajdziesz przykłady, od pierwszej rewolucji przemysłowej po obecną, automatyzacji, która powoli staje się coraz potężniejsza, bardziej kompletna i bardziej transformacyjna. Tym razem różnica polega na tym, że możemy dostrzec realne możliwości całkowitej i całkowitej automatyzacji, nawet w przypadku zadań i prac, które mogły być uważane za niemożliwe do zautomatyzowania jeszcze kilka lat temu. Jest to napędzane przez moc algorytmu, a konkretnie możliwości uczenia maszynowego, które znacznie rozwinęły się w ciągu ostatnich pięciu lat. Tutaj widzimy połączenie technik automatyzacji z uczeniem maszynowym w celu uzupełnienia automatyzacji o inteligentne podejmowanie decyzji. Ten brak inteligencji ze strony automatyzacji był wąskim gardłem powstrzymującym naszą zdolność do pełnej automatyzacji kompletnych procesów. Automatyzacja występuje również w różnych postaciach, od automatyzacji oprogramowania (często określanej jako automatyzacja procesów robotycznych), przez automatyzację produkcji (linia produkcyjna), po robotykę humanoidalną (androidy), która może być wielofunkcyjna w swojej funkcji. Jednym ze sposobów, w jaki firmy chcą wprowadzić sztuczną inteligencję i uczenie maszynowe, jest dodanie inteligencji do automatyzacji oprogramowania, zmieniając automatyzację procesów robotycznych (RPA) w inteligentną automatyzację procesów (IPA). Nie powinniśmy się tego bać - to po prostu kolejny krok w naszej ewolucji. Powinniśmy to zaakceptować i pomóc zrozumieć, co to oznacza dla ludzkości - potencjał tej automatyzacji przekracza nasze najśmielsze marzenia. Mówiąc to, nie chcę pomijać potencjalnego negatywnego wpływu na niektóre role i branże; jak każda rewolucja przemysłowa lub przełomowa technologia, będziemy musieli przezwyciężyć wyzwania, ale to, jak sobie z tym poradzimy w skali krajowej i globalnej, będzie kluczem do naszego sukcesu. Osobiście nie mogę się doczekać, aż moja praca zostanie rozszerzona o inteligentne maszyny automatyczne, które pozwolą mi zaoszczędzić trochę czasu, aby skupić się na ciekawszych wyzwaniach. Mam nadzieję, że wielu z nas może przyjąć zmiany w ten sam sposób.

Krótka historia AI

Historię sztucznej inteligencji można prześledzić do lat 50. XX wieku, kiedy to naukowcy po raz pierwszy zaczęli badać pomysł tworzenia maszyn, które mogłyby wykonywać zadania, które normalnie wymagałyby ludzkiej inteligencji. Konferencja Dartmouth w 1956 roku jest powszechnie uważana za miejsce narodzin AI. Naukowcy zebrali się, aby omówić możliwość zbudowania maszyn, które mogłyby wykonywać zadania, które normalnie wymagają ludzkiej inteligencji, takie jak rozumienie języka naturalnego, rozpoznawanie obiektów i rozwiązywanie problemów. W latach 60-tych XX wieku opracowano pierwsze programy AI, w tym Logic Theorist Johna McCarthy′ego i General Problem Solver Herberta Simona. Programy te były w stanie wykonywać proste zadania, takie jak rozwiązywanie problemów matematycznych, granie w gry i tłumaczenie języków. Jednak w 1966 roku rozpoczęła się pierwsza zima AI (termin używany do określenia okresu ochłodzenia lub spowolnienia w branży AI) w wyniku przesadnych oczekiwań i niedofinansowania. Pomimo wczesnych sukcesów, naukowcy nie byli w stanie opracować maszyn, które mogłyby wykonywać bardziej złożone zadania, co doprowadziło do zmniejszenia finansowania i spowolnienia postępu. Następnie w latach 70. XX wieku AI przeżyło odrodzenie wraz z rozwojem systemów eksperckich zdolnych do wykonywania określonych zadań, które normalnie wymagają ludzkiej wiedzy specjalistycznej, takich jak diagnozowanie chorób, zalecanie leczenia i dokonywanie prognoz finansowych. Nasza druga zima AI rozpoczęła się pod koniec lat 80. XX wieku z powodu połączenia przesadnych oczekiwań i braku postępu w rozwijaniu prawdziwie inteligentnych maszyn. Finansowanie badań nad AI zmniejszyło się, a wielu badaczy opuściło tę dziedzinę. W połowie lub pod koniec lat 90. XX wieku przeżyliśmy kolejne odrodzenie wraz z rozwojem algorytmów uczenia maszynowego, takich jak drzewa decyzyjne, sieci neuronowe i maszyny wektorów nośnych, które pozwoliły maszynom uczyć się na podstawie danych i poprawiać swoją wydajność w czasie. Następnie w 1997 roku odbyła się rozgrywka szachowa między Deep Blue a Garrym Kasparowem, w której Deep Blue, system AI opracowany przez IBM, pokonał mistrza świata w szachach. Był to znaczący kamień milowy w rozwoju AI, pokazujący zdolność maszyn do wykonywania zadań wymagających inteligencji na poziomie ludzkim. Rozpoczęło to kolejną falę entuzjazmu w latach 2010. wraz z rozwojem algorytmów głębokiego uczenia, które pozwoliły maszynom uczyć się i tworzyć prognozy na podstawie dużych ilości danych. Algorytmy te zostały wykorzystane do osiągnięcia najnowocześniejszych wyników w zadaniach takich jak rozpoznawanie obrazów i mowy, przetwarzanie języka naturalnego i autonomiczne prowadzenie pojazdów - i po raz pierwszy w naszej historii są w stanie wykazać się lepszą wydajnością niż ludzie w określonych zadaniach. DeepMind, brytyjska firma AI, obecnie należąca do Google, zaprezentowała szereg aplikacji, w tym AlphaGo i AlphaFold, które wykorzystały nowe techniki, takie jak uczenie przez wzmacnianie, i przyniosły oszałamiające wyniki, pokazujące światu prawdziwy potencjał AI. A pod koniec 2022 roku OpenAI zadziwiło świat swoim narzędziem ChatGPT, sprawiając, że cała branża AI i szersza branża technologiczna skupiły się na generatywnej i konwersacyjnej AI oraz integrując tę technologię z innymi narzędziami i produktami. Podczas gdy szum wokół tej nowej zdolności AI był intensywny i oczywiście wiązał się z pewnymi problemami (halucynacje, wyciek danych, prywatność danych i zaufanie), uczynił on AI głównym nurtem i otworzył oczy wielu dyrektorów generalnych na możliwości, jakie może zapewnić. Coraz większy nacisk kładzie się również na bezpieczeństwo, odpowiedzialność, etykę i zarządzanie AI, co w niedalekiej przyszłości otworzy więcej możliwości kariery i ról. Wielka Brytania była gospodarzem pierwszego globalnego szczytu bezpieczeństwa AI pod koniec 2023 r., aby zachęcić liderów z krajów na całym świecie do spotkania się i uzgodnienia nadzorowania odpowiedzialnego tworzenia modeli pionierskich. Obecnie AI jest wykorzystywana w szerokim zakresie zastosowań, od opieki zdrowotnej po finanse, i odgrywa coraz ważniejszą rolę w naszym codziennym życiu. Pomimo tego postępu, rozwój prawdziwie inteligentnych maszyn pozostaje wyzwaniem, a AI nadal jest aktywnym obszarem badań i rozwoju.

Podstawowe umiejętności pracy z AI

Istnieje wiele możliwości pracy w dziedzinie AI, a podczas gdy niektóre będą wymagały wiedzy technicznej i wykształcenia informatycznego, wiele innych będzie wymagało innych umiejętności i doświadczenia, otwierając możliwości pracy w sektorze AI dla niezliczonej liczby osób. Możesz być studentem pracującym nad uzyskaniem tytułu magistra w zakresie uczenia maszynowego lub sztucznej inteligencji, dążącym do kariery w badaniach naukowych lub do pracy w zespole zajmującym się nauką o danych, budującym rozwiązania AI i uczenia maszynowego dla swojego pracodawcy lub klienta. Zapotrzebowanie na osoby posiadające umiejętności w zakresie AI i uczenia maszynowego jest najwyższe w historii i wydaje się, że w ciągu najbliższych kilku lat będzie tylko rosło, ponieważ coraz więcej firm chce przyjąć te technologie do swojego środowiska i osadzić je w swoich produktach i usługach. Szacuje się, że globalne zapotrzebowanie na naukowców zajmujących się danymi wzrośnie o 11,5 miliona do 2026 roku. Możesz być technologiem pracującym już z bardziej tradycyjnymi językami programowania i technologiami, ale chcącym przekwalifikować się na naukowca zajmującego się danymi lub inżyniera ML Ops. Tutaj dostępne są różne możliwości edukacyjne i szkoleniowe, z wieloma bezpłatnymi zasobami do podstawowego szkolenia, które pomogą Ci zacząć. Coraz większe jest również zapotrzebowanie na kadrę zarządzającą średniego i wyższego szczebla, aby dowiedzieć się więcej o AI, zrozumieć, jak działa i co może zrobić. Ponownie, istnieje ogromna ilość informacji dostępnych online, a różne warsztaty i sesje szkoleniowe można zorganizować w celu uzyskania bardziej spersonalizowanej i dostosowanej edukacji. Jednak poza tymi klasycznymi ścieżkami kariery istnieje wiele innych sposobów, w jakie możesz pracować z AI w swojej pracy. Możesz być częścią działu technologicznego firmy, ale nie tworzyć bezpośrednio używanej AI - na przykład możesz być oficerem ds. zgodności, analitykiem biznesowym lub członkiem zespołu testującego. Role w całej organizacji będą również użytkownikami AI, od zespołów sprzedaży i marketingu po zasoby ludzkie, finanse, operacje, dział prawny i wiele innych. Zanim rozważymy wszystkie nowe role, które powoli pojawiają się w miejscu pracy; ostatnio zaobserwowaliśmy wzrost roli inżyniera szybkiego z generatywną AI, na przykład. Jest to rola nietechniczna, w której ludzie pomagają uzyskać najlepsze wyniki z tych narzędzi, wprowadzając zmiany w dostarczonych danych wejściowych. Wreszcie, wszyscy jesteśmy konsumentami aplikacji i narzędzi, które zaczynają wykorzystywać AI w celu zapewnienia dodatkowej inteligentnej i spersonalizowanej funkcjonalności. Wszystkie te różne role, ścieżki kariery i sposoby, w jakie wchodzimy w interakcję z technologią, określą konkretne umiejętności i wiedzę, których potrzebujemy, aby zmaksymalizować naszą produktywność wykorzystując AI. Przyjrzymy się tym różnym ścieżkom kariery i różnym umiejętnościom potrzebnym do osiągnięcia w nich doskonałości. Możesz czytać to, myśląc, że musisz mieć głębokie zrozumienie technologii lub sztucznej inteligencji, aby wykorzystać technologię. Z pewnością tak nie jest i czytając tę książkę, zrozumiesz, że wiele różnych rodzajów umiejętności, doświadczenia i wiedzy będzie cenionych i korzystnych dla tych, którzy chcą w pełni wykorzystać technologie AI w miejscu pracy.




Ciemna Strona A.I.


WSTĘP

Sztuczna inteligencja (AI) stała się integralną częścią naszego codziennego życia i może zmienić wiele branż, czyniąc je bardziej wydajnymi, produktywnymi i bezpieczniejszymi. Jednak wraz z postępem technologii sztucznej inteligencji pojawiają się obawy co do jej wpływu na naszą przyszłość, szczególnie w obszarach takich jak zatrudnienie, prywatność i bezpieczeństwo. Jedną z najważniejszych obaw związanych ze sztuczną inteligencją jest jej potencjalny wpływ na zatrudnienie. Wraz z rosnącą automatyzacją zadań istnieje ryzyko zastąpienia wielu miejsc pracy przez maszyny, co prowadzi do utraty miejsc pracy i pogłębiania się luki w dochodach. Może to spowodować znaczne zakłócenia społeczne i gospodarcze, szczególnie dla tych, którzy nie mają umiejętności dostosowania się do nowej zautomatyzowanej gospodarki. Innym poważnym problemem jest wpływ sztucznej inteligencji na prywatność. W miarę jak technologia sztucznej inteligencji staje się coraz bardziej wyrafinowana, ma ona możliwość gromadzenia i analizowania ogromnych ilości danych osobowych, co budzi poważne obawy dotyczące prywatności. Jeśli systemy sztucznej inteligencji nie są odpowiednio zabezpieczone, istnieje ryzyko, że hakerzy uzyskają dostęp do poufnych informacji, co może prowadzić do kradzieży tożsamości, oszustw finansowych i innych form cyberprzestępczości. Ponadto wykorzystanie sztucznej inteligencji do celów inwigilacji budzi obawy związane z nadmiernym zasięgiem działań rządu i erozją swobód obywatelskich. Wreszcie, istnieją obawy dotyczące wpływu sztucznej inteligencji na bezpieczeństwo. W miarę jak systemy sztucznej inteligencji stają się coraz bardziej zaawansowane, stają się bardziej podatne na cyberataki. Hakerzy mogą wykorzystywać sztuczną inteligencję do tworzenia wyrafinowanych ataków, które mogą ominąć tradycyjne środki bezpieczeństwa, stwarzając poważne zagrożenie dla infrastruktury krytycznej i bezpieczeństwa narodowego. Pomimo tych obaw istnieją kroki, które można podjąć, aby złagodzić negatywny wpływ sztucznej inteligencji na naszą przyszłość. Na przykład rządy mogą inwestować w programy edukacyjne i szkoleniowe, aby pomóc pracownikom przejść na nowe stanowiska, które wymagają umiejętności, których nie można zautomatyzować. Firmy mogą podjąć kroki w celu zapewnienia, że ich systemy sztucznej inteligencji są odpowiednio zabezpieczone, aby zapobiegać cyberatakom. Ponadto decydenci polityczni mogą opracować przepisy, które zapewnią, że sztuczna inteligencja jest wykorzystywana w sposób etyczny i odpowiedzialny oraz że zostaną uwzględnione kwestie związane z prywatnością i bezpieczeństwem. Podsumowując, chociaż sztuczna inteligencja przyniosła znaczne postępy w różnych dziedzinach, istnieją obawy co do jej wpływu na naszą przyszłość w obszarach takich jak zatrudnienie, prywatność i bezpieczeństwo. Podejmując proaktywne kroki w celu rozwiązania tych problemów, możemy zapewnić, że sztuczna inteligencja będzie wykorzystywana do poprawy naszego życia, a nie do wyrządzania mu szkody.

JEDNYM Z POTENCJALNYCH ROZWIĄZAŃ wpływu sztucznej inteligencji na zatrudnienie jest wdrożenie uniwersalnego dochodu podstawowego (UBI). UBI to system, w którym każdy obywatel otrzymuje gwarantowany dochód, niezależnie od statusu zatrudnienia. Może to pomóc złagodzić niektóre trudności gospodarcze spowodowane utratą miejsc pracy w wyniku automatyzacji. Innym potencjalnym rozwiązaniem jest zachęcanie do rozwoju sztucznej inteligencji, która uzupełnia pracę ludzką, a nie ją zastępuje. Może to obejmować tworzenie systemów sztucznej inteligencji, które współpracują z pracownikami ludzkimi w celu zwiększenia ich produktywności i wydajności, zamiast ich całkowitego zastępowania. Jeśli chodzi o prywatność, firmy mogą podjąć kroki w celu wdrożenia silnych środków szyfrowania i bezpieczeństwa danych w celu ochrony poufnych informacji przed cyberatakami. Rządy mogą również opracowywać przepisy, które wymagają od firm przejrzystości w zakresie praktyk gromadzenia i wykorzystywania danych, a także dają jednostkom większą kontrolę nad ich danymi osobowymi. Wreszcie, jeśli chodzi o bezpieczeństwo, rządy mogą inwestować w badania nad cyberbezpieczeństwem AI, aby opracować nowe mechanizmy obronne przed cyberatakami. Mogą również pracować nad opracowaniem międzynarodowych porozumień, aby zapobiegać wykorzystywaniu sztucznej inteligencji w działaniach wojennych oraz promować odpowiedzialny rozwój i wykorzystanie sztucznej inteligencji. Podsumowując, wpływ sztucznej inteligencji na naszą przyszłość jest złożony i wieloaspektowy i nie ma łatwych rozwiązań dla wyzwań, jakie stwarza. Jednak przyjmując proaktywne i przemyślane podejście do rozwoju i wykorzystania sztucznej inteligencji, możemy zapewnić, że będzie ona wykorzystywana w sposób przynoszący korzyści całemu społeczeństwu, zamiast mu szkodzić.

Wpływ AI na zatrudnienie

Jednym z najważniejszych problemów związanych ze sztuczną inteligencją jest jej wpływ na zatrudnienie. Wraz z postępem technologii sztucznej inteligencji coraz więcej miejsc pracy ulega automatyzacji, co prowadzi do utraty pracy przez wielu pracowników. Niektóre szacunki sugerują, że do 2030 r. automatyzacja może spowodować utratę nawet 800 milionów miejsc pracy, co spowoduje znaczne zakłócenia gospodarcze i społeczne. Doprowadziło to do wezwań do opracowania nowych polityk i programów dotyczących wpływu sztucznej inteligencji na zatrudnienie. Jednym z potencjalnych rozwiązań tego problemu jest inwestowanie w programy edukacyjne i szkoleniowe, które pomagają pracownikom rozwijać nowe umiejętności, które są mniej podatne na automatyzację. Na przykład miejsca pracy w takich dziedzinach, jak opieka zdrowotna, edukacja i sztuka są mniej podatne na automatyzację niż zawody w produkcji lub transporcie. Zapewniając pracownikom umiejętności potrzebne do przejścia do tego rodzaju pracy, rządy i firmy mogą pomóc złagodzić negatywny wpływ automatyzacji na zatrudnienie. Innym rozwiązaniem jest wdrożenie polityk wspierających przedsiębiorczość i rozwój małych firm. Zapewniając wsparcie start-upom i małym firmom, rządy mogą pomóc w tworzeniu nowych miejsc pracy i wspierać wzrost gospodarczy w branżach, które są mniej podatne na wpływ automatyzacji. Wreszcie, niektórzy sugerowali wdrożenie uniwersalnego dochodu podstawowego (UBI) jako rozwiązania problemu wpływu sztucznej inteligencji na zatrudnienie. UBI to system, w którym każdy obywatel otrzymuje gwarantowany dochód, niezależnie od statusu zatrudnienia. Może to pomóc złagodzić niektóre trudności gospodarcze spowodowane utratą miejsc pracy w wyniku automatyzacji. Chociaż wpływ sztucznej inteligencji na zatrudnienie jest poważnym problemem, należy zauważyć, że nie wszystkie zadania zostaną zautomatyzowane. Wiele zawodów wymaga umiejętności trudnych do zautomatyzowania, takich jak kreatywność, krytyczne myślenie i komunikacja interpersonalna. Ponadto sztuczna inteligencja może potencjalnie tworzyć nowe miejsca pracy w takich dziedzinach, jak rozwój i utrzymanie sztucznej inteligencji. Podsumowując, chociaż wpływ sztucznej inteligencji na zatrudnienie budzi poważne obawy, istnieją rozwiązania, które mogą pomóc złagodzić jej negatywne skutki. Inwestując w edukację i szkolenia, wspierając przedsiębiorczość i rozwój małych firm oraz badając możliwości wprowadzenia uniwersalnego dochodu podstawowego, możemy zapewnić, że wszyscy członkowie społeczeństwa będą czerpać korzyści ze sztucznej inteligencji. Innym istotnym problemem związanym ze sztuczną inteligencją jest prywatność. Systemy sztucznej inteligencji są zaprojektowane do gromadzenia i analizowania ogromnych ilości danych, które mogą obejmować dane osobowe, takie jak dokumentacja medyczna, informacje finansowe i dane dotyczące lokalizacji. Gromadzenie i wykorzystywanie tych danych może mieć znaczący wpływ na prywatność, zwłaszcza jeśli wpadną w niepowołane ręce. Jednym ze sposobów rozwiązania tego problemu jest opracowanie i wdrożenie silnych przepisów i regulacji dotyczących ochrony danych. Przepisy te mogą pomóc w zapewnieniu, że osoby fizyczne mają kontrolę nad swoimi danymi osobowymi, a firmy są pociągane do odpowiedzialności za wszelkie naruszenia danych lub niewłaściwe wykorzystanie danych osobowych. Innym rozwiązaniem jest promowanie rozwoju systemów AI, które mają chronić prywatność użytkowników. Na przykład technologie zwiększające prywatność, takie jak prywatność różnicowa, mogą być wykorzystywane do analizowania danych bez narażania prywatności poszczególnych osób. Ponadto firmy mogą wdrażać chroniące prywatność umowy o udostępnianiu danych, które umożliwiają udostępnianie danych przy jednoczesnej ochronie prywatności poszczególnych osób. Wreszcie kwestia bezpieczeństwa jest również istotnym problemem związanym ze sztuczną inteligencją. Systemy sztucznej inteligencji mogą być podatne na cyberataki, które mogą prowadzić do poważnych konsekwencji gospodarczych i społecznych. Jest to szczególnie prawdziwe w krytycznych branżach, takich jak służba zdrowia, finanse i transport. Aby rozwiązać ten problem, firmy i rządy mogą inwestować w badania nad cyberbezpieczeństwem AI, aby opracować nowe mechanizmy obronne przed cyberatakami. Ponadto można zawrzeć umowy międzynarodowe, aby zapobiegać wykorzystywaniu sztucznej inteligencji w działaniach wojennych oraz promować odpowiedzialny rozwój i wykorzystanie sztucznej inteligencji. Podsumowując, wpływ sztucznej inteligencji na prywatność i bezpieczeństwo jest poważnym problemem, ale istnieją rozwiązania, które mogą pomóc w rozwiązaniu tych problemów. Wdrażając surowe przepisy i regulacje dotyczące ochrony danych, promując rozwój systemów sztucznej inteligencji zwiększających prywatność oraz inwestując w badania nad cyberbezpieczeństwem sztucznej inteligencji, możemy zapewnić, że korzyści płynące ze sztucznej inteligencji zostaną zrealizowane przy jednoczesnym zminimalizowaniu jej negatywnego wpływu. Innym istotnym problemem związanym ze sztuczną inteligencją jest uprzedzenie i dyskryminacja. Systemy sztucznej inteligencji są zaprojektowane tak, aby uczyć się na podstawie danych, a jeśli dane te są stronnicze lub niekompletne, system sztucznej inteligencji może utrwalić tę stronniczość. Może to prowadzić do dyskryminacji pewnych grup ludzi, takich jak kobiety i mniejszości, w obszarach takich jak zatrudnienie, mieszkalnictwo i opieka zdrowotna. Aby rozwiązać ten problem, ważne jest, aby dane wykorzystywane do szkolenia systemów sztucznej inteligencji były zróżnicowane i reprezentatywne dla wszystkich grup społecznych. Ponadto systemy sztucznej inteligencji powinny być zaprojektowane tak, aby były przejrzyste i możliwe do wyjaśnienia, tak aby można było zidentyfikować i skorygować uprzedzenia i błędy. Innym rozwiązaniem jest zwiększenie różnorodności w rozwoju i wdrażaniu systemów AI. Obejmuje to promowanie różnorodności w zespołach badawczo-rozwojowych AI, a także zapewnienie, że systemy AI są testowane pod kątem uprzedzeń i dyskryminacji przed ich wdrożeniem. Istotnym problemem związanym ze sztuczną inteligencją jest również kwestia odpowiedzialności. W miarę jak systemy sztucznej inteligencji stają się coraz potężniejsze i wszechobecne, ważne jest, aby osoby, które projektują i wdrażają te systemy, ponosiły odpowiedzialność za swoje działania. Obejmuje to ustanowienie jasnych wytycznych i przepisów dotyczących rozwoju i korzystania z systemów sztucznej inteligencji, a także zapewnienie, że firmy będą ponosić odpowiedzialność za wszelkie negatywne konsekwencje wynikające z korzystania przez nie z sztucznej inteligencji. Podsumowując, wpływ sztucznej inteligencji na uprzedzenia i dyskryminację jest poważnym problemem, ale istnieją rozwiązania, które mogą pomóc w rozwiązaniu tych problemów. Zapewniając różnorodność i reprezentatywność danych wykorzystywanych do szkolenia systemów sztucznej inteligencji, promując różnorodność w rozwoju i wdrażaniu sztucznej inteligencji oraz ustanawiając jasne wytyczne i przepisy dotyczące korzystania z sztucznej inteligencji, możemy zapewnić, że sztuczna inteligencja jest wykorzystywana w uczciwy i sprawiedliwy sposób, z korzyścią dla wszystkich członkowie społeczeństwa.

Wpływ sztucznej inteligencji na prywatność

Kolejnym obszarem, w którym sztuczna inteligencja zabija naszą przyszłość, jest sfera prywatności. W miarę jak systemy sztucznej inteligencji stają się coraz bardziej wyrafinowane, są w stanie gromadzić i analizować ogromne ilości danych osobowych. Może to być wszystko, od naszej historii przeglądania po naszą dokumentację medyczną. Gromadzenie i wykorzystywanie tych danych budzi poważne obawy dotyczące prywatności. Jeśli systemy sztucznej inteligencji nie są odpowiednio zabezpieczone, hakerzy mogą uzyskać dostęp do poufnych informacji, co może prowadzić do kradzieży tożsamości, oszustw finansowych i innych form cyberprzestępczości. Ponadto wykorzystanie sztucznej inteligencji do celów inwigilacji budzi obawy związane z nadmiernym zasięgiem działań rządu i erozją swobód obywatelskich. Ponadto wykorzystanie sztucznej inteligencji do reklamy ukierunkowanej i marketingu spersonalizowanego może mieć również negatywne konsekwencje dla prywatności. Algorytmy sztucznej inteligencji mogą być wykorzystywane do analizowania danych dotyczących naszej historii przeglądania i zakupów, aktywności w mediach społecznościowych i innych zachowań online w celu tworzenia wysoce ukierunkowanych kampanii reklamowych. Chociaż może to prowadzić do skuteczniejszej reklamy, rodzi to również obawy dotyczące wykorzystywania danych osobowych do celów komercyjnych bez zgody lub wiedzy osób fizycznych. Ponadto istnieje również możliwość wykorzystywania systemów sztucznej inteligencji do manipulowania zachowaniem i decyzjami poszczególnych osób. Algorytmy sztucznej inteligencji można na przykład wykorzystać do tworzenia wysoce przekonujących treści lub reklam, które wpływają na osoby dokonujące wyborów, których inaczej by nie dokonały. Może to dotyczyć szczególnie obszarów takich jak polityka, gdzie wykorzystanie sztucznej inteligencji do kampanii propagandowych i dezinformacyjnych może mieć znaczący wpływ na procesy demokratyczne. Aby odpowiedzieć na te obawy, ważne jest ustanowienie jasnych wytycznych i przepisów dotyczących gromadzenia, wykorzystywania i ochrony danych osobowych. Obejmuje to wzmocnienie przepisów dotyczących ochrony danych i zapewnienie osobom fizycznym większej kontroli nad swoimi danymi osobowymi. Ponadto należy zapewnić większą przejrzystość w opracowywaniu i wdrażaniu systemów sztucznej inteligencji, w tym w stosowaniu zrozumiałych algorytmów sztucznej inteligencji, które można kontrolować pod kątem stronniczości i dyskryminacji. Wreszcie, potrzebna jest większa świadomość społeczna i edukacja na temat zagrożeń i korzyści związanych z technologią sztucznej inteligencji. Obejmuje to edukowanie osób na temat sposobu gromadzenia i wykorzystywania ich danych osobowych, a także potencjalnych konsekwencji podejmowania decyzji opartych na sztucznej inteligencji. Podsumowując, wpływ sztucznej inteligencji na prywatność jest poważnym problemem, ale istnieją rozwiązania, które mogą pomóc w rozwiązaniu tych problemów. Ustanawiając jasne wytyczne i przepisy dotyczące gromadzenia, wykorzystywania i ochrony danych osobowych, promując przejrzystość w rozwoju i wdrażaniu systemów sztucznej inteligencji oraz zwiększając świadomość społeczną i edukację na temat zagrożeń i korzyści związanych z technologią sztucznej inteligencji, możemy zapewnić, że sztuczna inteligencja jest wykorzystywane w sposób szanujący i chroniący prawa do prywatności osób fizycznych Kolejnym obszarem, w którym sztuczna inteligencja zabija naszą przyszłość, jest bezpieczeństwo. Chociaż sztuczna inteligencja może zwiększać bezpieczeństwo poprzez wykrywanie zagrożeń i zapobieganie im, stwarza również poważne zagrożenia dla bezpieczeństwa. Jednym z najpoważniejszych zagrożeń jest możliwość włamania się do systemów sztucznej inteligencji i wykorzystania ich do złośliwych celów. Na przykład algorytmy sztucznej inteligencji mogą być wykorzystywane do przeprowadzania cyberataków lub rozprzestrzeniania złośliwego oprogramowania, ułatwiając hakerom uzyskanie dostępu do poufnych informacji lub zakłócenie infrastruktury krytycznej. Innym problemem jest możliwość wykorzystania sztucznej inteligencji do celów nadzoru, zarówno przez rządy, jak i prywatne korporacje. Wykorzystanie sztucznej inteligencji do inwigilacji rodzi istotne kwestie etyczne i prawne, w szczególności dotyczące kwestii prywatności i swobód obywatelskich. Istnieje również ryzyko, że wykorzystanie sztucznej inteligencji do inwigilacji może doprowadzić do rozwoju autorytarnych reżimów, które polegają na technologiach opartych na sztucznej inteligencji do monitorowania i kontrolowania swoich populacji. Aby rozwiązać te problemy, konieczne jest opracowanie solidnych protokołów bezpieczeństwa cybernetycznego dla systemów sztucznej inteligencji. Obejmuje to opracowanie bezpiecznych algorytmów sztucznej inteligencji, które są odporne na ataki hakerskie i złośliwe oprogramowanie, a także zapewnienie regularnej aktualizacji i konserwacji systemów sztucznej inteligencji w celu przeciwdziałania nowym zagrożeniom bezpieczeństwa. Ponadto konieczne jest opracowanie jasnych wytycznych prawnych i etycznych dotyczących wykorzystania sztucznej inteligencji w inwigilacji, w tym ścisłych ograniczeń w zakresie gromadzenia i wykorzystywania danych osobowych. Wreszcie, ważne jest promowanie przejrzystości w rozwoju i wdrażaniu systemów sztucznej inteligencji. Obejmuje to zapewnienie, aby osoby fizyczne były świadome wykorzystania sztucznej inteligencji w różnych zastosowaniach, w tym do nadzoru i bezpieczeństwa, a także zapewnienie mechanizmów umożliwiających osobom fizycznym kwestionowanie korzystania z technologii opartych na sztucznej inteligencji, gdy narusza to ich prywatność lub wolności obywatelskie. Podsumowując, chociaż sztuczna inteligencja może zwiększać bezpieczeństwo, stwarza również poważne zagrożenia dla bezpieczeństwa. Opracowując solidne protokoły bezpieczeństwa cybernetycznego, ustanawiając jasne wytyczne prawne i etyczne dotyczące wykorzystania sztucznej inteligencji w nadzorze oraz promując przejrzystość w opracowywaniu i wdrażaniu systemów sztucznej inteligencji, możemy ograniczyć te zagrożenia i zapewnić, że sztuczna inteligencja jest wykorzystywana w sposób promujący bezpieczeństwo, jednocześnie poszanowania praw i wolności jednostki. Oprócz obaw związanych z zatrudnieniem, prywatnością i bezpieczeństwem sztuczna inteligencja może również zaostrzyć istniejące nierówności społeczne i ekonomiczne. Na przykład algorytmy sztucznej inteligencji mogą utrwalać uprzedzenia i dyskryminację, powielając istniejące uprzedzenia społeczne w swoich procesach decyzyjnych. Może to skutkować systemami sztucznej inteligencji, które dyskryminują określone grupy ludzi, takie jak osoby o innym kolorze skóry, kobiety lub osoby ze zmarginalizowanych społeczności. Innym problemem jest możliwość wykorzystania sztucznej inteligencji do tworzenia tak zwanych "głębokich fałszywych" treści, w tym fałszywych filmów, nagrań dźwiękowych i obrazów. Może to podważyć zaufanie do mediów i wywołać zamieszanie i chaos, zwłaszcza w czasach kryzysu. Może być również wykorzystywany do złośliwych celów, takich jak szerzenie dezinformacji lub szantaż. Aby rozwiązać te problemy, konieczne jest opracowanie i wdrożenie systemów sztucznej inteligencji w sposób przejrzysty, odpowiedzialny i sprawiedliwy. Obejmuje to zapewnienie regularnych audytów algorytmów sztucznej inteligencji w celu wykrycia i wyeliminowania błędów, a także promowanie różnorodności w opracowywaniu systemów sztucznej inteligencji, aby zapewnić, że odzwierciedlają one szeroki zakres perspektyw i doświadczeń. Ważne jest również opracowanie polityk i przepisów promujących odpowiedzialne korzystanie z sztucznej inteligencji, w tym surowe ograniczenia wykorzystania sztucznej inteligencji do nadzoru oraz zapewnienie jednostkom prawa do kwestionowania korzystania z technologii opartych na sztucznej inteligencji, które naruszają ich prawa i wolności . Wreszcie kluczowe znaczenie ma inwestowanie w programy edukacyjne i szkoleniowe, aby zapewnić jednostkom umiejętności i wiedzę niezbędne do rozwoju w świecie, który w coraz większym stopniu napędzany jest przez sztuczną inteligencję. Obejmuje to zapewnianie szkoleń w obszarach takich jak analiza danych, cyberbezpieczeństwo i etyka, a także promowanie uczenia się przez całe życie, aby umożliwić jednostkom dostosowanie się do zmieniającego się charakteru pracy i zatrudnienia. Podsumowując, chociaż sztuczna inteligencja może przynieść znaczne korzyści, stwarza również poważne zagrożenia dla naszej przyszłości, w tym zagrożenia dla zatrudnienia, prywatności, bezpieczeństwa oraz nierówności społecznych i ekonomicznych. Opracowując i wdrażając sztuczną inteligencję w sposób przejrzysty, odpowiedzialny i sprawiedliwy, możemy ograniczyć te zagrożenia i zapewnić, że sztuczna inteligencja jest wykorzystywana w sposób, który promuje dobrostan i rozkwit ludzi.

Wpływ sztucznej inteligencji na bezpieczeństwo

Wpływa także na naszą przyszłość w zakresie bezpieczeństwa. W miarę jak systemy sztucznej inteligencji stają się coraz bardziej zaawansowane, stają się bardziej podatne na cyberataki. Hakerzy mogą wykorzystywać sztuczną inteligencję do tworzenia wyrafinowanych ataków, które mogą ominąć tradycyjne środki bezpieczeństwa. Dodatkowo, wraz ze zautomatyzowaniem infrastruktury krytycznej, wzrasta ryzyko cyberataków na te systemy. Może to prowadzić do przerw w dostawie prądu, zakłóceń w transporcie i innych poważnych zagrożeń bezpieczeństwa. Ponadto sztuczna inteligencja jest również wykorzystywana do celów ofensywnych w cyberbezpieczeństwie. Na przykład boty oparte na sztucznej inteligencji mogą być wykorzystywane do przeprowadzania masowych ataków DDoS na strony internetowe, przytłaczając je ruchem i czyniąc je niedostępnymi. Sztuczna inteligencja może być również wykorzystywana do wyrafinowanych ataków typu phishing, które nakłaniają osoby do podania poufnych informacji lub kliknięcia złośliwych łączy. Ponadto sztuczna inteligencja może zostać wykorzystana do automatyzacji procesu identyfikowania i wykorzystywania luk w systemach komputerowych. Analizując ogromne ilości danych, systemy sztucznej inteligencji mogą identyfikować słabe punkty oprogramowania i sprzętu, ułatwiając hakerom przeprowadzanie skutecznych ataków. Aby rozwiązać te problemy związane z bezpieczeństwem, należy inwestować w rozwój solidnych systemów cyberbezpieczeństwa, które mogą wykrywać zagrożenia i reagować na nie w czasie rzeczywistym. Obejmuje to wykorzystanie sztucznej inteligencji do szybkiego i skutecznego identyfikowania zagrożeń i reagowania na nie. Niezbędne jest jednak również zapewnienie, aby systemy sztucznej inteligencji wykorzystywane w cyberbezpieczeństwie były bezpieczne i wolne od luk w zabezpieczeniach. Wymaga to ciągłego testowania i audytowania systemów sztucznej inteligencji, aby upewnić się, że są one odporne na ataki i że nie są wykorzystywane do ułatwiania cyberprzestępczości. Wreszcie, ważne jest, aby upewnić się, że poszczególne osoby posiadają umiejętności i wiedzę niezbędne do ochrony przed cyberzagrożeniami. Obejmuje to promowanie świadomości cyberbezpieczeństwa i zapewnianie szkoleń w takich obszarach, jak zarządzanie hasłami, świadomość phishingu i podstawowe praktyki bezpieczeństwa. Podsumowując, sztuczna inteligencja stwarza poważne zagrożenia bezpieczeństwa dla naszej przyszłości, w tym luki w cyberatakach i potencjał wykorzystania sztucznej inteligencji do celów ofensywnych. Inwestując w solidne systemy cyberbezpieczeństwa i promując świadomość cyberbezpieczeństwa, możemy ograniczyć te zagrożenia i zapewnić, że sztuczna inteligencja jest wykorzystywana w sposób promujący bezpieczeństwo dla wszystkich. Oprócz zagrożeń dla zatrudnienia, prywatności i bezpieczeństwa sztuczna inteligencja budzi również obawy etyczne, które mogą mieć znaczący wpływ na naszą przyszłość. Jednym z najbardziej palących problemów etycznych związanych ze sztuczną inteligencją jest uprzedzenie. Systemy sztucznej inteligencji są tak obiektywne, jak dane, na których są szkolone, a jeśli dane używane do trenowania modeli sztucznej inteligencji są stronnicze, wynikowy system również będzie stronniczy. Może to prowadzić do dyskryminacji i niesprawiedliwego traktowania osób ze względu na takie czynniki, jak rasa, płeć lub wiek. Na przykład stwierdzono, że systemy zatrudniania oparte na sztucznej inteligencji dyskryminują kobiety i osoby kolorowe. Podobnie stwierdzono, że sztuczna inteligencja stosowana w systemie wymiaru sprawiedliwości w sprawach karnych jest uprzedzona wobec mniejszości, co skutkuje niesprawiedliwymi wyrokami i innymi formami dyskryminacji. Innym problemem etycznym jest możliwość wykorzystania sztucznej inteligencji w autonomicznych systemach uzbrojenia, co mogłoby doprowadzić do utraty kontroli człowieka nad użyciem siły. Może to mieć druzgocące konsekwencje, zarówno pod względem życia ludzkiego, jak i potencjalnego globalnego konfliktu. Aby rozwiązać te problemy natury etycznej, należy zadbać o to, by sztuczna inteligencja była rozwijana i wdrażana w sposób etyczny i odpowiedzialny. Wymaga to zaangażowania na rzecz różnorodności i integracji w zespołach opracowujących sztuczną inteligencję, a także solidnych ram etycznych i przepisów, które kierują rozwojem i wykorzystaniem systemów sztucznej inteligencji. Istotne jest również, aby osoby fizyczne były świadome potencjalnych uprzedzeń i obaw etycznych związanych z AI oraz aby posiadały narzędzia i wiedzę niezbędne do dochodzenia swoich praw i zapewniały, że sztuczna inteligencja jest wykorzystywana w sposób zgodny z ich wartościami. Podsumowując, sztuczna inteligencja budzi poważne obawy etyczne, które mogą mieć znaczący wpływ na naszą przyszłość. Opracowując i wdrażając sztuczną inteligencję w sposób etyczny i odpowiedzialny oraz promując świadomość i edukację w tych kwestiach, możemy zapewnić, że sztuczna inteligencja jest wykorzystywana w sposób przynoszący korzyści społeczeństwu i promujący wspólne dobro. Innym problemem etycznym związanym ze sztuczną inteligencją jest potencjalna utrata miejsc pracy i wynikający z tego wpływ na nierówności dochodów. Ponieważ sztuczna inteligencja nadal automatyzuje wiele zawodów, może pogłębić istniejące nierówności i stworzyć nowe. Dzieje się tak dlatego, że ci, którzy mają umiejętności i zasoby, aby dostosować się do zmieniającego się rynku pracy, mogą prosperować, podczas gdy ci, którzy ich nie mają, mogą mieć trudności ze znalezieniem pracy lub mogą być zmuszeni do wykonywania nisko płatnych prac o niewielkim bezpieczeństwie zatrudnienia. Ponadto istnieje obawa, że sztuczna inteligencja może być wykorzystywana do wykorzystywania wrażliwych grup społecznych, takich jak osoby żyjące w ubóstwie lub mające ograniczony dostęp do edukacji lub opieki zdrowotnej. Może to prowadzić do dalszych nierówności ekonomicznych i społecznych. Aby odpowiedzieć na te obawy, potrzebne są polityki promujące wzrost gospodarczy sprzyjający włączeniu społecznemu i gwarantujące, że ci, których zmiany wywołane przez sztuczną inteligencję najbardziej odczują, nie zostaną pozostawieni w tyle. Może to obejmować inicjatywy, takie jak programy szkolenia zawodowego i siatki bezpieczeństwa socjalnego, które pomagają wspierać osoby wysiedlone przez automatyzację napędzaną przez sztuczną inteligencję. Na koniec warto zauważyć, że sztuczna inteligencja zmienia także charakter pracy i umiejętności potrzebne do odniesienia sukcesu na przyszłym rynku pracy. W miarę upowszechniania się systemów sztucznej inteligencji będzie rosło zapotrzebowanie na osoby posiadające umiejętności w takich dziedzinach, jak analiza danych, uczenie maszynowe i programowanie. Aby przygotować się do tej nowej rzeczywistości, potrzebne są inwestycje w programy edukacyjne i szkoleniowe, które pomagają jednostkom rozwijać te umiejętności. Dzięki temu będą dobrze przygotowani do odniesienia sukcesu na nowym rynku pracy, a korzyści płynące ze sztucznej inteligencji będą dzielone bardziej równomiernie w całym społeczeństwie. Podsumowując, chociaż sztuczna inteligencja może przynieść wiele korzyści, budzi również poważne obawy etyczne, które mogą mieć głęboki wpływ na naszą przyszłość. Rozwiązując te problemy za pomocą polityk promujących wzrost gospodarczy sprzyjający włączeniu społecznemu, inwestycje w edukację i szkolenia oraz ramy i przepisy etyczne, możemy zapewnić, że sztuczna inteligencja jest wykorzystywana w sposób przynoszący korzyści społeczeństwu i promujący wspólne dobro.

Łagodzenie negatywnych skutków sztucznej inteligencji

Podczas gdy sztuczna inteligencja niewątpliwie ma negatywny wpływ na naszą przyszłość, to są kroki, które można podjąć, aby złagodzić jego negatywne skutki. Na przykład rządy mogą inwestować w programy edukacyjne i szkoleniowe, aby pomóc pracownikom przejść na nowe stanowiska, które wymagają umiejętności, których nie można zautomatyzować. Ponadto firmy mogą podjąć kroki w celu zapewnienia, że ich systemy sztucznej inteligencji są odpowiednio zabezpieczone, aby zapobiegać cyberatakom. Kolejnym krokiem, który można podjąć, aby złagodzić negatywny wpływ sztucznej inteligencji, jest opracowanie i wdrożenie ram etycznych i przepisów, które zapewniają, że sztuczna inteligencja jest wykorzystywana w sposób odpowiedzialny i odpowiedzialny. Może to obejmować wytyczne dotyczące gromadzenia i wykorzystywania danych, przejrzystości w zakresie podejmowania decyzji przez systemy sztucznej inteligencji oraz odpowiedzialności za wszelkie szkody wyrządzone przez systemy sztucznej inteligencji. Ponadto istnieje potrzeba większej edukacji i zaangażowania społeczeństwa w zakresie sztucznej inteligencji i jej potencjalnych skutków. Pomoże to zwiększyć świadomość zagrożeń i możliwości związanych ze sztuczną inteligencją oraz zapewni, że opinia publiczna będzie informowana i zaangażowana w dyskusje na temat rozwoju i wykorzystania sztucznej inteligencji. Wreszcie istnieje potrzeba ściślejszej współpracy między zainteresowanymi stronami w zakresie opracowywania i wdrażania systemów sztucznej inteligencji. Obejmuje to współpracę między rządami, firmami, organizacjami społeczeństwa obywatelskiego i instytucjami akademickimi. Pracując razem, zainteresowane strony mogą zapewnić, że rozwój i wykorzystanie sztucznej inteligencji są zgodne z wartościami społecznymi oraz że korzyści płynące ze sztucznej inteligencji są dzielone bardziej równomiernie w całym społeczeństwie. Podsumowując, chociaż sztuczna inteligencja ma negatywny wpływ na naszą przyszłość, istnieją kroki, które można podjąć, aby złagodzić jej negatywne skutki. Inwestując w edukację i szkolenia, zapewniając bezpieczeństwo systemów sztucznej inteligencji oraz opracowując ramy i przepisy etyczne, angażując społeczeństwo i promując współpracę między zainteresowanymi stronami, możemy zapewnić, że rozwój i wykorzystanie sztucznej inteligencji jest zgodne z wartościami społecznymi i promuje wspólne dobro . Ponadto istnieje potrzeba większej różnorodności i włączenia w rozwój systemów sztucznej inteligencji. Systemy sztucznej inteligencji są tak dobre, jak dane, na których są szkolone, a jeśli dane są stronnicze lub niereprezentatywne, system sztucznej inteligencji również będzie stronniczy. W związku z tym kluczowe znaczenie ma zapewnienie, aby rozwój systemów sztucznej inteligencji obejmował różne perspektywy i doświadczenia, aby zapobiec stronniczości danych i zapewnić, aby systemy sztucznej inteligencji były sprawiedliwe i sprawiedliwe. Ponadto istnieje potrzeba wspierania innowacji i przedsiębiorczości w obszarach, które nie są łatwe do zautomatyzowania. Może to obejmować wspieranie rozwoju nowych gałęzi przemysłu i technologii, które wymagają wyjątkowych umiejętności ludzkich, takich jak kreatywność, inteligencja emocjonalna i umiejętności społeczne. Promując rozwój tych branż i technologii, możemy tworzyć nowe miejsca pracy, które są mniej podatne na automatyzację i dają więcej możliwości pracownikom. Wreszcie, konieczne jest dalsze regularne monitorowanie i ocena wpływu sztucznej inteligencji na nasze społeczeństwo. Umożliwi nam to identyfikację nowych zagrożeń i możliwości związanych ze sztuczną inteligencją oraz odpowiednie dostosowanie naszych zasad i strategii. Podsumowując, negatywny wpływ sztucznej inteligencji na naszą przyszłość jest znaczący, ale nie jest nieunikniony. Podejmując proaktywne kroki w celu złagodzenia tych negatywnych skutków i promowania odpowiedzialnego rozwoju i wykorzystania sztucznej inteligencji, możemy zapewnić, że sztuczna inteligencja jest siłą działającą na rzecz dobra i przynosi korzyści wszystkim członkom naszego społeczeństwa.

Wniosek

AII niewątpliwie ma znaczący wpływ na naszą przyszłość, zarówno pozytywną, jak i negatywną. Podczas gdy negatywne skutki AI, takie strata pracy , obawy dotyczące prywatności i zagrożenia bezpieczeństwa są znaczące, istnieją kroki, które można podjąć, aby je złagodzić. Inwestując w programy edukacyjne i szkoleniowe, zabezpieczając systemy sztucznej inteligencji i pamiętając o potencjalnych zagrożeniach, możemy zapewnić, że sztuczna inteligencja jest wykorzystywana do poprawy naszego życia, a nie do wyrządzania mu szkody. Ponadto istotne jest również rozważenie etycznych implikacji sztucznej inteligencji. W miarę jak sztuczna inteligencja staje się coraz bardziej zaawansowana i potężna, kluczowe znaczenie ma zapewnienie, aby była rozwijana i wykorzystywana w sposób etyczny. Wiąże się to z opracowaniem wytycznych i standardów etycznych dotyczących korzystania ze sztucznej inteligencji, a także zapewnieniem przejrzystości i rozliczalności systemów sztucznej inteligencji. Innym krytycznym aspektem odpowiedzialnego korzystania ze sztucznej inteligencji jest zapewnienie, że jest ona wykorzystywana z korzyścią dla wszystkich członków społeczeństwa, a nie tylko dla wybranych. Oznacza to podjęcie kroków w celu rozwiązania problemu przepaści cyfrowej i zapewnienia wszystkim dostępu do korzyści płynących ze sztucznej inteligencji, w tym edukacji, opieki zdrowotnej i możliwości zatrudnienia. Wreszcie, należy koniecznie uznać, że rozwój i wykorzystanie sztucznej inteligencji to nie tylko kwestie techniczne, ale także społeczne i polityczne. W miarę jak systemy sztucznej inteligencji stają się coraz bardziej zintegrowane z naszym codziennym życiem, konieczne jest zapewnienie ich ,że są zgodne z naszymi wartościami i aspiracjami jako społeczeństwa. Podsumowując, sztuczna inteligencja to potężna i rewolucyjna technologia, która ma potencjał do zmiany naszego życia na lepsze. Konieczne jest jednak również rozpoznanie potencjalnych zagrożeń i negatywnych skutków sztucznej inteligencji oraz podjęcie kroków w celu ich złagodzenia. Inwestując w edukację i szkolenia, zapewniając etyczny rozwój i użytkowanie oraz promując równy dostęp do korzyści płynących ze sztucznej inteligencji, możemy zapewnić, że sztuczna inteligencja będzie siłą na dobre w naszej przyszłości. Aby jeszcze bardziej zająć się potencjalnymi negatywnymi skutkami sztucznej inteligencji, kluczowa jest współpraca między wszystkimi zainteresowanymi stronami, w tym rządami, sektorem prywatnym, środowiskiem akademickim, społeczeństwem obywatelskim i osobami fizycznymi. Poprzez dialog i współpracę możemy opracować rozwiązania, które zapewnią zgodność rozwoju i wykorzystania sztucznej inteligencji z naszymi wspólnymi wartościami i aspiracjami. Inną ważną kwestią jest potrzeba ciągłych badań i rozwoju w celu zapewnienia odpowiedzialnego i korzystnego rozwoju sztucznej inteligencji. Obejmuje to ciągłe wysiłki na rzecz opracowania systemów sztucznej inteligencji, które są przejrzyste, wytłumaczalne i odpowiedzialne, a także rozwój sztucznej inteligencji, która może sprostać niektórym najpilniejszym wyzwaniom na świecie, takim jak zmiana klimatu, opieka zdrowotna i ubóstwo. Wreszcie, idąc naprzód z AI, należy pamiętać, że sama technologia nie jest rozwiązaniem wszystkich naszych problemów. Sztuczna inteligencja to narzędzie, które może pomóc nam osiągnąć nasze cele, ale nie zastępuje ludzkiego osądu, kreatywności i empatii. Ostatecznie to od nas zależy, czy sztuczna inteligencja będzie wykorzystywana w sposób odzwierciedlający nasze wartości i aspiracje jako społeczeństwa. Podsumowując, sztuczna inteligencja to miecz obosieczny, który ma potencjał zmienić nasze życie w pozytywny sposób, jednocześnie stwarzając znaczące ryzyko i wyzwania. Dzięki współpracy, ciągłym badaniom i rozwojowi oraz zaangażowaniu w wykorzystywanie sztucznej inteligencji w sposób, który odzwierciedla nasze wartości i aspiracje, możemy zapewnić, że sztuczna inteligencja będzie siłą na rzecz dobra w naszej przyszłości, a nie zagrożeniem dla niej.