Wytwarzanie ruchu

https://aie24.pl/

Mechanizm inicjujący ruch efektora nazywany jest siłownikiem; przykłady obejmują przekładnie, koła zębate, kable i połączenia. Najpopularniejszym typem siłownika jest siłownik elektryczny, który wykorzystuje energię elektryczną do rozpędzania silnika. Są one używane głównie w systemach, które wymagają ruchu obrotowego, takich jak złącza w ramieniu robota. Siłowniki hydrauliczne wykorzystują płyn hydrauliczny pod ciśnieniem (taki jak olej lub woda), a siłowniki pneumatyczne wykorzystują sprężone powietrze do generowania ruchu mechanicznego. Siłowniki są często używane do przesuwania połączeń, które łączą sztywne bryły (połączenia). Ręce i nogi mają takie stawy. W połączeniach obrotowych jedno ogniwo obraca się względem drugiego. W połączeniach pryzmatycznych jedno ogniwo przesuwa się po drugim. Oba są stawami jednoosiowymi (jedna oś ruchu). Inne rodzaje połączeń obejmują połączenia sferyczne, cylindryczne i płaskie, które są połączeniami wieloosiowymi. Do interakcji z obiektami w otoczeniu roboty używają chwytaków. Najbardziej podstawowym rodzajem chwytaka jest chwytak z równoległymi szczękami, z dwoma palcami i jednym siłownikiem, który porusza palcami razem w celu chwytania przedmiotów. Ten efektor jest zarówno kochany, jak i znienawidzony za swoją prostotę. Chwytaki trójpalczaste oferują nieco większą elastyczność przy zachowaniu prostoty. Na drugim końcu spektrum znajdują się dłonie humanoidalne (antropomorficzne). Na przykład Zręczna Ręka Cienia ma łącznie 20 siłowników. Zapewnia to znacznie większą elastyczność w przypadku złożonych manipulacji, w tym manewrów manipulatorem w ręku (pomyśl o podniesieniu telefonu komórkowego i obróceniu go w dłoni, aby ustawić go właściwą stroną do góry), ale ta elastyczność ma swoją cenę – nauka kontroli te złożone chwytaki są trudniejsze.

AI : Technologie, Aplikacje i Wyzwania : Wyzwania AI

https://aie24.pl/

Wykorzystanie sztucznej inteligencji nie ogranicza się do innowacji i laboratoriów badawczych, ale jest również wykorzystywane do radykalnego przekształcania firm i produktów. Przedsiębiorstwa muszą jednak zrozumieć główne wyzwania, zanim będą mogły w pełni wykorzystać potencjał tej technologii. W biznesie dane wejściowe są kluczowym elementem rozwiązań AI, co może wiązać się z kilkoma wyzwaniami. Większość firm ma problemy związane z danymi, ponieważ zastosowany system sztucznej inteligencji będzie tak dobry, jak jakość danych. Sztuczna inteligencja ma ogromny potencjał, oprócz pewnych wyzwań. Główny problem z systemami sztucznej inteligencji polega na tym, że działają one równie dobrze lub źle, jak jakość i ilość danych, na których są szkolone. Koszt, jakość, niezawodność i proces są ważne dla parametrów rozwoju aplikacji opartych na sztucznej inteligencji. W 2018 roku firma Deloitte przeprowadziła ankietę wśród 1900 dyrektorów biznesowych IT z różnych firm, które były wczesnymi użytkownikami sztucznej inteligencji, z siedmiu krajów; Australia (100 respondentów), Kanada (300), Chiny (100), Niemcy (100), Francja (100), Wielka Brytania (100) i Stany Zjednoczone (1100) .Stwierdzono, że dojrzałość sztucznej inteligencji jest ogólnie niska i <25% w każdym kraju, i kwalifikuje się jako Doświadczeni adopcyjni z USA na poziomie 24% (patrz pierwszy wiersz w macierzy). Dojrzałość strategiczna, mająca kompleksową strategię AI obejmującą całą firmę, jest niska, a Chiny i Wielka Brytania mają wyższe wartości, tj. odpowiednio 46% i 41%. Kierownictwo pilnie stwierdziło, że sztuczna inteligencja jest „bardzo” lub „krytycznie” ważna dla sukcesu ich firmy. Jako niezwykle ważne, sztuczna inteligencja wzrośnie w ciągu najbliższych dwóch lat, a oczekuje się, że niektóre kraje osiągną wyższy wzrost niż inne. Większość respondentów w każdym kraju uważa jednak, że sztuczna inteligencja może zmienić ich biznes w ciągu najbliższych trzech lat, przy czym Chiny wykazują 77% (patrz piąty wiersz macierzy). Wyrazili ponadto różne obawy dotyczące ryzyka związanego ze sztuczną inteligencją. Na przykład 49% z Australii i 48% z Francji wyraziło poważne lub skrajne obawy, w porównaniu z 16% z Chin (patrz szósty wiersz w tabeli). Niektóre kraje, takie jak Wielka Brytania, Niemcy i Chiny, wydawały się być „w pełni przygotowane” na zagrożenia związane ze sztuczną inteligencją niż inne kraje. Innym powszechnym wyzwaniem są luki w zabezpieczeniach cybernetycznych sztucznej inteligencji. Kierownictwo oceniło to jako jedną z trzech największych obaw; maksymalnie 54% w Chinach (patrz siódmy wiersz w macierzy). Patrząc na konkretne wyzwania, różnice w umiejętnościach w zakresie sztucznej inteligencji wahają się od 51 do 73% między krajami. Największe problemy z wdrażaniem sztucznej inteligencji nie dotyczą przede wszystkim kwestii technicznych, ale raczej tego, jak osiągnąć wartość z technologii. Jak omówiono, istnieje kilka czynników, które uniemożliwiają wdrożenie sztucznej inteligencji i uzyskanie znacznego zwrotu z nowych organizacji.

Wyczuwając świat

https://aie24.pl/

Czujniki to percepcyjny interfejs między robotem a środowiskiem. Czujniki pasywne, takie jak kamery, są prawdziwymi obserwatorami otoczenia: przechwytują sygnały generowane przez inne źródła w otoczeniu. Aktywne czujniki, takie jak sonar, wysyłają energię do otoczenia. Polegają na tym, że ta energia jest odbijana z powrotem do czujnika. Czujniki aktywne zwykle dostarczają więcej informacji niż czujniki pasywne, ale kosztem zwiększonego zużycia energii i stwarzają ryzyko zakłóceń w przypadku jednoczesnego używania wielu czujników aktywnych. Rozróżniamy również, czy czujnik jest ukierunkowany na wykrywanie otoczenia, lokalizacji robota, czy też wewnętrznej konfiguracji robota. Dalmierze to czujniki, które mierzą odległość do pobliskich obiektów. Sondy sonarowe to aktywne dalmierze, które emitują kierunkowe fale dźwiękowe, które są odbijane przez obiekty, a część dźwięku wraca do czujnika. Czas i intensywność powracającego sygnału wskazuje odległość do pobliskich obiektów. Sonar to technologia wybierana przez autonomiczne pojazdy podwodne i była popularna we wczesnych dniach robotyki wewnętrznej. Widzenie stereofoniczne (patrz rozdział 27.6) opiera się na wielu kamerach, które obrazują otoczenie z nieco innych punktów widzenia, analizując powstałą paralaksę na tych obrazach, aby obliczyć zasięg otaczających obiektów. W przypadku mobilnych robotów naziemnych sonar i widzenie stereo są obecnie rzadko używane, ponieważ nie są one niezawodnie dokładne. Kinect to popularny, niedrogi czujnik, który łączy w sobie kamerę i projektor światła strukturalnego, który wyświetla na scenie wzór linii siatki. Kamera widzi, jak wyginają się linie siatki, dając robotowi informacje o kształcie obiektów na scenie. W razie potrzeby projekcja może być światłem podczerwonym, aby nie zakłócać innych czujników (takich jak ludzkie oczy). Większość robotów naziemnych jest obecnie wyposażona w aktywne dalmierze optyczne. Podobnie jak czujniki sonaru, czujniki zasięgu optycznego emitują aktywne sygnały (światło) i mierzą czas, aż odbicie tego sygnału dotrze z powrotem do czujnika.  W samochodach autonomicznych często stosuje się lidary skanujące (skrót od wykrywania światła i określania odległości) – aktywnych czujników, które emitują wiązki laserowe i wykrywają odbitą wiązkę, zapewniając pomiary zasięgu z dokładnością do centymetra przy zasięgu 100 metrów. Wykorzystują złożone układy luster lub obracających się elementów, aby przesuwać wiązkę przez otoczenie i budować mapę. lidary skanujące zwykle działają lepiej niż kamery czasu przelotu na dłuższych dystansach i mają tendencję do działania lepiej w jasnym świetle dziennym. Radar jest często wybieranym czujnikiem odległości w pojazdach powietrznych (autonomicznych lub nie). Czujniki radarowe mogą mierzyć odległości do kilometrów i mają przewagę nad czujnikami optycznymi, ponieważ widzą przez mgłę. Na bliskim końcu zasięgu wykrywania znajdują się czujniki dotykowe, takie jak wąsy, panele uderzeniowe i skóra wrażliwa na dotyk. Czujniki te mierzą zasięg w oparciu o kontakt fizyczny i mogą być stosowane tylko do wykrywania obiektów znajdujących się bardzo blisko robota. Drugą ważną klasą są czujniki lokalizacji. Większość czujników lokalizacji wykorzystuje wykrywanie zasięgu jako główny element określania lokalizacji. Na zewnątrz, Global Positioning System (GPS) jest najczęstszym rozwiązaniem problemu lokalizacji. GPS mierzy odległość do satelitów, które emitują sygnały impulsowe. Obecnie na orbicie znajduje się 31 operacyjnych satelitów GPS oraz 24 satelity GLONASS, rosyjski odpowiednik. Odbiorniki GPS mogą odzyskać odległość do satelity, analizując przesunięcia fazowe. Poprzez triangulację sygnałów z wielu satelitów odbiorniki GPS mogą określić swoje bezwzględne położenie na Ziemi z dokładnością do kilku metrów. Różnicowy GPS obejmuje drugi odbiornik naziemny o znanej lokalizacji, zapewniający milimetrową dokładność w idealnych warunkach. Niestety GPS nie działa w pomieszczeniach ani pod wodą. W pomieszczeniach lokalizacja jest często osiągana przez umieszczenie beaconów w środowisku w znanych lokalizacjach. Wiele środowisk wewnętrznych jest pełnych bezprzewodowych stacji bazowych, które mogą pomóc robotom w lokalizacji dzięki analizie sygnału bezprzewodowego. Aktywne sonary pod wodą mogą zapewnić wyczucie lokalizacji, wykorzystując dźwięk do informowania AUV o ich względnej odległości od tych radiolatarni. Trzecią ważną klasą są czujniki proprioceptywne, które informują robota o jego własnym ruchu. Aby zmierzyć dokładną konfigurację złącza robota, silniki są często wyposażone w dekodery wału, które dokładnie mierzą ruch kątowy wału. Na ramionach robota dekodery wału pomagają śledzić pozycję stawów. W robotach mobilnych dekodery szybowe raportują obroty kół dla odometrii — pomiaru przebytej odległości. Niestety koła mają tendencję do dryfowania i ślizgania się, więc odometria jest dokładna tylko na krótkich dystansach. Siły zewnętrzne, takie jak wiatr i prądy oceaniczne, zwiększają niepewność położenia. Czujniki bezwładnościowe, takie jak żyroskopy, zmniejszają niepewność, opierając się na odporności masy na zmianę prędkości. Inne ważne aspekty stanu robota są mierzone za pomocą czujników siły i momentu obrotowego. Są one niezbędne, gdy roboty mają do czynienia z delikatnymi przedmiotami lub przedmiotami, których dokładny rozmiar i kształt są nieznane. Wyobraź sobie jednotonowy manipulator wkręcający żarówkę. Zbyt łatwo byłoby zastosować zbyt dużą siłę i złamać żarówkę. Czujniki siły pozwalają robotowi wyczuć, jak mocno trzyma żarówkę, a czujniki momentu obrotowego pozwalają wyczuć, jak mocno się obraca. Wysokiej jakości czujniki mogą mierzyć siły we wszystkich trzech kierunkach translacyjnych i trzech obrotowych. Robią to z częstotliwością kilkuset razy na sekundę, aby robot mógł szybko wykryć nieoczekiwane siły i skorygować swoje działania, zanim zepsuje żarówkę. Jednak wyposażenie robota w wysokiej klasy czujniki i moc obliczeniową do ich monitorowania może być wyzwaniem.

AI : Technologie, Aplikacje i Wyzwania : Sztuczna inteligencja: wyzwania i przyszłe zastosowania

https://aie24.pl/

Sztuczna inteligencja stała się główną siłą napędową transformacji przemysłowej na całym świecie. Technologia sztucznej inteligencji napędza i kształtuje przyszłość jutra oraz wpływa na nasz styl życia. Wraz z rozwojem sztucznej inteligencji uważa się, że sztuczna inteligencja może skutecznie i inteligentnie zarządzać wieloma zadaniami. Obejmuje koncepcję i rozwój systemów komputerowych zdolnych do wykonywania zadanych zadań, np. podejmowania decyzji, rozpoznawania mowy, percepcji wzrokowej i tłumaczenia języków z wykorzystaniem algorytmów Grace i Mantha (2019). Algorytmy te mogą być wykorzystywane do przetwarzania danych, obliczeń, zautomatyzowanego wnioskowania i przewidywania, a także do zmniejszania strat w celu usprawnienia dostaw i utrzymywania optymalnych zapasów. Analizy predykcyjne oparte na sztucznej inteligencji mogą być wykorzystywane w przemyśle do poprawy wykorzystania różnych zakładach, przewidując ich wymagania i podejmując odpowiednie kroki, aby dopasować produkcję do przewidywanych potrzeb. Zarządzanie zapasami oparte na sztucznej inteligencji docelowo może pomóc w ustaleniu nowej strategii cenowej dla wytwarzanych produktów. Sztuczna sieć neuronowa (ANN) umożliwia modelowanie podejść nieliniowych i stała się podstawowym narzędziem do rozwiązywania wielu złożonych problemów. Rozwój SSN jeszcze bardziej zwiększył wykorzystanie sztucznej inteligencji w lotnictwie, podróżach, opiece zdrowotnej, produkcji i motoryzacji. Co więcej, badania nad wizją komputerową z wykorzystaniem sztucznej inteligencji nadały nowy wymiar cyfrowemu przetwarzaniu obrazu do zastosowań związanych z bezpieczeństwem i nadzorem, transportem itp. Sieci SSN z systemami uczenia maszynowego (ML) rozwijają bardzo dokładne techniki widzenia komputerowego i cyfrowej analizy obrazu. Na przykład obrazy i filmy zrobione przy słabym oświetleniu lub w słabej rozdzielczości można przekształcić w obrazy o wysokiej rozdzielczości za pomocą tych technik. ML ma ogromne możliwości w firmach, aby poprawić wrażenia użytkowników . Oczekuje się, że takie nowe metody uczenia maszynowego przyniosą zmiany w sposobie uczenia i wdrażania sztucznej inteligencji w różnych aplikacjach. Aplikacje AI obejmują algorytmy wyszukiwania Google, IBM Watson, samojezdne samochody i roboty Brighterion Inc. (2019). Obecna sztuczna inteligencja jest również znana jako wąska sztuczna inteligencja (lub słaba sztuczna inteligencja), która jest przeznaczona przede wszystkim do wykonywania wąskiego zadania (np. tylko zadanie rozpoznawania twarzy lub tylko zadanie prowadzenia samochodu). Jednak długoterminowym celem rozwoju jest stworzenie ogólnej sztucznej inteligencji (lub silnej sztucznej inteligencji). Wąska sztuczna inteligencja może przewyższać ludzi w wykonywaniu określonych zadań (np. gra w szachy lub rozwiązywanie złożonych równań. Na przykład Google używa jej do szybszego i dokładniejszego diagnozowania chorób serca, a American Express wdraża roboty oparte na sztucznej inteligencji, aby służyły swoim klientów online.), podczas gdy silna sztuczna inteligencja potencjalnie może być lepsza od ludzi w prawie każdym zadaniu poznawczym Adixon (2019), Mike Thomas (2020), Mordor Intelligence (2019). Ransbotham i inni (2017), na podstawie ankiety przeprowadzonej w 2017 roku wśród ponad 3000 dyrektorów, menedżerów i analityków w 112 krajach, zaobserwowali, że 75% kadry kierowniczej uważa, że ​​sztuczna inteligencja pomoże ich firmom wejść w nowe obszary biznesowe, podczas gdy jeszcze większa większość (84 %) twierdzi, że sztuczna inteligencja będzie lepiej służyć ich firmom w uzyskaniu lub utrzymaniu przewagi konkurencyjnej. Mimo to tylko 20% firm korzysta ze sztucznej inteligencji lub sprzedaje produkty zawierające sztuczną inteligencję, a tylko 5% szeroko wykorzystuje sztuczną inteligencję. AI nie może zastąpić wszystkich danych zadań. Ma też pewne ograniczenia. Pozostaje tylko narzędziem, które wzmacnia i zwiększa wydajność i efektywność ludzi oraz poprawia produktywność różnych zadań. Jej potencjał sięga również możliwości tworzenia nowych profili zawodowych, które obecnie nie istnieją.

Sprzęt robota

https://aie24.pl/

Do tej pory braliśmy pod uwagę architekturę agenta – czujniki, efektory i procesory – i koncentrowaliśmy się na programie agenta. Ale sukces prawdziwych robotów przynajmniej w równym stopniu zależy od zaprojektowania odpowiednich do zadania czujników i efektorów.

Rodzaje robotów z perspektywy sprzętowej

Kiedy myślisz o robocie, możesz wyobrazić sobie coś z głową i dwoma ramionami, poruszające się na nogach lub kołach. Takie antropomorficzne roboty zostały spopularyzowane w fikcji, takiej jak film Terminator i kreskówka Jetsonowie. Ale prawdziwe roboty mają różne kształty i rozmiary. Manipulatory to tylko ramiona robotów. Nie muszą być koniecznie przymocowane do ciała robota; mogą być po prostu przykręcone do stołu lub podłogi, tak jak ma to miejsce w fabrykach . Niektóre mają duży ładunek, jak te montujące samochody, podczas gdy inne, jak ramiona montowane na wózku inwalidzkim, które pomagają osobom z niepełnosprawnością ruchową , mogą przewozić mniej, ale są bezpieczniejsze w środowisku ludzkim. Roboty mobilne to takie, które wykorzystują koła, nogi lub wirniki do poruszania się po otoczeniu. Drony Quadcopter to rodzaj bezzałogowego statku powietrznego (UAV); autonomiczne pojazdy podwodne (AUV) przemierzają oceany. Jednak wiele robotów mobilnych pozostaje w pomieszczeniach i porusza się na kółkach, jak odkurzacz lub robot dostarczający ręczniki w hotelu. Ich plenerowe odpowiedniki to autonomiczne samochody lub łaziki, które eksplorują nowe tereny, nawet na powierzchni Marsa. Wreszcie roboty na nogach mają przemierzać nierówny teren, do którego nie ma kół. Minusem jest to, że kontrolowanie nóg, aby robić właściwe rzeczy, jest trudniejsze niż obracające się koła. Inne rodzaje robotów to protezy, egzoszkielety, roboty ze skrzydłami, roje i inteligentne środowiska, w których robot jest całym pomieszczeniem.

AI : Technologie, Aplikacje i Wyzwania : Wniosek

https://aie24.pl/

Przeanalizowaliśmy wszystkie aspekty doskonalenia technologii BCI. Przez lata technolodzy i naukowcy próbowali uczynić ten system szybszym, dokładniejszym i bardziej użytecznym. Wykazano, że taki system BCI oparty na P-300 wymaga jedynie lekkiego treningu, aby osiągnąć zadowalającą precyzję w wykonywaniu poleceń, które mózg przekazuje charakterystycznymi sygnałami EEG do jednego z takich urządzeń. Użytkownicy mogą używać SSVEP z zakodowanymi częstotliwościami do tego celu po niewielkim przeszkoleniu. Wykazano, że ta metoda poprawia jakość życia użytkowników cierpiących na udar lub inne choroby neurologiczne. Rozdział ten szczególnie podkreśla postęp w naprawie różnych urazów neurologicznych, a także fizjologię rehabilitacji neurologicznej, neurofizjologię maszyny mózgowej, trening sieci neuronowych, najnowocześniejsze interfejsy maszyn neuronowych i deszczowych, strategie neurorehabilitacji i przyszłe nadzieje na postęp w tej dziedzinie. Architektura głębokich sieci neuronowych oraz algorytmy głębokiego uczenia umożliwiają nową jakość przetwarzania informacji i klasyfikacji narzędzi w kontekście lepszej definicji sygnału EEG. Kontrola ruchu za pomocą nieinwazyjnego BCI umożliwia poprawę jego szybkości i dokładności poprzez rozbudowę algorytmu adaptacyjnego. Kontrola ta została również przeanalizowana pod kątem potencjalnego włączenia dodatkowych miejsc rejestracji EEG, zakresu częstotliwości i charakterystyki EEG domeny czasu w ruchu kursora.

ROBOTYKA

https://aie24.pl/

Roboty to agenci fizyczni, którzy wykonują zadania, manipulując światem fizycznym. W tym celu są wyposażone w efektory, takie jak nogi, koła, przeguby i chwytaki. Efektory są zaprojektowane do wywierania sił fizycznych na środowisko. Kiedy to zrobią, może się zdarzyć kilka rzeczy: stan robota może się zmienić (np. samochód kręci kołami i w rezultacie robi postęp na drodze), stan otoczenia może się zmienić (np. ramię robota używa swojego chwytaka do przesuwania kubka po blacie), a nawet stan ludzi wokół robota może się zmienić (np. porusza się egzoszkielet, co zmienia konfigurację nogi osoby; lub robot mobilny posuwa się w kierunku drzwi windy, a osoba zauważa i jest na tyle miła, aby zejść z drogi, a nawet nacisnąć przycisk robota). Roboty są również wyposażone w czujniki, które umożliwiają im postrzeganie otoczenia. Dzisiejsza robotyka wykorzystuje różnorodny zestaw czujników, w tym kamery, radary, lasery i mikrofony do pomiaru stanu środowiska i otaczających go ludzi; oraz żyroskopy, czujniki naprężenia i momentu obrotowego oraz akcelerometry do pomiaru własnego stanu robota. Maksymalizacja oczekiwanej użyteczności robota oznacza wybór sposobu uruchamiania jego efektorów w celu zapewnienia odpowiednich sił fizycznych — takich, które doprowadzą do zmian stanu, które skumulują jak najwięcej oczekiwanej nagrody. Ostatecznie roboty próbują wykonać jakieś zadanie w fizycznym świecie. Roboty działają w środowiskach, które są częściowo obserwowalne i stochastyczne: kamery nie widzą zakrętów, a biegi mogą się ślizgać. Co więcej, ludzie działający w tym samym środowisku są nieprzewidywalni, więc robot musi przewidywać na ich temat. Roboty zazwyczaj modelują swoje środowisko za pomocą ciągłej przestrzeni stanów (pozycja robota ma ciągłe współrzędne) oraz ciągłej przestrzeni działania (ilość prądu wysyłanego przez robota do silnika jest również mierzona w jednostkach ciągłych). Niektóre roboty działają w przestrzeniach wielowymiarowych: samochody muszą znać pozycję, orientację i prędkość siebie i pobliskich agentów; ramiona robota mają sześć lub siedem przegubów, z których każdy może być niezależnie poruszany; a roboty, które naśladują ludzkie ciało, mają setki stawów. Uczenie się przez roboty jest ograniczone, ponieważ świat rzeczywisty uparcie odmawia działania szybciej niż w czasie rzeczywistym. W symulowanym środowisku możliwe jest użycie algorytmów uczenia się , aby w ciągu kilku godzin uczyć się z milionów prób. W rzeczywistym środowisku przeprowadzenie tych prób może zająć lata, a robot nie może ryzykować (a tym samym uczyć się z) próby, która może wyrządzić szkody. W związku z tym przeniesienie tego, czego nauczono się w symulacji, do prawdziwego robota w prawdziwym świecie – problemu z symulacji do rzeczywistości – jest aktywnym obszarem badań. Praktyczne systemy robotyczne muszą zawierać wcześniejszą wiedzę o robocie, środowisku fizycznym i zadaniach do wykonania, aby robot mógł się szybko uczyć i wykonywać bezpiecznie. Robotyka łączy wiele pojęć, które widzieliśmy w tej książce, w tym szacowanie stanu probabilistycznego, percepcję, planowanie, uczenie się bez nadzoru, uczenie się ze wzmocnieniem i teorię gier. W przypadku niektórych z tych koncepcji robotyka służy jako przykład zastosowania. W przypadku innych koncepcji rozdział ten otwiera nowe możliwości, na przykład wprowadzając ciągłą wersję technik, które wcześniej widzieliśmy tylko w przypadku dyskretnym.

AI : Technologie, Aplikacje i Wyzwania : Najnowsze zastosowanie technologii BCI

https://aie24.pl/

Obecne BCI można podzielić na dwie grupy ze względu na cechy sygnałów wykorzystywanych jako dane wejściowe. Jedne są uzależnione od zarządzania przez użytkownika endogenną aktywnością elektrofizjologiczną, jak amplituda w określonym zakresie częstotliwości w zapisie EEG rejestrowanym przez korę czuciowo-ruchową, podczas gdy inne zależą od aktywności indukowanej przez określone bodźce lub lepszej zdolności radzenia sobie z danym modelem, ponieważ wystarczająco dobrze wyszkolony użytkownik ma doskonałą kontrolę nad otoczeniem. Taki BCI wymaga bardzo intensywnego treningu. Egzogenny BCI nie wymaga intensywnego treningu, ale często wymaga mniej lub bardziej uporządkowanego otoczenia (stereotypowe bodźce wzrokowe). Urządzenia BCI znajdują zastosowanie w komunikacji werbalnej, podczas codziennych czynności, ochrony środowiska, ruchu i treningu. Zastosowania BCI można dostosować do każdego indywidualnego klienta lub grupy klientów w ustandaryzowany i obiektywny sposób. Dzięki analizie zachowania, która uwzględnia wymagania, życzenia i podstawowe motywy konsumenta i jego opiekunów, postęp BCI obejmuje nie tylko zasady techniczne i elektrofizjologiczne, ale także dobrze ugruntowane zasady uczenia się. Obecny BCI rejestruje sygnały elektrofizjologiczne metodami nieinwazyjnymi lub inwazyjnymi. Nieinwazyjne BCI wykorzystuje obrazowanie skóry głowy impulsów EEG lub potencjałów otoczkowych, podczas gdy inwazyjne BCI rejestruje osobiste czynności w korze mózgowej lub EEG, które pokazuje obrazowanie podtwardówkowe. Wykazują szybkość przesyłania informacji 5–25 uderzeń na minutę i mogą być stosowane do synchronizacji ruchu kursora lub do zaznaczania określonych liter lub ikon. Podobnie jak w podobnych systemach informacyjnych, zakłada się, że wejścia, wyjścia i algorytmy translacji, które konwertują poprzednie na kolejne sygnały BCI, zależą od wzajemnej komunikacji dwóch kontrolerów dostosowawczych, mózgu konsumenta generującego dane wejściowe, poprzez jego działanie lektrofizjologiczne określone przez BCI i system przekształcający te czynności. na wyjściu w postaci określonych poleceń, które działają na słowo pochodzące z zewnątrz. Pomyślne funkcjonowanie BCI wymaga, aby konsument rozwijał i utrzymywał swoją kreatywność, nie tylko w zakresie kontroli mięśni, ale także kontroli EEG. Wejścia BCI obejmują powolne potencjały korowe, potencjały wywołane P300, rytmy μ i β z kory czuciowo-ruchowej oraz aktywność określonej jednostki pochodzącej z kory ruchowej. Metodologia rejestracji sprowadza się do maksymalizacji stosunku sygnału do szumu. Hałas obejmuje EKG i inne czynności wywołane ze źródeł zewnętrznych oraz czynności mózgu inne niż określone rytmy lub potencjały wywołane zawarte w danych wejściowych BCI. Różne filtry czasowe i przestrzenne redukują szumy, wzmacniając stosunek sygnału do szumu.

Streszczenie

https://aie24.pl/

Kluczowe punkty tej sekcji są następujące:

  • Ciągłe reprezentacje słów z osadzonymi słowami są bardziej niezawodne niż dyskretne reprezentacje atomowe i mogą być wstępnie wytrenowane przy użyciu nieoznakowanych danych tekstowych.
  • Rekurencyjne sieci neuronowe mogą skutecznie modelować kontekst lokalny i dalekosiężny, zachowując istotne informacje w ich wektorach stanu ukrytego.
  • Modele sekwencja-do-sekwencji mogą być wykorzystywane do rozwiązywania problemów z tłumaczeniem maszynowym i generowaniem tekstu.
  • Modele transformatorów wykorzystują samouważność i mogą modelować kontekst długodystansowy, jak również kontekst lokalny. Potrafią efektywnie wykorzystać sprzętowe mnożenie macierzy.
  • Uczenie transferowe, które obejmuje wstępnie wytrenowane kontekstowe osadzanie słów, umożliwia tworzenie modeli z bardzo dużych, nieoznakowanych korpusów i zastosowanie do szeregu zadań. Modele, które są wstępnie wytrenowane do przewidywania brakujących słów, mogą obsługiwać inne zadania, takie jak odpowiadanie na pytania i pociąganie za sobą tekstu, po dostosowaniu do domeny docelowej.

AI : Technologie, Aplikacje i Wyzwania : Przyszłe wizje interfejsu mózg-komputer

https://aie24.pl/

Jak dotąd większość badań nad powiązaniami między mózgiem a komputerami koncentrowała się na przywracaniu utraconych funkcji organizmu po przebytej chorobie neurologicznej lub urazie. W związku z tym implanty ślimakowe zostały zaprojektowane, aby umożliwić osobom niedosłyszącym słyszenie, implanty siatkówkowe, które umożliwiają niewidomym widzenie, podczas gdy neuroprotezy deszyfrują pragnienia ruchowe przekazywane przez instrukcje mózgu i służą do sterowania kursorami komputerowymi lub ramionami robotów osoby z paraliżem . Nie ma już wątpliwości, że jesteśmy o krok od osiągnięcia celu, jakim jest połączenie mózgu ze sztuczną inteligencją, która doprowadzi do niewiarygodnego postępu, jakiego nie wyobrażają sobie nawet najgorętsze wyobrażenia. To, co się stanie, jest nieporównanie większe niż wszystko, co można sobie wyobrazić, ponieważ jeśli Neuralink osiągnie swoje ostateczne zamiary, postawi pod znakiem zapytania to, kim naprawdę jest człowiek. Oczywiście potrzeba wiele wysiłku, ale to, że niektórych rzeczy nie da się zrobić dzisiejszą technologią, nie oznacza, że ​​jest to niemożliwe, chociaż ludzki mózg to o wiele trudniejszy orzech do zgryzienia niż wszystko, co do tej pory wiadomo, bo do nie wiedzą, jak działa mózg. Pewne jest jednak, że wkrótce nastąpi taki postęp interfejsu mózg-komputer, który sprawi, że ta kwestia stanie się bezprzedmiotowa . Moc nowoczesnych komputerów rośnie szybciej, wraz z lepszym zrozumieniem naszych mózgów, zamieniając fantastykę naukową w rzeczywistość. Obecnie możliwe jest przesyłanie sygnału bezpośrednio z komputera do ludzkiego mózgu, co pozwala mu zobaczyć, usłyszeć lub poczuć określoną zmianę spowodowaną zmianą sygnału czujnika wejściowego. Jaka jest rzeczywistość, która wynika z naszego pragnienia nadania boskiej lub demonicznej mocy maszynom do manipulowania naszymi myślami, co jest niezwykle ważne dla osób z poważnymi upośledzeniami? Dlatego rozwój interfejsu mózg-komputer stał się jednym z najważniejszych osiągnięć technologicznych w całej historii ludzkości