Historia

https://aie24.pl/

Od czasów starożytnych androidy przetwarzające myśli były szczegółowo opisywane w opowieściach i zadomowiły się w fikcji, takiej jak R.U.R Karela Capka czy Frankenstein Mary Shelley. Te postacie i ich losy spowodowały niektóre z tych samych problemów, które są obecnie omawiane, jeśli chodzi o zasady sztucznej inteligencji. Badania nad rozumowaniem androidów rozpoczęły się od teoretyków i statystyków matematycznych. Badanie logistyki matematyki doprowadziło ostatecznie do teorii obliczeń Alana Turinga, która sugerowałaby, że maszyna może skopiować każdy wiarygodny akt dedukcji matematycznej poprzez przemieszanie symboli, takich jak 1 i 0. To właśnie to spostrzeżenie doprowadziło do tezę Churcha-Turinga, w której każdy proces formalnego rozumowania można symulować za pomocą komputerów cyfrowych. Podążając za obecnymi odkryciami informacji, cybernetyki i neurobiologii, badacze zaczęli rozważać możliwość rozwoju elektronicznego mózgu. Turing proponuje, że „jeśli człowiek nie potrafi odróżnić reakcji pochodzących od maszyny od reakcji człowieka, wówczas maszynę można uznać za istotę inteligentną”. Formalny projekt Turinga – kompletne sztuczne neurony – został uznany za pierwsze dzieło w dziedzinie sztucznej inteligencji. Został stworzony w 1943 roku przez McCullocha i Pittsa. Po raz pierwszy badania nad sztuczną inteligencją rozpoczęły się na warsztatach, które odbyły się w Dartmouth College w 1956 roku. Uczestniczyli w nich Allen Newell z CMU, John McCarthy z MIT, Herbert Simon z CMU, Arthur Samuel z IBM i Marvin Minsky z Wszyscy z MIT byliby uważani za liderów i założycieli badań nad sztuczną inteligencją. Ci profesorowie i ich studenci zaczęli tworzyć programy, które prasa uznała za zdumiewające, a komputery uczyły się strategii w warcaby i do 1959 roku podobno grały lepiej niż ludzie. Potrafili także rozwiązywać zadania tekstowe z algebry, mówić po angielsku i udowadniać twierdzenia logiczne. Około połowy lat 60. Departament Obrony Stanów Zjednoczonych mocno finansował badania nad sztuczną inteligencją. Założyli także wiele laboratoriów na całym świecie. Założyciele bardzo optymistycznie patrzą na przyszłość sztucznej inteligencji. Jak przewidywał Herbert Simon, „w ciągu dwudziestu lat maszyny będą w stanie wykonać każdą pracę, jaką może wykonać człowiek”. Zgodził się z tym Marvin Minsky, który dodał: „W ciągu jednego pokolenia… problem stworzenia„ sztucznej inteligencji ”zostanie w znacznym stopniu rozwiązany”. Nie dostrzeżono trudności niektórych zadań; stąd spowolnienie, a następnie postęp. Pod naciskiem Kongresu USA i krytyką Sir Jamesa Lighthilla rządy USA i Wielkiej Brytanii wstrzymały wszelkie badania eksploracyjne nad sztuczną inteligencją. Zima AI była znana przez kilka następnych lat. Był to czas, kiedy trudno było pozyskać środki na program przeznaczony dla sztucznej inteligencji. Sukces komercyjny systemów ekspertowych sprawił, że badania nad sztuczną inteligencją powrócono na początku lat 80-tych. Systemy ekspertowe to rodzaj programu AI, który koncentruje się na stymulowaniu wiedzy analitycznej i wiedzy ludzkich ekspertów. Rynek sztucznej inteligencji osiągnął wartość ponad 1 miliarda dolarów w 1985 roku. W tym czasie rządy Stanów Zjednoczonych i Wielkiej Brytanii przywróciły finansowanie badań akademickich, zainspirowane japońskim projektem komputerowym piątej generacji. Jednak w 1987 roku sztuczna inteligencja ponownie spadła z powodu załamania się rynku Lisp Machine. Doprowadziło to do drugiej i dłuższej przerwy w AI. Pod koniec lat 90. i na początku XXI wieku logistyka, taka jak diagnostyka medyczna i eksploracja danych, zaczęła wykorzystywać sztuczną inteligencję. Ze względu na większy nacisk na rozwiązywanie konkretnych problemów i rozwój mocy obliczeniowej AI, powrót AI zakończył się sukcesem. To zbliżyło sztuczną inteligencję do innych dziedzin. Naukowcy i ich metody matematyczne również zobowiązali się do przestrzegania standardów naukowych. Po raz pierwszy w 1997 roku Garry Kasparow, aktualny mistrz świata w szachach, został pokonany przez komputerowy system gry w szachy o nazwie Deep Blue. W 2011 roku w teleturnieju Jeopardy odbył się mecz pokazowy, w którym dwóch największych mistrzów zostało pokonanych ze znaczną różnicą przez system IBM Watson. Około 2012 r. w testach porównawczych dokładności zaczęły dominować ulepszenia percepcji i algorytmów, szybsze komputery, głębokie uczenie się i postępy wymagające dużej ilości danych. Konsola Xbox 360 ma interfejs ruchu ciała 3D dostarczony przez Kinect. W Xbox One zastosowano algorytmy wykorzystujące wiele badań AI. Smartfony mają nawet inteligentnych asystentów osobistych. Cztery z pięciu meczów Go wygrała AlphaGo, która odbyła się w marcu 2016 r. przeciwko mistrzowi Go. Pokonanie profesjonalnego gracza Go, który nie ma handicapu, uczyniło go pierwszym systemem komputerowym obsługującym Go. W następnym roku AlphaGo po raz kolejny zwyciężyło z mistrzem numer jeden, który przez dwa lata z rzędu był zwycięzcą szczytu Future of Go. Ponieważ Go to więcej bardziej skomplikowany niż szachy, był to kamień milowy i ostatecznie zakończył rozwój sztucznej inteligencji. Jack Clark z Bloomberg powiedział nawet, że sztuczna inteligencja miała świetny rok 2015 ze względu na wzrost liczby programów i projektów, które skupiają się na sztucznej inteligencji lub ją wykorzystują. Ponadto od 2011 r. drastycznie spadła liczba błędów w zadaniach przetwarzania obrazu. Według Clarka przyczyną tej drastycznej zmiany może być rozwój sieci neuronowych. Wzrost zbiorów danych i narzędzi badawczych oraz rozwój infrastruktury przetwarzania w chmurze sprawił, że sieci neuronowe stały się bardziej przystępne. Badanie przeprowadzone w 2017 r. wykazało, że w jednej na pięć firm wdrożono sztuczną inteligencję w celu wykorzystania jej w swoich procesach. W 2016 roku Chiny zwiększyły finansowanie rządowe. Zaowocowało to szybkim wzrostem wyników badań i ogromną podażą informacji, co w opinii obserwatorów uczyniło z Chin superpotęgę w dziedzinie sztucznej inteligencji.

Sztuczna inteligencja

https://aie24.pl/

Sztuczna inteligencja, znana również jako sztuczna inteligencja, jest często nazywana inteligencją maszynową i jest to inteligencja powszechnie wykazywana w maszynach w przeciwieństwie do inteligencji naturalnej, którą zwykle obserwuje się u ludzi i różnych innych ssaków. Jeśli chodzi o informatykę, badania nad sztuczną inteligencją będą wymieniane jako badania nad inteligencją, którą wykazują urządzenia potrafiące postrzegać otoczenie w celu podjęcia działań, które mogą zmaksymalizować jej szanse na pomyślne osiągnięcie celów. Nieformalnie słowo „sztuczna inteligencja” będzie zwykle kojarzone z maszyną, która może skopiować funkcje poznawcze człowieka w zakresie rozwiązywania problemów lub uczenia się. Definicje często nie uwzględniają możliwości wykorzystania inteligencji przez sztuczną inteligencję do wykonywania zadań. Uważa się, że jest to zjawisko znane jako efekt sztucznej inteligencji, które może prowadzić do żartu zawartego w twierdzeniu Teslera, które stwierdza, że „sztuczna inteligencja to wszystko, czego jeszcze nie zrobiono”. Weźmy na przykład szczególne uznanie poprzez wizję, które stało się znane jako technologia konwencjonalna. Nowoczesne maszyny są teraz zdolne do rzeczy, które klasyfikują je jako sztuczną inteligencję, ponieważ potrafią z powodzeniem rozumieć ludzką mowę, a jednocześnie rywalizować w grach strategicznych na wysokim poziomie, takich jak szachy. Mogą także autonomicznie obsługiwać samochody i są wystarczająco inteligentne, aby radzić sobie z routingiem w symulacjach wojskowych i sieciach dostarczania treści. Kaplan i Haenlein podzielili sztuczną inteligencję na trzy różne klasy, które zapożyczyli z literatury dotyczącej zarządzania – sztuczna inteligencja humanizowana, inspirowana człowiekiem i analityczna. Analityczna sztuczna inteligencja będzie miała wyłącznie cechy spójne z inteligencją poznawczą i emocjonalną, jeśli chodzi o zrozumienie i rozpoznawanie elementów poznawczych i ludzkich emocji, które są uwzględniane przy podejmowanych przez nich decyzjach. Humanizowana sztuczna inteligencja wykazuje cechy każdej kompetencji (inteligencja emocjonalna, poznawcza, emocjonalna i społeczna), a także jest samoświadoma i na tyle samoświadoma, że może wchodzić w interakcję z innymi. Wszystkie sztuczne inteligencje inspirowane przez człowieka muszą mieć ludzki wygląd, poza zdolnościami percepcyjnymi, społecznymi i poznawczymi. Muszą potrafić jasno komunikować się przy użyciu języka naturalnego. Najnowsze osiągnięcie zwane węchem przybliża korzenie do ludzi, ponieważ potrafią oni teraz rozpoznawać zapachy. Mniej więcej w roku 1956 po raz pierwszy pojawiła się sztuczna inteligencja jako dyscyplina akademicka. Kolejne lata przyniosły wiele fal optymizmu, po których nastąpiło także wiele niepowodzeń, a nawet problemów z finansowaniem. Nazwano to zimą AI, ale szybko zostało zastąpione przez nowe podejścia do sztucznej inteligencji, triumfy i większe fundusze przeznaczone na badania nad robotyką. Przez większą część swojej historii sztuczna inteligencja i eksperymenty można było podzielić na poddziedziny, które zazwyczaj nie utrzymują ze sobą kontaktu. Podpola można zazwyczaj uporządkować na podstawie ich względów technicznych, a nawet określonego zestawu celów przy użyciu określonych narzędzi lub nawet różnic analitycznych. Podkategorie te można również tworzyć w oparciu o czynniki społeczne, którymi interesuje się instytucja lub badacze. Tradycyjne cele lub problemy badań sztucznych obejmują zdolność manipulowania obiektami i poruszania nimi, przetwarzanie języka naturalnego, percepcję, uczenie się, reprezentację, planowanie, wiedzę i rozumowanie. Jednym z długoterminowych celów tej dziedziny jest inteligencja ogólna. Podejścia obejmują tradycyjną symboliczną sztuczną inteligencję, metody statystyczne i inteligencję obliczeniową. Sztuczna inteligencja wykorzystuje różne narzędzia, w tym optymalizację matematyczną i wyszukiwanie, sztuczne sieci neuronowe oraz metody tworzone na podstawie statystyk, takich jak ekonomia i prawdopodobieństwo. Dziedzina sztucznej inteligencji regularnie czerpie z językoznawstwa, filozofii, psychologii, inżynierii informacyjnej, matematyki, informatyki i wielu innych dziedzin. Sztuczna inteligencja powstała w oparciu o twierdzenie, że inteligencję człowieka „można opisać tak precyzyjnie, że można zbudować maszynę, która będzie ją symulowała”. To właśnie z powodu tego filozoficznego argumentu inne dyskusje na temat mózgu i wszelkiej etyki związanej z projektowaniem androidów i innych robotów wyposażonych w systemy potrzebne do posiadania takiej samej inteligencji jak ludzie, rodzą problemy, które zostały dokładnie zbadane dzięki mitów, filozofii i fikcji od starożytności. Niektórzy uważają, że sztuczna inteligencja stanowi zagrożenie dla ludzkości, jeśli postęp nie zostanie zahamowany. Są jednak inni, którzy uważają, że sztuczna inteligencja, w przeciwieństwie do innych rewolucji technologicznych, spowoduje ogromny problem w badaniu bezrobocia. W XXI wieku technologia i metodologia sztucznej inteligencji odrodziła się, jeśli chodzi o śledzenie niektórych postępów technologicznych, które miały miejsce w zakresie mocy komputerów, teoretycznego zrozumienia i dużych ilości danych. Metody sztucznej inteligencji stały się istotną częścią tej szybko rozwijającej się branży i pomogły rozwiązać wiele problemów wymagających uwagi w informatyce, badaniach operacyjnych i inżynierii programów.

Historia

https://aie24.pl/

1939 – 1945: Dzięki dużemu postępowi technologicznemu w wielu dziedzinach badań, takich jak cybernetyka i informatyka, podczas II wojny światowej stworzono pierwsze roboty mobilne. Były to głównie latające bomby. Przykładami były rakiety V2 i V1. Mają zaprogramowane systemy detonacji i „autopilota”. Kolejnym rozwiązaniem są inteligentne bomby. Jedynym momentem, w którym doszło do detonacji, było użycie radarów i systemów naprowadzania, gdy znajdowały się w pobliżu celu. Przy użyciu tych robotów opracowano obecne pociski manewrujące.

1948 – 1949: „Elsie” i „Elmer” zostały zbudowane przez W. Graya Waltera. Obydwa były robotami autonomicznymi. Ponieważ lubili eksplorować otoczenie, nazywano ich Machina Speculatrix. Na dwóch robotach zainstalowano czujniki światła, które pomagały im poruszać się po zlokalizowaniu źródła światła. Mogli także usuwać lub omijać przeszkody, które znajdowały się na ich drodze. Roboty te udowodniły, że proste konstrukcje mogą wykonywać złożone zachowania. Dwie komórki nerwowe można porównać do Elsie i Elmera.

1961–1963: „Bestia” została stworzona na Uniwersytecie Johnsa Hopkinsa. Do poruszania się po otoczeniu zainstalowano sonar. Bestia mogła również podłączyć się do prądu po zlokalizowaniu gniazdka elektrycznego, jeśli jej baterie były słabe.

1969: Robot „Mowbot” był pierwszym robotem, który mógł automatycznie kosić trawnik

1970: Robot z zainstalowaną kamerą był w stanie podążać białą linią i został nazwany podążającym za linią Stanford Cart. Obliczeń dokonano na dużym komputerze mainframe, który był połączony z robotem drogą radiową. Robot „Shake” został zbudowany i badany przez Instytut Badawczy w Sanford w latach 1966–1972. Gwałtowne ruchy, które wykonywał, sprawiły, że nazwano go Shakey. Robot ten posiadał łącze radiowe, kamerę, dalmierz i czujniki uderzeniowe. Ze względu na zdolność myślenia przed wykonaniem czynności uznano go za pierwszego androida. Shake potrafił dowiedzieć się, co należy zrobić, aby móc wykonać zadanie po wydaniu ogólnych poleceń. Mobilny łazik księżycowy Związku Radzieckiego Łunochod 1 badał powierzchnię Księżyca.

1976: Dwa statki bez załogi w ramach programu NASA Viking zostały wysłane na Marsa

1980: Wzrosło zainteresowanie opinii publicznej robotami, co zaowocowało zakupem robotów do użytku domowego. Roboty te były wykorzystywane do celów edukacyjnych lub rozrywkowych. Przykładami mogą być RB5X (robot, który nadal można kupić), a także seria HERO. Karta Stanforda może teraz poruszać się po torze przeszkód i tworzyć mapę swojego otoczenia.

Wczesne lata 80.: Zbudowano pierwszy samochód-robot, który na pustej ulicy mógł osiągnąć prędkość 55 mil na godzinę. Został zbudowany na Uniwersytecie Bundeswehry w Monachium przez zespół kierowany przez Ernsta Dickmanna.

1983: Mihail Sestakov i Stevo Bozinovski sterowali poruszającym się robotem za pomocą programu równoległego jako wielozadaniowego systemu z serii IBM, w którym używany był tylko jeden komputer.

1986: Gjorgi Gruevski i Stevo Bozinovski użyli poleceń głosowych do sterowania robotami kołowymi.

1987: Laboratoria badawcze Hughes zademonstrowały pierwsze autonomiczne działanie oparte na czujnikach i mapę przełajową.

1988: Mihail Sestakov, Stevo Bozinovski i Lijana Bozinovska wykorzystali sygnały EEG do sterowania mobilnym robotem

1989: Mark Tilden wynalazł robotykę BEAM.

Lata 90. : Ojciec ramienia robotycznego, Joseph Engelberger, i jego współpracownicy wspólnie pracowali nad zaprojektowaniem pierwszego dostępnego na rynku autonomicznego robota szpitalnego wyprodukowanego przez firmę Helpmate. Projekt MDARS-1 został sfinansowany przez Departament Obrony. Podstawą tego projektu był robot bezpieczeństwa wewnętrznego firmy Cybermotion.

1991: Francesco Mondada, Andre Guignard i Edo Franzi opracowali autonomicznego małego robota mobilnego, wykorzystywanego do celów badawczych, o nazwie „Khepera”. Laboratorium LAMI-EPFL wspierało ten projekt.

1993 – 1994: Używany do eksploracji żywych wulkanów, Uniwersytet Carnegie Mellon opracował Dante i Dante II.

1994: Z gośćmi na pokładzie VITA -2 i VAMP Ernsta Dickmannsa z UniBwM i Daimler-Benz przejechały trzypasmową autostradą Paryża przez ponad tysiąc kilometrów przy dużym natężeniu ruchu. Prędkość, jaką osiągnęli, to 130 km/h. Pokazali, do czego może służyć robot mobilny aby autonomicznie jeździć po wolnych pasach, jeździć w konwojach i zmieniać pas ruchu podczas wyprzedzania innych samochodów lub innych samochodów je mijających.

1995: Półautonomiczny robot ALVINN prowadził samochód od jednego wybrzeża do drugiego pod kontrolą komputera na dystansie z 2850 mil z wyjątkiem 50 mil. Człowiek kontrolował hamulce i przepustnicę.

1995: Programowalny robot mobilny firmy Pioneer był dostępny na rynku po niskiej cenie, co pozwoliło na zwiększenie liczby studiów i badań w dziedzinie robotyki oraz uniwersyteckich w ciągu następnych kilku dekad, podczas gdy uniwersytet uczynił robotykę mobilną istotną częścią swojego programu nauczania.

1996: Firma Cyberclean Systems opracowała robota odkurzającego, który jako pierwszy stał się w pełni autonomiczny. Mógłby sam się naładować, obsługiwać windę i odkurzać korytarz bez interwencji człowieka.

1996 – 1997: Sojourner, łazik niesiony przez Mars Pathfinder, został wysłany na Marsa przez NASA. Polecenie zostało wysłane z Ziemi do łazika, aby mógł on przeprowadzić eksplorację. Na Sojournerze zainstalowano system unikania zagrożeń, który pozwolił mu bezpiecznie eksplorować nieznany teren.

1999: Firma Sony wprowadziła na rynek Aibo, psa-robota, który potrafił widzieć, chodzić i wchodzić w interakcję z otoczeniem. Wprowadzono PackBota, który był robotem wojskowym, którym można było sterować na odległość.

2001: Rozpoczęcie projektu Swarm-bots. Można je porównać do kolonii owadów. Zazwyczaj składają się z wielu prostych robotów, które mogą ze sobą współdziałać w celu wykonania złożonego zadania.

2002: Po raz pierwszy pojawił się domowy autonomiczny robot mobilny Roomba, który potrafił czyścić podłogę.

2003 : Intellibot, producent robotów komercyjnych, zostaje kupiony przez Axxon Robotics. Roboty te mogłyby czyścić podłogi w biurowcach, centrach medycznych i różnych innych budynkach komercyjnych. Roboty do pielęgnacji podłóg wyprodukowane przez firmę Intellibot Robotics LLC zostały zaprojektowane tak, aby działały całkowicie samodzielnie, ponieważ były w stanie mapować otoczenie i używać różnych czujników do nawigacji i unikać przeszkód.

2004: Mark Tilden udostępnił na rynku Robosapiena. To był robot-zabawka. W ramach projektu Centibots stworzono sto autonomicznych robotów. Ich celem była wspólna praca przy tworzeniu map i wyszukiwaniu przedmiotów w nieznanym środowisku. Na pustynnym torze odbyły się najpierw zawody pojazdów w pełni autonomicznych DARPA Grand Challenge.

2005: Boston Dynamics stworzył poczwórnego robota. Miał na celu przewożenie ciężkich ładunków po terenie zbyt nierównym, aby mogły poruszać się pojazdy.

2006: Produkcja HelpMate i Aibo została wstrzymana przez firmę Sony. Wypuszczono pierwszego komercyjnie dostępnego robota – TALONSword. Zawierał zintegrowane opcje broni i granatnika. Asimo by Honda nauczył się wspinać po schodach i biegać.

2008: Boston Dynamics wypuściło film Big Dog nowej generacji, który pokazał, jak zwierzę odzyskuje równowagę po kopnięciu w bok i potrafi chodzić po oblodzonym terenie.

2010: W ramach konkursu Multi-Autonomous Ground-Rotic International Challenge utworzono zespoły pojazdów autonomicznych w celu mapowania, identyfikowania i śledzenia ludzi na dużym obszarze miejskim przy jednoczesnym unikaniu niebezpiecznych obiektów.

2016 : Snajper poszukiwany za zabicie pięciu funkcjonariuszy policji w Dallas w Teksasie został zabity przez wielofunkcyjnego robota sterowanego na odległość (MARCbot), którego policja użyła po raz pierwszy. W związku z tym incydentem, który dotyczył użycia przez policję robotów i dronów przeciwko sprawcom, pojawiły się kwestie etyczne. Cataglyphis, łazik biorący udział w konkursie Sample Return Robot Centennial Challenge organizowanym przez NASA, zaprezentował umiejętności wyszukiwania, możliwości zwrotu, podejmowania decyzji, wykrywania próbek i autonomicznej nawigacji.

2017 : Roboty biorące udział w wyzwaniu ARGOS zostały zbudowane tak, aby wytrzymać pracę w bardzo trudnych sytuacjach w morskich instalacjach naftowych i gazowych.

Autonomia przesuwna

https://aie24.pl/

Niektóre z bardziej wydajnych robotów są połączone z kilkoma etapami nawigacji w ramach systemu znanego jako autonomia przesuwania. Tryb ręczny można zastosować w przypadku większości robotów prowadzonych niezależnie, np. robota szpitalnego HelpMate. System operacyjny robota autonomicznego Motivity był używany z MapperBot, SpeciMinder, PatrolBot, ADAM i wieloma innymi robotami, które charakteryzują się zakresem autonomii, od obsługi ręcznej po tryb strzeżony.

Klasyfikacja

https://aie24.pl/

Roboty mobilne dzielą się na następujące klasyfikacje:

1.

Środowisko, w którym podróżują

A.

Roboty arktyczne zostały wynalezione do poruszania się po lodzie i przepaściach

klimaty.

B.

Roboty używane na lądzie lub w domu nazywane są zwykle bezzałogowymi pojazdami naziemnymi lub UGV. Zwykle poruszają się na gąsienicach lub kołach, ale mogą również osłonić roboty, które mają nogi. Roboty te będą składać się z dwóch lub więcej nóg.

C.

Roboty podwodne nazywane są AUV, czyli autonomicznymi pojazdami podwodnymi.

D.

UAV, czyli statki powietrzne bez załogi, to tak zwane roboty powietrzne.

2.

Urządzenie, którego używają do poruszania się

A.

utwory

B.

koła

C.

nogi

Nawigacja robota

1.

Fizyczny dystans lub teleoperacja: robot ten jest zdalnie sterowany fizycznie i sterowany przez kierowcę za pomocą przełącznika lub innych zdalnych urządzeń sterujących. Urządzenie zdalne będzie albo podłączone bezpośrednio do robota, albo będzie działać jako przystawka do laptopa lub innego urządzenia operacyjnego. Aby upewnić się, że operator jest bezpieczny, zostanie wykorzystany robot zdalnie sterowany. Kilka przykładów zdalnych robotów ręcznych to Anatroller ARI – 50 i ARI – 100 firmy Robotics Design. Jest też Rosterbot MK-705 firmy KumoTek i Talon firmy Foster-Miller.

2.

Strzeżony teleop: ten zdalnie sterowany robot jest strzeżony i może wykrywać i omijać przeszkody, ale będzie nawigować w trakcie jazdy. Można do tego porównać ręcznego robota teleoperacyjnego. Niewiele jest ruchomych robotów, które oferują jedynie strzeżone teleoperacje (jeśli takie istnieją).

3.

Samochód podążający za linią: podążał za wizualną linią osadzoną w suficie lub podłodze albo pomalowaną. Podążali także za przewodem elektrycznym ułożonym na podłodze. Wiele z tych robotów działa w oparciu o podstawowy algorytm, który polegał na „utrzymywaniu linii w środkowym czujniku”. Te roboty nie poruszałyby się wokół przeszkód; zamiast tego zatrzymywali się i czekali, aż wszystko, co blokowało im drogę, zostało usunięte. Nadal możesz kupować samochody podążające za linią, ponieważ są one produkowane przez Transbot, FMC, Egemin, HK Systems i kilka innych. Tego typu roboty są nadal popularne w społeczeństwach robotycznych, ponieważ stanowią pierwszy krok w nauce robotyki.

4.

Autonomicznie losowy robot: autonomiczne roboty wykonujące losowe ruchy będą odbijać się od ścian, nawet jeśli je wyczują.

5.

Robot autonomicznie kierowany: Posiada trochę danych na temat miejsca docelowego i informacji potrzebnych do osiągnięcia celu lub miejsc, w których będzie musiał się zatrzymać na swojej trasie. Wiedzę o tym, gdzie aktualnie znajduje się robot, można określić dzięki co najmniej jednej z następujących metod – czujnikom, wizji, globalnym systemom pozycjonowania, laserom i stereopsji. Te systemy lokalizacji zazwyczaj wykorzystują lokalizację Monte-Carlo/Markov, położenie względne i triangulację, aby dokładnie określić, gdzie znajduje się platforma dla robota prowadzącego do ścieżki następnego celu. Robot ten może zbierać odczyty ze swoich czujników, które są oznaczone zarówno lokalizacją, jak i czasem. Weźmy na przykład PatrolBota. Robot ten pełni funkcję ochrony, która wysyła powiadomienie do centrum dowodzenia w przypadku wystąpienia sytuacji awaryjnej, obsługuje windy i reaguje na alarmy. W szpitalu można zastosować inne autonomicznie kierowane roboty. Doktor Ahmed Elgammal, informatyk, dr Simeon Kotchomi, biolog i dr Qingze Zou, inżynier, pomogli artystce Elizabeth Demaray w stworzeniu autonomicznego robota, który potrafi przez długi czas szukać wody i światła słonecznego. roślina doniczkowa z 2013 roku.

Roboty mobilne

https://aie24.pl/

Roboty mobilne to roboty zdolne do poruszania się. Roboty te są zwykle wymieniane jako poddziedzina inżynierii informacyjnej i robotyki. Roboty mobilne mogą poruszać się po swoim otoczeniu i nie utknąć w jednym miejscu. Roboty mobilne mogą być autonomiczne lub AMR (autonomiczne roboty mobilne). Oznacza to, że mogą poruszać się w niekontrolowanym środowisku bez wskazówek ze strony człowieka lub urządzeń elektromechanicznych. Z drugiej strony roboty mobilne będą zależne od oprogramowania naprowadzającego, które sprawi, że będą mogły pokonać wcześniej zaprogramowaną trasę w kontrolowanym środowisku. Pojazdy tego typu nazywane są autonomicznymi pojazdami kierowanymi lub AGV. Z kolei roboty fabryczne będą przeważnie stacjonarne, ponieważ pracują z przegubowym ramieniem i zespołem chwytaka (mogą również pracować z bodźcem końcowym), którego nie można przesuwać, ponieważ jest przymocowany do przestrzeni roboczej. Roboty mobilne zaczynają być coraz bardziej powszechne w warunkach fabrycznych i komercyjnych. Centra medyczne zaczęły wykorzystywać roboty mobilne, które mogą podążać ustaloną trasą, aby przenosić produkty, które są zbyt ciężkie, aby mogli je przenieść pracownicy. Magazyny zaczęły instalować mobilne systemy robotyczne, dzięki którym materiały z półek można sprawnie przenosić do stref realizacji. Obecne badania, podobnie jak większość uniwersytetów, koncentrują się najczęściej na robotach mobilnych. Roboty mobilne wykorzystywane są również w dziedzinach bezpieczeństwa i wojskowości. Domowe roboty mobilne obejmują roboty rozrywkowe, które mogą wykonywać zadania domowe, takie jak prace w ogrodzie czy odkurzanie. Modułami robotów mobilnych będą: sterownik, programy sterujące, siłowniki i czujniki. Kontrolerem jest zwykle mikroprocesor podłączony do zdalnego sterownika lub laptopa. Programy będą językiem skryptowym, takim jak C lub C++. Czujniki będą zależeć od warunków ustawionych dla robota. Warunki te mogą obejmować umiejętności przetwarzania, czujniki wyczuwające, czego się dotyka, jak blisko czegoś się znajdują, tworzenie mapy na podstawie lokalizacji tego obiektu, a nawet unikanie kolizji, a także dowolną liczbę innych zastosowań.

RPA i robotyka

https://aie24.pl/

Jak widzieliście wcześniej , automatyzacja procesów poprzez robotykę dotrze do miejsca, w którym roboty będą mogły zautomatyzować swoje zadania, dzięki czemu nie będą musiały być szkolone, jak coś zrobić każdego dnia. Pomoże to ludziom zająć się czymś bardziej interesującym i znaczącym, co sprawi, że jakość produkcji wytwarzanych produktów wzrośnie. Spowoduje to, że firmy będą w większym stopniu skupiać się na obsłudze klienta i innych obszarach, w których mogą ich brakować, ponieważ mają teraz zasoby, aby przekwalifikować swoich pracowników do wykonywania innej pracy.

 

Wpływ na społeczeństwo

https://aie24.pl/

Przeprowadzono więcej badań akademickich, które przewidywały, że RPA i inne postępy technologiczne pomogą zapoczątkować nową erę większej produktywności i skuteczniejszych metod, z korzyścią dla globalnego rynku pracy. Zysków tych nie można jednak bezpośrednio przypisać samemu RPA. Wielu badaczy lub stowarzyszeń uważa, że do 2035 r. nawet 35% wszystkich stanowisk pracy zostanie zautomatyzowanych. Jednocześnie profesor Willcocks, autor publikacji LSE, mówił o wzroście satysfakcji z pracy i stymulacji intelektualnej, która może można scharakteryzować jako technologię wypierającą ludzkość z postępu technologicznego. To odniesienie do robotów przejmujących codzienną, przyziemną i powtarzalną pracę ludzi pozwala im zająć się czymś bardziej interesującym i znaczącym.

Wpływ RPA na zatrudnienie

https://aie24.pl/

Kiedy spojrzysz na Harvard Business Review i na to, co napisano na temat RPA, zobaczysz, że wierzą oni, że większość grup operacyjnych przyjmie RPA, obiecując jednocześnie osobom, które dla nich pracują, że roboty nie spowodują bezrobocia. Zamiast tego pracownicy zostaną przeszkoleni, aby mogli spędzić czas na robieniu czegoś bardziej interesującego. Według badania akademickiego pracownicy nie powinni mieć poczucia, że automatyzacja stanowi zagrożenie dla ich wiedzy, ale powinni szanować ich jako członków zespołu. W tym samym badaniu można również zauważyć, że po wdrożeniu technologii zamiast zmniejszać zatrudnienie, przy tej samej liczbie osób wzrosła produktywność. Z drugiej strony część analityków uważa, że RPA będzie stanowić ryzyko dla procesów biznesowych zlecających pracę na zewnątrz. Stworzy to wartościowe miejsca pracy dla osób uważanych za wykwalifikowanych projektantów procesów w lokalizacjach na lądzie, ale zmniejszy dostępne możliwości dla nisko wykwalifikowanych pracowników na morzu.

Zastosowanie

https://aie24.pl/

Hosting usług RPA będzie nawiązywał do metafory zaprogramowanych robotów, w których każdy ruch robotyczny ma swoje własne miejsce pracy, podobne do ludzkich pracowników. Roboty mogą używać tych samych elementów sterujących, które są widoczne na komputerze, do podejmowania działań i wykonywania zadań. Zwykle te działania będą wykonywane w kontrolowanym środowisku, a nie na wyświetlaczu, ponieważ robot nie będzie potrzebował fizycznych ekranów, aby zobaczyć ich wyniki. Zamiast tego zinterpretuje wyniki elektronicznie, tak aby nie trzeba było ich wyświetlać na ekranie. Jeżeli tych nowoczesnych rozwiązań nie uda się wdrożyć na dużą skalę, wówczas ich dostępność będzie ograniczona i będzie można obsłużyć jedynie kilka urządzeń fizycznych i związane z nimi koszty. Wdrożenie RPA w dużych przedsiębiorstwach pomogło zaoszczędzić dużo pieniędzy, jeśli porówna się je z bardziej tradycyjnymi rozwiązaniami innymi niż RPA. Oczywiście RPA ma swoje zagrożenia. Krytyka wiąże się z ryzykiem tłumienia kreatywności i może nawet skutkować tworzeniem bardziej złożonych środowisk konserwacji z już istniejących programów