Teoria sterowania i cybernetyka

* W jaki sposób artefakty mogą działać pod własną kontrolą?

Ktesibios z Aleksandrii (ok. 250 roku p.n.e.) zbudował pierwszą samokontrolującą się maszynę: zegar wodny z regulatorem utrzymującym stałe natężenie przepływu. Ten wynalazek zmienił definicję tego, co może zrobić artefakt. Wcześniej tylko żywe istoty mogły modyfikować swoje zachowanie w programie , odpowiedź na zmiany w środowisku. Inne przykłady samoregulujących systemów kontroli sprzężenia zwrotnego obejmują regulator silnika parowego, stworzony przez Jamesa Watta (1736–1819) i termostat, wynaleziony przez Cornelisa Drebbela (1572–1633), który również wynalazł łódź podwodną. James Clerk Maxwell (1868) zapoczątkował matematyczną teorię systemów sterowania. Centralną postacią w powojennym rozwoju teorii sterowania był Norbert Wiener (1894–1964). Wiener był genialnym matematykiem, który pracował między innymi z Bertrandem Russellem, zanim zainteresował się biologicznymi i mechanicznymi systemami kontroli oraz ich związkiem z poznaniem. Podobnie jak Craik (który również używał systemów kontroli jako modeli psychologicznych), Wiener i jego koledzy Arturo Rosenblueth i JulianBigelow rzucili wyzwanie behawiorystycznej ortodoksji (Rosenblueth i in., 1943). Postrzegali celowe zachowanie jako wynikające z mechanizmu regulacyjnego próbującego zminimalizować „błąd” – różnicę między stanem bieżącym a stanem celu. Pod koniec lat czterdziestych Wiener wraz z Warrenem McCullochem, Walterem Pittsem i Johnem von Neumannem zorganizowali serię wpływowych konferencji, podczas których badano nowe matematyczne i obliczeniowe modele poznania. Książka Wienera Cybernetics (1948) stała się bestsellerem i obudziła opinię publiczną na temat możliwości sztucznie inteligentnych maszyn. W międzyczasie w Wielkiej Brytanii W.Ross Ashby był pionierem podobnych pomysłów (Ashby, 1940). Ashby, Alan Turing, Gray Walter i inni utworzyli Ratio Club dla „tych, którzy mieli pomysły Wienera przed ukazaniem się książki Wienera”. Ashby’s Design for a Brain 1948, 1952 rozwinął swój pomysł, że inteligencję można stworzyć za pomocą urządzeń homeostatycznych zawierających odpowiednie pętle sprzężenia zwrotnego w celu osiągnięcia stabilnego zachowania adaptacyjnego. Współczesna teoria sterowania, zwłaszcza dziedzina znana jako stochastyczna kontrola optymalna, ma na celu zaprojektowanie systemów, które maksymalizują funkcję kosztu w czasie. To z grubsza pasuje do standardowego modelu sztucznej inteligencji: projektowania systemów, które zachowują się optymalnie. Dlaczego więc sztuczna inteligencja i teoria sterowania są dwoma różnymi dziedzinami, pomimo bliskich powiązań między ich twórcami? Odpowiedź leży w ścisłym powiązaniu między technikami matematycznymi, które były znane uczestnikom, a odpowiadającymi im zestawami problemów, które obejmowały każdy światopogląd. Rachunek różniczkowy i algebra macierzowa, narzędzia teorii sterowania, nadają się do systemów, które można opisać ustalonymi zbiorami zmiennych ciągłych, podczas gdy sztuczna inteligencja została po części stworzona jako sposób na ucieczkę od tych dostrzeganych ograniczeń. Narzędzia wnioskowania logicznego i obliczeń umożliwiły badaczom sztucznej inteligencji rozważenie takich problemów, jak język, wizja i symboliczne planowanie, które całkowicie wykraczało poza zakres kompetencji teoretyka kontroli.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *