Od czasów starożytnych androidy przetwarzające myśli były szczegółowo opisywane w opowieściach i zadomowiły się w fikcji, takiej jak R.U.R Karela Capka czy Frankenstein Mary Shelley. Te postacie i ich losy spowodowały niektóre z tych samych problemów, które są obecnie omawiane, jeśli chodzi o zasady sztucznej inteligencji. Badania nad rozumowaniem androidów rozpoczęły się od teoretyków i statystyków matematycznych. Badanie logistyki matematyki doprowadziło ostatecznie do teorii obliczeń Alana Turinga, która sugerowałaby, że maszyna może skopiować każdy wiarygodny akt dedukcji matematycznej poprzez przemieszanie symboli, takich jak 1 i 0. To właśnie to spostrzeżenie doprowadziło do tezę Churcha-Turinga, w której każdy proces formalnego rozumowania można symulować za pomocą komputerów cyfrowych. Podążając za obecnymi odkryciami informacji, cybernetyki i neurobiologii, badacze zaczęli rozważać możliwość rozwoju elektronicznego mózgu. Turing proponuje, że „jeśli człowiek nie potrafi odróżnić reakcji pochodzących od maszyny od reakcji człowieka, wówczas maszynę można uznać za istotę inteligentną”. Formalny projekt Turinga – kompletne sztuczne neurony – został uznany za pierwsze dzieło w dziedzinie sztucznej inteligencji. Został stworzony w 1943 roku przez McCullocha i Pittsa. Po raz pierwszy badania nad sztuczną inteligencją rozpoczęły się na warsztatach, które odbyły się w Dartmouth College w 1956 roku. Uczestniczyli w nich Allen Newell z CMU, John McCarthy z MIT, Herbert Simon z CMU, Arthur Samuel z IBM i Marvin Minsky z Wszyscy z MIT byliby uważani za liderów i założycieli badań nad sztuczną inteligencją. Ci profesorowie i ich studenci zaczęli tworzyć programy, które prasa uznała za zdumiewające, a komputery uczyły się strategii w warcaby i do 1959 roku podobno grały lepiej niż ludzie. Potrafili także rozwiązywać zadania tekstowe z algebry, mówić po angielsku i udowadniać twierdzenia logiczne. Około połowy lat 60. Departament Obrony Stanów Zjednoczonych mocno finansował badania nad sztuczną inteligencją. Założyli także wiele laboratoriów na całym świecie. Założyciele bardzo optymistycznie patrzą na przyszłość sztucznej inteligencji. Jak przewidywał Herbert Simon, „w ciągu dwudziestu lat maszyny będą w stanie wykonać każdą pracę, jaką może wykonać człowiek”. Zgodził się z tym Marvin Minsky, który dodał: „W ciągu jednego pokolenia… problem stworzenia„ sztucznej inteligencji ”zostanie w znacznym stopniu rozwiązany”. Nie dostrzeżono trudności niektórych zadań; stąd spowolnienie, a następnie postęp. Pod naciskiem Kongresu USA i krytyką Sir Jamesa Lighthilla rządy USA i Wielkiej Brytanii wstrzymały wszelkie badania eksploracyjne nad sztuczną inteligencją. Zima AI była znana przez kilka następnych lat. Był to czas, kiedy trudno było pozyskać środki na program przeznaczony dla sztucznej inteligencji. Sukces komercyjny systemów ekspertowych sprawił, że badania nad sztuczną inteligencją powrócono na początku lat 80-tych. Systemy ekspertowe to rodzaj programu AI, który koncentruje się na stymulowaniu wiedzy analitycznej i wiedzy ludzkich ekspertów. Rynek sztucznej inteligencji osiągnął wartość ponad 1 miliarda dolarów w 1985 roku. W tym czasie rządy Stanów Zjednoczonych i Wielkiej Brytanii przywróciły finansowanie badań akademickich, zainspirowane japońskim projektem komputerowym piątej generacji. Jednak w 1987 roku sztuczna inteligencja ponownie spadła z powodu załamania się rynku Lisp Machine. Doprowadziło to do drugiej i dłuższej przerwy w AI. Pod koniec lat 90. i na początku XXI wieku logistyka, taka jak diagnostyka medyczna i eksploracja danych, zaczęła wykorzystywać sztuczną inteligencję. Ze względu na większy nacisk na rozwiązywanie konkretnych problemów i rozwój mocy obliczeniowej AI, powrót AI zakończył się sukcesem. To zbliżyło sztuczną inteligencję do innych dziedzin. Naukowcy i ich metody matematyczne również zobowiązali się do przestrzegania standardów naukowych. Po raz pierwszy w 1997 roku Garry Kasparow, aktualny mistrz świata w szachach, został pokonany przez komputerowy system gry w szachy o nazwie Deep Blue. W 2011 roku w teleturnieju Jeopardy odbył się mecz pokazowy, w którym dwóch największych mistrzów zostało pokonanych ze znaczną różnicą przez system IBM Watson. Około 2012 r. w testach porównawczych dokładności zaczęły dominować ulepszenia percepcji i algorytmów, szybsze komputery, głębokie uczenie się i postępy wymagające dużej ilości danych. Konsola Xbox 360 ma interfejs ruchu ciała 3D dostarczony przez Kinect. W Xbox One zastosowano algorytmy wykorzystujące wiele badań AI. Smartfony mają nawet inteligentnych asystentów osobistych. Cztery z pięciu meczów Go wygrała AlphaGo, która odbyła się w marcu 2016 r. przeciwko mistrzowi Go. Pokonanie profesjonalnego gracza Go, który nie ma handicapu, uczyniło go pierwszym systemem komputerowym obsługującym Go. W następnym roku AlphaGo po raz kolejny zwyciężyło z mistrzem numer jeden, który przez dwa lata z rzędu był zwycięzcą szczytu Future of Go. Ponieważ Go to więcej bardziej skomplikowany niż szachy, był to kamień milowy i ostatecznie zakończył rozwój sztucznej inteligencji. Jack Clark z Bloomberg powiedział nawet, że sztuczna inteligencja miała świetny rok 2015 ze względu na wzrost liczby programów i projektów, które skupiają się na sztucznej inteligencji lub ją wykorzystują. Ponadto od 2011 r. drastycznie spadła liczba błędów w zadaniach przetwarzania obrazu. Według Clarka przyczyną tej drastycznej zmiany może być rozwój sieci neuronowych. Wzrost zbiorów danych i narzędzi badawczych oraz rozwój infrastruktury przetwarzania w chmurze sprawił, że sieci neuronowe stały się bardziej przystępne. Badanie przeprowadzone w 2017 r. wykazało, że w jednej na pięć firm wdrożono sztuczną inteligencję w celu wykorzystania jej w swoich procesach. W 2016 roku Chiny zwiększyły finansowanie rządowe. Zaowocowało to szybkim wzrostem wyników badań i ogromną podażą informacji, co w opinii obserwatorów uczyniło z Chin superpotęgę w dziedzinie sztucznej inteligencji.