Pierwszą pracę, która jest obecnie powszechnie uznawana za sztuczną inteligencję, wykonali Warren McCulloch i Walter Pitts (1943). Zainspirowani modelowaniem matematycznym pracy doradcy Pittsa, Nicolasa (1936, 1938), oparli się na trzech źródłach: znajomość podstaw fizjologii i funkcji neuronów w mózgu; formalna analiza logiki zdań ze względu na Russella i Whiteheada; i teoria obliczeń Turinga. Zaproponowali model sztucznych neuronów, w którym każdy neuron jest scharakteryzowany jako „włączony” lub „wyłączony”, z przełączeniem w stan „włączony” występującym w odpowiedzi na stymulację przez wystarczającą liczbę sąsiednich neuronów. Stan neuronu został pomyślany jako „faktyczny odpowiednik zdania, które proponowało odpowiedni bodziec”. Pokazali na przykład, że każda obliczalna funkcja może być obliczona przez jakąś sieć połączonych neuronów i że wszystkie logiczne połączenia (AND, OR, NOT itd.) Mogą być implementowane przez proste struktury sieciowe. McCulloch i Pitts zasugerowali również, że odpowiednio zdefiniowane sieci mogą się uczyć. Donald Hebb (1949) zademonstrował prostą regułę aktualizacji do modyfikowania siły połączenia między neuronami. Jego rządy, zwane obecnie nauką hebbiańską, do dziś pozostają wpływowym wzorem. Dwóch studentów studiów licencjackich na Harvardzie, Marvin Minsky (1927–2016) i Dean Edmonds, zbudowało pierwszy komputer sieci neuronowej w 1950 r. SNARC, jak go nazywano, wykorzystywał 3000 lamp próżniowych i nadwyżkowy mechanizm automatycznego pilota z bombowca B-24. do symulacji sieci 40 neuronów. Później w Princeton Minsky studiował obliczenia uniwersalne w sieciach neuronowych. Jego doktorat Komitet był sceptyczny co do tego, czy tego rodzaju prace należy uznać za matematykę, ale von Neumann podobno powiedział: „Jeśli nie teraz, to kiedyś będzie”. Było wiele innych przykładów wczesnych prac, które można scharakteryzować jako sztuczną inteligencję, w tym dwa programy do gry w warcaby opracowane niezależnie w 1952 roku przez Christophera Strachey’a na Uniwersytecie w Manchesterze i Arthura Samuela w IBM. Jednak wizja Alana Turinga była najbardziej wpływowa. Wykładał na ten temat już w 1947 r. w London Mathematical Society i sformułował przekonujący program w swoim artykule z 1950 r. „Computing Machinery and Intelligence”. Tam wprowadził test Turinga, uczenie maszynowe, algorytmy genetyczne i uczenie ze wzmocnieniem. Zajmował się wieloma zarzutami podniesionymi co do możliwości AI.Zasugerował również że łatwiej byłoby stworzyć sztuczną inteligencję na poziomie człowieka, opracowując algorytmy uczące się, a następnie ucząc maszynę, zamiast ręcznie programować jej inteligencję. W kolejnych wykładach ostrzegał, że osiągnięcie tego celu może nie być najlepszą rzeczą dla rasy ludzkiej. W 1955 roku John McCarthy z Dartmouth College przekonał Minsky’ego, Claude’a Shannona i Nathaniela Rochestera, aby pomogli mu zebrać amerykańskich naukowców zainteresowanych teorią automatów, sieciami neuronowymi i badaniami inteligencji. Zorganizowali dwumiesięczne warsztaty w Dartmouth latem 1956 r. W sumie wzięło w nich udział 10 osób, w tym Allen Newell i Herbert Simon z Carnegie Tech, Trenchard More z Princeton, Arthur Samuel z IBM oraz Ray Solomonoff i Oliver Selfridge z MIT . We wniosku stwierdza się:
Proponujemy, aby latem 1956 r. W Dartmouth College w Hanowerze w stanie New Hampshire przez 2 miesiące przeprowadzono badanie nad sztuczną inteligencją dla 10 osób. Badanie ma być kontynuowane w oparciu o przypuszczenie, że każdy aspekt uczenia się lub jakąkolwiek inną cechę inteligencji można w zasadzie opisać tak precyzyjnie, że można stworzyć maszynę, która ją symuluje. Podjęta zostanie próba znalezienia sposobów, aby maszyny używały języka, tworzyły abstrakcje i koncepcje, rozwiązywały problemy zarezerwowane obecnie dla ludzi i poprawiały się. Uważamy, że w przypadku jednego lub więcej z tych problemów można dokonać znacznego postępu, jeśli starannie dobrana grupa naukowców będzie nad tym wspólnie pracować przez lato.
Mimo tej optymistycznej prognozy warsztaty w Dartmouth nie przyniosły żadnych przełomów. Newell i Simon przedstawili być może najbardziej dojrzałą pracę, system matematycznego dowodzenia twierdzeń zwany teoretykiem logiki (LT). Simon twierdzi, d: „Wynaleźliśmy program komputerowy zdolny do myślenia nieliczbowego i tym samym rozwiązaliśmy czcigodny problem ciała i umysłu”. Wkrótce po warsztatach program był w stanie udowodnić większość twierdzeń z rozdziału 2 Principia Mathematica Russella i Whiteheada. Russell był podobno zachwycony, gdy powiedziano mu, że LT wymyślił dowód na jedno twierdzenie, które było krótsze niż to z Principia. Mniej pod wrażeniem byli redaktorzy Journal of Symbolic Logic; odrzucili artykuł, którego współautorem są Newell, Simon i Logic Theorist.