Teoria ewolucji została rozwinięta przez Karola Darwina w O powstawaniu gatunków za pomocą doboru naturalnego (1859) i niezależnie przez Alfreda Russela Wallace’a (1858). Główna idea jest prosta: w rozmnażaniu występują różnice i będą się one utrzymywały w kolejnych pokoleniach w przybliżeniu proporcjonalnie do ich wpływu na sprawność rozrodu. Teoria Darwina została opracowana bez wiedzy o tym, jak cechy organizmów mogą być dziedziczone i modyfikowane. Prawa probabilistyczne rządzące tymi procesami zostały po raz pierwszy zidentyfikowane przez Gregora Mendla (1866), mnicha, który eksperymentował ze słodkim groszkiem. Znacznie później Watson i Crick (1953) zidentyfikowali strukturę cząsteczki DNA i jej alfabet AGTC (adenina, guanina, tymina, cytozyna). W standardowym modelu zmienność występuje zarówno przez mutacje punktowe w sekwencji liter, jak i przez „crossover” (w którym DNA potomstwa jest generowane przez łączenie długich odcinków DNA od każdego rodzica). Analogia do lokalnych algorytmów wyszukiwania została już opisana; główną różnicą między poszukiwaniem wiązek stochastycznych a ewolucją jest użycie funkcji seksualnych i reprodukcja, w której następcy są generowani z wielu osobników, a nie tylko z jednej. Rzeczywiste mechanizmy ewolucji są jednak znacznie bogatsze, niż pozwala na to większość algorytmów genetycznych. Na przykład mutacje mogą obejmować odwrócenia, duplikacje i ruch dużych fragmentów DNA; niektóre wirusy pożyczają DNA z jednego organizmu i wstawiają go do innego; istnieją geny transpozycyjne, które nie robią nic poza kopiowaniem się tysiące razy w obrębie genomu. Istnieją nawet geny, które zatruwają komórki potencjalnych partnerów, które nie są nosicielami genu, zwiększając w ten sposób ich własne szanse na replikację. Najważniejszy jest fakt, że same geny kodują mechanizmy, dzięki którym genom jest reprodukowany i przenoszony do organizmu. W algorytmach genetycznych te mechanizmy są oddzielnym programem, który nie jest reprezentowany w manipulowanych ciągach. Ewolucja darwinowska może wydawać się nieefektywna, ponieważ na ślepo wygenerowała niektóre organizmy bez poprawy heurystyki wyszukiwania o jedną jotę. Ale uczenie się odgrywa rolę w ewolucji. Chociaż skądinąd wielki francuski przyrodnik Jean Lamarck (1809) mylił się, proponując, że cechy nabyte przez adaptację w ciągu życia organizmu zostaną przekazane jego potomstwu, pozornie podobna teoria Jamesa Baldwina (1896) jest słuszna: uczenie się może skutecznie rozluźnić przystosowanie. krajobraz, co prowadzi do przyspieszenia tempa ewolucji. Organizm, który ma cechę, która nie jest całkiem adaptacyjna do środowiska, przekaże tę cechę, jeśli ma również wystarczającą plastyczność, aby nauczyć się dostosowywać do środowiska w korzystny sposób. Symulacje komputerowe potwierdzają, że ten efekt Baldwina jest prawdziwy i że w konsekwencji rzeczy trudne do nauczenia trafiają do genomu, ale rzeczy łatwe do nauczenia nie muszą się tam znajdować.
Oczywiście efekt ten prawdopodobnie nie będzie znaczący, jeśli sąsiednie bity nie są ze sobą całkowicie powiązane, ponieważ wtedy będzie kilka ciągłych bloków, które zapewnią stałą korzyść. Algorytmy genetyczne działają najlepiej, gdy schematy odpowiadają znaczącym składnikom rozwiązania. Na przykład, jeśli ciąg jest reprezentacją anteny, wówczas schematy mogą reprezentować elementy anteny, takie jak reflektory i deflektory. Dobry element może być dobry w wielu różnych projektach. Sugeruje to, że skuteczne wykorzystanie algorytmów genetycznych wymaga starannej inżynierii reprezentacji. W praktyce algorytmy genetyczne mają swoje miejsce w szerokim krajobrazie metod optymalizacji , zwłaszcza w przypadku złożonych problemów strukturalnych, takich jak układ obwodów lub planowanie warsztatów, a ostatnio w ewolucji architektury głębokich sieci neuronowych . Nie jest jasne, na ile atrakcyjność algorytmów genetycznych wynika z ich wyższości w konkretnych zadaniach, a na ile z atrakcyjnej metafory ewolucji.