Morfogeneza komputerowa w samoorganizujących się strukturach języka


WSTĘP

Zastosowanie koncepcji biologicznych do tworzenia nowych modeli w dziedzinie obliczeń nie jest rewolucyjnym pomysłem: nauka stała się już podstawą słynnych modeli sztucznych neuronów, algorytmów genetycznych itd. Komórki organizmu biologicznego są w stanie tworzyć bardzo złożone struktury z unikalnej komórki, zygoty, bez potrzeby scentralizowanego sterowania (Watson J.D. i Crick F.H. 1953). Komórki mogą realizować taki proces dzięki istnieniu ogólnego planu, zakodowanego w DNA, dotyczącego rozwoju i funkcjonowania systemu. Inną interesującą cechą komórek naturalnych jest to, że tworzą one systemy odporne na częściowe awarie: drobne błędy nie powodują globalnego załamania systemu. Wreszcie, tkanki zbudowane z komórek biologicznych charakteryzują się równoległym przetwarzaniem informacji, koordynującym funkcjonowanie tkanek w każdej komórce tworzącej tę tkankę. Wszystkie powyższe cechy są bardzo interesujące z obliczeniowego punktu widzenia. W niniejszym artykule przedstawionoopracowanie modelu, który próbuje naśladować komórki biologiczne i wykorzystać niektóre z ich cech, próbując zaadaptować je do komórek sztucznych. Model ten opiera się na zestawie technik znanych jako sztuczna embriologia lub obliczenia embriologiczne .

WSTĘP

Dziedzina obliczeń ewolucyjnych (EC) dała początek zestawowi modeli zgrupowanych pod nazwą sztucznej embriologii (AE), wprowadzonej po raz pierwszy przez Stanleya i Miikkulainnena. Grupa ta odnosi się do wszystkich modeli, które próbują zastosować pewne cechy biologicznych komórek embrionalnych do komputerowego rozwiązywania problemów, tj. samoorganizacji, odporności na awarie i równoległego przetwarzania informacji. Prace nad AE przedstawiają dwa punkty widzenia. Z jednej strony można znaleźć modele gramatyczne oparte na L-systemach, które stosują podejście odgórne do problemu. Z drugiej strony można znaleźć modele chemiczne oparte na ideach Turinga , które stosują podejście odgórne. W ostatnim przypadku punkt wyjścia tej dziedziny można znaleźć w modelowaniu sieci regulacji genów, przeprowadzonym przez Kauffmanna w 1969 roku . Następnie przeprowadzono szereg prac na tematy takie jak złożone zachowanie generowane przez fakt, że zróżnicowana ekspresja niektórych genów ma kaskadowy wpływ na ekspresję innych. Prace wykonywane przez społeczność naukową można podzielić na dwie główne gałęzie. Bardziej teoretyczna gałąź wykorzystuje emulację zdolności komórkowych, takich jak różnicowanie komórkowe i metabolizm, aby stworzyć model funkcjonujący jak naturalna komórka. Celem niniejszej pracy jest dogłębne zbadanie modelu biologicznego. Bardziej praktyczna gałąź koncentruje się głównie na opracowaniu modelu inspirowanego komórką, który mógłby znaleźć zastosowanie w innych problemach. Zgodnie z tym modelem każda komórka nie tylko posiadałaby informację genetyczną, która koduje ogólną wydajność systemu, ale także działałaby jako procesor komunikujący się z innymi komórkami. Model ten jest stosowany głównie do rozwiązywania prostych problemów przestrzennych 3D, sterowania robotami, kodowania generatywnego w celu tworzenia sztucznych organizmów w symulowanych środowiskach fizycznych i rzeczywistych robotach lub do opracowywania ewolucyjnego projektowania sprzętu i obwodów. Biorąc pod uwagę działanie sieci regulacji genów, najistotniejsze modele to: model Kumara i Bentleya , który wykorzystuje teorię białek fraktalnych Bentleya do obliczania stężenia białka; model Eggenbergera , który wykorzystuje koncepcje różnicowania i ruchu komórkowego do określania połączeń między komórkami; oraz praca Dellaerta i Beera, którzy proponują model wykorzystujący ideę operonów biologicznych do kontrolowania ekspresji modelu, gdzie funkcja przyjmuje matematyczne znaczenie funkcji Boole′a. Wszystkie te modele można uznać za specjalne automaty komórkowe. W automatach komórkowych początkowy zestaw komórek w określonym stanie przekształca się w inny zestaw komórek w różnych stanach, gdy ta sama funkcja przejścia zostanie zastosowana do wszystkich komórek w określonym odstępie czasu, w celu kontrolowania zgodności komunikatów między nimi. Najbardziej znanym przykładem automatów komórkowych jest "Gra w życie" Conwaya, gdzie to zachowanie można doskonale zaobserwować. Podczas gdy koncepcja klasyczna określa reguły zachowania, modele ewolucyjne ustanawiają je poprzez poszukiwanie określonego zachowania. Ta różnica wynika z matematycznego pochodzenia automatów komórkowych, podczas gdy prezentowane tutaj modele opierają się na biologii i embriologii. Modeli tych nie należy mylić z innymi koncepcjami, które mogą wydawać się podobne, takimi jak programowanie ekspresji genów (GEP) . Chociaż GEP koduje rozwiązanie w postaci ciągu, podobnie jak w niniejszej pracy, program rozwiązania jest rozwijany w kształcie drzewa, jak w klasycznym programowaniu genetycznym , które ma niewiele lub nic wspólnego z przedstawionymi modelami.

MODEL SZTUCZNEGO ZARODKA

Komórki systemu biologicznego są głównie determinowane przez nić DNA, geny i białka zawarte w cytoplazmie. DNA to struktura, która przechowuje zakodowaną w genach informację, niezbędną do rozwoju systemu. Geny są aktywowane lub transkrybowane dzięki informacji o kształcie białek, która znajduje się w cytoplazmie i składa się z dwóch głównych części: sekwencji, która identyfikuje białko, które zostanie wygenerowane w przypadku transkrypcji genu, oraz promotora, który identyfikuje białka potrzebne do transkrypcji genu. Innym niezwykłym aspektem genów biologicznych jest różnica między genami konstytutywnymi a genami regulującymi. Te ostatnie są transkrybowane tylko wtedy, gdy obecne są białka zidentyfikowane w części promotorowej. Geny konstytutywne są transkrybowane zawsze, chyba że są hamowane przez obecność białek zidentyfikowanych w części promotorowej, działając wówczas jako opresory genów. W niniejszej pracy podjęto próbę częściowego modelowania tej struktury w celu dopasowania niektórych jej możliwości do modelu obliczeniowego; w ten sposób system miałby strukturę zbliżoną do powyższej, co zostanie szczegółowo omówione w następnej sekcji.

Proponowany model

Opracowano różne warianty modelu w oparciu o koncepcje biologiczne. Proponowany sztuczny system komórkowy opiera się na interakcji sztucznych komórek za pomocą komunikatów zwanych białkami. Komórki te mogą się dzielić, umierać lub generować białka, które będą działać jako komunikaty zarówno dla nich samych, jak i dla sąsiednich komórek. System ma wyrażać globalne zachowanie w kierunku generowania struktur w 2D. Takie zachowanie wynikałoby z informacji zakodowanej w zestawie zmiennych komórki, które - analogicznie do komórek biologicznych - zostaną nazwane genami. Jednym z obiecujących zastosowań, nad którym pracujemy, mogłoby być kompaktowe kodowanie kształtów adaptacyjnych, podobne do działania wzrostu fraktalnego lub kompresji obrazu fraktalnego. Centralnym elementem naszego modelu jest sztuczna komórka. Każda komórka posiada zakodowaną w łańcuchu binarnym informację regulującą jej funkcjonowanie. Zgodnie z analogią biologiczną, łańcuch ten będzie nazywany DNA. Komórka posiada również strukturę do przechowywania i zarządzania białkami wytwarzanymi przez własną komórkę oraz tymi otrzymywanymi z sąsiednich komórek; zgodnie z modelem biologicznym, struktura ta nazywana jest cytoplazmą. DNA sztucznej komórki składa się z jednostek funkcjonalnych zwanych genami. Każdy gen koduje białko lub informację (wytwarzaną przez gen). Struktura genu składa się z czterech części :

•  Sekwencja: łańcuch binarny odpowiadający białku kodującemu gen
•  Promotory: to obszar genu, który wskazuje białka potrzebne do transkrypcji genu.
•  Składnik: ten bit określa, czy gen jest składnikiem, czy regulatorem
•  Procent aktywacji (wartość binarna): procent minimalnego stężenia białek promotorowych w komórce, który powoduje transkrypcję genu.

Innym fundamentalnym elementem odpowiedzialnym za przechowywanie i zarządzanie białkami otrzymywanymi lub produkowanymi przez sztuczną komórkę jest cytoplazma. Przechowywane białka mają określony czas życia, zanim zostaną usunięte. Cytoplazma sprawdza, które i ile białek jest potrzebnych komórce do aktywacji genów DNA i w ten sposób odpowiada na wszystkie wymagania komórkowe dotyczące stężenia danego rodzaju białka. Cytoplazma również wyodrębnia białka ze struktury na wypadek, gdyby były potrzebne do transkrypcji genu.

Funkcja modelu

Funkcjonowanie genów jest determinowane przez ich typ, który może być składowy lub regulujący. Transkrypcja kodowanego białka zachodzi, gdy promotory genów nieskładowych pojawiają się w cytoplazmie komórki z określoną częstotliwością. Z drugiej strony, geny składowe są ekspresjonowane przez wszystkie "cykle", aż do momentu zahamowania ekspresji przez aktualną częstotliwość genów promotorowych.

Procent stężenia białka>= (Odległość+1 * Procent aktywacji

Aktywacja genów regulujących lub hamowanie genów składowych jest osiągane, jeśli spełniony jest warunek wyrażony w równaniu , gdzie Procent stężenia białka reprezentuje stężenie rozpatrywanego białka w cytoplazmie; Odległość oznacza odległość Hamminga między jednym promotorem a rozpatrywanym białkiem; a Procent aktywacji to minimalny procent potrzebny do aktywacji genu zakodowanego w genie. To równanie jest testowane dla każdego promotora i każdego białka. Jeśli warunek jest spełniony dla wszystkich promotorów, dany gen jest transkrybowany. Zgodnie z tym, jeśli promotory genopodobne istnieją w stężeniu wyższym niż stężenie kodowane, mogą również indukować jego transkrypcję, podobnie jak dzieje się to w biologii, zapewniając tym samym modelowi większą elastyczność. Jeśli warunek jest spełniony dla każdego promotora, gen jest aktywowany, a zatem transkrybowany. Po aktywacji jednego z genów mogą nastąpić trzy rzeczy: wygenerowane białko może być przechowywane w cytoplazmie komórki, może być przekazywane sąsiednim komórkom lub może indukować podział komórkowy (mitozę) i/lub śmierć komórkową (apoptozę). Różne zdarzenia w tkance są zarządzane w modelu komórkowym za pomocą "cykli komórkowych". Takie "cykle" będą zawierać wszystkie działania, które mogą być wykonywane przez komórki, ograniczając czasami ich występowanie. "Cykle komórkowe" można opisać następująco:

•  Aktualizacja czasu życia białek w cytoplazmie
•  Weryfikacja statusu życiowego komórki (śmierć komórkowa)
•  Obliczenie genów, które reagują i wykonują specyficzne zachowania, które mogą być z nimi związane
•  Komunikacja między białkami

Wyszukiwanie rozwiązań

Klasyczne podejście EC proponuje wykorzystanie algorytmów genetycznych (GA) do optymalizacji, w tym przypadku, wartości genów DNA (nici binarnych). Każdy osobnik populacji GA będzie reprezentował potencjalną nić DNA do rozwiązania problemu. Aby obliczyć wartość dopasowania dla każdego osobnika w GA lub DNA, nić jest wprowadzana do komórki początkowej lub zygoty. Po symulacji przez określoną liczbę cykli, zawarta informacja jest wyrażana, a cechy powstałej tkanki są oceniane za pomocą różnych kryteriów, w zależności od zamierzonego celu. Kodowanie poszczególnych genów przebiega według struktury podobnej do opisanej na Rysunku 2, gdzie liczba promotorów każdego genu może się różnić, ale biała i niepodzielna sekcja "Procent Aktywacji - Składnik - Sekwencja" (PCS) musi być zawsze obecna. Sekcje PCS określają geny osobnika, a sekcje promotorowe są powiązane z sekcjami PCS, jak pokazano na Rysunku 2.



Poszukiwanie zestawu struktur podobnych do przedstawionych na Rysunku 2 wymagało dostosowania operacji krzyżowania i mutacji GA do tego konkretnego problemu. Ponieważ długość osobników jest zmienna, krzyżowanie musiało zostać przeprowadzone zgodnie z tymi długościami. Po wybraniu osobnika generowany jest losowy procent w celu określenia punktu krzyżowania dla tego osobnika. Po wybraniu sekcji w tej pozycji, punkt krzyżowania jest wybierany dla sekcji wybranej w drugim osobniku macierzystym. Po wykonaniu tej czynności proces wyboru punktu krzyżowania jest powtarzany w drugim wybranym osobniku macierzystym, w tej samej pozycji, co w poprzednim osobniku. Od tego etapu potomkowie są komponowani w tradycyjny sposób, ponieważ są to dwa ciągi bitów. Moglibyśmy wykonać standardową krzyżówkę ciągów bitów, ale wcześniej wspomniane kroki gwarantują, że potomkowie są poprawnymi rozwiązaniami dla transformacji nici DNA. Odnośnie mutacji należy wspomnieć, że typy promotorów lub sekcji PCS są identyfikowane na podstawie wartości pierwszego bitu ciągu. Mając to na uwadze, wraz ze zmienną długością osobników, operacja mutacji musiała zostać dostosowana tak, aby mogła modyfikować nie tylko liczbę tych sekcji, ale także wartość danej sekcji. Prawdopodobieństwo wykonania mutacji jest zazwyczaj niskie, ale tym razem musiało zostać podzielone na trzy możliwe operacje mutacji, które system rozważa. Różne testy dowiodły, że najbardziej odpowiednie wartości dla rozkładu różnych operacji mutacji, po wybraniu pozycji do mutacji, były następujące: dla 20% możliwości dodawany jest fragment (promotor lub PCS); dla kolejnych 20% istniejący fragment jest usuwany; i wreszcie, dla pozostałych 60% możliwości, wartość jednego z bitów sekcji jest losowo zmieniana. To ostatnie może powodować nie tylko zmianę jednej z wartości, ale także zmianę typu sekcji: jeśli bit identyfikujący typ sekcji zostanie zmieniony, informacje o tej sekcji ulegają zmianie. Na przykład, jeśli sekcja promotora zmienia się w sekcję PCS, sekwencja promotora zmienia się w sekwencję genu, a generowane są wartości konstytutywne i procentowe wartości aktywacji. Po osiągnięciu tego poziomu rozwoju i zaprezentowaniu zestawu testowego w, autorzy doszli do wniosku, że wąskim gardłem modelu okazał się rozwój funkcji ewaluacyjnych, ponieważ na każdym nowym rysunku rozwój funkcji był czasochłonny i niemożliwy do ponownego wykorzystania. Aby rozwiązać ten problem, opracowano funkcję oceny zgodnie z koncepcją szablonu korekcyjnego. Z tkanki, która powstaje w wyniku analizy DNA, obliczany jest centroid. Ten punkt stanowiłby środek szablonu rozwiązania, który jest jedynie macierzą wartości boolowskich reprezentującą figurę, do której się dąży. Szablon może być (i zazwyczaj jest) mniejszy niż środowisko programistyczne tkanki, co oznacza, że każda komórka, która nie jest objęta szablonem, będzie przyczyniać się do błędu tkanki o 1,0. Pozostała tkanka, objęta szablonem, wykona operację boolowską NEXOR w celu uzyskania liczby różnic między szablonem a tkanką. Każda różnica przyczynia się do błędu tkanki o 1,0. Rysunek 3 ilustruje zastosowanie tej metody.



Możemy zauważyć, że błąd tej tkanki w stosunku do szablonu wynosi 2, ponieważ wygenerowano komórkę, która nie jest uwzględniona w szablonie, podczas gdy inna komórka, obecna w szablonie, faktycznie brakuje.

PRZYSZŁE TRENDY

Model mógłby również obejmować nowe cechy, takie jak przemieszczanie komórek w ich otoczeniu lub operator specjalizacji, który blokuje fragmenty DNA podczas ekspresji jego komórek potomnych, tak jak dzieje się to w modelu naturalnym. Wreszcie, grupa ta pracuje obecnie nad jednym z możliwych zastosowań tego modelu: jego wykorzystaniem do kompresji obrazu, podobnie jak działa kompresja fraktalna. Kompresja fraktalna przeszukuje parametry formuły fraktalnej, która koduje obraz początkowy. Niniejszy model przeszukuje sekwencję genu, która może skutkować obrazem początkowym. W ten sposób metoda oparta na szablonie, przedstawiona w niniejszym artykule, może być wykorzystana do przeprowadzenia tego wyszukiwania, wykorzystując obraz początkowy jako szablon.

WNIOSKI

Biorąc pod uwagę opracowany tutaj model, możemy stwierdzić, że wykorzystanie pewnych właściwości biologicznych systemów komórkowych jest wykonalne do tworzenia sztucznych struktur, które mogłyby zostać wykorzystane do rozwiązania pewnych problemów obliczeniowych. Niektóre zachowania modelu biologicznego zaobserwowano również w modelu sztucznym: redundancję informacji w DNA, stabilność po osiągnięciu pożądanego kształtu lub zmienność zachowania genów.


Metody obliczeniowe w obrazowaniu biomedycznym


WSTĘP

Obrazowanie biomedyczne stanowi praktyczną i koncepcyjną rewolucję w naukach stosowanych ostatnich trzydziestu lat. Dwa podstawowe czynniki umożliwiły ten przełom: rozwój technologiczny sprzętu do gromadzenia szczegółowych informacji o badanym narządzie w coraz mniej inwazyjny sposób; sformułowanie i zastosowanie zaawansowanych narzędzi matematycznych do przetwarzania sygnałów w ramach metodologii o prawdziwie interdyscyplinarnym charakterze. Typowa procedura akwizycji w obrazowaniu biomedycznym wymaga sondowania tkanki biologicznej za pomocą promieniowania emitowanego, odbitego lub transmitowanego. Następnie wprowadza się model matematyczny opisujący proces powstawania obrazu i formułuje metody obliczeniowe do numerycznego rozwiązywania równań modelu. Na koniec do zrekonstruowanych obrazów stosuje się metody oparte na lub inspirowane przez sztuczną inteligencję (AI), takie jak uczenie maszynowe, w celu wydobycia klinicznie przydatnych informacji. Ważnymi zagadnieniami w tej działalności badawczej są wewnętrzna niestabilność numeryczna problemu rekonstrukcji, właściwości konwergencji oraz złożoność obliczeniowa algorytmów przetwarzania obrazu. Zagadnienia te zostaną omówione poniżej na podstawie kilku przykładów o szczególnym znaczeniu w praktyce biomedycznej.

TŁO

Pierwszym przełomem w teorii i praktyce współczesnego obrazowania biomedycznego jest rentgenowska tomografia komputerowa (TK). 11 października 1979 roku Allan Cormack i Godfrey Hounsfield otrzymali Nagrodę Nobla w dziedzinie medycyny za rozwój tomografii wspomaganej komputerowo. W komunikacie prasowym uzasadniającym przyznanie nagrody, Zgromadzenie Noblowskie Instytutu Karolinska napisało, że w tym rewolucyjnym narzędziu diagnostycznym "sygnały […] są przechowywane i analizowane matematycznie w komputerze. Komputer jest zaprogramowany do rekonstrukcji obrazu badanego przekroju poprzecznego poprzez rozwiązanie dużej liczby równań zawierających odpowiadającą im liczbę niewiadomych". Począwszy od tego przełomowego momentu, obrazowanie biomedyczne stanowiło tętniący życiem tygiel praktyki klinicznej, fizyki eksperymentalnej, informatyki i matematyki stosowanej, dostarczając ludzkości licznych nieinwazyjnych i skutecznych narzędzi do wczesnego wykrywania chorób oraz naukowców tworzących płodny i ekscytujący obszar działalności badawczej. Główne metody obrazowania stosowane w biomedycynie można podzielić na dwie rodziny w zależności od rodzaju dostarczanych informacji.

•  Obrazowanie strukturalne: obraz dostarcza informacji o cechach anatomicznych tkanki bez badania metabolizmu organicznego. Modalności strukturalne charakteryzują się zazwyczaj znaczną rozdzielczością przestrzenną, ale są nieskuteczne w rekonstrukcji dynamicznej ewolucji parametrów obrazowania. Oprócz tomografii rentgenowskiej (RTG), innymi przykładami takiego podejścia są mikroskopia fluorescencyjna , tomografia ultradźwiękowa , strukturalne obrazowanie metodą rezonansu magnetycznego (MRI) oraz niektóre rodzaje prototypowych tomografii nieliniowych, takie jak tomografia mikrofalowa , tomografia dyfrakcyjna, tomografia impedancji elektrycznej oraz tomografia optyczna .

•  Obrazowanie funkcjonalne: podczas akwizycji rejestrowanych jest wiele różnych zestawów sygnałów zgodnie z precyzyjnie ustalonym paradygmatem czasowym. Uzyskane obrazy mogą dostarczyć informacji na temat niedoborów metabolicznych i chorób czynnościowych, ale zazwyczaj charakteryzują się niższą (czasem znacznie niższą) rozdzielczością przestrzenną niż obrazowanie anatomiczne. Tomografie emisyjne, takie jak tomografia komputerowa emisyjna pojedynczych fotonów (SPECT) lub pozytonowa tomografia emisyjna (PET) oraz obrazowanie metodą rezonansu magnetycznego w jego funkcjonalnym układzie (fMRI) są przykładami tych dynamicznych technik, wraz z elektroencefalografią i magnetoencefalografią (EEG i MEG) , które odtwarzają aktywność neuronalną w skali milisekundowej i w sposób całkowicie nieinwazyjny.

We wszystkich tych modalnościach obrazowania prawidłowe modelowanie matematyczne problemu obrazowania, sformułowanie algorytmów obliczeniowych do rozwiązania równań modelu oraz zastosowanie algorytmów przetwarzania obrazu do interpretacji danych to kluczowe kroki, które umożliwiają wykorzystanie informacji wizualnej z surowych danych pomiarowych.

GŁÓWNY CEL

Z matematycznego punktu widzenia problem odwrotny syntezy informacji biologicznej w formie wizualnej z zebranego promieniowania charakteryzuje się szczególną patologią. Pojęcie źle postawionego problemu zostało wprowadzone przez Julesa Hadamarda (Hadamard, 1923) w celu wskazania problemów matematycznych, których rozwiązanie nie istnieje dla wszystkich danych, nie jest jednoznaczne lub nie zależy jednoznacznie od danych. W obrazowaniu biomedycznym ta ostatnia cecha ma szczególnie szkodliwe konsekwencje: obecność szumu pomiarowego w surowych danych może powodować znaczne niestabilności numeryczne w rekonstrukcji, gdy stosowane są naiwne podejścia. Większość (jeśli nie wszystkie) problemów obrazowania biomedycznego to źle postawione problemy odwrotne , których rozwiązanie jest trudnym zadaniem matematycznym i często wymaga znacznego nakładu obliczeniowego. Pierwszym krokiem w kierunku rozwiązania jest dokładne modelowanie relacji matematycznej między obrazowanym narządem biologicznym a danymi dostarczonymi przez urządzenie obrazujące. Przy najogólniejszych założeniach równanie modelu jest nieliniowym równaniem całkowym, chociaż w przypadku kilku urządzeń nieliniowe równanie obrazowania można wiarygodnie aproksymować modelem liniowym, w którym jądro całkowe koduje odpowiedź impulsową instrumentu. Taka linearyzacja może być przeprowadzona albo poprzez precyzyjną realizację technologiczną, jak w MRI, gdzie akwizycja jest zaprojektowana w taki sposób, że dane są po prostu transformatą Fouriera obiektu, który ma być obrazowany, albo uzyskana matematycznie, poprzez zastosowanie do równania nieliniowego pewnego rodzaju teorii zaburzeń, jak w tomografii dyfrakcyjnej, której model pochodzi z linearyzacji równania rozpraszania. Drugim krokiem w kierunku rekonstrukcji obrazu jest sformułowanie metod obliczeniowych do redukcji równania modelu. W przypadku liniowych, źle postawionych problemów odwrotnych istnieje dobrze ugruntowana teoria regularyzacji, która osłabia niestabilność numeryczną związaną ze źle postawioną sytuacją, zachowując biologiczną wiarygodność zrekonstruowanego obrazu. Teoria regularyzacji leży u podstaw większości liniowych metod obrazowania, a metody regularyzacji można sformułować zarówno w ujęciu probabilistycznym, jak i deterministycznym. Niestety, w przypadku problemów z obrazowaniem nieliniowym nie istnieje analogiczna, dobrze ugruntowana teoria, która jest często rozwiązywana za pomocą technik "ad hoc". Po zrekonstruowaniu obrazu na podstawie danych należy rozważyć trzeci krok, tj. przetwarzanie zrekonstruowanych obrazów w celu ekstrakcji i interpretacji zawartych w nich informacji. Na tym etapie zazwyczaj rozwiązuje się trzy różne problemy:

•  Detekcja krawędzi . Techniki wizji komputerowej są stosowane w celu wzmocnienia obszarów obrazu, w których intensywność światła gwałtownie się zmienia.
•  Integracja obrazu . W procesie klinicznym wykonuje się kilka zdjęć pacjenta w różnych modalnościach i geometriach. Obrazy te można połączyć w zintegrowany model, odzyskując zmiany w ich geometrii.
•  Segmentacja obrazu . Efekty częściowej objętości powodują, że interfejsy między różnymi tkankami są niezwykle rozmyte, co komplikuje kliniczną interpretację odtworzonych obrazów. Automatyczna procedura podziału obrazu na jednorodne zestawy pikseli oraz klasyfikacji segmentowanych obszarów leży u podstaw każdego oprogramowania do komputerowego wspomagania diagnostyki i terapii (CAD).

Algorytmy sztucznej inteligencji, a przede wszystkim uczenie maszynowe, odgrywają kluczową rolę w rozwiązywaniu tych problemów z przetwarzaniem obrazu. W szczególności, jako dziedzina uczenia maszynowego, rozpoznawanie wzorców zapewnia zaawansowany opis danych, który w obrazowaniu medycznym pozwala na lokalizację guzów i innych patologii, pomiar wymiarów tkanek, wspomaganie chirurgii komputerowej i badanie struktur anatomicznych. Na przykład, nadzorowane metody, takie jak propagacja wsteczna lub wzmacnianie , realizują zadania klasyfikacyjne różnych tkanek na podstawie wiedzy z wcześniej zinterpretowanych obrazów; podczas gdy metody nienadzorowane, takie jak samoorganizujące się mapy (SOM) , klasteryzacja rozmyta i maksymalizacja oczekiwań (EM) , pozwalają na wyciągnięcie wniosków probabilistycznych lub identyfikację struktur klastrowych w zestawach nieoznakowanych obrazów. Z matematycznego punktu widzenia, kilka z tych metod odpowiada raczej heurystycznym przepisom niż rygorystycznie sformułowanym i umotywowanym procedurom. Jednak od ostatniej dekady teoria uczenia statystycznego jawi się jako najlepszy kandydat do ścisłego opisu uczenia maszynowego w ramach analizy funkcjonalnej.

TRENDY PRZYSZŁOŚCI

Wśród głównych celów współczesnego obrazowania biomedycznego wskazujemy na realizację:

•  technik mikroobrazowania, które umożliwiają badanie tkanek biologicznych o rozmiarach mikrometrycznych, zarówno w celach diagnostycznych, jak i badawczych;
•  systemów hybrydowych łączących informacje z różnych modalności, potencjalnie anatomicznych i funkcjonalnych;
•  wysoce nieinwazyjnych narzędzi diagnostycznych, w których unika się nawet niewielkiego dyskomfortu.

Cele te można osiągnąć jedynie poprzez efektywne współdziałanie rozwoju sprzętu i zastosowania innowacyjnych algorytmów przetwarzania obrazu. Na przykład, mikrotomografia próbek biologicznych wymaga wprowadzenia zarówno nowych lamp rentgenowskich do akwizycji danych, jak i metod obliczeniowych w celu redukcji efektów utwardzania wiązki; Informacje elektrofizjologiczne i strukturalne dotyczące mózgu można zebrać, wykonując zapis EEG w ramach skanowania MRI, ale także wykorzystując informacje strukturalne z MRI jako dane wstępne w analizie sygnału EEG przeprowadzanej w warunkach bayesowskich; wreszcie, nieinwazyjność w kolonoskopii można uzyskać, wykorzystując najnowszy projekt akwizycji w tomografii rentgenowskiej wraz z zaawansowanym oprogramowaniem, które umożliwia wirtualną nawigację w jelicie, elektroniczne oczyszczanie i automatyczną klasyfikację tkanek nowotworowych i zdrowych. Z czysto obliczeniowego punktu widzenia, dwa ważne cele uczenia maszynowego stosowanego w obrazowaniu medycznym to opracowanie algorytmów uczenia półnadzorowanego oraz automatyczna integracja danych genetycznych z informacjami pochodzącymi z uzyskanych obrazów.

WNIOSKI

Niektóre aspekty współczesnego obrazowania biomedycznego zostały opisane z perspektywy nauk obliczeniowych. Problem rekonstrukcji obrazu biomedycznego został omówiony jako źle postawiony problem odwrotny, w którym wewnętrzna niestabilność numeryczna powodująca artefakty obrazu może zostać zredukowana poprzez zastosowanie zaawansowanych metod regularyzacji. Opisano rolę przetwarzania obrazu z wykorzystaniem technik uczenia maszynowego oraz główne cele najnowszych zastosowań obrazowania biomedycznego.


Modelowanie systemów złożonych za pomocą automatów komórkowych


WSTĘP

W ostatnich latach pojęcie systemów złożonych okazało się bardzo użyteczną koncepcją do definiowania, opisywania i badania różnorodnych zjawisk naturalnych obserwowanych w wielu dyscyplinach naukowych. Przykłady dyscyplin naukowych, które w dużym stopniu korzystają z tej koncepcji, obejmują fizykę, matematykę i informatykę, poprzez biologię i medycynę, a także ekonomię, po nauki społeczne i psychologię. Opracowano różne techniki opisu zjawisk naturalnych obserwowanych w tych systemach złożonych. Należą do nich sztuczne życie, obliczenia ewolucyjne, inteligencja roju, sieci neuronowe, obliczenia równoległe, automaty komórkowe i wiele innych. W tym tekście skupiamy się na jednej z nich, tj. "automatach komórkowych". Przedstawiamy prawdziwie dyskretny wszechświat modelowania, dyskretny w czasie, przestrzeni i stanie: automaty komórkowe (CA) . Warto podkreślić znaczenie automatów kombinowanych w rozwiązywaniu pewnych klas problemów, których nie da się rozwiązać innymi technikami. Automaty kombinowane, pomimo swojej prostoty, potrafią opisać i odtworzyć wiele złożonych zjawisk, ściśle związanych z procesami takimi jak samoorganizacja i emergencja, często obserwowanymi w wyżej wymienionych dyscyplinach naukowych.

WSTĘP

Krótko wyjaśniamy koncepcję systemów złożonych i automatów komórkowych oraz podajemy odnośniki do szeregu istotnych publikacji z tej dziedziny.

Systemy złożone

Koncepcja systemów złożonych (CS) pojawiła się jednocześnie, a często niezależnie, w różnych dyscyplinach naukowych . Można to interpretować jako dowód ich uniwersalności. Pomimo różnorodności tych dziedzin, wszystkie systemy złożone mają wiele wspólnych cech. Zazwyczaj system złożony składa się z ogromnej liczby prostych i lokalnie działających części, które wzajemnie na siebie oddziałują i generują globalną, złożoną reakcję. Samoorganizacja i wyłanianie się, często obserwowane w systemach złożonych, są napędzane przez rozpraszanie energii i/lub informacji. Samoorganizację można łatwo wyjaśnić za pomocą badań nad zachowaniem kolonii mrówek, gdzie ogromna liczba identycznych procesów, zwanych mrówkami, oddziałuje lokalnie poprzez kontakt fizyczny lub za pomocą śladów oznaczonych feromonami. Nie ma lidera, który dostarczałby każdej mrówce informacji lub instrukcji, co powinna zrobić. Pomimo braku takiego lidera lub hierarchii liderów, mrówki są w stanie budować złożone kolonie mrówek, karmić swoje larwy, chronić kolonię, walczyć z innymi koloniami itd. Wszystko to odbywa się automatycznie poprzez zestaw prostych, lokalnych interakcji między mrówkami. Powszechnie wiadomo, że mrówki reagują na każdy bodziec jedną z 20 do 40 (w zależności od gatunku mrówek) reakcji, co wystarcza do uzyskania obserwowanej złożoności. Emergencja jest definiowana jako występowanie nowych procesów działających na wyższym poziomie abstrakcji niż poziom, na którym działają lokalne reguły. Każdy poziom zazwyczaj ma swoje własne lokalne reguły, różniące się od reguł działających na innych poziomach. Emergencja, podobnie jak kolonia mrówek, jest produktem procesu emergencji. Może istnieć cała hierarchia emergentów, np. jak w ciele człowieka, składająca się z substancji chemicznych i DNA, przechodząca przez polipeptydy, białka, infrastruktury komórkowe i cykle, a dalej do komórek i tkanek, narządów i ciał. Widzimy, że samoorganizacja i emergencja są często ściśle ze sobą powiązane.

Automaty komórkowe

Wczesny rozwój automatów komórkowe sięga czasów A. Turinga, S. Ulama i J. von Neumanna. Automaty komórkowe można zdefiniować za pomocą czterech wzajemnie zależnych elementów: sieci i jej zmiennych, sąsiedztwa oraz reguł lokalnych . Poniżej pokrótce wyjaśniono to zagadnienie.

Kraty i sieci

Kratę tworzy siatka elementów, z przyczyn historycznych zwanych komórkami, które mogą być złożone w przestrzeni jedno-, dwu-, trój- lub wielowymiarowej. Sieć zazwyczaj składa się z jednorodnych komórek, takich jak na przykład kwadraty, sześciokąty lub trójkąty w dwóch wymiarach. Sieci CA działające na sieciach i grafach stanowią uogólnienie klasycznych sieci CA, które działają na regularnych sieciach. Sieci mogą być losowe lub regularne. Sieci mogą mieć różne topologie, które są klasyfikowane według stopnia regularności i losowości. Sieć komórek można interpretować jako regularną sieć wierzchołków połączonych krawędziami. Gdy porzucimy tę regularność i dopuścimy pewnych losowych sąsiadów, a dokładniej, jeśli większa część sieci jest regularna, a mniejsza jej część jest losowa, wówczas wkraczamy w domenę sieci małego świata. Idea sieci małego świata dostarcza unikalnego narzędzia, które pozwala nam uchwycić wiele istotnych właściwości zjawisk obserwowanych naturalnie, zwłaszcza tych związanych z sieciami społecznymi i, co zaskakujące, z sieciami (metabolicznymi i innymi) działającymi w żywych komórkach. Podczas gdy sieci małego świata są mieszanką sieci regularnych i losowych, sieci czysto losowe mają zupełnie inny zakres zastosowania. Warto wspomnieć o koncepcji sieci bezskalowych, których łączność nie jest już zależna od skali

Zmienne

Kreatywne struktury odniesienia (CA) zawierają dowolną liczbę zmiennych dyskretnych. Ich liczba i zakres zależą od badanego zjawiska. Najprostsze struktury odniesienia (CA) są budowane przy użyciu tylko jednej zmiennej boolowskiej w jednym wymiarze (1D), patrz np. (Wolfram, 2002). Niektóre z takich prostych jednowymiarowych struktur odniesienia (CA) charakteryzują się nawet wysoką złożonością i wykazują zdolność do uniwersalnych obliczeń.

Otoczenia

Otoczenie, które służy do oceny reguły lokalnej, jest definiowane przez zbiór sąsiednich komórek, w tym samą zaktualizowaną komórkę w przypadku sieci regularnych, rys. 1. Sąsiedzi o współrzędnych względnych [i, j+1], [i-1, j], [i, j-1], [i+1, j] zaktualizowanej komórki [i, j] i znajdujący się odpowiednio na północy, zachodzie, południu i wschodzie definiują tzw. otoczenie von Neumanna o promieniu r = 1. Sąsiedztwo Moore′a o promieniu r = 1 zawiera te same komórki co sąsiedztwo von Neumanna oraz komórki diagonalne zlokalizowane w pozycjach względnych [i-1, j+1], [i-1, j-1], [i+1, j-1], [i+1, j+1], [i+1, j+1], tj. odpowiednio północno-zachodnie, południowo-zachodnie, południowo-wschodnie i północno-wschodnie. Istnieje wiele innych możliwych typów sąsiedztw; sąsiedztwa mogą być nawet nierównomierne przestrzennie lub czasowo. Jednym z przykładów jest sąsiedztwo Margolusa, wykorzystywane w modelowaniu dyfuzji. Granice dla każdego CA mogą być stałe, odbijające lub okresowe. Okresowe warunki brzegowe reprezentują nieskończone sieci. Okresowość oznacza, że np. w jednym wymiarze, najbardziej prawa komórka sieci jest połączona z najbardziej lewą komórką sieci. Stałe komórki brzegowe są utrzymywane na predefiniowanych wartościach. Odbijające komórki brzegowe odbijają wartości z powrotem do głównej części sieci.

Reguły lokalne

Reguła lokalna definiuje ewolucję każdego CA. Zwykle: Realizuje się to poprzez pobranie wszystkich zmiennych ze wszystkich komórek w sąsiedztwie i obliczenie zestawu operacji logicznych i/lub arytmetycznych zapisanych w formie algorytmu. Wektor s tych zmiennych jest aktualizowany zgodnie z następującą regułą lokalną w przypadku sąsiedztwa von Neumanna: s[i,j] = f(s[i,j+1], s[i-1,j], s[i,j-1], s[i+1,j]), gdzie i reprezentuje współrzędną x, j reprezentuje współrzędną y komórki, a f regułę lokalną. Zaktualizowana komórka ma współrzędne [i,j]. Rysunek przedstawia dwuwymiarowy układ współrzędnych 5x5 z sąsiedztwami o różnych promieniach.



Modelowanie

Modelowanie obliczeniowe definiuje się jako matematyczny, numeryczny i/lub obliczeniowy opis zjawiska obserwowanego w naturze. Jest ono niezbędne w sytuacjach, gdy obserwowane zjawiska nie są możliwe do uchwycenia metodami analitycznymi. Wyniki są często weryfikowane w odniesieniu do rozwiązań analitycznych w szczególnych lub uproszczonych przypadkach. Jego znaczenie zostało udowodnione w fizyce i chemii i stale rośnie w nowych dziedzinach, takich jak biologia, medycyna, socjologia i psychologia.

MODELOWANIE SYSTEMÓW ZŁOŻONYCH ZA POMOCĄ AUTOMATÓW KOMÓRKOWYCH

Ciągle napływa wiele nowych pomysłów i podejść wzbogacających metodę CA. W ramach modelowania złożonych systemów CA istnieją odrębne nurty badań i ich zastosowania w różnych dyscyplinach, które zostaną pokrótce omówione w tej sekcji. Klasyczne automaty komórkowe, z regularną siecią komórek, są wykorzystywane do modelowania materiałów ferromagnetycznych i antyferromagnetycznych, krzepnięcia, rekrystalizacji statycznej i dynamicznej, dynamiki laserów, przepływu ruchu, ucieczek i zachowań pieszych, procesów głosowania, samoreplikacji, samoorganizacji, trzęsień ziemi, aktywności wulkanicznej, bezpiecznego kodowania informacji i kryptografii, układów odpornościowych, zachowania żywych komórek i tkanek, rozwoju morfologicznego, ekosystemów i wielu innych zjawisk naturalnych . Automaty CA zostały po raz pierwszy wykorzystane w modelowaniu ośrodków pobudliwych, takich jak tkanka serca. Metoda CA często przewyższa inne metody, takie jak np. metoda Monte Carlo, szczególnie w przypadku układów o wysokiej dyssypalności. Głównym powodem, dla którego metody CA stanowią najlepszy wybór w modelowaniu wielu naturalnie obserwowanych złożonych zjawisk, jest to, że są one definiowane powyżej światów w pełni dyskretyzowanych czasoprzestrzennie. Wrodzone właściwości CA wnoszą nowe jakości do modeli, które nie są zasadniczo osiągalne za pomocą innych technik obliczeniowych. Przykładem zaawansowanej metody CA jest metoda kratowa Boltzmanna, składająca się z trójkątnej sieci wierzchołków połączonych krawędziami, w których uogólnione "cząstki cieczy" poruszają się i zderzają zgodnie z tabelą zderzeń. Tworzony jest model gazu, w którym wymuszane jest zachowanie masy, pędu i energii podczas zderzeń, co daje w pełni dyskretną i uproszczoną, a jednocześnie fizycznie poprawną mikrodynamikę. Działając w odpowiednich granicach, metody te odtwarzają równania Naviera-Stokesa dla nieściśliwych układów i dlatego stanowią model dynamiki płynów. Uśrednione wielkości wynikające z takich symulacji odpowiadają rozwiązaniom równań Naviera-Stokesa. Klasyczne automaty komórkowe, wykorzystujące sieci, mają wiele zalet w porównaniu z innymi podejściami, ale należy wspomnieć o kilku znanych wadach. Jedną z wad automatów technologicznych może być użycie zmiennych dyskretnych. To ograniczenie jest przez niektórych autorów usuwane poprzez zastosowanie zmiennych ciągłych, co prowadzi do uogólnionych automatów technologicznych. Największą wadą klasycznych automatów technologicznych jest często ograniczona topologia sieci. Klasyczne regularne sieci nie odtwarzają właściwości wielu naturalnie obserwowanych zjawisk. To doprowadziło do następującego rozwoju automatów technologicznych. Uogólnione automaty komórkowe, jak opisali Darabos, Giacobini i Tomassini , są zbudowane na ogólnych sieciach, które są reprezentowane przez regularne, losowe, bezskalowe sieci lub sieci małego świata. Z klasycznego CA i jego kratownicy można utworzyć regularną sieć, w której każda komórka reprezentuje węzeł, a każdy sąsiad jest połączony krawędzią. Losowy graf powstaje z węzłów, które mają losowo wybrane węzły jako sąsiadów. W sieciach bezskalowych niektóre węzły są silnie połączone z innymi punktami, podczas gdy inne są mniej połączone. Ich właściwości są niezależne od ich rozmiaru. Rozkład stopnia połączeń w węźle podlega zależności potęgowej P(k) = k-γ, gdzie P(k) jest prawdopodobieństwem, że węzeł jest połączony z k innymi węzłami. Współczynnik γ w większości przypadków mieści się w przedziale od 2 do 3. Sieci te występują na przykład w Internecie, w sieciach społecznościowych oraz w sieciach wytwarzanych biologicznie, takich jak sieci regulacji genów w żywych komórkach lub łańcuchy pokarmowe w ekosystemach. Ogólnie rzecz biorąc, zachowanie danego CA jest nieprzewidywalne, co jest często wykorzystywane w kryptografii. Istnieje wiele technik statystycznych, pozwalających na badanie zachowania danego CA, ale żadna z nich nie jest dokładna. Najprostszym, a często jedynym, sposobem na sprawdzenie stanu CA jest jego wykonanie.

STUDIA PRZYPADKÓW

Zrozumienie wzrostu morfologicznego i rozgałęzień koralowców twardych za pomocą metody sieci Boltzmanna jest dobrym przykładem badania naturalnych systemów złożonych z udziałem alg. Głębokie zrozumienie tych procesów jest ważne dla oceny roli koralowców w ekosystemach morskich i np. ich związku z globalnymi zmianami klimatu. Symulacja wzrostu i rozgałęzień koralowca obejmuje procesy wielofizyczne, takie jak dyfuzja składników odżywczych, przepływ płynów, absorpcja światła przez zooksantele żyjące w symbiozie z polipami koralowca, a także stres mechaniczny. Wykazano, że gradienty składników odżywczych determinują morfogenezę rozgałęzień koralowców fototropowych. W tym konkretnym przypadku mamy do czynienia z procesami ograniczonymi dyfuzją, które w pełni determinują kształt morfologiczny rosnących koralowców. Z eksperymentów w zbiornikach i badań symulacyjnych wiadomo, że te obszary dominujące w dyfuzji działają przy stosunkowo dużych prędkościach przepływu. Wykazano, że symulowane morfologie koralowców są nieodróżnialne od rzeczywistych . Modelowanie dynamicznej rekrystalizacji stanowi kolejne praktyczne zastosowanie rekrystalizacji w dziedzinie fizyki ciała stałego . Metale o postaci polikrystalicznej, złożone z wielu monokryształów, ulegają odkształceniu w podwyższonych temperaturach. Zmagazynowana energia wzrasta z powodu odkształcenia, które z kolei jest uwalniane przez rekrystalizację, gdzie zarodki rosną i tworzą nowe ziarna. Wzrost jest napędzany uwalnianiem zmagazynowanej energii. Reakcja odkształconego materiału polikrystalicznego znajduje odzwierciedlenie w złożonych zmianach mikrostruktury i krzywej odkształcenia. Krzywe naprężenie-odkształcenie mierzone podczas odkształcania próbek metalicznych wykazują zachowanie pojedynczego lub wielu pików. Ta złożona reakcja odkształconego materiału jest bezpośrednim rezultatem współbieżnych procesów zachodzących w odkształconym materiale. Modelowanie CA stanowi jak dotąd jedyną technikę obliczeniową, która jest w stanie opisać tak złożone zachowanie materiału

PRZYSZŁE TRENDY

W badaniach nad modelowaniem CA istnieje wiele odrębnych ścieżek, charakteryzujących się ciągłym napływem nowych odkryć . Modele CA służą do modelowania zjawisk fizycznych, ale coraz częściej wykorzystuje się je do modelowania zjawisk biologicznych, medycznych i społecznych. Większość modeli CA jest projektowana ręcznie, ale przyszłość wymaga opracowania automatycznych i samoregulujących się technik optymalizacji w celu projektowania lokalnych reguł zgodnie z potrzebami opisywanych zjawisk naturalnych. Na koniec warto podkreślić, że CA reprezentują metodę generyczną, często wykorzystywaną w rozwoju prototypów zupełnie nowych metod numerycznych opisujących zjawiska obserwowane w naturze. Wierzymy, że CA mają ogromny potencjał dla przyszłego rozwoju modelowania obliczeniowego i zrozumienia dynamiki złożonych systemów.


Metody AI do analizy danych z mikromacierzy


WSTĘP

Systemy biologiczne można postrzegać jako systemy zarządzania informacją, z podstawowym zestawem instrukcji przechowywanym w DNA każdej komórki jako "geny". W przypadku większości genów ich informacje są włączane, gdy są one transkrybowane do RNA, które jest następnie tłumaczone na białka, które tworzą znaczną część maszynerii komórki. Chociaż szczegóły procesu dla poszczególnych genów są znane, bardziej złożone interakcje między elementami nie zostały jeszcze odkryte. Wiemy, że choroby mogą być wynikiem zmian w samych genach, w kodowanych przez nie białkach lub jeśli RNA lub białka są wytwarzane w niewłaściwym czasie lub w niewłaściwych ilościach. Ostatnie postępy w biotechnologii doprowadziły do opracowania mikromacierzy DNA, które ilościowo mierzą ekspresję tysięcy genów jednocześnie i dostarczają migawkę reakcji komórki na konkretny stan. Znalezienie wzorców ekspresji genów, które dostarczają wglądu w biologiczne punkty końcowe, oferuje ogromne możliwości zrewolucjonizowania diagnostyki i medycyny prognostycznej oraz zapewnienia mechanistycznego wglądu w badania oparte na danych w naukach o życiu, obszarze, w którym istnieje duże zapotrzebowanie na postęp, biorąc pod uwagę pilność związaną z chorobami. Jednak analiza danych z mikromacierzy stwarza szereg wyzwań, od zaszumionych danych po przekleństwo wymiarowości (duża liczba cech, mała liczba wystąpień) po problemy bez jasnych rozwiązań (np. mapowania genów w świecie rzeczywistym na cechy lub choroby, które nie są jeszcze znane). Znalezienie wzorców ekspresji genów w danych z mikromacierzy stwarza problemy związane z odkrywaniem klas, porównywaniem, przewidywaniem i analizą sieci, do których często podchodzi się za pomocą metod sztucznej inteligencji. Wiele z tych metod zostało pomyślnie zastosowanych do analizy danych z mikromacierzy w różnych zastosowaniach, od grupowania wzorców ekspresji genów drożdży po klasyfikację różnych typów białaczki. Metody uczenia się bez nadzoru (np. klasteryzacja hierarchiczna) eksplorują klastry w danych i były używane do odkrywania klas odrębnych form rozlanego chłoniaka z dużych komórek B. Metody uczenia się bez nadzoru (np. sztuczne sieci neuronowe) wykorzystują wcześniej określone mapowanie między próbkami biologicznymi i klasami (tj. etykietami) w celu generowania modeli do przewidywania klas. Podejście k-najbliższych sąsiadów (k-NN) zostało użyte do trenowania klasyfikatora ekspresji genów różnych form guzów mózgu, a jego przewidywania były w stanie odróżnić próbki biopsji o różnym rokowaniu, co sugeruje, że profile mikromacierzy mogą przewidywać wynik kliniczny i kierować leczeniem. Sieci bayesowskie zbudowane z danych mikromacierzy rokują nadzieję na wyjaśnienie podstawowych mechanizmów biologicznych choroby

KONTEKST

Komórki dynamicznie reagują na swoje środowisko, zmieniając zestaw i stężenia aktywnych genów poprzez zmianę powiązanej ekspresji RNA. Tak więc "ekspresja genu" jest jednym z głównych czynników determinujących stan komórki lub fenotyp. Na przykład możemy zbadać różnice między komórką normalną a komórką nowotworową, badając ich względne profile ekspresji genów. Mikromacierze określają ilościowo poziomy ekspresji genów w różnych warunkach (takich jak choroba vs. normalna) lub w różnych punktach czasowych. Dla n genów i m wystąpień (próbek biologicznych) pomiary mikromacierzy są przechowywane w macierzy n na m, gdzie każdy wiersz jest genem, każda kolumna jest próbką, a każdy element w macierzy jest poziomem ekspresji genu w próbce biologicznej, gdzie próbki są wystąpieniami, a geny są cechami opisującymi te wystąpienia. Dane z mikromacierzy są dostępne w wielu publicznych repozytoriach online. Ponadto repozytorium Kent-Ridge zawiera wstępnie sformatowane dane gotowe do użycia w znanym narzędziu do uczenia maszynowego Weka. Dane z mikromacierzy stwarzają pewne wyjątkowe wyzwania dla AI, takie jak poważny przypadek klątwy wymiarowości z powodu niedoboru próbek biologicznych (instancji). Badania z mikromacierzy zazwyczaj mierzą dziesiątki tysięcy genów w zaledwie dziesiątkach próbek. Ten niski stosunek przypadków do zmiennych zwiększa ryzyko wykrycia fałszywych relacji. Problem ten jest zaostrzony, ponieważ dane z mikromacierzy zawierają wiele źródeł zmienności wewnątrzklasowej, zarówno technicznych, jak i biologicznych. Wysoki poziom wariancji i mała wielkość próby utrudniają wybór cech. Testowanie tysięcy genów stwarza problem wielokrotnego testowania, co może skutkować niedoszacowaniem liczby fałszywie pozytywnych wyników. Biorąc pod uwagę dane z tymi ograniczeniami, konstruowanie modeli staje się niedookreślone i w związku z tym podatne na nadmierne dopasowanie. Z biologii jasno wynika również, że geny nie działają niezależnie. Geny oddziałują na siebie w formie ścieżek lub sieci regulacji genów. Z tego powodu potrzebujemy modeli, które można interpretować w kontekście ścieżek. Naukowcy z powodzeniem zastosowali metody AI do wstępnego przetwarzania danych z mikromacierzy, grupowania, wyboru cech, klasyfikacji i analizy sieci.

GÓRNICTWO DANYCH Z MIKROMACIERZY: AKTUALNE TECHNIKI, WYZWANIA I MOŻLIWOŚCI DLA PRZETWARZANIA WSTĘPNEGO DANYCH AI

Po uzyskaniu danych z mikromacierzy przeprowadzana jest normalizacja w celu uwzględnienia systematycznych błędów pomiaru i ułatwienia porównań między próbkami. Dane z mikromacierzy mogą zawierać brakujące wartości, które mogą zostać zastąpione przez zastąpienie średniej lub imputację k-NN.

Selekcja cech

Celem selekcji cech jest znalezienie genów (cech), które najlepiej odróżniają grupy instancji (np. choroba vs. normalność), aby zmniejszyć wymiarowość zbioru danych. Kilka metod statystycznych, w tym test t, analiza istotności mikromacierzy (SAM) i analiza wariancji (ANOVA) zostało zastosowanych do selekcji cech z danych z mikromacierzy. W eksperymentach klasyfikacyjnych metody selekcji cech mają na celu zazwyczaj identyfikację odpowiednich podzbiorów genów w celu skonstruowania klasyfikatora o dobrej wydajności. Cechy są uważane za istotne, gdy mogą wpłynąć na klasę; silnie istotne są niezbędne do przewidywania, a słabo istotne mogą tylko czasami przyczyniać się do przewidywania. Metody filtrowania oceniają podzbiory cech niezależnie od zastosowanego konkretnego algorytmu uczenia się. Omówione powyżej metody statystyczne do selekcji cech, a także rankery, takie jak rankery zysku informacji, są filtrami dla cech, które mają zostać uwzględnione. Metody te ignorują fakt, że mogą istnieć redundantne cechy (cechy, które są silnie skorelowane ze sobą i jako takie mogą być użyte do zastąpienia innych), a zatem nie starają się znaleźć zestawu cech, który mógłby działać podobnie przy mniejszej liczbie zmiennych, zachowując jednocześnie tę samą moc predykcyjną. Z tego powodu metody wielowymiarowe są bardziej odpowiednie. Alternatywnie, wrappery traktują algorytm uczenia się jako czarną skrzynkę i wykorzystują dokładność przewidywania do oceny podzbiorów cech. Wrappery są bardziej bezpośrednie niż metody filtrów, ale zależą od konkretnego użytego algorytmu uczenia się. Złożoność obliczeniowa związana z wrapperami jest zaporowa z powodu klątwy wymiarowości, więc zazwyczaj filtry są używane z selekcją do przodu (rozpoczynając od pustego zestawu i dodając cechy pojedynczo) zamiast eliminacji wstecznej (rozpoczynając od wszystkich cech i usuwając je pojedynczo). Podejścia redukcji wymiarów są również używane do wielowymiarowej selekcji cech

Podejścia do redukcji wymiarów

Analiza głównych składowych (PCA) jest szeroko stosowana do redukcji wymiarów w uczeniu maszynowym . Idea stojąca za PCA jest dość intuicyjna: skorelowane obiekty można łączyć w celu zmniejszenia "wymiarowości" danych. Relacje między profilami ekspresji genów w macierzy danych można wyrazić jako kombinację liniową, tak aby zmienne współliniowe były regresowane do nowego zestawu współrzędnych. PCA, jej podstawowa metoda Single Value Decomposition (SVD), powiązane podejścia, takie jak analiza korespondencji (COA) i skalowanie wielowymiarowe (MDS), zostały zastosowane do danych z mikromacierzy i zostały omówione przez Brazmę i Culhane′a . Badania wykazały, że COA lub inne podejścia do redukcji wymiarów z podwójnym skalowaniem, takie jak analiza mapy widmowej, mogą być bardziej odpowiednie niż PCA do dekompozycji danych z mikromacierzy. Podczas gdy PCA bierze pod uwagę wariancję całego zestawu danych, podejścia klastrowania badają odległość parami między instancjami lub cechami. Dlatego te metody są komplementarne i często obie są stosowane w eksploracyjnej analizie danych. Jednak trudności w interpretacji wyników w kategoriach dyskretnych genów ograniczają zastosowanie tych metod.

Klastrowanie

To, co postrzegamy jako jedną chorobę, jest często zbiorem podtypów chorób. Odkrywanie klas ma na celu odkrycie tych podtypów poprzez znalezienie grup przypadków o podobnych wzorcach ekspresji. Klastrowanie hierarchiczne jest metodą aglomeracyjną, która zaczyna się od pojedynczego przypadku i grupuje podobne punkty danych przy użyciu pewnej miary odległości, tak aby dwa najbardziej podobne punkty danych były grupowane razem w klaster, czyniąc je dziećmi węzła nadrzędnego w drzewie. Proces ten jest powtarzany w sposób oddolny, aż wszystkie punkty danych będą należały do jednego klastra (odpowiadającego korzeniowi drzewa). Hierarchiczne i inne podejścia do klasteryzacji, w tym K-means, zostały zastosowane do danych z mikromacierzy. Klastrowanie hierarchiczne zostało zastosowane do badania ekspresji genów w próbkach od pacjentów z rozlanym chłoniakiem z dużych komórek B (DLBCL), co doprowadziło do odkrycia dwóch podtypów choroby. Grupy te zostały znalezione poprzez analizę danych z mikromacierzy z próbek biopsji pacjentów, którzy nie byli wcześniej leczeni. Ci pacjenci byli nadal badani po chemioterapii, a naukowcy odkryli, że dwa nowo odkryte podtypy choroby miały różne wskaźniki przeżywalności, co potwierdza hipotezę, że podtypy miały znacząco różne patologie (Alizadeh i in., 2000). Podczas gdy klasteryzacja po prostu grupuje dane na podstawie odległości parami, gdy informacje są znane a priori na temat niektórych lub wszystkich danych, tj. etykiet, można zastosować podejście nadzorowane w celu uzyskania klasyfikatora, który może przewidzieć etykietę nowych przypadków.

Klasyfikacja (uczenie nadzorowane)

Duża wymiarowość danych z mikromacierzy oznacza, że wszystkie metody klasyfikacji są podatne na nadmierne dopasowanie. Do danych z mikromacierzy zastosowano kilka nadzorowanych podejść, w tym sztuczne sieci neuronowe (ANN), maszyny wektorów nośnych (SVM) i k-NN. Bardzo trudnym i klinicznie istotnym problemem jest dokładna diagnoza pierwotnego pochodzenia guzów przerzutowych. Bloom i inni zastosowali ANN do danych z mikromacierzy 21 typów guzów z dokładnością 88%, aby przewidzieć pierwotne miejsce pochodzenia nowotworów przerzutowych o nieznanym pochodzeniu. Klasyfikacja na poziomie 84% została uzyskana w niezależnym zestawie testowym, co ma ważne implikacje dla diagnozowania pochodzenia raka i kierowania terapią. W porównaniu różnych podejść SVM, wielokategorialne SVM okazały się skuteczniejsze od innych popularnych algorytmów uczenia maszynowego, takich jak k-NN i ANN , gdy zastosowano je do 11 publicznie dostępnych zestawów danych mikromacierzy związanych z rakiem. Warto zauważyć, że wybór cech może znacząco poprawić wydajność klasyfikacji.

Walidacja krzyżowa

Walidacja krzyżowa (CV) jest odpowiednia w badaniach mikromacierzowych, które są często ograniczone liczbą wystąpień (np. próbek pacjentów). W k-krotnym CV zbiór treningowy jest dzielony na k podzbiorów o równej wielkości. W każdej iteracji k-1 podzbiorów jest używanych do treningu, a jeden podzbiór jest używany do testowania. Ten proces jest powtarzany k razy, a średnia dokładność jest raportowana. Niestety, niektóre opublikowane badania stosowały CV tylko częściowo, stosując CV do tworzenia reguły predykcji, wykluczając jednocześnie wybór cech. Wprowadza to stronniczość w szacowanych współczynnikach błędów i przecenia dokładność klasyfikacji. W rezultacie wyniki wielu badań są kontrowersyjne ze względu na wady metodologiczne. Dlatego modele muszą być ostrożnie oceniane, aby zapobiec stronniczości wyboru. Zalecane jest zagnieżdżone CV, z wewnętrzną pętlą CV do wykonywania strojenia parametrów i zewnętrzną CV do obliczania szacunkowego błędu. Kilka badań, które badały podobne problemy biologiczne, wykazało słabe nakładanie się sygnatur ekspresji genów. Brenton i inni porównali dwie listy genów przewidujące rokowanie raka piersi i znaleźli tylko 3 wspólne geny. Mimo że przecięcie się określonych list genów jest słabe, wysoce skorelowana natura danych z mikromacierzy oznacza, że wiele list genów może mieć podobną dokładność przewidywania. Wykazano, że sygnatury genów zidentyfikowane w różnych badaniach nad rakiem piersi z niewielką liczbą wspólnych genów mają porównywalny sukces w przewidywaniu przeżycia pacjentów. Powszechnie stosowane algorytmy uczenia nadzorowanego dają modele czarnej skrzynki, co powoduje potrzebę interpretowalnych modeli, które dostarczają wglądu w podstawowy mechanizm biologiczny, który wytworzył dane.

Analiza sieci

Sieci bayesowskie (BN), wywodzące się z sojuszu teorii grafów i teorii prawdopodobieństwa, mogą uchwycić zależności między wieloma zmiennymi . Friedman i inni wprowadzili wielomianowy model ramowy dla BN w celu inżynierii wstecznej sieci i pokazali, że ta metoda różni się od klasteryzacji tym, że może odkryć interakcje genów inne niż korelacja, gdy jest stosowana do danych ekspresji genów drożdży. Spirtes i inni podkreślają niektóre trudności związane ze stosowaniem tego podejścia do danych z mikromacierzy. Niemniej jednak zbadano wiele rozszerzeń tego kierunku badań. Korelacja nie jest koniecznie dobrym predyktorem interakcji, a słabe interakcje są niezbędne do zrozumienia postępu choroby. Identyfikacja biologicznie znaczących interakcji od pozornych jest trudna, a BN są szczególnie dobrze przystosowane do modelowania stochastycznych procesów biologicznych. Wykładniczy wzrost danych generowanych przez technologię mikromacierzy, a także innych danych o wysokiej przepustowości (np. interakcji białko-białko), wymaga nowych podejść do sztucznej inteligencji, ponieważ paradygmat nauk o życiu zmienia się z redukcjonistycznego na mechanistyczny, skupiający się na systemach.

PRZYSZŁE TRENDY

Odkrycie podstawowych mechanizmów biologicznych, które generują te dane, jest trudniejsze niż przewidywanie i może mieć daleko idące implikacje dla zrozumienia etiologii chorób. Analiza szeregów czasowych (Bar-Joseph, 2004) jest pierwszym krokiem do zrozumienia dynamiki regulacji genów, ale ostatecznie musimy wykorzystać tę technologię nie tylko do obserwacji danych dotyczących ekspresji genów, ale także do kierowania eksperymentami interwencyjnymi i opracowania metod badania podstawowego problemu odróżniania korelacji od związku przyczynowo-skutkowego.

WNIOSEK

Przeanalizowaliśmy metody sztucznej inteligencji do wstępnego przetwarzania, klastrowania, wyboru cech, klasyfikacji i analizy mechanistycznej danych z mikromacierzy. Klastry, listy genów, odciski palców molekularnych i hipotezy sieciowe wytworzone przez te podejścia wykazały już wpływ; od odkrywania nowych podtypów chorób i markerów biologicznych, przewidywania wyników klinicznych w celu ukierunkowania leczenia, a także rozwikłania sieci genów. Z perspektywy sztucznej inteligencji dziedzina ta stwarza trudne problemy i może mieć ogromny wpływ na biologię i medycynę.



Powrót


[ 277 ]