Dołącz do nas na Facebooku

x

Nasza strona używa plików cookies. Korzystając ze strony, wyrażasz zgodę na używanie cookies zgodnie z aktualnymi ustawieniami przeglądarki. Więcej.

Zapomniałem hasła
Nie mam jeszcze konta
Połącz z Facebookiem Połącz z Google+ Połącz z Twitter
Esensja
dzisiaj: 27 kwietnia 2024
w Esensji w Esensjopedii

Granice nauki: Miłe końca (poznawania genomu) początki, część 2

Esensja.pl
Esensja.pl
Grog
Dokończenie artykułu z poprzedniego numeru.

Grog

Granice nauki: Miłe końca (poznawania genomu) początki, część 2

Dokończenie artykułu z poprzedniego numeru.
Genom fraktalem?1)
Chaotycy, ci od teorii chaosu, części teorii systemów dalekich od równowagi zauważyli, że statystycznie występowanie w niemych sekwencjach adeniny, guaniny, cytozyny i tyminy nie jest zupełnie przypadkowe, jak w ciągu rzutów monetą, lecz zależy od poprzedzających je wcześniej sekwencji nukleotydów. Rozkład podsekwencji nukleotydów w genomie wydaje się być samopodobny, ma - przynajmniej częściowo - charakter fraktalny. Innymi słowy, sekwencje zasad nie wykazują tzw. białego szumu, lecz szum przerywany albo, dokładniej, tzw. intermitentny, postaci 1/f, gdzie owe f jest powtórzeniami w łańcuchu określonych podsekwencji nukleotydów. Owe korelacje powtórzeń zanikają wykładniczo w intronach, wysoce powtarzalnych fragmentach DNA, które żadnego białka nie kodują, natomiast w eksonach, odcinkach DNA kodujących białka, takich nadmiarowych korelacji o zasięgu tysięcy nukleotydów brak, i tu rozkład nukleotydów jest białoszumowy, nadmiarowy (redundantny) z cybernetycznego punktu widzenia.
DNA nie gromadzi w sobie zatem maksymalnej informacji genetycznej. Biały szum informację genetyczną maksymalizuje, szum przerywany, nadmiarowy, informację genetyczną optymalizuje. Uważa się, że struktura informacyjna kodu jest kompromisem między efektywnością kodowania a ochroną przed błędami kodowania białek podczas transkrypcji na RNA. Tam, gdzie białek kodować nie trzeba, informacja genetyczna jest maksymalnie upakowana; miejsca, które kodują białka, muszą być zoptymalizowne, by odpierać zakłócenia kodowania. Zauważono także, że długozasięgowe korelacje noszą charakter krzywej dzwonowej Gaussa: im niżej i wyżej na skali ewolucyjnego rozwoju stoi organizm, tym korelacji jest mniej. Idealny rozkład 1/f osiągają bezkręgowce, najdalej od ideału stoją bakterie i… naczelne, czyli i homo sapiens! Jednak inne stwierdzenie innej grupy naukowców brzmi wręcz przeciwnie: im wyżej na drabinie ewolucyjnej, tym długozasięgowych korelacji więcej, a przeto i kodowanie białek odporniejsze na zaburzenia!
Jakkolwiek będzie, w toku dokładniejszej analizy odczytanego genomu być może będzie należało stawiać nader intrygujące pytania w rodzaju: czy dlatego człowiek ma zaledwie 30-40 tysięcy genów, by owe „żywe oazy” genomu podlegały optymalnej ekspresji dzięki właśnie owym 90% śmieciowego, a jednak „gadatliwego informacyjnie” DNA? Należy sądzić, iż takich pytań chaotycy (chaolodzy) podsuwać mogliby coraz więcej, analizując strukturę genomu wyrafinowaną matematyką systemów nierównowagowych. Może znajdą w strukturze genomu nic nie znaczące baseny stabilności, obszary rzeczywiście bezsensownych ciągów TATATATAT… i CGCGCGC…, może i odpowiedniki basenów przyciągania tychże ciągów, odgrywające istotną rolę w ekspresji genów, może znajdą dziwne atraktory podgrup nukleotydów jako obszary regulatorowe ekspresji genów rozproszonych tudzież repelery, którymi geny będą włączane lub wyłączane w trakcie swej ekspresji. A może i odkryją przestrzeń fazową stanów DNA, która mimo małej ilości genów, a dzięki najdłuższemu w świecie ożywionym łańcuchowi DNA, okaże się maksymalną przestrzenią fazową spośród przestrzeni fazowych genomów wszystkich gatunków i przez to wyróżniającą człowieka spośród świata flory i fauny? I możliwe potencjalnie do zaistnienia w tejże przestrzeni fazowej genomu inne, wyższe na drodze ewolucyjnej „rodzaje człowieka"?
Genom nadprzewodnikiem?2)
Oczywiście nie dosłownie, ale per analogiam. Transkrypcja DNA nie dzieje się ot tak sobie, samoistnie. Kodony kodują specyficzne białka, enzymy, które podczas replikacji tną wiązania międzycząsteczkowe między nićmi DNA na kawałki na odległościach rzędu 10-8 m, kopiują poprzez RNA, a następnie kopie pierwotnego łańcucha DNA sklejają. Tenże przekaz molekularnej informacji podlega, jak każdy przekaz, zakłóceniom ze strony ośrodka, w jakim zachodzi. Co to za ośrodek? Oczywiście, samo uporządkowanie DNA, czyli sekwencje zasad z genami, oraz środowisko zewnętrzne. Informacyjnie rzecz ujmując DNA to nośnik informacji, zapis molekularny mogący rozróżniać taką czy inną sekwencję zasad, sposoby ich rozpoznawania i reguły przypisywania zasad komplementarnych, a zarazem program sortowania sekwencji i genów oraz funkcji replikacjyjnych. To molekularny semantyd, ośrodek i program zarazem, którego wiązania wodorowe szczególnie podatne są choćby na… światło, fotony. Dawno już zauważono, że DNA może być wzbudzane przez laser oraz że jest źródłem ultrasłabego promieniowania laserowego3) na kilku długościach fal świetlnych, a zawdzięcza to ekscymerom, wzbudzonym kompleksom cząsteczkowym, które chwilowo magazynują zaabsorbowany foton i przenoszą wzbudzenie na kolejne sekwencje zasad (i w konsekwencji genów) dopóty, dopóki nie nastąpi emisja pochłoniętego fotonu. Ekscymery stabilizują strukturę DNA, utrwalają siły międzycząsteczkowe. Powstać może w strukturze DNA stojąca fala fotonowa wzdłuż osi helisy albo wędrujące wzdłuż trwałe solitony (odkształcenia) termiczne. Każda z zasad ma właściwe sobie energie wzbudzenia i to może być przyczyną rozpoznawania się nukleotydów, zaś „odkształcenia” fotonowe i termiczne to źródło szumów, zakłóceń w transkrypcji materiału genetycznego. Energia i długość fotonu na odległościach wiązań molekularnych między zasadami sugeruje uwzględniać nie tylko klasyczny, ale i kwantowy charakter sił elektromagnetycznych.
Sygnał doboru molekuł do sekwencji zasad w kanale informacyjnym jest na tle takich szumów dość słaby, toteż oddziaływania między molekułami siłą praw fizyki muszą podlegać wysokim zakłóceniom. Błąd, czyli przyłączenie innej zasady, w doświadczeniach bez udziału enzymów, zachodzi raz na dwadzieścia zasad. A mimo to dokładność kopiowania DNA pomimo szumów jest nader wysoka: błędy w kopiowaniu z udziałem enzymów zachodzą z częstotliwością rzędu od jednego na tysiąc do setek milionów aktów kopiowania. Takie redukowanie błędów kopiowania w informacyjnym sensie jest „nadprzewodnictwem” (proces analogiczny do cooperowskiego parowania elektronów w nadprzewodniku). O owe „nadprzewodnictwo” posądza się właśnie enzymy, które jakby ekranując transkrypcję korygują błędy i reperują przez to DNA. Swoim działaniem dokonują swoistego przejścia fazowego między stanami kwantowymi oddziaływań elektromagnetycznych, bowiem tylko przejścia fazowe redukują błędy. Enzymy ekranując i redukując proces kopiowania zasad nukleotydowych i genów doprowadzają do optymalizowania sekwencji nukleotydów. Enzymy rozpoznają sygnał rodzaj przyłączanej cząsteczki na tle szumów, a może i wykorzystują szum do przekazywania informacji.
Może dalekozasięgowe i krótkozasięgowe korelacje nonsensownych podsekwencji DNA w genomie są niezbędne do pułapkowania fal stojących i solitonów? Może nie są ani przypadkowe, ani nadmiarowe, a wręcz przeciwnie, niezbędne, i wcale nie są szumem molekularnym genomu? Może nonsensowne sekwencje TATATA czy CGCGCG są dynamiczną matrycą, rządzącą rozchodzeniem się szumów, może go pochłaniają? Może skaczące geny dlatego muszą skakać, by błędy eliminować? Może rozległe ciągi CGCGCG i ATATATA są właśnie ekscymerami, które gromadząc i przenosząc energie fotonów czynią z DNA laser? A może właśnie zjawisko informacyjnego nadprzewodnictwa nadaje DNA kształt helisy, kształt wysoko uporządkowanej struktury wyłonionej z dalekiego od stanu równowagi ciągu zasad z wplątanymi w nie genami? Kształt struktury dysypatywnej, w której szumy najlepiej są pułapkowane i przenoszone? Pytania można mnożyć a mnożyć… Przecież z poznanego genomu niewiele nadal wiadomo o tzw. obszarach regulatorowych, które reagują na sygnały ekspresji genów, i być może „nadprzewodnictwo” enzymów przyjdzie w sukurs temu akurat zjawisku?
Genom komputerem.
Łańcuch nukleotydów w genomie bardzo przypomina uniwersalny komputer Turinga, którego taśmą z dziurkami są sekwencje nukleotydów, a głowicą wykonującą obliczenia na stanach - powinowactwo przyłączania C do A i G do C. Nie jest nowością mówić o biologicznych procesorach na DNA, bowiem trwają intensywne prace nad takimi procesorami. Cechą jednak takich procesorów jest to, że można w sekwencjach zasad jednocześnie zarówno zapisywać informację, jak i ją przetwarzać, i to nie jak w klasycznych procesorach - liniowo, ale od razu równolegle, a ponadto takie procesory są samonaprawialne i samopowielające się (ponieważ powiela się DNA), toteż same mogłyby się produkować. Zniszczenie dowolnego fragmentu procesora można reperować dostarczeniem zasad i enzymów, a wtenczas proces naprawiania sam się już uaktywnia. L. Adleman, twórca idei obliczeń genetycznych, zastosował już praktycznie fragmenty DNA do rozwiązania trudnego obliczalnie zagadnienia, jakim jak słynny „problem komiwojażera” - najkrótszej drogi łączącej wiele wybranych miejsc (np. miast)4).
DNA może działać jak komputer. Zamiast na dwóch bitach działa na czterech zasadach azotowych, zamiast bajtów ma kodony. Ale tak naprawdę DNA jest komputerem, a zatem i komputerem jest genom! Komputerem, na którym natura przeprowadza bardzo skomplikowany proces obliczeniowy, zwany dziedziczeniem, prowadzący do człowieka czy jakiegokolwiek innego gatunku. Ten proces obliczeniowy wygląda po prostu jak rozwój płodowy, gdzie materiał genetyczny chromosomów powiela się i postępuje mitoza komórek. Cały ten proces obliczeniowy zawarty jest w procesorze-genotypie, czyli w genomie wraz z cytoplazmatycznymi nośnikami informacji, rozdzielonym na ileś tam chromosomów, z genami rozsypanymi na liniowej przestrzeni niemych sekwencji.
Problemy niżej przedstawiane dotykają algorytmicznej teorii informacji, zapoczątkowanej przez Chaitina, Kołmogorowa i Solomonoffa. Już C. Shannon zauważył, że obecnie tzw. algorytmiczna złożoność obliczeniowa jest proporcjonalna do długości ciągu sekwencji znaków. Im sekwencje dłuższe, czyli im mniej skondensowane, niemożliwe do zaprezentowania jakimkolwiek skróconym wzorem, tym wyższa przypadkowość ciągu i maksymalna zawartość informacyjna. Innymi słowy im dłuższy genom, tym więcej informacji w nim zapisanej. Jeśli genom byłby całkowicie przypadkowo ukształtowany w toku doboru naturalnego i miałby owe trzy miliardy nukleotydów, informacja w nich zapisana osiągałaby niewyobrażalną wartość 23 000 000 000 stanów, czyli możliwości. Na szczęście wśród tych miliardów są sekwencje średnio i wysoko się powtarzające, i są oczywiście szczególne sekwencje zwane genami, toteż złożoność ulega znacznemu zmniejszeniu (powtarzalne fragmenty da się ująć w skrócony wzór obliczeniowy), ale i tak jest nadal niewyobrażalnie wysoka.
Poznanie sekwencji genomu to wyzwanie dla algorytmicznej teorii informacji, a zarazem i wyzwanie dla teorii złożoności, której jest częścią. Poznać, jak samowyhodował się program genetyczny, jak ten program genetyczny formalnie, matematycznie, wygląda, czy zmienia się z pokolenia na pokolenie, jak się przeistoczył w program ewolucyjny. Przecież już dziś tworzymy algorytmy genetyczne, a osadzając je w strukturach danych - tu należałoby osadzić je w genomie - tworzymy algorytmy ewolucyjne, i nakazując się im samorzutnie powielać hodujemy je. Rozpoznać, na czym polegają procesy obliczeniowe, jak zachodzą w genomie, wyliczyć jak nonsensowne w niemym DNA sekwencje powtarzalnych zasad obniżają stany obliczeniowe genomu, jaką część obliczeń wykonują same geny, jak w poszczególnych genach wysoka jest złożoność informacyjna, jak wysoką kompleksowość algorytmiczną owe geny, jakie znaczenie informacyjne mają skaczące sekwencje, czy korelacje dalekozasięgowe i krótkozasięgowe podsekwencje nukleotydów naprawdę nadprzewodzą inforamcję, jak w końcu zachodzi - obliczeniowo i algorytmicznie5) - ekspresja genów, etc. Przecież choćby fakt, że jedna setna procenta genomu świadczy o osobniczej różnicy między ludźmi przy 30 - 40 tysiącach genów, daje olbrzymią wielopostaciowość osobników ludzkich rzędu 230000 możliwości (przy założeniu, że dany gen jest włączony lub wyłączony). A może tkwi w tej liczbie jakaś granica ewolucji człowieka, jakieś wyczerpanie się możliwych kombinacji fenotypów (ludzi) z genotypu (kodu genetycznego) i naturalne ograniczenie populacji ludzkiej, co może spowodować wymarcie człowieka, tak jak prehistorycznych gatunków ? Może w różnorodności ekspresyjnej genów każdego gatunku tkwi jakaś hipotetyczna granica, jakiś dziwny atraktor, który ogranicza ilość różnych osobników danego gatunku, i ten atraktor wyczerpuje zmienność osobniczą i przyczynia się do „wielkich wymierań”, jakich już wiele zaistniało w historii ewolucji życia na Ziemi? Może dzięki takiemu mechanizmowi ograniczającemu wymierały gatunki?
Jak widać poznanie genomu to dla algorytmicznej teorii informacji wyzwanie rodzaju wyjaśnienia początków kodu, a potem samej ewolucji, a może i jej końca. Wyzwanie skalą problemu porównywalne do poznania bodajże do przyczyn i początków powstania Wszechświata.
Genom komputerem kwantowym6)?
Język genomu (i oczywiście RNA) - dla przypomnienia - to alfabet czterech liter-zasad A,T,C,G. Język białek to alfabet 20 aminokwasów (pominę wyliczanie). Dlaczego właśnie tyle, a nie więcej czy mniej? Możliwe przecież są do wymyślenia inne alfabety i inne kody, ale dlaczego Natura wybrała właśnie 4 i 20? Niezwykłą próbę wyjaśnienia tego fenomenu podjął A. Padowa7). Zastosował do replikacji DNA i do syntezy białek kwantowe przeszukiwanie nieuporządkowanej bazy danych algorytmem Grovera, utożsamiając parowanie zasad z zapytaniami do bazy danych. Otrzymał zadziwiający rezultat, że liczby 4 i 20 (+1 czyli STOP), w naturalny sposób są pochodną kwantowej optymalizacji! Zauważył także, iż enzymy mogą grać szczególną rolę w utrzymaniu stanu spójności (koherencji) procesu replikacji DNA i syntezy białek (koherencja układu qubitów zostaje zniszczona jak tylko obliczenia kwantowe dają wynik na wyjściu procesora kwantowego, czyli - innymi słowy - odspójnienie zachodzi po zreplikowaniu się DNA), a nawet zaproponował testy eksperymentalne mogące sprawdzić tę hipotezę.
W takim ujęciu obecna postać i ewolucja kodu (a w konsekwencji genomu) jest granicą kwantowej ewolucji stanów w przestrzeni Hilberta, jaką stanowią stany wiązań wodorowych łączących dwie nici helisy DNA, kiedy to dekoherencja zmierza do zera. Inaczej mówiąc, replikowanie DNA zachodzi kwantowo dopóty, dopóki szumy termiczne rzędu temperatury pokojowej nie zdestabilizują kwantowego przetwarzania bazy danych, czyli dotąd aż DNA nie zostanie zreplikowane. Zauważa także, że szybkość replikacji, dwukrotnie wyższa niż w klasycznym przeszukiwaniu bazy danych, wynika z szybkości działania algorytmu kwantowego, a również że cząsteczki azotu w molekułach emitują podczas replikacji promieniowanie maserowe (laser na mikrofalach). Enzymy z kolei, biochemicznie pełniąc rolę katalizatora replikacji, w kwantowym ujęciu osłaniają środowisko toczącego się w koherentnym stanie procesu kopiowania oraz zdolne są tworzyć superpozycje stanów przyłączanych (parowanych) nukleotydów DNA, dzięki czemu zapewniają powinowactwo odpowiadających sobie łączonych zasad. Co prawda zastrzega, iż jego hipoteza jest tylko odległą analogią zastosowaną do przetwarzania informacji genetycznej, albowiem zaimplementowanie kwantowego algorytmu Grovera nie wymaga wcale komputera kwantowego, ale jednak wyniki nawet tak „odległej” analogii zaskakują. Zaskakują, mimo że w kolejnej pracy proponuje dwa rodzaje statystycznych testów, szybkości kopiowania i struktury biorących udział nukleotydów, które mogą sfalsyfikować bądź potwierdzić rolę kwantowej mechaniki w replikacji DNA, a które jednak nie dały rozstrzygającego rezultatu.
Mała dygresja. Onegdaj polski ksiądz W. Sedlak8) przeczuwał intuicyjnie, iż życie ma naturę bioelektroniczną, potem że życie jest światłem, a w końcu że jest kwantowym zszyciem, ściegiem między kwantową naturą mikroświata a chemicznym podłożem biologii. Nikt do końca nie dawał temu wiary, może brakowało sformalizowania przeczuć spisywanych fenomenologicznie? Dziś natomiast takie podejścia korelacyjne, nie wyłącznie interdyscyplinarne, w biologii molekularnej stają na porządku dziennym.
Cokolwiek, co może mieć dwa stany (jony, spiny, kondensat Bosego-Einsteina) nadaje się do budowy kwantowego komputera. Problemem jest jedynie utrzymanie koherencji wysokiej ilości qubitowych stanów. A spójność qubitów najlepiej zachowują wielkie układy molekuł organicznych i białka w organizmach, czyli wiele drobnych komputerów kwantowych. Cząsteczki chloroformu, roztwór kawy, białka, enzymy… to potencjalne budulce, którymi można manipulować za pomocą techniki jądrowego rezonansu magnetycznego, gdzie programem są modulacje odpowiedniej długości fal radiowych9). A gdyby tak zamiast zasad A,T,C,G lub dużych molekuł użyć genomu i na nim zbudować kwantowy procesor genetyczny? Zapewne nie hodowalibyśmy takich chipów kwantowych, ale byśmy je dziedzicznie programowali i pozwalali im ewoluować…
koniec
1 maja 2001
1) „Szumiące nukleotydy”, Świat Nauki, 11.1992
2) Ł.Ł. Morozow „Pomożet li fizika poniat’ kak woznikła żizń”, Priroda, 12.1984
3) F.A. Popper „Biologia światła"; Wiedza Powszechna, Warszawa 1992.
4) L.M. Adleman „DNA komputerem”, Świat Nauki, X.1998
5) Próbę taka podjęła C. Fereira w "Gene Expression Programming: a new Adaptive Algorithm for Solving Problems”, cs. 0102027, (xxx.sissa.it lub xxx.lanl.gov)
6) Komputer kwantowy przybliża wcześniejszy esej „Wszechświat jako procesor kwantowy” w archiwalnych kopiach The Valetz Magazine.
7) Apoorva Padova (Indian Institute of Science, Bangalore, India) w "Quantum Algorithms and the Genetic Code” , quant-ph/0002037; A. Padova „Testing Quantum Dynamics in Genetic Information Processing” , quant-ph/0102034; A. Padova „Carbon - The First Frontier of Inforamtion Processing” , quant-ph/0103017; (xxx.sissa.it lub xxx.lanl.gov)
8) W. Sedlak: „Homo electronicus”, PIW, 1980; „Życie jest światłem” , PAX, 1985; „Na początku było jednak światło” , PIW, 1986;
9) R. Gershenfeld, I.Chuang „Molekularne komputery kwantowe”, Świat Nauki VIII.1998, R. Birge „Komputery białkowe”, Świat Nauki V.1995

Komentarze

Dodaj komentarz

Imię:
Treść:
Działanie:
Wynik:

Dodaj komentarz FB

Najnowsze

Od Lukrecji Borgii do bitew kosmicznych
Agnieszka ‘Achika’ Szady

1 XII 2023

Czy Magda Kozak była pierwszą Polką w stanie nieważkości? Ilu mężów zabiła Lukrecja Borgia? Kto pomógł bojownikom Bundu w starciu z carską policją? I wreszcie zdjęcie jakiego tajemniczego przedmiotu pokazywał Andrzej Pilipiuk? Tego wszystkiego dowiecie się z poniższej relacji z lubelskiego konwentu StarFest.

więcej »

Razem: Odcinek 3: Inspirująca Praktyczna Pani
Radosław Owczarek

16 XI 2023

Długie kolejki, brak podstawowych towarów, sklepowe pustki oraz ograniczone dostawy produktów. Taki obraz PRL-u pojawia się najczęściej w narracjach dotyczących tamtych czasów. Jednak obywatele Polski Ludowej jakoś sobie radzą. Co tydzień w Teleranku Pan „Zrób to sam” pokazuje, że z niczego można stworzyć coś nowego i użytecznego. W roku 1976 startuje rubryka „Praktycznej Pani”. A o tym, od czego ona się zaczęła i co w tym wszystkim zmalował Tadeusz Baranowski, dowiecie się z poniższego tekstu.

więcej »

Transformersy w krainie kucyków?
Agnieszka ‘Achika’ Szady

5 XI 2023

34. Międzynarodowy Festiwal Komiksu i Gier w Łodzi odbywał się w kompleksie sportowym zwanym Atlas Arena, w dwóch budynkach: w jednym targi i program, w drugim gry planszowe, zaś pomiędzy nimi kilkanaście żarciowozów z bardzo smacznym, aczkolwiek nieco drogim pożywieniem. Program był interesujący, a wystawców tylu, że na obejrzenie wszystkich stoisk należało poświęcić co najmniej dwie godziny.

więcej »

Polecamy

Zobacz też

W trakcie

zobacz na mapie »
Copyright © 2000- – Esensja. Wszelkie prawa zastrzeżone.
Jakiekolwiek wykorzystanie materiałów tylko za wyraźną zgodą redakcji magazynu „Esensja”.