ďťż

127

Lemur zaprasza

/ Spis
Treści /

ROZDZIAŁ 10
PANORAMA
Dust as we are, the immortal spirit grows
Like harmony in musie; there is dark
Inscrutable workmanship that reconciles
Discordant elements, makes them cling together
In one society,
["Choć jesteśmy pyłem, nieśmiertelny duch rośnie
niczym harmonia w muzyce; nieprzeniknione
mistrzostwo godzi
sprzeczne elementy i sprawia, że łączą się
w jedno społeczeństwo".]

WILLIAM WORDSWORTH

Historia Wszechświata to historia narastającej złożoności. Symulując procesy, które doprowadziły do powstania w kosmosie struktur przestrzennych i czasowych, uczeni rozwiązują rzekomo nierozwiązywalne problemy, odkrywają organizację i działanie mózgu, a nawet tworzą sztuczne światy. Pora już na podsumowanie i wyciągnięcie wniosków. Niektóre pytania nasuwają się same. Jakie znaczenie ma badanie złożoności dla nauki i jej przyszłego rozwoju? Jaki jest związek między nauką o złożoności i innymi ludzkimi przedsięwzięciami? W jaki sposób wpływa ona na nasze życie?

Wielu ludzi zaakceptowało redukcjonistyczne posłanie współczesnej nauki. Choć redukcjonizm jest czasem nadzwyczaj skuteczny, niekiedy jego uproszczenia okazują się destrukcyjne. Gdy matka traci syna z powodu choroby nowotworowej, gorączkowo szuka jakiegoś wyjaśnienia: Czy przyczyną był sztuczny barwnik w jego ulubionym soku, czy może kabel elektryczny za oknem sypialni? A może dym papierosów? Czasami udaje się znaleźć prostą przyczynę, ale często jest to niemożliwe. Częstokroć zapoznajemy się z wynikami badań, mówiącymi o związku określonej diety ze zdrowiem, które podpowiadają nam, co mamy jeść, a czego unikać. Takie badania nierzadko dają sprzeczne wyniki. Nauka o złożoności mówi nam, że pewne zjawiska mają nieredukowalny gąszcz przyczyn. Nasze zdrowie może zależeć od ogromnej liczby czynników, podobnie jak własności zaprawy cementowej.

Prostoduszni redukcjoniści twierdzą, że całość jest niczym innym, jak tylko sumą swoich części, które można badać oddzielnie. Taki redukcjonizm ma poważne ograniczenia. Rozważmy globalne skutki odczytania całego ludzkiego genomu. Będzie to miało wiele pozytywnych konsekwencji w medycynie, gdy na przykład uda się znaleźć przyczyny defektów genetycznych, powodujących dziedziczne choroby i określających predyspozycje do chorób serca, raka czy demencji. Pojawi się jednak także niebezpieczeństwo złego wykorzystania tego osiągnięcia, zwłaszcza próby wpływania metodami genetycznymi na ludzkie zachowanie.1

Złożone zachowania społeczne, takie jak osobowość, inteligencja, kryminalne skłonności, alkoholizm, schizofrenia, homoseksualizm i depresja maniakalna, coraz powszechniej uważa się za cechy wynikające z określonych genetycznie predyspozycji. Dzięki badaniom bliźniaków, rodzin i adoptowanych dzieci pojawia się myśl, że pewne zachowania są przynajmniej częściowo dziedziczne; problem polega na stwierdzeniu, które cechy są dziedziczone, a które wynikają z wychowania w podobnym środowisku rodzinnym. Jednak dużo badań, których wyniki miały świadczyć o genetycznym uwarunkowaniu pewnych zachowań, było błędnych, i to na wielu poziomach. Takie publikacje tylko odwracają uwagę ludzi od ważnych czynników środowiskowych i społecznych.2 "Znamy wiele fałszywych stwierdzeń – na przykład, że pojedynczy gen powoduje schizofrenię lub psychozę maniakalno-depresyjną, że istnieje gen alkoholizmu, rozwodu i tak dalej – zauważa Doug Wahlstein z Uniwersytetu Alberta. – Jeśli będziemy dalej iść tą drogą, to grozi nam wiele nadużyć naukowych".

Niewykluczone, że nie zdajemy sobie sprawy, jak bardzo rozpowszechniony jest pogląd, iż wszystkie problemy społeczne mają przyczyny genetyczne. Garland Allen z Uniwersytetu Waszyngtona w St. Louis ostrzega, że próby powiązania genetyki z tak złożonymi zachowaniami mogą stanowić początek nowego rozdziału w "przygnębiającej historii" nadużywania tej nauki.3 W latach dwudziestych i trzydziestych podobne twierdzenia doprowadziły do rozwoju ruchu zwolenników eugeniki, przymusowej sterylizacji i restryktywnych praw imigracyjnych. "Takie myślenie leżało również u podstaw hitlerowskiej eugeniki i Holocaustu w Europie – twierdzi Allen. – Współczesne badania nie wnoszą niczego nowego i są takim samym uproszczeniem jak dziewiętnastowieczne próby powiązania wyglądu zewnętrznego z kryminalnymi skłonnościami. Niepokojące jest natomiast, że takie poglądy zyskują popularność w naszym wykształconym społeczeństwie. Odwołanie się do genetyki ma zrzucić odpowiedzialność za powracające społeczne i ekonomiczne problemy z warunków społecznych na biologiczne cechy jednostek".

Redukcjonizm ma równie ograniczoną wartość w abstrakcyjnym świecie matematyki. Twierdzenie Godła jest przekonującym dowodem na to, że nie można zredukować platońskiego świata matematyki do skończonego alfabetu symboli oraz skończonego zbioru aksjomatów i reguł wnioskowania. "Z wyjątkiem banalnych przypadków, o prawdziwości matematycznego stwierdzenia można rozstrzygnąć tylko wtedy, gdy zbada się jego znaczenie i kontekst w szerszym świecie matematycznych idei" – zauważył Freeman Dyson z Institute for Advanced Study w Princeton.4 Dyson opisuje twierdzenie Godła jako wielkie dzieło sztuki, będące nie tyle redukcjonistycznym zabiegiem, lecz wspaniałą konstrukcją: "Godeł udowodnił, że w matematyce całość jest zawsze czymś więcej niż tylko sumą części".5 Dodatkowy cios zadał redukcjonistom Gregory Chaitin, wykazując, że fizykom nigdy nie uda się udowodnić, iż jakaś Teoria Wszystkiego – czyli skompresowany opis świata -jest rzeczywiście teorią ostateczną.6

Rzeczywiste układy złożone nie zachowują się z zegarową regularnością i dokładne, długoterminowe przewidywania ich działania często okazują się mrzonką. Złożoność nowoczesnej gospodarki przemysłowej jest tak wielka, że nigdy nie poddaje się ona prostym manipulacjom ministrów finansów. Złożoność globalnego klimatu sprawia, że stopniowy wzrost stężenia gazów cieplarnianych nie zawsze powoduje stopniowe zmiany pogody: w ciągu życia jednego pokolenia może nastąpić radykalna zmiana klimatu.7 Nawet pewne bardzo proste układy dynamiczne niepodobna opisać w kompletny, deterministyczny, newtonowski sposób, co kiedyś wydawało się możliwe. Nie istnieje prosty algorytm, który moglibyśmy wykorzystać. Zamiast tego musimy spróbować zrozumieć świat, korzystając z pojęć globalnych, rozważając oddziaływania między jego elementami. Jeśli chcemy zrozumieć świat, to zamiast dążyć do stworzenia deterministycznego, mechanicznego obrazu, powinniśmy przejść na wyższy poziom opisu.

Życie również jest zjawiskiem emergencyjnym, które powstaje w fizykochemicznych układach, wykazujących szczególną organizację i oddziałujących w pewien sposób. Istota ludzka jest emergencyjną cechą dużego zbioru komórek. Podobnie, firma jest czymś więcej niż sumą personelu, nieruchomości, przyborów do pisania i papieru, a miasto to emergencyjną cecha tysięcy lub milionów ludzi. Nikt nie powinien mieć wątpliwości, że nasze skryte myśli, uczucia miłości i nienawiści są czymś więcej niż tylko skutkiem produkcji pojedynczych hormonów lub pobudzenia pojedynczych neuronów w mózgu. Badania złożoności, dzięki naciskowi na własności emergencyjne, przyczyniają się do przywrócenia równowagi między duchową i naturalną stroną naszej natury.

Czy możemy mieć nadzieję, że kiedykolwiek uda się nam zrozumieć takie nadzwyczaj złożone własności emergencyjne? Niektórzy uczeni już widzą siebie "w roli Boga", gdy na przykład konstruują zamknięte światy automatów komórkowych lub "kierują" ewolucją, używając programów genetycznych, w których reguły i miary dostosowania są określone z zewnątrz. A może sami tańczymy pod batutą nieznanego dyrygenta? Być może. Jednak każda pojedyncza melodia jest zbyt złożona i "delikatna", zbyt wrażliwa na historię i zewnętrzne wydarzenia, aby można było zrozumieć coś więcej niż tylko jej ogólny przebieg.

Ktoś może to uznać za defetyzm. Wyjaśnienie złożoności może jednak bardzo pomóc w zrozumieniu świata, gdyż daje globalne ujęcie naszej w nim roli. Choć zapewne nie będziemy w stanie przewidzieć długookresowej ewolucji złożonego układu, nieliniowa dynamika demonstruje, że możemy poznać pewne globalne cechy jego zachowania – na przykład dzięki wykryciu zbioru atraktorów tego układu. Takie idee mogą w przyszłości posłużyć jako podstawa do podejmowania decyzji.

Ludzkość nigdy nie miała większego wpływu niż obecnie na stan naszej planety i nigdy konieczność zrozumienia tego wpływu nie była bardziej paląca. Działalność człowieka zagraża licznym gatunkom flory i fauny, o których często niemal nic nie wiemy. Ile nadużyć wytrzyma jeszcze Ziemia? Ekosystemy – do których należymy – są bardzo złożonymi układami współistniejących organizmów; to układy, którymi rządzą subtelne sprzężenia nieliniowe. Kto wie, czy nie siedzimy na ekologicznej bombie zegarowej z włączonym zapalnikiem: zniszczenie naturalnego środowiska na całym świecie – od lasów tropikalnych do tundry – może mieć konsekwencje, które wystąpią nagle i gwałtownie, być może już za kilkadziesiąt lat.

Niewykluczone, że nawet gatunki, które wydają się nie zagrożone, w rzeczywistości są już skazane. Na taką możliwość wskazuje nieliniowy model matematyczny, opracowany przez Roberta Maya, Martina Nowaka i Davida Tilmana, którzy badali różnorodność roślin na obszarach trawiastych – starych polach i prerii w Cedar Greek National History Area w Minnesocie.8 Stwierdzili oni, że o ewolucyjnym sukcesie gatunku nie stanowi tylko liczebność populacji. Do przetrwania konieczna jest także umiejętność dostosowania się i wykorzystania nowego środowiska w obliczu zagrożenia.

W tym modelu poszczególne gatunki, znajdujące się na danym obszarze, są traktowane jako "metapopulacje" – zbiory małych, lokalnych populacji roślin, występujących w porozrzucanych miejscach, lecz połączonych wskutek rozpraszania nasion na dużą odległość. Obserwacje z Cedar Creek przekonują nas, że rośliny, które wygrywają konkurencję o ograniczone zasoby, stosunkowo słabo się rozpraszają. Trawy na przykład poświęcają tyle energii na rozbudowę korzeni, że wytwarzają niewiele nasion. May, Nowak i Tilman uwzględnili w swoim modelu koncepcję konfliktu między zdolnością do konkurowania i rozpraszania oraz obliczyli wpływ utraty środowiska na wyginięcie gatunku.

Z ich modelu wynika, że spadek różnorodności (to znaczy zmniejszenie liczby gatunków) jest niewielki, nawet jeśli zniszczeniu ulega połowa środowiska. Natomiast po przekroczeniu granicy 60% dalsze kurczenie się środowiska powoduje gwałtowny wzrost liczby ginących gatunków, przy czym utrata środowiska i wyginięcie gatunku są od siebie odsunięte w czasie o kilka pokoleń. Może to oznaczać, że minie kilkadziesiąt lat, nim zobaczymy konsekwencje zniszczenia tropikalnych lasów deszczowych. Jest tak po części dlatego, że zniszczenie środowiska nie tylko powoduje zgubę istniejącej populacji, ale również likwiduje miejsca nadające się do kolonizacji. Zaskakujące jest to, że – zgodnie z tym modelem – gatunki, które odniosły największy sukces w konkurencji o ograniczone zasoby, a tym samym odgrywały dominującą rolę w dotychczasowym środowisku, są najbardziej narażone na zgubę. W przeszłości organizmy te nie musiały dostosowywać się do konieczności zmiany środowiska.

Badania złożoności wykazały również znaczenie różnorodności i przypadkowości dla podtrzymania zdolności do adaptacyjnych innowacji. Przyszłość naszego gatunku i całej planety zależy od tej zdolności. Tu przydaje się wprowadzona przez Lovelocka koncepcja Gai: dostarcza ona metafory jasno ukazującej, że zniszczanie środowiska jest równoznaczne z unicestwieniem nas samych. Z tego powodu musimy zająć się problemem niszczenia lasów deszczowych, przerażającego zmniejszania się liczby gatunków, rozproszeniem warstwy ozonowej i globalnymi zmianami klimatycznymi. Integracyjne badania złożonych układów ożywionych zapewne dostarczą racjonalnych podstaw dla podjęcia globalnych działań.

Symulacje komputerowe doprowadziły do lepszego zrozumienia złożoności klimatu, wymierania gatunków i ekosystemów. Podobnie, modele komputerowe umożliwiają wgląd w złożoną "ekologię" komórek, która chroni organizm przed infekcjami9, oraz opisuje ich zachowanie, gdy są zagrożone, na przykład przez HIV.10 W ciągu ostatnich pięciu lat podjęto ambitne próby pójścia dalej i opracowania komputerowych symulacji ewolucji oraz stworzenia sztucznego życia. Podczas jak "zamknięcie ewolucji biologicznej w butelce", sztuczne życie jest -by tak rzec – pogiętym zwierciadłem, w którym możemy się przeglądać. Mówi nam o życiu, jakie mogłoby być, a nie takim, jakie istnieje na Ziemi. Można nawet twierdzić, że byliśmy już świadkami narodzin innego, cyfrowego życia, kryjącego się w wirtualnym świecie symulatora Tierra.

Prace na temat mózgu, które opisaliśmy w poprzednim rozdziale, należą do najbardziej fascynujących przykładów potęgi współczesnego podejścia do zagadnień złożoności. Dotychczasowe osiągnięcia wolno uznać za źródło ostrożnego optymizmu co do możliwości stworzenia inteligentnych maszyn metodami ewolucyjnymi. Nie należy jednak dać się ponieść entuzjazmowi. Daleko nam jeszcze do wyjaśnienia najbardziej złożonego obiektu, mianowicie świadomego, myślącego podmiotu. Do pokonania pozostają poważne bariery. Maszyny jeszcze nie potrafią dobrze rozpoznawać obrazów, posługiwać się językiem i tłumaczyć – nie mówiąc już o połączeniu takich umiejętności w jednym urządzeniu.11 W ciągu najbliższych kilkudziesięciu lat z pewnością dokona się w tej dziedzinie wielki postęp. Metody programowania genetycznego pozwolą połączyć sztuczne sieci neuronowe w struktury o coraz bardziej złożonej architekturze. Dialog z zewnętrznym światem za pośrednictwem urządzeń sensorycznych, tak jak w przypadku robota Cog, pozwoli zwiększyć sprawność sztucznych mózgów. Dzięki nieubłaganemu wzrostowi mocy obliczeniowej komputery dorównają pod tym względem ludzkiemu mózgowi, i to niezależnie od powstania komputerów kwantowych. Niewątpliwie ogromnie zmieni się środowisko, a nawet kultura, w jakiej utrzymujemy i wychowujemy sztuczne mózgi, tak że pewnego dnia pod względem dynamiki i złożoności zrównają się one z nami.

Możemy oczekiwać, że komputerowe metody ewolucji celowej zostaną zastosowane do wytworzenia "inteligentnych" urządzeń, odpowiadających naszym potrzebom. Kto jednak decyduje, co jest nam potrzebne? Nasze moralne wzorce zachowania, nie mówiąc o samej nauce, ewoluują i nadal będą ewoluować w odpowiedzi na czynniki polityczne, ekonomiczne oraz społeczne. Czynniki te stwarzają "ciśnienie selekcyjne" i w znacznej mierze określają, co nam odpowiada.

Takie "metaprocesy" zachodzą w umysłach świadomych jednostek, gdzie konkurują ze sobą różne koncepcje. W tym kontekście idee to – wedle Richarda Dawkinsa – memy, czyli jednostki kulturowego dziedziczenia.12 Memy są zdolne do autoreplikacji, gdy przenoszą się z mózgu do mózgu. Przykłady memów to idee, melodie, mody. "Gdy szkołę ogarnia mania, na przykład wszyscy bawią się kostką Rubika lub papierowymi rakietami, proces ten rozwija się tak samo jak epidemia odry -stwierdza Dawkins. – Mody i manie następują po sobie nie dlatego, że jedna jest lepsza od drugiej, ale po prostu dlatego, że akurat taka epidemia ogarnia szkołę".13 Jak zauważył filozof Daniel Dennett, pojęcie memu jest dobrym sposobem myślenia o ideach, ale stwarza niepokojącą, a nawet odpychającą perspektywę: "Nie wiem, jak tobie, ale mnie nie podoba się pomysł, że mój mózg jest kupą nawozu, w której rozmnażają się larwy pomysłów innych ludzi, a potem wysyłają swoje kopie na informatyczną diasporę".14

Dawkins nie stosuje swojej wirusowej metafory do całej kultury, wiedzy i wszystkich idei. "Nie wszystkie programy komputerowe rozprzestrzeniają się jak wirusy – uważa. – Dobre programy – procesory tekstu, arkusze kalkulacyjne i programy do obliczeń – rozprzestrzeniają się, ponieważ ludzie ich chcą. Natomiast wirusy komputerowe rozchodzą się niemal wyłącznie dlatego, że tak każe ich program. Bez wątpienia istnieje całe spektrum programów, od czystych wirusów po naprawdę pożądane programy, z grami zagrażającymi popadnięciem w nałóg gdzieś pośrodku". Z podobnym spektrum mamy do czynienia w teorii samolubnego genu Dawkinsa – od wirusów do użytecznych genów, zwiększających dostosowanie. "Genetyczna instrukcja "Stwórz szybką, mocną, inteligentną, seksualnie pociągającą antylopę* powiada ťskopiuj mnieŤ tylko w bardzo pośredni sposób, który wydaje się nam znacznie mniej bezmyślny i jałowy niż jawne polecenia ťskopiuj mnieŤ, do jakich sprowadzają się programy z wirusowej części spektrum" – pisze Dawkins. Jego zdaniem w dziedzinie kultury nowe idee i piękne dzieła sztuki rozprzestrzeniają się nie dlatego, że zawierają niewolniczo wykonywane instrukcje, ale z powodu swych zalet. "Dzieła Darwina i Bacha to nie wirusy. Natomiast apele telewizyjnych kaznodziejów o przysłanie pieniędzy na sfinansowanie dalszych takich apeli są równoważne instrukcji •skopiuj mnieŤ".

Dawkins rozwinął swoje koncepcje tak, aby zdecydowanie odróżnić przekonania religijne – które jego zdaniem "są bardzo blisko wirusowego krańca spektrum" – od naukowych. Twierdzi on, że religia trwa nie z powodu cynicznych manipulacji księży ani z pewnością nie z powodu prawdziwości doktryny, ponieważ różne sprzeczne ze sobą religie trwają równie dobrze. "Doktryny religijne trwają, ponieważ wpaja się je dzieciom w wieku, gdy są podatne na sugestie; gdy dzieci dorosną, wpajają je z kolei własnym dzieciom". Inaczej mówiąc, zdaniem Dawkinsa wiara religijna utrzymuje się z powodów epidemiologicznych.

Wywód Dawkinsa nie jest jednak wolny od trudności. Z pewnością jest prawdą, że współistnieje wiele różnych religii konkurujących ze sobą, takich jak judaizm, chrześcijaństwo, islam, buddyzm i hinduizm, natomiast memy naukowe na ogół się wykluczają: zwycięska teoria w danej dziedzinie i w danym okresie eliminuje wszystkie inne. Każdy ocenia wiary religijne, podobnie jak poglądy polityczne, kierując się własnymi poglądami ogólnymi i nabranymi przesądami. Natomiast zgodnie z argumentacją Dawkinsa uczeni mają akceptować takie, a nie inne teorie z uwagi na przekonujące dowody ich słuszności. Memy naukowe odnoszą tym większe sukcesy, im dokładniej wyjaśniają lub przewidują wyniki doświadczeń – to kryterium jest miarą ich "dostosowania". W przypadku koncepcji "nienaukowych", takich jak religia, nie istnieje obiektywna miara dostosowania, a zatem sukces zależy od całego zbioru mniej lub bardziej dowolnych i subiektywnych kryteriów. Możemy zatem zakładać, że religia zawiera więcej nie udowodnionych stwierdzeń niż nauki przyrodnicze, natomiast takie dziedziny, jak ekonomia, zajmują miejsce gdzieś między tymi skrajnościami.

Ekonomia mieści się między naukami przyrodniczymi i humanistycznymi. Światowa gospodarka wykazuje nieliniowe cechy charakterystyczne dla złożonego układu dynamicznego, natomiast rynek kojarzy się z finansową wersją "przetrwania najlepiej dostosowanego". Istnieją obiektywne miary sukcesu ekonomicznego i finansowego, czy to całych krajów, czy poszczególnych przedsiębiorstw, takie jak produkt narodowy, deficyt budżetowy, udział w rynku, zyski i straty, dochody i ceny akcji. Jednak miary te zależą od czynników, które są źle określone. Katastrofę na Wall Street może wywołać rzeczywiste finansowe trzęsienie ziemi lub szeptana kampania. Plotki rozpuszczane przez akcjonariuszy, analityków i spekulantów mogą spowodować fluktuacje cen akcji oraz kursów walut, co wpływa na obiektywne miary "dostosowania".

Warto zauważyć, że minęło dużo czasu, nim ekonomiści zdali sobie sprawę z naturalnej złożoności swej dziedziny. Przez długie lata centralnym dogmatem ekonomii były stare zasady równowagowe, podobnie jak termodynamika równowagowa w fizyce, chemii, a nawet biologii. Ekonomiści usiłowali, z takich samych przyczyn co uczeni zajmujący się przyrodą, zamknąć całą ekonomię w teoriach, których zaletą były matematyczna prostota i elegancja, a nie realna zdolność do wyjaśnienia działania rzeczywistej gospodarki. W ten sposób memy klasycznych teorii równowagowych zarażały umysły kolejnych pokoleń studentów ekonomii i nauki, którzy przejmowali dogmat, że zachowanie złożonego układu można przewidzieć, badając jego części składowe.15

W ostatnich czasach w ekonomii pojawił się nowy kierunek badań, wykorzystujący pojęcia ewolucyjne i nieliniowe. Robert May i inni zastosowali narzędzia używane do analizy nieliniowych zjawisk biologicznych do zbadania fluktuacji kursów walut i cen akcji. Stwierdzenie, czy możliwe są jakieś przewidywania, wymaga między innymi opracowania metod pozwalających wykryć ślady chaosu w na pozór zupełnie przypadkowych danych.16 Takie badania pomogły wykazać, że złożone zachowanie rynków finansowych jest w pewnej mierze przewidywalne. Analiza nieliniowa oraz wiele innych technik, od sieci neuronowych i logiki rozmytej do statystyki nieliniowej, służą do znajdywania lukratywnych struktur w zachowaniu rynku.17 Według pewnych ocen w 1993 roku około tuzina firm zarządzało funduszami rzędu 100 milionów dolarów każda, korzystając z takich rad komputerów.18

W 1994 roku – pięćdziesiąt lat po ukazaniu się książki von Neumanna i Morgensterna Theory of Games and Economic Behaviour – Nagroda Nobla w dziedzinie ekonomii została przyznana za prace z dziedziny teorii gier. Nowi laureaci, Amerykanie John Harsanyi i John Nash oraz Reinhard Selten z Niemiec, odegrali zasadniczą rolę we wprowadzeniu teorii gier jako podstawowego narzędzia służącego do badania wielu problemów, od organizacji przemysłowych, poprzez międzynarodowy handel, do polityki monetarnej. Przykładem mogą być strategie, jakie stosują monopolistyczne firmy, aby zniechęcić potencjalnych konkurentów do wchodzenia na rynek. Jedna strategia monopolisty polega na grożeniu wojną cenową, mającą doprowadzić do zrujnowania przeciwnika. To jednak może być groźne również dla monopolisty, chyba że ma bardzo duże rezerwy finansowe. Wobec tego konkurent musi ocenić, na ile poważna jest taka groźba. Monopolista może także przyjąć bardziej przyjazną strategię, na przykład zaproponować współpracę i stworzyć kartel, pozwalający obu firmom czerpać zyski z wysokich cen. Korzyści, jakie przynosi zastosowanie matematyki do takich problemów, są obecnie powszechnie znane. W Stanach Zjednoczonych Federal Communications Commision organizuje obecnie aukcje częstości radiowych zgodnie z zasadami teorii gier.19

Wbrew nazwie inne "nauki" społeczne nie są zazwyczaj uważane za naukowe. Mimo to, dzięki zastosowaniu metod opracowanych do badania złożoności, zjawiska społeczne stopniowo również stają się przedmiotem naukowej analizy. Można twierdzić, że przedstawiciele nauk społecznych zainteresowali się problemami nieliniowymi w 1844 roku, gdy Verhulst, odwołując się do idei Malthusa, sformułował równanie logistyczne, opisujące wzrost liczby ludności.20 W ludzkich i zwierzęcych społecznościach można znaleźć wiele przykładów złożonej organizacji, poczynając od mrowisk i uli, a na giełdzie kończąc. W takich otwartych i nieliniowych strukturach społecznych działa wiele mechanizmów konkurencji i sprzężenia zwrotnego. Uczeni dokładnie zbadali strategie stosowane przez mrówki podczas żerowania i magazynowania pożywienia.21 Podjęto próby modelowania "organicznego" rozwoju miast, wykorzystując do tego pojęcie struktur dysypatywnych (opisane w rozdziale 6.).22 Modele komputerowe posłużyły również do przeanalizowania wpływu na środowisko tanich i powodujących poważne zanieczyszczenia sposobów transportu oraz kosztownych rozwiązań ekologicznych.23 Inni naukowcy wykorzystują modele nieliniowe do analizy ruchów ludności; pozwala to wyjaśnić powstawanie równomiernie rozprzestrzenionych skupisk, gett i ciągłych migracji.24

Możemy dopatrzeć się analogu między punktami krytycznymi, związanymi z samoorganizacją i chaosem w układach nieożywionych, takich jak reakcja Biełousowa-Żabotyńskiego, i pewnymi zjawiskami występującymi w ludzkim społeczeństwie, takimi jak rewolucje i załamania porządku społecznego. Podczas planowania ludzie często muszą ustalić hierarchię zadań, uporządkować je ze względu na znaczenie i pilność. Do takich złożonych problemów można zastosować strategie określone przez kilka prostych reguł, które z kolei można ulepszać metodami ewolucyjnymi, stosując technikę programowania genetycznego.25

Ludzkie społeczeństwo cechuje nadzwyczaj złożona organizacja. Agencje rządowe i przedsiębiorstwa mogą działać skutecznie tylko wtedy, gdy ich pracownicy należycie współpracują. Jednak struktura i natura organizacji czasami powoduje powstanie konfliktu między celami organizacji a interesami osób zatrudnionych. Taki konflikt można zrozumieć, rozważając strategie zastosowane przez zainteresowane strony. W wielu organizacjach ludzie są często przesuwani z jednego stanowiska na drugie, na przykład co trzy lata lub jeszcze częściej. Wtedy pojawia się pokusa, żeby się szybko "wykazać", choć to może być sprzeczne z długofalowymi interesami organizacji.

Może się również zdarzyć, że człowiekowi dbającemu tylko o własną karierę nie zależy wtedy na współpracy z kimś, z kim w przyszłości nie będzie miał już do czynienia, co oczywiście powoduje wiele trudności w działaniu organizacji jako całości. Teoria gier wskazuje, że należy albo zatrudniać ludzi dłużej na jednym stanowisku, albo po przeniesieniu śledzić, co dzieje się na ich poprzednim miejscu pracy. Poza konkretnymi zastosowaniami teoria gier wskazuje również, jak bardzo irracjonalne są ludzkie zachowania.

Do rozwoju złożoności ludzkich oddziaływań przyczyniła się stale doskonalona technika wymiany informacji na wszystkich poziomach, od jednostek do rządu. Im intensywniejsza wymiana informacji, tym silniej działają procesy sprzężenia zwrotnego i tym bardziej zwiększa się złożoność układu. Sieci komputerowe spowodowały kolejną rewolucję w łączności i ogromnie zwiększyły dostępność informacji. Korzystając z terminologii Dawkinsa, można powiedzieć, że sieci komputerowe sprzyjają rozprzestrzenianiu się memów. Internet jest dominującą superstrukturą, łączącą miliony komputerów osobistych na całym świecie. Według oceny z połowy 1993 roku, sieć łączyła wtedy około 1,7 miliona komputerów, a korzystało z niej 17 milionów użytkowników.26 Gdy piszemy te słowa, liczba ta wzrosła do 23 milionów. Pod wieloma względami działanie Internetu przypomina zjawiska opisywane w tej książce: sieć ewoluuje, jest rozproszona, nie istnieje żaden centralny ośrodek kierujący, występują zjawiska emergencyjne w postaci struktur opartych na wymianie informacji. W miarę jak wzrasta ludzka ruchliwość i działalność gospodarcza rozprzestrzenia się na cały glob, łatwo pokonując fizyczne granice, geograficznie zlokalizowane społeczeństwa ulegają podziałowi -wyodrębniają się grupy różniące się od pozostałych rodzajem zajęć, religią, kulturą, nauką, życiem społecznym i rozrywkami. W tej sytuacji Internet jest ważnym czynnikiem sprzyjającym zachowaniu tożsamości – choć w znacznej mierze pozbawionej własnego wyrazu – w trzęsawisku sprzecznych działań. Ta "informatyczna autostrada" przeżyła gwałtowny wstrząs kilka lat temu, gdy powstały graficzne interfejsy do World Wide Web, pozwalające na multimedialny dostęp do niemal nieograniczonych zbiorów danych, w tym również danych w postaci obrazów.27 Takie elektroniczne sieci na zawsze zmienią sposób życia i działania techniczne zaawansowanych społeczeństw.

Bardziej tradycyjny i uniwersalny sposób komunikacji – poprzez dzieła sztuki – często uważa się za niezależny od nauki, a nawet będący wobec niej w zasadniczej opozycji. Zgodnie z powszechnym mniemaniem nauka nie ma wiele do powiedzenia w kwestiach estetycznych malarstwa, literatury czy teatru, poza zagadnieniami geometrycznych proporcji i technicznych środków realizacji zamysłu twórcy. Jest tak dlatego, że, zgodnie z newtonowską tradycją, nauka ma się zajmować abstrahowaniem ze zjawisk "nieredukowalnej matematycznej istoty". Według redukcjonistycznej metodologii nauka interesuje się nie całością, lecz jej elementami składowymi. W ostatnich czasach nauka o złożoności przyczyniła się do zmiany tej opinii.

Poetyckie zaniepokojenie arogancją fizyki newtonowskiej można znaleźć w wierszu Alexandra Pope'a, który posłużył nam za motto do rozdziału 2. Tacy poeci jak, Blake i Keats, gardzili redukcjonistycznym i materialistycznym obrazem świata, ale nie wszyscy godzili się z ich opinią. Gdy Mary Shelley napisała Frankensteina, bez wątpienia najlepiej znaną książkę o sztucznym życiu, wzięła w ten sposób udział w debacie na temat witalizmu, która toczyła się od 1814 roku.28 Czyż historia nie przemyślanej próby Victora Frankensteina ożywienia martwego ciała dodatkiem czegoś analogicznego do elektryczności nie była kpiną ze spirytualistów i argumentem na rzecz materialistycznego światopoglądu?

W XX wieku oddziaływania między nauką i sztuką były równie silne, co zawsze. W literaturze można znaleźć wiele odwołań do teorii względności Einsteina – na przykład w Kwartecie aleksandryjskim Lawrence'a Durrella29 lub w Finnegaris Wake, gdzie Joyce korzysta z odkrycia Einsteina ("Winestaina", jak go nazywa), że światło w zakrzywionej czasoprzestrzeni może powrócić do źródła – co pozwala obejrzeć się od tyłu.30

Nauka o złożoności wpływa na sztukę na wielu poziomach. Jeden z głównych bohaterów tej książki, Alan Turing, zainspirował sztukę Breaking the Code Hugha Whitemore'a z 1986 roku.31 Złożoność oferuje "kosmogoniczny koktajl" – fraktale, teorię katastrof i chaos – który rozbudził wyobraźnię architektów.32 Może również wzbogacić powieści i wiersze. W Parku jurajskim Michaela Crichtona występuje karykaturalna postać "matematyka chaosu", który ostrzega przed niebezpieczeństwami związanymi z manipulowaniem DNA dinozaurów. Motyl Lorenza zamachał skrzydełkami w wierszach Paula Muldoo-na.33 Nauka o złożoności przyczyniła się również do stworzenia postaci Lemuela Falka, rosyjskiego specjalisty od chaosu, z "grubymi, zrogowaciałymi palcami" i "grzywą zabrudzonych popiołem włosów, która sprawia wrażenie jakby była potargana wiatrem, nawet gdy nic nie wieje". Falk pojawił się w powieści Roberta Littella The Yisiting Professor, w której oszołomił uczestników sympozjum w Pradze swym dążeniem do znalezienia czystej przypadkowości: "Lemuel zaprogramował duży komputer ze Wschodnich Niemiec i obliczył k do sześćdziesięciu pięciu milionów trzystu trzydziestu trzech tysięcy siedemset czterdziestu czterech miejsc po przecinku (wówczas był to światowy rekord), ale nie odkrył żadnych śladów porządku w rozwinięciu dziesiętnym".34

Idee nieliniowej dynamiki i fraktali zainspirowały również powstanie Arcadii, znanej sztuki Toma Stopparda z 1993 roku. Stoppard uważał nawet sam proces pisania dramatu za przykład literackiej samoorganizacji.35 Akcja sztuki przeskakuje w czasie dwa wieki: pewien pozbawiony skrupułów uczony, który postanowił stworzyć na tyle sensacyjną pracę o Byronie, by trafiła ona na strony brukowej prasy, wykorzystuje w tym celu kryminalną historię, "wydedukowaną" z korespondencji dawnych postaci. Sztuka łączy wywody na temat kształtowania ogrodów i rozwoju romantyzmu z dyskusjami dotyczącymi postępu, doskonalenia, determinizmu i wolnej woli.

Najbogatsze idee pojawiają się dzięki odkryciom młodej bohaterki, Thomasiny Coverly, których dokonała u stóp swego mistrza w 1808 roku. Thomasina przypadkowo wynalazła "geometrię nieregularnych kształtów" – mamy tu aluzję do fraktalnej geometrii Mandelbrota, która dla uczonych jest synonimem dziwnych atraktorów. Jako sztuka teatralna, Arcadia na wiele sposobów odwołuje się do idei fraktali, zarówno w oddziaływaniach między postaciami i elementami scenografii, jak i w rezonansach między dialogiem i muzyką. Stoppard porównuje strukturę sztuki, z zygzakami między przeszłością i teraźniejszością, do "najbardziej prymitywnego diagramu podwajania okresu. Ostatnia scena reprezentuje chaos, w tym sensie, że współistnieją oba okresy".36

Stoppard konsultował swoje idee zaczerpnięte z teorii chaosu z Robertem Mayem, który wziął udział w seminarium z autorem sztuki, dyrektorem teatru Trevorem Nunnem i całym zespołem National Theater. Jeden z jego doktorantów, Ałun Lloyd, przygotował "zbiór Coverly" dla Thomasiny, posługując się prostą formułą matematyczną, generującą złożone, przypominające liść struktury, których poszukiwała.37 Komputerowe obrazy fraktali, od zupełnie abstrakcyjnych obiektów, takich jak zbiory Mandelbrota czy Julii, do realistycznych form biologicznych i fizycznych, stały się popularnym motywem na plakatach i pocztówkach (Ryc. 10.1). Wykazują one naturalne piękno, które wzbudza podobne reakcje, jak widoki przyrody lub ludzkich dzieł sztuki, czy to realistycznych, czy abstrakcyjnych.

Ryc. 10.1. Popularna wersja chaosu.
Obraz zbioru Mandelbrota przygotowany przez Chaos Laboratory ze Scarborough.

Na artystycznej scenie pojawił się również cyfrowy darwinizm: grupa artystów znających się na komputerach używa technik ewolucyjnego programowania do tworzenia nowych form artystycznych. Jednym z najbardziej znanych zwolenników takiego podejścia jest William Latham, angielski artysta, niegdyś zatrudniony w IBM, założyciel firmy Computer Artworks Ltd. Stosuje on metody ewolucyjne, by stworzyć na komputerze niezwykłe formy (zob. wkładka, zdjęcie nr 11). Wybierając struktury, które wywołują niesamowite wrażenie, i hodując je, Latham stworzył – jak powiada – "ogród nieziemskich rozkoszy". Jego prace nie tylko zacierają granice między naturą i sztuką, ale również ilustrują bogactwo współczesnej symbiozy sztuki z nauką. Mutator, program opracowany przez Lathama i Stephena Todda, matematyka z IBM, nie tylko potrafi tworzyć dzieła artystyczne, ale również zaprojektować dom lub wybrać parametry komputerowego arkusza obliczeniowego. Operator może uśmiercać warianty, które mu się nie podobają, i wybierać rozwiązania do dalszej ewolucji. Latham użył tego programu do stworzenia bogatej kolekcji obrazów budynków, w grach komputerowych oraz do zaprojektowania butelki do szamponu. "Mutator znajduje ekstremalne i subtelne kształty, których człowiek by nie wymyślił" – zauważa Latham.38

Obraz przedstawiony na zdjęciu nr 12 (wkładka) stworzył Karl Sims, używając populacji programów genetycznych, znalezionych metodą "interakcyjnej ewolucji". Komputer generuje przypadkowe mutacje w matematycznych równaniach, opisujących kolorowe obrazy, a następnie artysta stosuje "estetyczne ciśnienie selekcyjne", wybierając do dalszej ewolucji te obrazy, które uważa za najlepsze. Ta procedura przypomina metodę zastosowaną przez Richarda Dawkinsa do generacji biomorfów, którą omówiliśmy w rozdziale 8. Po wielu iteracjach powstaje obraz zaskakujący swą złożonością.

Podczas wystawy Genetic Images, zorganizowanej w Centre Pompidou w Paryżu w 1993 roku, Sims użył komputera Con-nection Machinę do hodowania przypadkowych obrazów, prezentowanych na ustawionych w łuk szesnastu dużych monitorach. Przed monitorami znajdował się czujnik, pozwalający zwiedzającym wybierać obrazy według swego gustu. Obrazy odrzucane były unicestwiane i zastępowane mutacjami tych, które przetrwały. "Ludzie w muzeum sterowali ewolucją – opowiada Sims. – To był przypadek przetrwania obiektów najbardziej interesujących estetycznie".39

Sims następnie opracował program generujący stworzenia, których wygląd i działania podlegały ewolucji. Pewne "geny" decydowały o kształcie istot zbudowanych z klocków – podobnie, choć w nie tak prosty sposób, jak zwykłe geny decydują o kształcie organizmu – inne opisywały uproszczony program, mózg stworzenia, sterujący ruchami i reakcjami na światło, dotyk i kąt stawów.

Symulowana ewolucja zaczynała się od trzystu stworzeń -przypadkowych konfiguracji kolorowych klocków. Niektóre były nieciekawe, inne dziwaczne, jeszcze inne nierówno dygotały. Korzystając z superkomputera, Sims może śledzić ewolucję przez wiele pokoleń, wybierając stworzenia z pożądanymi cechami, na przykład potrafiące walczyć, pływać lub poruszać się (Zob. wkładka, zdjęcie nr 13). Interesujące, że podczas pierwszych prób komputerowe stworzenia "oszukiwały". "Robiły to, co chciałem, ale w inny sposób niż zamierzałem" – przyznaje Sims. Stworzenia ewoluowały tak, aby wykorzystać błędy w programie, który miał zapewnić, że będą poruszać się zgodnie z prawami fizyki newtonowskiej. Jeden z błędów pozwalał na naruszenie zasady zachowania pędu. Po kilku pokoleniach pojawiły się stworzenia, które poruszały się, uderzając się wiosłem. Inne znalazły błąd w programie całkującym równania ruchu Newtona, dzięki czemu poruszały się z niefizycznym przyspieszeniem.

Sims zrobił następnie film wideo, ukazujący na przykład wynik trwającej sto pokoleń ewolucji stworzeń rozmnażających się płciowo, które miały stać się "dobrymi pływakami". Niektóre cyfrowe stworzenia przybrały kształt podobny do ślimaka i wiły się w wirtualnej wodzie. Inne nauczyły się poruszać ruchem śrubowym lub zyskały duże płetwy. "Jeden z interesujących aspektów symulowanych ewolucji to możliwość stworzenia istot tak skomplikowanych, że nie można ich zrozumieć -zauważa Sims. – Na szczęście, tak być nie musi". Sims przypuszcza, że mógłby wyhodować jeszcze dziwniejsze stwory, gdyby potrafił wykształcić w nich poczucie piękna.

Nauka o złożoności pozwala nawet badać przeżycia w stanie bliskim śmierci. W jednej bardzo spekulatywnej próbie symulacji takiego przeżycia sieć neuronowa została zmuszona do "zwymiotowania" całej informacji, jaką sobie przyswoiła. Przed oczami sieci przemknęło całe jej wirtualne życie.40 W innych badaniach sztucznej śmierci uczeni korzystali z nieliniowych modeli dynamicznych, by analizować przeżycia wielu ludzi, od wirujących tuneli światła do szczególnie silnego wrażenia wyjścia poza ciało, często interpretowanych jako przebłyski pośmiertnego życia. Mario Markus z Instytutu Maxa Plancka Fizjologii Molekularnej w Dortmundzie szukał powstających w korze wzrokowej zorganizowanych struktur Turinga, mając nadzieję, że mogą one wyjaśnić pochodzenie geometrycznych wizji, występujących podczas halucynacji i w stanie bliskim śmierci. Znając geometrię kory wzrokowej i jej połączenia z siatkówką, można stwierdzić, jakie percepcje wzrokowe odpowiadają takim strukturom. Markus przeanalizował rysunki wizji wywołanych LSD, przedstawiające dziwne spirale i linie zbiegające się do punktu. Komputer wydedukował, że takie wizje mogą powstać, jeśli struktura aktywności kory wzrokowej przypomina umaszczenie zebry (Ryc. 10.2). W podobny sposób Markus tłumaczy występujące w stanie bliskim śmierci wizje tuneli, wypełnionych silnym – zdaniem niektórych, niebiańskim – światłem. Takie wizje mogą być spowodowane strukturami powstającymi w mózgu wskutek choroby lub ran.41

Ryc. 10.2. Halucynacje. Rozkład aktywności w korze wzrokowej (z lewej),

odpowiadający postrzeganemu obrazowi (z prawej].

Jaka inna dyscyplina poza nauką o złożoności ma coś do powiedzenia na tak różne tematy, jak cechy emergencyjne, życie, inteligencja, piękno, sztuka, śmierć i umieranie? Tylko filozofia. Teoria złożonych układów wywrze zapewne znaczący wpływ na rozważania filozoficzne, dotyczące licznych problemów mających dla nas duże znaczenie.42 Jak mogliśmy się przekonać, trudno jest abstrakcyjnie określić takie pojęcia, jak życie, inteligencja i świadomość. W przeszłości poświęcono tym zagadnieniom wiele raczej mglistych rozważań teoretycznych. Modele komputerowe pozwalają jednak na naukowe badanie rozmaitych układów złożonych. Zaletą tych modeli są precyzja i jasne wyłożenie wszystkich przyjętych założeń. We współczesnej filozofii można dostrzec tendencję do pomijania zjawisk emergencyjnych, natomiast oddolne modele, wykorzystujące sztuczne sieci neuronowe, jasno wykazują, że godne uwagi zdolności takich sieci do przetwarzania informacji wynikają z bardzo rozproszonej, równoległej dynamiki globalnej.

Pojawia się intrygujące pytanie o rozróżnienie między symulacjami komputerowymi i rzeczywistością. W wielu przypadkach nie można pomylić symulacji komputerowej procesu fizycznego lub chemicznego z samym procesem. Komputerowy model chwiejącego się mostu to coś innego niż most. Zdarza się jednak, że symulacja daje wyniki będące realizacją symulowanego procesu. Prostym przykładem jest komputerowa symulacja muzyki. Dowodziliśmy wcześniej, że nie ma żadnych powodów, dla których komputer nie miałby w pewnych warunkach wykazywać inteligencji i innych cech charakterystycznych dla życia.

Jeśli zaakceptujemy możliwość stworzenia sztucznego życia, musimy rozważyć trudne kwestie etyczne, mające znaczenie dla całej ludzkości. Jak należy postępować, jeśli cyfrowe organizmy w symulacjach sztucznego życia są naprawdę żywe? Czy mamy prawo zabijać je lub robić im krzywdę? Czy wolno nam poddawać je sztucznej selekcji w celu stworzenia pożądanych form, a jeśli tak, to w jakich celach?

Dla uczonych istotne jest, że analiza złożoności zmusza do podjęcia interdyscyplinarnych badań w renesansowym stylu i do symbiozy nauki z techniką. Spotkaliśmy się tu z wieloma przykładami, ilustrującymi owocność takiego podejścia, i nie mamy wątpliwości, że tak będzie i w przyszłości. Jej najbardziej fascynującym zwiastunem są pierwsze obliczenia biochemiczne, zapewne oznaczające narodziny nowego rodzaju komputerów.43 Gdyby Alan Turing i John von Neumann mogli to zobaczyć, z pewnością byliby zachwyceni, że cząsteczki rozwiązują złożony problem obliczeniowy. Ponieważ cząsteczki te to DNA, praca ta oznacza kolejny krok w kierunku zatarcia różnicy między komputerami i żywymi organizmami, co Turing i von Neuman niewątpliwie również by zaaprobowali.

Koncepcja molekularnych obliczeń narodziła się już w 1959 roku, gdy przyszły laureat Nagrody Nobla, fizyk Richard Feyn-man, wygłosił wykład o możliwości skonstruowania submi-kroskopowego komputera.44 W poprzednich rozdziałach omawialiśmy dwa kierunki takich badań; jeden związany z wykorzystaniem reakcji BZ do rozwiązywania problemów, drugi -z próbami zbudowania komputera kwantowego. Informatyk Leonard Adleman z Uniwersytetu Południowej Kalifornii zaproponował nowe podejście, wykorzystujące inny aspekt naturalnego paralelizmu przyrody. Eksperyment Adlemana polegał na zastosowaniu molekularnego paralelizmu do znalezienia "zorientowanej drogi Hamiltona". Jest to trudny problem typu NP; chodzi w nim o znalezienie drogi przechodzącej raz i tylko raz przez wszystkie podane wierzchołki grafu.

Droga hamiltonowska przechodzi przez każdy wierzchołek grafu dokładnie raz. Rozważmy na przykład zbiór czterech amerykańskich miast: Atlanta, Baltimore, Chicago i Detroit.

Załóżmy, że samoloty latają tylko na trasach Atlanta – Chicago, Chicago – Detroit, Chicago – Baltimore i Baltimore – Detroit. Problem skierowanej drogi hamiltonowskiej możemy teraz wyrazić następująco: czy podróżnik może zarezerwować bilety na dokładnie trzy loty, tak aby startując w Atlancie i lądując w Detroit, odwiedził wszystkie miasta? W tym przypadku łatwo stwierdzić, że podróżnik musi lecieć trasą Atlanta – Chicago -Baltimore – Detroit. Jeśli jednak liczba miast i połączeń wzrasta, to, jak we wszystkich problemach klasy NP, liczba możliwych tras do sprawdzenia gwałtownie rośnie.

Molekularny komputer rozwiązał ten problem, stosując brutalną siłę i rozległy paralelizm. "Komputerowy" program miał postać mieszaniny bilionów fragmentów cząsteczek DNA z jedną nicią helisy, reprezentujących miasta lub połączenia. Wśród ogromnej liczby kombinacji, do jakich doprowadziło łączenie komplementarnych nici DNA, niemal na pewno musiała się znaleźć również kombinacja o pożądanych własnościach. Następnie Adleman posłużył się standardowymi metodami biologii molekularnej, by wyłowić tę cząsteczkę: "rozwiązanie" wyraźnie różniło się od innych cząsteczek długością i składem.45

Później wykazano, że DNA może posłużyć do rozwiązywania innych problemów – wymagających przeszukania ogromnego zbioru potencjalnych rozwiązań – które przekraczają możliwości dowolnego konwencjonalnego komputera.46 Obecnie uczeni usiłują skonstruować uniwersalny komputer molekularny, zdolny do rozwiązania dowolnego problemu obliczeniowego. Ponieważ DNA może przechowywać i wynajdywać dane, pewnego dnia prawdopodobnie uda się opracować ogólną metodę molekularną regulowania oddziaływań między cząsteczkami i wydobywania z nich danych. To z kolei zapewne przyczyni się do rozwiązania problemu, czy układy biologiczne to rzeczywiście skomplikowane urządzenia obliczeniowe, wykonujące instrukcje zawarte w genach. Moglibyśmy wówczas poznać nowe szczegóły ewolucji i wyjaśnić przebieg złożonych procesów biochemicznych, takich jak te, które zachodzą w ludzkim mózgu. Z technicznego punktu widzenia warto pamiętać, że choć istniejące obecnie superkomputery są zdolne do wykonywania biliona operacji na sekundę, komputery molekularne mogą być miliard razy szybsze. Magazynowanie informacji w cząsteczkach DNA wymaga bilion razy mniej miejsca niż współczesne metody, takie jak dyski CD, i zużywa wiele rzędów wielkości mniej energii.

Kto wie, do jakiej rewolucyjnej symbiozy doprowadzi to nowe skrzyżowanie nauki z komputerem? W przyszłości będziemy z pewnością oglądać dalsze przykłady syntezy dwóch głównych wątków tej książki: zdolności komputerów do symulowania złożoności i umiejętności rozwiązywania problemów, jaką wykazują złożone układy biologiczne, a zwłaszcza ludzki mózg. Proszę sobie wyobrazić supermózg, utworzony przez globalną sieć komputerów molekularnych, wykorzystujących DNA. Czy ewolucja takiego supermózgu doprowadziłaby do powstania globalnej inteligencji? Jeśli tak, to zaczęłaby się nowa epoka w historii ewolucji.

  • zanotowane.pl
  • doc.pisz.pl
  • pdf.pisz.pl
  • teen-mushing.xlx.pl
  • Wątki
    Powered by wordpress | Theme: simpletex | © Lemur zaprasza