Nic za darmo. Dlaczego przyczyną wyspecyfikowanej złożoności musi być inteligencja - William A. Dembski - ebook

Nic za darmo. Dlaczego przyczyną wyspecyfikowanej złożoności musi być inteligencja ebook

William A. Dembski

0,0
39,90 zł

lub
-50%
Zbieraj punkty w Klubie Mola Książkowego i kupuj ebooki, audiobooki oraz książki papierowe do 50% taniej.
Dowiedz się więcej.
Opis

Nic za darmo. Dlaczego przyczyną wyspecyfikowanej złożoności musi być inteligencja stanowi rozwinięcie idei zawartych w poprzednim dziele Dembskiego „Wnioskowanie o projekcie”. Używając zaczerpniętych z teorii informacji twierdzeń „nic za darmo”, uczony dowodzi, że złożona wyspecyfikowana informacja nie może być wynikiem działania procesów przyrodniczych i dlatego jest świadectwem przemawiającym na rzecz teorii inteligentnego projektu. Zdaniem amerykańskiego matematyka teoria informacji wskazuje, że koncepcja przypadkowych mutacji i doboru naturalnego nie może stanowić wyjaśnienia różnorodności życia na Ziemi. Dembski sprzeciwia się opiniom uczonych, którzy podobnie jak Richard Dawkins twierdzą, że świadectwa empiryczne wskazują, iż życie powstało i rozwija się zgodnie z biegiem praw przyrody. Matematyk argumentuje, że złożone struktury biologiczne nie mogą zostać właściwie wyjaśnione bez czynnika inteligencji. Te ustalenia sprawiają, że „Nic za darmo” jest lekturą obowiązkową dla wszystkich zainteresowanych najnowszym ujęciem problemu pochodzenia informacji.

William A. Dembski – matematyk i filozof, wykładał między innymi na Northwestern University, University of Notre Dame i University of Dallas. Habilitował się z matematyki na MIT, z fizyki na University of Chicago oraz z informatyki na Princeton University. Jest pracownikiem naukowym na Wydziale Filozofii w Southwestern Seminary w Ft. Worth, gdzie kieruje Center for Cultural Engagement. Jest także starszym wykładowcą w Centrum Nauki i Kultury Discovery Institute w Seattle. W Conceptual Foundations of Science na Baylor University kierował pierwszym think tankiem teorii inteligentnego projektu. Publikuje artykuły w czasopismach naukowych oraz jest autorem i redaktorem kilkunastu książek.

Seria Inteligentny Projekt to pierwsza tak ambitna i bogata propozycja na polskim rynku wydawniczym, w ramach której ukazują się książki dotyczące teorii inteligentnego projektu – Intelligent Design (ID).
Autorzy zastanawiają się: czy różnorodność życia na Ziemi może być wyjaśniona wyłącznie przez procesy czysto przyrodnicze? Czy złożone struktury biologiczne mogły powstać drogą przypadku i konieczności, bez udziału inteligencji? Czy Ziemia jest tylko jedną z wielu niczym niewyróżniających się planet?
Teoria inteligentnego projektu jest ogólną teorią rozpoznawania projektu i ma szerokie zastosowanie w takich dziedzinach nauki, jak kryminalistyka, historia, kryptografia, astronomia i inżynieria. Seria Inteligentny Projekt pokazuje, że koncepcja ID powinna być stosowana również w zagadnieniach pochodzenia i rozwoju różnych form życia, a także w próbie zrozumienia nas samych.

Ebooka przeczytasz w aplikacjach Legimi lub dowolnej aplikacji obsługującej format:

EPUB
MOBI
PDF

Liczba stron: 788

Oceny
0,0
0
0
0
0
0
Więcej informacji
Więcej informacji
Legimi nie weryfikuje, czy opinie pochodzą od konsumentów, którzy nabyli lub czytali/słuchali daną pozycję, ale usuwa fałszywe opinie, jeśli je wykryje.



Tytuł oryginałuNo Free Lunch. Why Specified Complexity Cannot Be Purchased without Intelligence
Copyright © 2002 by Rowman & Littlefield Publishers, Inc. All rights reserved Copyright © for the Polish edition by Fundacja En Arche, Warszawa 2021
PrzekładZBIGNIEW KOŚCIUK
Redaktor naukowy seriiprof. dr hab. KAZIMIERZ JODKOWSKI
Redaktor prowadzącyJACEK FRONCZAK
Redakcja merytorycznadr DARIUSZ SAGAN
Redakcja językowaJOANNA MORAWSKA
KorektaSYLWIA KOZAK-ŚMIECH
Projekt okładkiJADWIGA TOPOLOWSKA
Projekt graficznyMARIA ROSŁONIEC
SkładHONORATA KOZON
lustracja na okładceShutterstock, Wellcome
Wydanie I
ISBN 978-83-66233-52-2 (PDF) ISBN 978-83-66233-51-5 (EPUB) ISBN 978-83-66233-53-9 (MOBI)
Fundacja En Arche al. Jana Pawła II 80 lok. 15 00-175 [email protected] Księgarnia internetowaenarche.pl/ksiegarnia/
Konwersja:eLitera s.c.

SERIA INTELIGENTNY PROJEKT

Seria Inteligentny Projekt to pierwsza tak ambitna i bogata propozycja na polskim rynku wydawniczym, w ramach której ukazują się książki dotyczące teorii inteligentnego projektu – Intelligent Design (ID).

Autorzy zastanawiają się: Czy różnorodność życia na Ziemi może być wyjaśniona wyłącznie przez procesy czysto przyrodnicze? Czy złożone struktury biologiczne mogły powstać drogą przypadku i konieczności, bez udziału inteligencji? Czy Ziemia jest tylko jedną z wielu niczym niewyróżniających się planet?

Teoria inteligentnego projektu jest ogólną teorią rozpoznawania projektu i ma szerokie zastosowanie w takich dziedzinach nauki, jak kryminalistyka, historia, kryptografia, astronomia i inżynieria. Seria Inteligentny Projekt pokazuje, że koncepcja ID powinna być stosowana również w zagadnieniach pochodzenia i rozwoju różnych form życia, a także w próbie zrozumienia nas samych.

W jakiż to sposób ciała zwierząt zostały zorganizowane z takim poczuciem kunsztu, i jakim celom zostały przeznaczone ich poszczególne części? Czyż w budowie oka nie widać biegłości w optyce, a budowa ucha nie jest świadectwem znajomości dźwięku?

Isaac Newton, Opticks, 1730

Spis ilustracji

1.1. Klasa odniesienia–Cel–Zdarzenie

1.2. Filtr eksplanacyjny

1.3. Anatomia wyjaśniania zjawisk (przed Darwinem)

1.4. Anatomia wyjaśniania zjawisk (po Darwinie)

2.1. Ogony krzywej dzwonowej

3.1. Dwa rodzaje informacji

3.2. Złożona wyspecyfikowana informacja

5.1. Typowa pułapka na myszy

5.2. Wić bakteryjna

5.3. Typowa pięcioczęściowa pułapka na myszy

5.4. Czteroczęściowa pułapka na myszy

5.5. Trzyczęściowa pułapka na myszy

5.6. Dwuczęściowa pułapka na myszy

5.7. Jednoczęściowa pułapka na myszy

5.8. Pokrywanie zmodyfikowanej szachownicy płytkami

5.9. Problem mostu w Królewcu

5.10. Graf ilustrujący problem mostu w Królewcu

6.1. Znaturalizowany filtr eksplanacyjny

Wstęp

Od czasu pierwszego wydania książki Nic za darmo upłynęło pięć lat. W tym okresie teoria inteligentnego projektu (ID – Intelligent Design) od mało znanej i niszowej alternatywy dla tradycyjnej teorii ewolucji przeobraziła się w krajowe i międzynarodowe zjawisko, o którym mówi każdy zainteresowany zagadnieniem pochodzenia życia. Zniknęła dychotomia kreacjonizmu i teorii ewolucji. Odkładając na bok nacisk kreacjonistów, aby Księgę Rodzaju uznawano za tekst naukowy, i traktując wykrywanie i stosowanie projektu jako narzędzia badawcze w nauce, teoria ID zajęła własną przestrzeń pojęciową i własne miejsce przy stole dyskusji naukowej. Pięć lat temu krytycy ID regularnie wysuwali zarzut, że teoretycy projektu nie mają publikacji w recenzowanej literaturze naukowej. Zarzut ten jest już nie do utrzymania, ponieważ badania przychylne teorii ID ukazują się w takich czasopismach naukowych, jak „Protein Science”, „Journal of Molecular Biology” i „Proceedings of the Biological Society of Washington” (szczegóły w tekście mojego raportu biegłego sądowego w tak zwanym procesie w Dover, który jest zamieszony na stronie www.designinference.com).

Ożywione dyskusje na temat intelektualnych i naukowych zalet ID wywarły także szeroki wpływ na sferę polityczną i publiczną. Czy teoria ID powinna być nauczana w szkołach publicznych? Jeśli tak, to czy powinna być nauczana jako koncepcja filozoficzna i religijna czy naukowa? Jaki jest właściwie status naukowy ID? Zwolennicy twierdzą, że teoria ID ma charakter naukowy, i definiują ją jako badanie wzorców w przyrodzie, których najlepszym wjaśnieniem jest działanie czynnika inteligentnego (tym samym stawiają ją obok archeologii, poszukiwań inteligencji pozaziemskiej oraz inżynierii). Z kolei krytycy widzą w ID próbę przemycenia idei religijnych do nauki. ID odkrywa świadectwa celowości w systemach biologicznych i dlatego uznaje się, że jest aż nazbyt przyjazna poglądom religijnym, w związku z czym nie ma dla niej miejsca w naukach przyrodniczych.

Dwudziestego grudnia 2005 roku, podczas pierwszego procesu sądowego Kitzmiller versus Dover, który dotyczył ID i powszechnie był nazywany „drugim procesem Scopesa”, sędzia federalny John E. Jones III ogłosił, że ID jest doktryną religijną i dlatego nauczanie tej teorii w szkołach publicznych jest niezgodne z konstytucją. Trudno jednak uznać, że ta decyzja stanowi ostatnie słowo. Rada szkolna okręgu Dover zaniechała kontrowersyjnej polityki, która doprowadziła do wszczęcia procesu. W konsekwencji nie wniesiono apelacji do Sądu Najwyższego, a więc proces ten ma wyłącznie charakter precedensu sądowego. Jednocześnie, traktując werdykt Jonesa jako decyzję sędziego-aktywisty, który nie miał odpowiednich podstaw, by rozstrzygać zagadnienia naukowe na mocy sądowego postanowienia, organizacje obywatelskie w całych Stanach Zjednoczonych kontynuują wysiłki wprowadzenia tematu ID do szkół. W przeciwieństwie do przedstawicieli establishmentu edukacyjnego i elitarnych mediów, znakomita większość Amerykanów jest przychylnie nastawiona do ID i sceptyczna w stosunku do obowiązującej teorii ewolucji (od 25 lat potwierdzają to badania Instytutu Gallupa).

Biorąc pod uwagę ten ferment wokół ID, w tym pierwszy publiczny wyraz aprobaty ze strony prezydenta USA George’a W. Busha w 2005 roku, nasuwa się pytanie o sytuację książki Nic za darmo. Ryzykując oskarżenie o nieskromność, uważam, że pozostaje ona kluczową pozycją ruchu inteligentnego projektu. Jako kontynuacja książki Wnioskowanie o projekcie (En Arche, 2021), w której po raz pierwszy przedstawiłem moją metodę wykrywania projektu, Nic za darmo nigdy nie uzyska rangi swojej poprzedniczki. Jednak jako tekst dostarczający streszczenia mojej metody wykrywania projektu, wskazujący na jej związek z teorią informacji (o czym wspomniałem przelotnie w epilogu do Wnioskowania o projekcie, a tutaj po raz pierwszy rozwinąłem) i umieszczający ID w szerszym kontekście nauk przyrodniczych i filozofii nauki, Nic za darmo nie została jeszcze zastąpiona przez żadną inną pracę. Nie oznacza to, że dociekania i badania naukowe ostatnich pięciu lat nie doprowadziły do lepszego zrozumienia poszczególnych zagadnień. Na przykład Angus Menuge w książce Agents under Fire (wydanej nakładem Rowman & Littlefield) znacznie pogłębił analizę natury przyczynowości inteligentnej. Mimo to Nic za darmo pozostaje według mnie najlepszym przeglądem teorii inteligentnego projektu jako intelektualnego i naukowego przedsięwzięcia.

Jak wspomniałem we wstępie do wydania pierwszego, moja książka jest przeznaczona dla dwóch rodzajów odbiorców: zawiera dostateczną ilość szczegółów dla fachowców, a jednocześnie obfituje w takie wyjaśnienia i przykłady, aby mogli ją zrozumieć laicy. Uważam, że na tyle, na ile jest to możliwe, czyni to w sposób godny podziwu. Zabieg ten otworzył jednak ekspertom pole do krytyki. Najbardziej znana jest recenzja Davida Wolperta, jednego z pomysłodawców twierdzeń „nic za darmo”[1] (twierdzeń, które podsunęły mi tytuł tej książki). W swojej recenzji (www.talkreason.org/articles/jello.cfm) Wolpert krytykuje ogólnikowość moich wywodów matematycznych, sugerując, że uniemożliwia to zaawansowanemu czytelnikowi właściwą ich ocenę. Wziąłem sobie do serca zarzut Wolperta i poszerzyłem techniczne rozważania na temat zachowania informacji, problemu przesunięcia i twierdzeń NFL (zobacz artykuły na mojej stronie designinference.com w zakładce „Matematyczne podstawy teorii inteligentnego projektu”).

Jak na ironię, ogólnikowy charakter moich wywodów matematycznych, które zdaniem Wolperta uniemożliwiają właściwą ocenę książki, nie powstrzymały go przed jej przeprowadzeniem. W recenzji pisze: „W neodarwinowskiej ewolucji ekosystemów nie jest tak, że zbiór genomów poszukuje tej samej, stałej funkcji przystosowania, a więc nie jest to sytuacja, której dotyczą twierdzenia NFL. Chodzi raczej o proces koewolucyjny. Z grubsza rzecz biorąc, gdy każdy genom ulega zmianom w kolejnych pokoleniach, przekształceniu ulegają też powierzchnie przeszukiwane przez inne genomy. Wyniki ostatnich badań wskazują, że twierdzenia NFL nie dotyczą koewolucji”. Ponieważ jednym z głównych twierdzeń tej książki jest, że twierdzenia NFL mają zastosowanie do koewolucji, wydawałoby się, że krytyka ze strony twórcy twierdzeń NFL będzie mieć destrukcyjne skutki. Tak jednak nie jest. W artykule Wolperta i Williama Macready’ego z 2005 roku, zatytułowanym Coevolutionary Free Lunches [Koewolucja i twierdzenia „nic za darmo”] („IEEE Transactions on Evolutionary Computation”), autorzy przyznają w abstrakcie i zakończeniu, że „twierdzenia NFL obowiązują również w typowych biologicznych scenariuszach koewolucyjnych tam, gdzie nie ma zwycięzcy”.

Zwracam uwagę na tę sprzeczność nie po to, by odtrąbić swój sukces, ale po prostu by przypomnieć, iż zagadnienia, które tu poruszam, pozostają aktualne i są przedmiotem dyskusji, a najważniejsi dyskutanci nie osiągnęli jeszcze porozumienia. Nic za darmo jest jednym z etapów dyskusji, nie stanowi ostatniego słowa. Spodziewam się, że kiedy biologia ewolucyjna uwolni się w końcu od przestarzałego wiktoriańskiego mitu – darwinizmu – i przyjmie nową syntezę, w której znajdzie się odpowiednie miejsce dla procesów materialnych i teleologicznych, książka ta zostanie doceniona za stymulującą rolę. Od początku miałem nadzieję, że zainspiruje ona nowe kierunki badań biologicznych, wolne od materialistycznej i redukcjonistycznej ideologii.

Przedmowa

Sposób, w jaki projektant przechodzi od myśli do przedmiotu, jest – przynajmniej w ogólnych zarysach – prosty. (1) Wyznacza cel. (2) Tworzy plan realizacji. (3) Określa materiały i formułuje instrukcje. (4) Na koniec on lub jego zastępca wykonuje instrukcje i łączy poszczególne elementy. W efekcie powstaje zaprojektowany obiekt, a projektant odnosi sukces w takim stopniu, w jakim obiekt ten spełnia wyznaczony cel. W ludzkim świecie ten czteroczęściowy proces projektowania nie budzi wątpliwości, niezależnie od tego, czy pieczemy ciasto, kierujemy samochodem, defraudujemy pieniądze czy budujemy superkomputer. Nie tylko sami realizujemy ten czteroczęściowy proces projektowania, lecz także obserwujemy innych, którzy czynią to niezliczoną liczbę razy. Jeśli znamy historię przyczynową w dostatecznych szczegółach, możemy odtworzyć ten proces od początku do końca.

Przypuśćmy jednak, że nie znamy szczegółowej historii przyczynowej i nie możemy prześledzić procesu projektowania. Obserwujemy jedynie przedmiot i musimy ustalić, czy powstał w wyniku procesu projektowania. Jak mamy stwierdzić, czy rzeczywiście został zaprojektowany? Jeśli przedmiot jest wystarczająco podobny do innych przedmiotów, o których wiemy, że zostały zaprojektowane, wówczas łatwo dochodzimy do wniosku o projekcie. Jeśli znajdziemy na przykład zapisaną kartkę, wyciągniemy wniosek o istnieniu ludzkiego autora, nawet gdy w ogóle nie znamy historii przyczynowej znalezionej kartki. Wszyscy wiemy, że ludzie robią notatki na kartkach, więc nie ma powodu zakładać, że ta sytuacja wymaga innej opowieści przyczynowej.

Biolodzy uważają jednak, że w przypadku organizmów żywych potrzebna jest zupełnie inna historia przyczynowa. Oczywiście przyznają, że systemy biologiczne sprawiają wrażenie zaprojektowanych. Na przykład Richard Dawkins pisze: „Biologia zajmuje się obiektami złożonymi, tworzącymi wrażenie celowego zamysłu”[1]. W podobnym duchu wypowiada się Francis Crick: „Biolodzy muszą nieustannie pamiętać, że to, co widzą, nie zostało zaprojektowane, lecz powstało w procesie ewolucji”[2]. Warto też wspomnieć o tytule podręcznika biologii autorstwa Renata Dulbecca, The Desing of Life [Projekt życia][3]. W literaturze biologicznej termin „projekt” występuje powszechnie. Mimo to używa się go w bardzo ograniczonym znaczeniu. Zdaniem społeczności biologów wrażenie projektu w biologii jest zwodnicze. Nie jest to równoznaczne z zaprzeczeniem, że w sferze biologicznej istnieje mnóstwo niezwykłych rozwiązań. Biolodzy chętnie to przyznają. Jednak według nich organizmy żywe nie są wynikiem czteroczęściowego procesu projektowania, który przed chwilą opisałem.

Skąd biolodzy wiedzą, że organizmy żywe nie zostały zaprojektowane, a jedynie sprawiają takie wrażenie? Zdaniem Francisca Ayali odpowiedzi dostarczył Karol Darwin: „Funkcjonalny projekt i cechy organizmów wydają się wskazywać na istnienie projektanta. Największym osiągnięciem Darwina było pokazanie, że ukierunkowaną organizację organizmów żywych można wyjaśnić jako rezultat przyrodniczego procesu – doboru naturalnego – bez potrzeby odwoływania się do Stwórcy lub innego czynnika zewnętrznego. Zagadnienia pochodzenia i adaptacji organizmów w całej ich obfitości i niezwykłych odmianach zostały w ten sposób wprowadzone do dziedziny nauki”[4]. Czy jest jednak prawdą, że ukierunkowaną organizację organizmów żywych można wyjaśnić bez odwołania się do projektanta? I czy przywoływanie projektanta w wyjaśnieniach biologicznych musi oznaczać, że wykraczamy poza obręb nauki? Celem mojej książki jest udzielenie odpowiedzi na te dwa pytania.

Tytuł Nic za darmo nawiązuje do zbioru dowiedzionych w ciągu pięciu ostatnich lat twierdzeń matematycznych dotyczących algorytmów ewolucyjnych. W świetle tych twierdzeń okazuje się, że algorytmy ewolucyjne nie dostarczają uniwersalnych rozwiązań problemów, lecz są w tym względzie dość ograniczone, ponieważ są zdolne do rozwiązania interesujących problemów dopiero po wprowadzeniu dodatkowej informacji, która nie była w nich wcześniej zawarta. Ta dodatkowa informacja musi być starannie wyspecyfikowana i precyzyjnie dostrojona, a takie zabiegi zawsze mają głęboko teleologiczny charakter. Algorytmy ewolucyjne nie mogą więc dostarczyć obliczeniowego uzasadnienia tezy, że darwinowski mechanizm doboru naturalnego i losowych zmian stanowi główną siłę stwórczą w świecie biologicznym. Podtytuł książki, Dlaczego tworzenie wyspecyfikowanej złożoności wymaga udziału inteligencji, odnosi się do tej formy informacji, znanej jako wyspecyfikowana złożoność lub złożona wyspecyfikowana informacja, która w coraz większym stopniu jest uważana za wiarygodną empiryczną oznakę celowości, inteligencji i projektu.

Czym jest wyspecyfikowana złożoność? Obiekt, zdarzenie lub struktura przejawiają wyspecyfikowaną złożoność, jeśli są złożone (czyli stanowią jedną z wielu realnych możliwości) i wyspecyfikowane (czyli pasują do niezależnie określonego wzorca). Długi ciąg losowo rozrzuconych kostek scrabble jest złożony, ale nie wyspecyfikowany. Krótki ciąg zawierający litery tworzące angielskie słowo „the” jest wyspecyfikowany, ale nie jest złożony. Ciąg odpowiadający sonetowi Szekspira jest jednocześnie złożony i wyspecyfikowany. W książce Wnioskowanie o projekcie. Wykluczenie przypadku metodą małych prawdopodobieństw[5] argumentowałem, że wyspecyfikowana złożoność jest wiarygodną empiryczną oznaką inteligencji. Mimo to krytycy mojej argumentacji utrzymują, że algorytmy ewolucyjne, a w szczególności mechanizm darwinowski, mogą generować wyspecyfikowaną złożoność bez udziału inteligencji[6]. Przewidziałem te zarzuty w książce Wnioskowanie o projekcie, ale nie zająłem się nimi szczegółowo. Uzupełnienie szczegółów jest zadaniem tej książki.

W książce Wnioskowanie o projekcie położyłem fundament. W tej książce wykazuję, że mechanizm darwinowski nie potrafi tworzyć wyspecyfikowanej złożoności. Umożliwili to sami darwiniści. Łącząc darwinowski mechanizm z algorytmami ewolucyjnymi, dali zielone światło dla matematycznej oceny zdolności mechanizmu darwinowskiego do wygenerowania całej złożoności życia. Ocena ta, której punktem wyjścia są twierdzenia „nic za darmo” sformułowane przez Davida Wolperta i Williama Macready’ego (zobacz część 4.6), zostanie w tej książce doprowadzona do logicznej konkluzji. Wykażę, że mechanizmy darwinowskie – czy to w naturze, czy in silico – są z zasady niezdolne do wytworzenia wyspecyfikowanej złożoności. W połączeniu z coraz większą liczbą danych z dziedziny kosmologii i biologii, wskazujących na to, że w przyrodzie jest mnóstwo przykładów wyspecyfikowanej złożoności (na przykład precyzyjne dostrojenie stałych kosmologicznych i nieredukowalna złożoność systemów biologicznych), wniosek ten uzmysławia, że naturalistyczne wyjaśnienia są niepełne oraz że hipoteza projektu stanowi uprawniony, fundamentalny tryb wyjaśniania naukowego.

Wykazując, że wyjaśnienia naturalistyczne są niepełne lub – równoważnie – że przyczyny naturalne nie mogą wytłumaczyć wszystkich cech świata przyrody, przeciwstawiam przyczyny naturalne przyczynom inteligentnym. Społeczność naukowa sama wprowadziła to rozróżnienie, stosując te bliźniacze kategorie przyczynowości. W przytoczonej wcześniej wypowiedzi Francisco Ayala stwierdza: „Największym osiągnięciem Darwina było pokazanie, że ukierunkowaną organizację organizmów żywych można wyjaśnić jako rezultat przyrodniczego procesu – doboru naturalnego – bez potrzeby odwoływania się do Stwórcy lub innego czynnika zewnętrznego”[7]. Przyczyny naturalne, tak jak je rozumie społeczność naukowa, są przyczynami działającymi zgodnie z deterministycznymi i niedeterministycznymi prawami i mogą zostać wyjaśnione przez odwołanie do przypadku, konieczności lub ich łącznego działania (zobacz Przypadek i konieczność Jacques’a Monoda)[8]. Dla ścisłości dodam, że jeśli ktoś rozumie przyczyny naturalne bardziej swobodnie i zalicza do nich procesy celowe nieredukowalne do przypadku i konieczności (jak to czynili starożytni stoicy, przypisując naturze immanentną teleologię), wówczas moje twierdzenie, że naturalne przyczyny są niepełne, traci na znaczeniu. Na ogół nie tak jednak przyczyny naturalne są pojmowane przez społeczność naukową.

Podział na przyczyny naturalne i inteligentne rodzi interesujące pytanie w odniesieniu do takich cielesnych istot inteligentnych jak my. Czy cielesne istoty inteligentne są przyczynami naturalnymi? Nawet jeśli cielesne istoty inteligentne działają wyłącznie za pośrednictwem przyczyn naturalnych, będąc całkowicie zdeterminowane przez budowę i dynamikę układu fizycznego, który nadaje im cielesność, nie oznacza to, że pochodzenie tego układu można wyjaśnić wyłącznie przez odwołanie się do przyczyn naturalnych. Takie układy mogą przejawiać pochodną intencjonalność, w której przypadku źródło intencjonalności jest nieredukowalne do przyczyn naturalnych (na przykład komputer cyfrowy). Będę przekonywać, że inteligentne działanie, nawet gdy jest uwarunkowane przez nadający mu cielesność układ fizyczny, nie może być bez reszty zredukowane do przyczyn naturalnych. Będę też argumentować, że wyspecyfikowana złożoność jest dokładnie tą resztą, która pozostaje bez wyjaśnienia. Będę przekonywać, że definicyjną cechą przyczyn inteligentnych jest zdolność tworzenia nowej informacji, a zwłaszcza wyspecyfikowanej złożoności.

Idea projektu ma za sobą burzliwe dzieje intelektualne. Do tej pory główna trudność polegała na wypracowaniu jasnego sformułowania pojęciowego, które pozwoliłoby na dokonanie postępu w nauce. Choć przyznaję, że dzieje argumentów na rzecz projektu mogą budzić niepokój, nie odnosi się to do ich obecnego sformułowania. Moja wizja teorii projektu nie oznacza atawistycznego powrotu do argumentów na rzecz projektu przedstawianych przez Williama Paleya czy w Bridgewater Treatises [Traktatach z Bridgewater]. William Paley nie mógł sformułować takiego pojęciowego ujęcia teorii projektu, jakie przedstawię w tej książce, ponieważ jego podstawą są między innymi postępy w dziedzinie teorii prawdopodobieństwa, informatyki, teorii informacji, biologii molekularnej i filozofii nauki. W tych ramach teoria projektu może potencjalnie stać się skutecznym narzędziem pojęciowym do badania i rozumienia świata.

Większe zaawansowanie filozoficzne i naukowe nie jest jednak jedyną rzeczą, która odróżnia moje podejście do teorii projektu od stanowiska Paleya. Podejście Paleya było ściśle związane z jego wcześniejszymi religijnymi i metafizycznymi przekonaniami. Moje nie jest. Projektant w ujęciu Paleya był nikim innym niż chrześcijańskim Bogiem w trzech osobach – transcendentną, osobową, moralną istotą ze wszystkimi doskonałymi cechami, które się jej zwykle przypisuje. Natomiast zgodnie z teorią inteligentnego projektu projektant jest inteligencją zdolną do generowania złożoności i specyficzności, które znajdujemy w całym Kosmosie, a zwłaszcza w układach biologicznych. Osoby posiadające przekonania teologiczne mogą zaapkceptować takiego projektanta i utożsamić go z obiektem religijnej czci. Z perspektywy ściśle naukowej teorii inteligentnego projektu taki krok jest jednak wyłącznie jedną z możliwości.

Pytanie o zasadniczym znaczeniu dla nauki brzmi: czy teoria projektu pomaga zrozumieć świat, zwłaszcza sferę biologiczną, lepiej niż wtedy, gdy systematycznie pomijamy pojęcia teleologiczne w teoriach naukowych? Naukowiec może postrzegać teorię projektu i odwołanie do projektanta po prostu jako skuteczne narzędzie poznania świata, nie przywiązując wagi do pytań w rodzaju: czy teoria projektu jest w jakimś ostatecznym sensie prawdziwa lub czy projektant rzeczywiście istnieje? Filozofowie nauki nazwaliby takie podejście do teorii projektu konstruktywnym empiryzmem. Naukowcy zajmujący się konstruowaniem tworów teoretycznych, takich jak kwarki, struny i zimna ciemna materia, mogliby uznać projektanta za kolejny obiekt teoretyczny na swojej liście. Podążam tutaj śladem Ludwiga Wittgensteina, który napisał: „Rzeczywistą zasługą Kopernika czy Darwina nie było odkrycie prawdziwej teorii, lecz nowego, płodnego aspektu”[9]. Jeśli teoria projektu nie może się stać nowym owocnym punktem widzenia, który inspiruje badania w nowych ekscytujących obszarach dociekań naukowych, to powinna zginąć śmiercią naturalną. Zanim to jednak nastąpi, zasługuje na autentyczną szansę odniesienia sukcesu.

Jednym z głównych powodów napisania tej książki jest uwolnienie nauki od arbitralnych ograniczeń, które moim zdaniem, tłumią dociekania naukowe, niszczą edukację i zmieniają naukowców w świeckich kapłanów, co w konsekwencji uniemożliwia bezstronne rozważenie teorii projektu. Podtytuł książki Richarda Dawkinsa Ślepy zegarmistrz to: Jak ewolucja dowodzi, że świat nie został zaplanowany. Dawkins może mieć rację, twierdząc, że we Wszechświecie nie występuje żaden projekt, jednak nauka musi badać nie tylko świadectwa tego, że we Wszechświecie nie ma żadnego projektu, lecz również te, które przemawiają za jego istnieniem. Świadectwa empiryczne stanowią miecz obosieczny: twierdzenia, które mogą zostać obalone przez dane empiryczne, mogą też być przez nie potwierdzane. Nawet jeśli uznamy teorię projektu za nieskuteczne narzędzie naukowego wyjaśniania, taki negatywny wynik musi wypływać ze sprawiedliwego rozważenia świadectw za i przeciw. Zgodziłby się z tym sam Darwin: „Właściwy rezultat otrzymać można tylko przez zestawienie wszystkich faktów i argumentów przemawiających za i przeciw każdej kwestii”[10]. W konsekwencji żadne odrzucenie teorii projektu nie może być wynikiem narzucenia nauce arbitralnych ograniczeń wykluczających tę teorię przed zbadaniem danych empirycznych.

W historii używano dwóch głównych ograniczeń, aby wykluczyć teorię projektu z obszaru nauk przyrodniczych: naturalizmu metodologicznego i dysteleologii. Naturalizm metodologiczny głosi, że w ramach nauk przyrodniczych wyjaśnienia wszystkich zjawisk naturalnych mogą się powoływać jedynie na przyczyny naturalne, natomiast odwołania do przyczyn inteligentnych są wykluczone. Z kolei dysteleologia nawiązuje do projektu gorszej jakości – zwykle okrutnego lub nieudolnego. Dysteleologia wyklucza projekt z nauk przyrodniczych na podstawie tezy o rzekomym istnieniu kiepskiego projektu w przyrodzie. W tej książce zajmę się kwestią naturalizmu metodologicznego. Stanowi on zasadę regulatywną, która za sprawą ograniczenia wyjaśnień naukowych do przyczyn naturalnych ma zagwarantować, że nauka będzie podążać właściwą drogą. Będę starał się wykazać, że podejście to niczego takiego nie gwarantuje, a jest jedynie kaftanem bezpieczeństwa, który hamuje rozwój nauki.

Nie będę mieć jednak nic do powiedzenia na temat dysteleologii. Dysteleologia mogłaby stanowić problem, gdyby wszystkie projekty w przyrodzie były okrutne lub nieudolne i stale naruszały nasze kryteria moralne i estetyczne. Tak jednak nie jest. Oczywiście istnieją drobnoustroje jak gdyby stworzone do wyrządzania szkód w układzie nerwowym ssaków oraz układach biologicznych i wyglądające na rezultat długiego procesu ewolucyjnego opartego na próbach i błędach. Można jednak wskazać biologiczne przykłady nanoinżynierii przewyższające wszystko, co wymyślili lub mają nadzieję wymyślić ludzcy inżynierowie. Dysteleologia jest przede wszystkim problemem teologicznym[11]. Wykluczenie teorii projektu z nauki tylko dlatego, że nie wszystkie przykłady biologicznego projektu spełniają nasze oczekiwania odnośnie do tego, co projektant powinien lub czego nie powinien zrobić, byłoby jedynie nieuczciwym wybiegiem. Problem projektu w biologii jest realny i wszechobecny, dlatego trzeba się z nim zmierzyć wprost, zamiast robić uniki tylko dlatego, że nasze wyobrażenia o projekcie wykluczają niedoskonałe jego przejawy. Świat przyrody nie jest jednorodny. Nie jest szczęśliwym światem Williama Paleya, w którym wszystko znajduje się w subtelnej harmonii i równowadze. Nie jest też – zgodnie z popularną karykaturą – darwinowskim światem przyrody, w którym panuje wyłącznie okrucieństwo. W przyrodzie istnieją projekty okrutne, kiepskie i znakomite. Nauka musi brać pod uwagę projekt, a nie odrzucać go w imię dysteleologii.

Trzeba w tym miejscu uprzedzić możliwe zamieszanie terminologiczne związane z określeniem „inteligentny projekt”. Zamieszanie może dotyczyć znaczenia słowa „inteligentny” w wyrażeniu „inteligentny projekt”. „Inteligentny” może oznaczać po prostu „będący wynikiem działania istoty inteligentnej”, nawet takiej, która postępuje głupio. Może też jednak oznaczać inteligentną istotę działającą z najwyższą biegłością i maestrią. Krytycy teorii inteligentnego projektu rozumieją słowo „inteligentny” w drugim znaczeniu, dlatego zakładają, że inteligentny projekt musi być projektem optymalnym. Tymczasem zwolennicy teorii inteligentnego projektu rozumieją określenie „inteligentny” jako odnoszący się po prostu do inteligentnego działania (bez względu na umiejętności, maestrię lub spryt) i odróżniają projekt inteligentny od projektu optymalnego. Dlaczego jednak mielibyśmy wówczas umieszczać przymiotnik „inteligentny” przed rzeczownikiem „projekt”? Czy „projekt” nie zawiera już w sobie idei inteligentnego działania, w związku z czym zestawienie tych dwóch wyrazów jest zbędne? Przypadek zbędności nie zachodzi, gdyż inteligentny projekt należy odróżnić od pozornego projektu. Ponieważ projekt w biologii tak często przywodzi na myśl pozorny projekt, dodanie przymiotnika „inteligentny” gwarantuje, że nie będziemy rozmawiać jedynie o pozornych projektach, ale również o tych rzeczywistych. Niezależne od tego, czy istota inteligentna działa w sposób rozumny lub głupi, mądry lub niemądry, optymalność lub suboptymalność stanowią odrębną kwestię.

Dla kogo jest przeznaczona ta książka? Dla każdego, kto jest zainteresowany poważnym zbadaniem zasięgu i zasadności darwinizmu oraz chce się dowiedzieć, jak rozwijająca się teoria inteligentnego projektu obiecuje go przewyższyć. Napoleon III powiedział kiedyś, że nigdy nie niszczy się czegoś, o ile się tego czymś nie zastąpi. Thomas Kuhn, używając języka paradygmatów i ich zmian, stwierdził coś podobnego: warunkiem zmiany starego paradygmatu jest sformułowanie nowego paradygmatu, który zdoła go zastąpić. W swojej pracy nie poprzestałem jedynie na krytyce istniejącej teorii, ale starałem się stworzyć pozytywne, szersze ramy pojęciowe, dzięki którym można dokonać rekonceptualizacji zjawisk, które istniejąca teoria wyjaśnia w stopniu niewystarczającym. Duża część książki Nic za darmo będzie zrozumiała dla wyształconych laików. Wiele idei przedstawiłem w opublikowanych wcześniej artykułach i publicznych wystąpieniach. Idee zawarte w tej książce kształtowały się pod ostrzałem krytyki. Jej rozdziały zostały napisane w taki sposób, aby odpowiedzieć na rzeczywiste pytania. Zaletą tej książki jest dostarczenie szczegółowych rozważań, a – jak wiadomo – diabeł tkwi właśnie w szczegółach.

Rozważania techniczne starałem się ograniczyć do minimum. Nie jestem miłośnikiem prozy przeładowanej zapisami symbolicznymi, więc unikam ich, kiedy tylko się da. Jednak książka tego rodzaju stwarza szczególne wyzwania. Sposób myślenia, zgodnie z którym złożoność biologiczna powstaje „za darmo”, owładnął nauką i głęboko się zakorzenił. Dlatego nie przyniesie nic dobrego posługiwanie się ogólnikami lub wskazywanie na oczywiste napięcia (na przykład „W jaki sposób inteligencja może powstać w wyniku działania nieinteligentnego ze swej natury procesu darwinowskiego?” lub „Jak możemy ufać naszym zdolnościom poznawczym, skoro jesteśmy dziełem prymitywnego procesu naturalnego, z którego perspektywy wszystko sprowadza się do przetrwania i rozmnażania, zaś poszukiwanie prawdy jest czymś nieistotnym?”). Gdyby moja książka traktowała o czymś zbyt oczywistym, nikt nie zwróciłby na nią uwagi. Gdyby była zbyt techniczna, nikt by jej nie przeczytał. Dlatego przyjąłem strategię polegającą na dostarczeniu wystarczającej ilości rozważań technicznych, aby eksperci mogli wypełnić je szczegółami, i wystarczającej ilości objaśnień, aby ludzie, którzy nie są ekspertami, mogli poczuć siłę wnioskowania o projekcie. Czytelnicy osądzą, czy mi się to udało.

Książka Nic za darmo ma następującą strukturę logiczną. W rozdziale 1 przedstawiam nietechniczne, uproszczone podsumowanie moich rozważań na temat wnioskowania o projekcie i wyraźnie ukazuję związek między moimi wcześniejszymi badaniami a darwinizmem. Rozdział 2 stanowi odpowiedź na zarzuty krytyków, którzy twierdzą, że wyspecyfikowana złożoność nie jest dobrze zdefiniowanym pojęciem i dlatego nie może stanowić podstawy przekonującego wnioskowania o projekcie. W szczególności dostarczam uproszczonego przedstawienia pojęcia specyfikacji. Rozdział 3 przekłada ramy pojęciowe wnioskowania o projekcie z rozdziałów 1 i 2 na mocniejsze ujęcie związane z teorią informacji. W rozdziale 4 wyjaśniam, dlaczego informacyjne ujęcie hipotezy projektu jest do utrzymania, a także obalam wyzwania stawiane mu przez algorytmy ewolucyjne. W szczególności wykazuję, że algorytmy ewolucyjne nie mogą generować wyspecyfikowanej złożoności. Rozdział 5 pokazuje, w jaki sposób aparat teoretyczny przedstawiony w poprzednich rozdziałach można zastosować do systemów biologicznych. Na koniec, w rozdziale 6, analizuję, jakie znaczenie ma teoria inteligentnego projektu dla nauki.

Przedstawię teraz krótkie podsumowanie książki, rozdział po rozdziale.

Rozdział 1. Trzeci tryb wyjaśniania. W jaki sposób można empirycznie wykrywać projekt, a zatem odróżnić go od dwóch powszechnie stosowanych trybów wyjaśniania naukowego, hipotez przypadku i konieczności? Wykrycie projektu wymaga dwóch elementów: złożoności i specyfikacji. Złożoność gwarantuje, że rozważany obiekt nie jest tak prosty, by jego istnienie można było bez trudu przypisać przypadkowi. Specyfikacja zapewnia, że obiekt wykazuje odpowiedni wzorzec kojarzony z działaniem przyczyn inteligentnych. Wyspecyfikowana złożoność staje się zatem kryterium empirycznego wykrywania projektu. Po zaproponowaniu aparatu teoretycznego służącego do wykrywania projektu przechodzę do historycznego wyzwania, które Darwin postawił teorii projektu, i wskazuję, dlaczego wielu naukowców uważa je za rozstrzygający argument przeciwko teorii projektu. W gruncie rzeczy Darwin przeciwstawił projektowi łączne działanie przypadku i konieczności, obiecując, że w ten sposób wyjaśni złożone, wysoce zorganizowane systemy biologiczne, które wcześniej przypisywano projektowi.

Rozdział 2. Inny sposób wykrywania projektu? Wielu członków naukowej i filozoficznej społeczności wiązało nadzieje na wyjaśnienie wyspecyfikowanej złożoności za pomocą algorytmów ewolucyjnych. Jednak nawet nie mając w zanadrzu algorytmów ewolucyjnych jako wyjaśnienia wyspecyfikowanej złożoności, niewiele osób jest gotowych przyjąć teorię projektu. Jednym z podejść, za którym coraz bardziej zdecydowanie opowiada się filozof nauki Elliott Sober, jest przypuszczenie bezpośredniego ataku na pojęcie wyspecyfikowanej złożoności na podstawie twierdzenia, że jest to błędna koncepcja, która nie może uczynić z teorii projektu hipotezy testowalnej w odniesieniu do obiektów naturalnych, oraz że całkowicie unieważnia ją ścisła analiza prowadzona w ramach teorii prawdopodobieństwa i teorii złożoności. Krytykując moje podejście do wykrywania projektu, Sober przyjął ujęcie prawdopodobieństwa oparte na koncepcji wiarygodności (likelihood), które same w sobie jest wysoce problematyczne. W rozdziale tym wykazuję, że wyspecyfikowana złożoność jest pojęciem dobrze zdefiniowanym i bez trudu przeciwstawia się krytyce Sobera i jego kolegów.

Rozdział 3. Wyspecyfikowana złożoność jako informacja. Teorię inteligentnego projektu można sformułować w kategoriach teorii informacji. W jej ramach wyspecyfikowana złożoność staje się formą informacji, która w sposób wiarygodny wskazuje na projekt. Jako forma informacji, wyspecyfikowana złożoność również staje się odpowiednim przedmiotem badań naukowych. W rozdziale tym powrócę do koncepcji z rozdziału 1 i 2 tej książki i przełożę je na język teorii informacji. Ten zabieg znacznie poszerzy ramy wnioskowania o projekcie przedstawione w rozdziale 1, umożliwiając przy tym precyzyjne określenie mocy (lub jej braku) mechanizmu darwinowskiego. Na końcu tego rozdziału przedstawię prawo zachowania rządzące powstawaniem i przepływem informacji. Z prawa zachowania informacji wynika, że wyspecyfikowanej złożoności nie da się zredukować do przyczyn naturalnych oraz że za powstawanie wyspecyfikowanej złożoności najprawdopodobniej odpowiadają przyczyny inteligentne. Inteligentny projekt staje się więc teorią wykrywania i pomiaru informacji, wyjaśniania jej pochodzenia i śledzenia przepływu.

Rozdział 4. Algorytmy ewolucyjne. Rozdział ten stanowi punkt kulminacyjny całej książki. Analizuję w nim algorytmy ewolucyjne stanowiące matematyczną podstawę darwinizmu. Wykazuję, że algorytmy ewolucyjne są zasadniczo niezdolne do generowania wyspecyfikowanej złożoności. Chociaż wniosek ten wypływa bezpośrednio z prawa zachowania informacji przedstawionego w rozdziale 3, prawo to funkcjonuje na wysokim poziomie abstrakcji, więc jego proste zastosowanie nie wyjaśnia, jak bardzo ograniczone są algorytmy ewolucyjne. Dlatego w rozdziale 4 badam podstawy algorytmów ewolucyjnych: przestrzenie fazowe, krajobrazy przystosowania i algorytmy optymalizacyjne. Elementarna analiza kombinatoryczna wykaże, że algorytmy ewolucyjne nie mogą tworzyć wyspecyfikowanej złożoności, podobnie jak pięć listów nie może zapełnić 10 skrzynek na listy.

Rozdział 5. Powstanie układów nieredukowalnie złożonych. Wyspecyfikowana złożoność jest wiarygodną oznaką inteligentnego projektu, ale co będzie, gdy się okaże, że w przyrodzie nie ma żadnych wyspecyfikowanych systemów złożonych? W poprzednich rozdziałach wykazałem, że wyspecyfikowana złożoność stanowi wiarygodną oznakę projektu, nie dowiodłem jednak tego, że wyspecyfikowana złożoność występuje w jakimś konkretnym układzie fizycznym. W tym rozdziale analizuję, w jaki sposób można stwierdzić, czy jakiś układ fizyczny cechuje się wyspecyfikowaną złożonością. Kluczem do odpowiedzi na to pytanie jest, przynajmniej w biologii, sformułowana przez Michaela Behe’ego koncepcja nieredukowalnej złożoności. Nieredukowalnie złożone systemy biologiczne cechują się wyspecyfikowaną złożonością. Nieredukowalna złożoność stanowi zatem szczególny przypadek wyspecyfikowanej złożoności. Ponieważ wyspecyfikowana złożoność jest pojęciem probabilistycznym, stwierdzenie, czy jest ona cechą danego układu fizycznego, wymaga możliwości obliczenia prawdopodobieństw. Jeden z zarzutów wysuwanych pod adresem teorii inteligentnego projektu jako realnego naukowego programu badawczego głosi, że nie można obliczyć prawdopodobieństw potrzebnych do potwierdzenia występowania wyspecyfikowanej złożoności w rzeczywistych systemach przyrodniczych. W rozdziale tym pokazuję, że choć dokładne obliczenia nie zawsze są możliwe, określenie granic odpowiednich prawdopodobieństw jest wykonalne, a dzięki temu da się w praktyce stwierdzić istnienie wyspecyfikowanej złożoności.

Rozdział 6. Teoria inteligentnego projektu jako naukowy program badawczy. Po wykazaniu, że wyspecyfikowana złożoność jest wiarygodną empiryczną oznaką inteligencji, i po odparciu głównych zarzutów naukowych wysuwanych pod adresem tego pojęcia, kończę książkę próbą opisania, jak będzie wyglądać nauka, kiedy teoria projektu uzyska na nowo pełny status naukowy. Istnieje obawa, że potraktowanie systemów naturalnych jako rezultat projektu doprowadzi do paraliżu nauki, ponieważ w chwili uznania, że jakiś system naturalny został zaprojektowany, cała praca naukowa dobiegnie końca. To jednak nieprawda. Teoria projektu inspiruje całe mnóstwo nowych interesujących pytań badawczych, które nie mają sensu w ramach czysto darwinowskiego lub naturalistycznego podejścia. Jednym z nich jest odróżnienie skutków przyczynowości naturalnej i inteligentnej. Na przykład zardzewiały stary cadillac został z pewnością zaprojektowany, ale nosi także ślady działania przyczyn naturalnych (czyli czynników atmosferycznych). Teoria inteligentnego projektu może wcielić w swoje ramy zasadne ustalenia teorii darwinowskiej. W szczególności teoria inteligentnego projektu widzi miejsce dla darwinowskiego mechanizmu doboru naturalnego i losowych zmian, ale jako rama pojęciowa badań naukowych oferuje dodatkowe narzędzia do badania przyrody, dzięki czemu stanowi potężniejsze ujęcie niż darwinizm.

Oczywiście byłoby najlepiej, gdyby czytelnik przeczytał tę książkę od deski do deski. Ponieważ nie zawsze jest to możliwe, pozwolę sobie zasugerować nastepującą metodę czytania. Rozdział 1 to najbardziej przystępny rozdział całej książki, stanowiący niezbędne wprowadzenie do pozostałej części. Czytelnik musi się z nim obowiązkowo zapoznać. Części od 1.1 do 1.7 stanowią niespecjalistyczne podsumowanie moich wcześniejszych badań procedury wnioskowania o projekcie, więc czytelnicy, którzy je znają, mogą je pominąć bez żadnej straty. Z kolei części od 1.8 do 1.10 są nowe i wskazują na bezpośredni związek między moimi wcześniejszymi pracami a darwinizmem, dlatego stanowią lekturę obowiązkową. Rozdział 2 jest skierowany przede wszystkim do krytyków. Jest to najbardziej techniczny fragment książki, więc czytelnicy akceptujący moje wcześniejsze wywody mogą go pominąć podczas wstępnej lektury. Rozdziały 3 i 4 przekładają ramy pojęciowe teorii projektu zarysowane w rozdziałach 1 i 2 na język teorii informacji. Rozdział 3 prezentuje ogólną teorię, zaś rozdział 4 analizuje algorytmy ewolucyjne. Czytelnikom nieposiadającym technicznego przygotowania sugeruję pobieżne zapoznanie się z rozdziałem 3 i staranne przestudiowanie rozdziału 4. Rozdział 5 jest zastosowaniem teorii projektu do dziedziny biologii. Ponieważ w tym obszarze skupia się obecnie najwięcej kontrowersji, czytelnik z pewnością nie będzie chciał pominąć tego rozdziału. Z kolei rozdział 6 analizuje szersze implikacje teorii inteligentnego projektu dla nauki i można go przeczytać w wolnej chwili.

Grupa czytelników nieposiadających wiedzy technicznej może śmiało pominąć szczegółowe analizy matematyczne. Niektórzy ludzie odczuwają wręcz paniczny lęk przed matematyką, robią krowie oczy i wyłączają im się mózgi na widok szczegółowych rozważań matematycznych. Jednak nawet oni mogą przeczytać tę książkę z pożytkiem. Sugeruję zapoznanie się po kolei z częściami 1.1–1.10, 5.1–5.7, 5.9 oraz 6.1–6.10. Do ich przeczytania wystarczy wiedzieć, że potęgi dziesięciu to liczby zer następujących po jedynce. Zatem 103 to 1000 (w liczbie tysiąc po jedynce są trzy zera), a 106 to 1 000 000 (w milionie po jedynce następuje sześć zer). Po zapoznaniu się z wymienionymi fragmentami można uzyskać dobry ogląd obecnej dyskusji na temat teorii inteligentnego projektu, szczególnie w związku z rozważaniami Michaela Behe’ego o nieredukowalnej złożoności maszyn molekularnych. Osoby nielubiące matematyki, które będą chciały się dowiedzieć, dlaczego algorytmy ewolucyjne nie mają zdolności do tworzenia projektów, którą zwykle przypisują im darwiniści, mogą się zapoznać z częścami 4.1–4.2 i 4.7–4.9.

Końcowa przestroga: chociaż znaczna część książki wyda się znajoma czytelnikom, którzy znają moją poprzednią pracę, wrażenie to jest mylące. Wspomniałem już, że części od 1.1 do 1.7 stanowią przystępne podsumowanie moich rozważań na temat wnioskowania o projekcie oraz że czytelnicy, którzy je znają, mogą pominąć ten fragment bez żadnej straty. Jednak inne części, choć na pierwszy rzut oka podejmują te same zagadnienia, różnią się znacznie od mojej wcześniejszej publikacji. Na przykład dwa główne przykłady wykorzystane w książce Wnioskowanie o projekcie to sprawa Caputa (przypadek rzekomego sfałszowania kolejności kandydatów na listach wyborczych) i algorytmiczna teoria informacji. Studia przypadków w częściach 2.3 i 2.4 stanowią nową analizę tych przykładów w świetle zarzutów, które w stosunku do nich wysuwano. Z wyjątkiem rozdziału 1 argumenty i tematy podjęte na nowo są niemal zawsze przeformułowane lub wzbogacone.

Jestem winien podziękowania wielu przyjaciołom i wrogom, kolegom i instytucjom. Zacznijmy do Templeton Foundation. Jesienią 1999 roku otrzymałem jedną z siedmiu nagród od Templeton Foundation na napisanie książki zatytułowanej Being as Communion: The Science and Metaphysics of Information [Bycie jako relacyjność. Nauka i metafizyka informacji]. Po złożeniu propozycji i otrzymaniu nagrody stało się dla mnie jasne, że nauka o informacji (a szczególnie nauka o złożonej wyspecyfikowanej informacji) zasługuje na osobną książkę. Zanim poważnie potraktuje się metafizykę informacji, należy poważnie potraktować naukę o informacji (może właśnie dlatego w wydaniach dzieł Arystotelesa Fizykę umieszcza się zawsze przed Metafizyką). Dlatego postanowiłem rozdzielić ten projekt badawczy na dwie części, zajmując się nauką o informacji w obecnym tomie, a jej metafizyką informacji w kolejnym, zatytułowanym Being as Communion: The Metaphysics of Information [Bycie jako relacyjność. Metafizyka informacji].

Oprócz hojnego wsparcia w przygotowaniu tej książki i kolejnego tomu Templeton Foundation sponsorowała różne konferencje i sympozja, w których brałem udział, zwłaszcza konferencję zatytułowaną Nature of Nature [Natura natury] na Baylor University w kwietniu 2000 roku, jak również sympozjum Complexity, Information, and Design: A Critical Appraisal [Złożoność, informacja i projekt. Analiza krytyczna], które odbyło się w Santa Fe w październiku 1999 roku, a jej organizatorem był Paul Davies. Sympozjum w Santa Fe było dla mnie niezwykle owocne, ponieważ ułatwiło mi przejście do kolejnego etapu moich rozważań nad wnioskowaniem o projekcie. Referat, który tam wygłosiłem, i odzew, z którym się spotkałem, stanowiły bezpośredni bodziec do napisania tego tomu. Rozmowy z Charlesem Bennettem, Gregorym Chaitinem, Paulem Daviesem, Nielsem Gregersenem, Stuartem Kauffmanem, Haroldem Morowitzem i Ianem Stewartem, które tam odbyłem, wryły mi się w pamięć i odcisnęły ślad w tej książce. Czuję się zaszczycony, że mogliśmy ze sobą dyskutować.

Chciałbym również podziękować za kompetencję i serdeczność personelowi oraz zespołowi administracyjnemu Templeton Foundation. Szczególne podziękowania składam Charlesowi Harperowi za okazanie zainteresowania moją pracą i umożliwienie udziału w sympozjum w Santa Fe. Na koniec chciałbym złożyć podziękowania Sir Johnowi Templetonowi za interesujące rozmowy przy obiedzie w Santa Fe dotyczące jego życia i aspiracji. Chociaż pan Templeton przekroczył osiemdziesiątkę, brał udział we wszystkich sesjach. Grafik każdego dnia sympozjum był napięty, a jednak pan Templeton uważnie śledził prezentacje i dyskusje. Chciałbym w jego wieku mieć taki wigor i jasność umysłu.

Przekazuję podziękowania Discovery Institute, a zwłaszcza funkcjonującemu w jego ramach Center for the Renewal of Science and Culture, którego jestem członkiem. Bruce Chapman, prezes Discovery, Stephen Meyer, dyrektor ośrodka, i John West, jego zastępca, byli dla mnie stałym źródłem zachęty. Wraz z innymi pracownikami byli moimi najlepszymi partnerami do rozmowy i stymulowali moje rozważania o teorii inteligentnego projektu. Na szczególne podziękowania zasługują Stephen Meyer i Paul Nelson. Współpracuję z nimi już od niemal dekady przy projektach książkowych, konferencjach akademickich i wydarzeniach medialnych związanych z teorią inteligentnego projektu. Obok Steve’a i Paula chciałbym również podziękować Michaelowi Behe’emu, Davidowi Berlinskiemu, Phillipowi Johnsonowi, Jayowi Richardsowi i Jonathanowi Wellsowi. Dziękuję także personelowi Discovery Institute za pomoc w sprawach praktycznych, zwłaszcza Dougowi Bilderbackowi, Markowi Edwardsowi i Steve’owi Jostowi.

Wśród wydarzeń sponsorowanych przez Discovery Institute jedno zasługuje na szczególne wymienienie. Teoria inteligentnego projektu ma wielu krytyków. Wśród zarzutów wysuwanych pod jej adresem oraz stowarzyszonego z nią ruchu intelektualnego pojawił się taki, że teoretycy projektu nie są dostatecznie samokrytyczni, a motywują ich raczej cele polityczne niż czyste umiłowanie nauki. Według mnie zarzut ten zupełnie upada, gdy weźmiemy pod uwagę sympozjum poświęcone teorii inteligentnego projektu, zorganizowane przez Timothy’ego McGrew i sponsorowane przez Discovery Institute. Dwudziestego drugiego i 23 maja 2001 roku w Calvin College, w Grand Rapids, w stanie Michigan, ośmiu teoretyków projektu, często nastawionych sceptycznie do prac pozostałych, a już do mojej w szczególności, spotkało się, by wyjaśnić pewne kwestie związane z logiką wnioskowania o projekcie. Jestem wdzięczny za ich wnikliwe, szczegółowe analizy. W sympozjum oprócz mnie uczestniczyli: Robin Collins, Rob Koons, Lydia McGrew, Timothy McGrew, Steve Meyer, Paul Nelson i Del Ratzsch. Z wyjątkiem Dela, który moderował nasze sesje, każdy przygotował własny referat i odpowiedział na referaty pozostałych. Recenzentem mojego był Rob Koons, który miał krytyczne uwagi do jednego z wcześniejszych szkiców rozdziału 2 tej książki. Pragnę mu szczególnie podziękować za jego uważne przestudiowanie mojego tekstu i znalezienie kilku błędów, które na szczęście zdążyłem poprawić przed wydaniem książki. Rob jest jednym z najbardziej wnikliwych filozofów, jakich znam, i dostarczył mi niezwykłej zachęty do pracy badawczej. Pragnę również podziękować Timothy’emu McGrew za zorganizowanie tego spotkania i nieprzerwaną pracę nad zredagowaniem materiałów z sympozjum (powstanie z tego interesująca książka). Na koniec chciałbym podziękować Jayowi Richardsowi za wykonanie czarnej roboty przy organizacji sympozjum. Niestety sam nie mógł w nim uczestniczyć z powodu śmierci syna, Josiaha.

Billy Grassie jako administrator strony internetowej poświęconej relacji nauki i religii: www.metanexus.net, John Wilson jako redaktor czasopisma „Books & Culture” oraz ojciec Richard John Neuhaus jako redaktor periodyku „First Things” zapewnili mi forum do przedstawienia idei związanych z teorią inteligentnego projektu. Dziękuję wszystkim za otworzenie mi drzwi. Ich fora okazały się niezwykle pomocne w przetestowaniu i objaśnieniu moich idei. Książka byłaby znacznie gorsza bez interakcji, które mi umożliwili. Strona internetowa Billy’ego Grassiego poświęcona relacji nauki i religii była pod tym względem szczególnie pomocna. Zwykle trzeba czekać dwa lub trzy lata, aż zrecenzowany artykuł zostanie przyjęty i ukaże się drukiem, więc z ogromną przyjemnością umieszczałem artykuły na stronie www.metanexus.net, dzięki czemu ukazywały się i były komentowane niemal natychmiast.

Uczelnia, na której pracuję, Baylor University, dała mi czas na badania związane z teorią inteligentnego projektu. Jako profesor nadzwyczajny zwolniony z obowiązku nauczania, znajduję się w wyjątkowej sytuacji, pozwalającej zrobić wszystko, co trzeba, aby wprowadzić teorię inteligentnego projektu do akademickiego głównego nurtu. Dziękuję Robertowi Sloanowi, rektorowi Baylor University, za stworzenie mi takiej możliwości. Pan Sloan, ogromnym kosztem osobistym i zawodowym, zatrudnił mnie na pięcioletni okres próbny, aby się przekonać, czy teoria inteligentnego projektu „przyniesie wyniki”. Wyników jeszcze nie ma i wiele pozostało do zrobienia, ale Baylor i rektor Sloan zasługują na pochwałę za danie temu przedsięwzięciu szansy na sukces. Pod tym względem chciałbym podziękować również administratorowi Donaldowi Schmeltekopfowi, Michaelowi Beaty’emu, Davidowi Lyle’owi Jeffreyowi i Bruce’owi Gordonowi. Z Bruce’em znamy się od dawna. To wspaniały partner do rozmowy i uważny czytelnik moich prac. Pozostawił ślad również w tej książce.

Są także inne instytucje i osoby, z którymi miałem bezpośredni kontakt i które wniosły znaczny wkład do tej książki: Paul Allen, Dean Anderson, Larry Arnhart, Art Battson, John Bracht, James Bradley, Walter Bradley, J. Budziszewski, Jon Buell, Anna Mae Bush, Eli Chiprout, Isaac Choi, Calvin College, John Angus Campbell, Center for Theology and the Natural Sciences, William Lane Craig, Ted Davis, Richard Dawkins, Michael Denton, Wesley Elsberry, Fieldstead and Company, filogenetycy, David Fogel, Foundation for Thought and Ethics, John Gilmore, Guillermo Gonzalez, Steve Griffith, Roland Hirsch, Muzaffar Iqbal, Steve Jones, Gert Korthof, Robert Larmer, Neil Manson, John H. McDonald, Angus Menuge, Todd Moody, Gregory Peterson, John Mark Reynolds, Terry Rickard, Douglas Rudy, Michael Ruse, Jeff Schloss, Kerry Schutt, Eugenie Scott, Michael Shermer, Fred Skiff, Elliott Sober, John L. Stahlke, Karl Stephan, Charlie Thaxton, Frank Tipler, Royal Truman, Regina Uhl, Howard Van Till, Deryck Velasquez, Richard Wein, John Wiester i Ben Wiker.

Na koniec chciałbym wyrazić wdzięczność rodzinie, która zawsze wspierała moją pracę nad teorią inteligentnego projektu. Chciałbym szczególnie podziękować mojej ukochanej żonie, Janie, która dostarcza mi zachęty bez nadmiernego pobłażania i która szczerze mnie kocha. Dedykuję tę książkę trójce naszych dzieci: Chloe Marie, Johnowi Danielowi i Williamowi Michaelowi.

Rozdział 1

Trzeci tryb wyjaśniania

1.1 Konieczność, przypadek i projekt

W życiu codziennym przywiązujemy dużą wagę do odróżnienia trzech trybów wyjaśniania, czyli hipotez: konieczności, przypadku i projektu. Ta pani przewróciła się sama czy ktoś ją popchnął? Jeśli przewróciła się sama, to czy jej upadek był przypadkowy czy nieuchronny? Jeżeli uznamy, że została popchnięta, sugerujemy projekt. Stwierdzając, że upadek był przypadkowy lub nieunikniony, wskazujemy – odpowiednio – na działanie przypadku lub konieczności. Ogólniej rzecz biorąc, w odniesieniu do danego zdarzenia, obiektu lub systemu chcemy wiedzieć: czy musiały zaistnieć? Czy zaistniały przypadkowo? Czy spowodował je czynnik inteligentny? Innymi słowy, czy zaistniały wskutek konieczności, przypadku czy inteligentnego projektu?

Codzienne rozróżnienia między koniecznością, przypadkiem i projektem mają charakter nieformalny, nie wystarczą więc do sformułowania naukowej teorii projektu. Dlatego słuszne jest pytanie, czy istnieje jakiś uzasadniony sposób odróżniania wspomnianych trybów wyjaśniania. Filozofowie i naukowcy różnili się nie tylko w kwestii sposobu odróżnienia poszczególnych trybów wyjaśniania, lecz także samej ich zasadności. W starożytności epikurejczycy przyznawali zaszczytne miejsce przypadkowi. Z kolei stoicy podkreślali działanie konieczności i projektu, ale odrzucali możliwość zachodzenia zdarzeń przypadkowych. W czasach średniowiecza Mojżesz Majmonides wiódł spór z islamskimi interpretatorami Arystotelesa, którzy postrzegali niebo, mówiąc słowami Majmonidesa, jako „konieczny skutek praw naturalnych”[1]. Tam, gdzie filozofowie islamscy widzieli konieczność, Majmonides dostrzegał projekt.

Przekonując o istnieniu projektu w swoim dziele Przewodnik błądzących, Majmonides wskazywał na nieregularne rozmieszczenie gwiazd na niebie. Uważał, że ta nieregularność jest dowodem przygodności (zajścia zdarzenia, które nie musiało się wydarzyć, a zatem nie było konieczne). Czy jednak rozmieszczenie gwiazd było przygodne wskutek przypadku czy projektu? Ani Majmonides, ani islamscy interpretatorzy Arystotelesa nie byli przychylni Epikurowi i jego koncepcji przypadku. Według nich przypadek nie mógł być czynnikiem fundamentalnym, w najlepszym razie stanowił jedynie wyraz niewiedzy. Majmonides i inni islamscy myśliciele pytali, czy można w uzasadniony sposób odróżni konieczność od projektu. Islamscy filozofowie, których zamiarem było uniknięcie mieszania filozofii Arystotelesa z teologią, odpowiadali przecząco. Majmonides udzielał twierdzącej odpowiedzi, wskazując na przygodność obserwowaną w przyrodzie. Podstawą jego argumentacji było rozmieszczenie gwiazd na nocnym niebie:

Co zadecydowało, że jedna mała część [nocnego nieba] ma zawierać dziesięć gwiazd, a inna być ich całkowicie pozbawiona? [...] Odpowiedź na [to] i podobne pytania jest bardzo trudna, prawie niemożliwa, jeśli przyjmiemy, że wszystko emanuje z Boga jako konieczny wynik stałych praw, jak twierdzi Arystoteles. Jeśli jednak uznamy, że wszystko jest dziełem projektu, wówczas nie ma w tym niczego dziwnego lub nieprawdopodobnego. Pozostaje tylko jedno pytanie: co jest przyczyną owego projektu? Odpowiedzią jest, że to wszystko zostało uczynione w jakimś celu, choć nie wiemy jakim. Nic nie zostało uczynione na próżno ani przypadkiem [...]. Jak więc człowiek rozsądny może sobie wyobrażać, że pozycja, wielkość i liczba gwiazd oraz różne tory ich sfer są pozbawione celu lub wynikły z przypadku? Nie ma wątpliwości, że każda z tych rzeczy jest [...] zgodna z pewnym projektem. Jest też skrajnie nieprawdopodobne, aby wszystko to było koniecznym wynikiem naturalnych praw, a nie przypadku[2].

Współczesna nauka również zmagała się z odróżnieniem konieczności, przypadku i projektu. Mechanika Newtona, pomyślana jako zbiór deterministycznych praw fizyki, wydawała się dopuszczać jedynie konieczność. Mimo to w części swojego dzieła Matematyczne zasady filozofii przyrody zatytułowanej Scholium ogólne Newton utrzymuje, że stabilność układu planetarnego zależy nie tylko od regularnego działania powszechnego prawa grawitacji, lecz także od precyzyjnego początkowego rozmieszczenia planet i komet w stosunku do Słońca. Wyjaśnia to w sposób następujący:

Chociaż ciała te w rzeczywistości trwają na swych orbitach wskutek samych praw ciążenia, to jednak prawa te nie mogłyby w żadnym razie mieć znaczenia dla określenia pozycji regularnych orbit wynikających z tych praw [...]. Ten najpiękniejszy system Słońca, planet i komet może pochodzić tylko z zamysłu i zwierzchnictwa jakiegoś inteligentnego i potężnego Bytu[3].

Newton, podobnie jak Majmonides, uważał idee konieczności i projektu za uprawnione sposoby wyjaśniania, nie poświęcał jednak wiele uwagi koncepcji przypadku.

Newton opublikował swoje Zasady w XVII wieku. Jednak w XIX wieku społeczność naukowa nie akceptowała już jego poglądu na sposób naukowego wyjaśniania. Oczywiście nadal dopuszczano hipotezę konieczności i wykluczano hipotezę przypadku, ale hipoteza projektu znacznie straciła na atrakcyjności. Kiedy Napoleon spytał Laplace’a, czy w swoich równaniach uwzględnił Boga, ten udzielił słynnej odpowiedzi: „Najjaśniejszy panie, nie potrzebowałem tej hipotezy”. W miejsce inteligentnego projektanta precyzyjnie rozmieszczającego ciała niebieskie Laplace zaproponował hipotezę mgławicową, która wyjaśniała powstanie Układu Słonecznego wyłącznie za pomocą naturalnych oddziaływań grawitacyjnych[4].

Od czasu Laplace’a nauka w dużym stopniu obywała się bez hipotezy projektu. Z pewnością w wiekiej mierze przyczynił się do tego Darwin, który wykluczył hipotezę projektu z biologii. Jednak gdy nauka uwalniała się od hipotezy projektu, odchodziła również od Laplace’owskiej wizji deterministycznego Wszechświata (przypomnijmy sobie słynnego demona Laplace’a, który potrafił przewidywać przyszłość i z idealną precyzją dokonywać retrodykcji przeszłych zdarzeń, pod warunkiem że obecne pozycje i pęd cząstek są w pełni znane)[5]. Wraz z powstaniem mechaniki statystycznej, a później mechaniki kwantowej, rola idei przypadku w fizyce zaczęła być uważana za nieusuwalną. Za szczególnie przekonujący argument uznano niespełnienie nierówności Bella[6]. W rezultacie deterministyczny, poddany konieczności Wszechświat ustąpił miejsca Wszechświatowi stochastycznemu, w którym hipotezy przypadku i konieczności uważane są za fundamentalne, nieredukowalne do siebie tryby wyjaśniania naukowego. Podsumowując, współczesna nauka dopuszcza zasadne odróżnianie hipotez konieczności i przypadku, ale odrzuca hipotezę projektu.

1.2 Rehabilitacja hipotezy projektu

Czy naukowcy postąpili słusznie, odrzucając hipotezę projektu? W tej książce przekonuję, że hipoteza projektu jest uprawnionym, podstawowym trybem wyjaśniania naukowego, równorzędnym z hipotezami przypadku i konieczności. Argumentując na rzecz tego twierdzenia, chciałbym nie przesądzać z góry implikacji hipotezy projektu dla nauki. W szczególności nie będę stawiał sobie za cel narzucenia nauce religijnej doktryny o stworzeniu. Hipoteza projektu w moim ujęciu stanowi miecz obosieczny i można jej użyć do pozbawienia doktryn religijnych treści empirycznej za sprawą wykazania zbędności projektu w przyrodzie (gdyby rzeczywiście był zbędny). Moim zamiarem nie jest odnalezienie projektu w dowolnym miejscu Wszechświata ani uzyskanie ideologicznej przewagi, lecz zapewnienie możliwości ustalenia istnienia lub nieistnienia projektu.

Moim celem jest zatem zrehabilitowanie hipotezy projektu jako uprawnionego trybu wyjaśniania naukowego bez przesądzania o jego zastosowaniu do rzeczywistych układów fizycznych. Zważywszy na ten cel, pomocne będzie rozważenie, dlaczego hipoteza projektu została wykluczona z obrębu współczesnej nauki. Projekt, w postaci arystotelesowskiej przyczyny formalnej i celowej, odgrywał przecież w pełni uprawnioną rolę w ramach filozofii przyrody, czyli tego, co obecnie nazywamy nauką. Jednak wraz z powstaniem nowożytnej nauki przyczyny te popadły w niesławę.

Możemy zrozumieć, jak do tego doszło, rozpatrując przykład Francisa Bacona. Bacon, który żył w czasach Galileusza i Keplera, nie był naukowcem, ale świetnym propagatorem nauki. Poświęcał wiele uwagi właściwej metodzie naukowej, formułując szczegółowe kanony obserwacji eksperymentalnej, zapisywania danych i wnioskowania na ich podstawie. Nas interesuje jednak to, co uczynił z czterema arystotelesowskimi przyczynami. Zdaniem Arystotelesa, aby właściwie zrozumieć jakieś zjawisko, trzeba zdobyć wiedzę o jego czterech przyczynach: materialnej, sprawczej, formalnej i celowej[7].

Zilustruję to na przykładzie posągu Dawida Michała Anioła. Przyczyna materialna to materiał, z którego posąg został wykonany – marmur. Przyczyna sprawcza to bezpośrednie działanie, które doprowadziło do powstania posągu – obrabianie bryły marmuru przez Michała Anioła z użyciem dłuta i młotka. Przyczyna formalna to struktura posągu – przedstawia on Dawida, nie jest przypadkową bryłą marmuru. Przyczyna celowa stanowi zaś jej cel – przypuszczalnie upiększenie jednego z florenckich pałaców.

Dla naszych rozważań ważne są dwa spostrzeżenia na temat arystotelesowskich przyczyn. Po pierwsze, grecki filozof przypisywał równą wagę wszystkim czterem przyczynom. Uznałby, że każde badanie, w którym pominęto którąś z tych przyczyn, jest niekompletne. Po drugie, Bacon stanowczo sprzeciwiał się temu, by nauka zajmowała się przyczynami formalną i celową (zobacz jego The Advancement of Learning [Postęp nauki])[8]. Zdaniem Bacona przyczyny formalna i celowa należą do metafizyki, nie do nauki. Według niego nauka powinna ograniczyć się do przyczyn materialnej i efektywnej, co uwolni ją od nieuniknionej jałowości, która powstaje wskutek połączenia nauki z metafizyką. Taką obrał drogę i opowiadał się za nią z pełnym przekonaniem.

W naszych czasach stanowiska Bacona bronią na równi ateiści i teiści. W książce Przypadek i konieczność laureat Nagrody Nobla z dziedziny biologii Jacques Monod argumentuje, że przypadek i konieczność wystarczą do wyjaśnienia każdego aspektu Wszechświata. Niezależnie od wszystkiego, co jeszcze moglibyśmy powiedzieć na temat przypadku i konieczności, w najlepszym razie dostarczają one jedynie redukcyjnego ujęcia arystotelesowskich przyczyn formalnych, nie pozostawiając żadnego miejsca przyczynom celowym. Monod otwarcie wyklucza przyczyny celowe z obrębu nauki: „Kamieniem węgielnym metody naukowej jest postulat obiektywności Natury. Oznacza to systematyczne odrzucenie – jako niemogącej prowadzić do »prawdziwego« poznania – wszelkiej interpretacji podanej w kategoriach celowości, czyli »programu«”[9].

Monod był zdeklarowanym ateistą. W sprawie tego aspektu nauki zgadza się z nim jednak zdeklarowany teista, Stanley Jaki. Pod względem teologicznym Jaki jest najbardziej konserwatywnym historykiem nauki i katolickim księdzem, jakiego da się zapewne znaleźć. Mimo to wydał książkę, w której pisze otwarcie, że celowość jest pojęciem czysto metafizycznym i nie może być w uprawniony sposób wprowadzona do nauki. „Nie chcę mieć nic wspólnego ze stanowiskiem [...], w którym nauka jest wykorzystywana ukradkiem jako środek objaśniania czysto metafizycznego zagadnienia celowości”[10]. Dokonane przez Jakiego wykluczenie pojęcia celowości z nauki i – ogólniej rzecz biorąc – hipotezy projektu ma praktyczne implikacje. Na przykład prowadzi go do przekonania o błędności argumentacji Michaela Behe’ego, że o projekcie biologicznym można wnioskować na podstawie nieredukowalnej złożoności układów biochemicznych.

Nie chcę wywoływać wrażenia, że opowiadam się za powrotem do arystotelesowskiej teorii przyczynowości. Rodzi ona pewne problemy i należy zastąpić ją inną koncepcją. Zastanawia mnie jednak, czym możną ją zastąpić. Ograniczając badania naukowe do przyczyn materialnych i sprawczych, co oczywiście jest w pełni zgodne z odwołaniami do przypadku i konieczności, Bacon opowiadał się za poglądem na naukę, w którym hipoteza projektu musi być wykluczona.

Przypuśćmy jednak na chwilę, że odłożymy na bok wszelkie aprioryczne zakazy względem hipotezy projektu. Czy w wyjaśnieniu, że coś zostało zaprojektowane przez czynnik inteligentny, jest coś niewłaściwego? Przecież wiele codziennych zdarzeń wyjaśniamy, odwołując się do projektu. Co więcej, w codziennym życiu rzeczą absolutnie niezbędną jest odróżnianie przypadku od projektu. Domagamy się odpowiedzi na pytania: Czy ta pani przewróciła się sama, czy została popchnięta? Czy ktoś umarł przypadkowo, czy popełnił samobójstwo? Czy ta piosenka została skomponowana niezależnie, czy jest plagiatem? Czy komuś po prostu dopisało szczęście na giełdzie, czy doszło do wykorzystania poufnych informacji?

Nie tylko domagamy się odpowiedzi na takie pytania, ale niekiedy całe nasze przedsięwzięcia poświęcone są odróżnianiu przypadku od projektu. Można wymienić wśród nich kyminalistykę, prawo ochrony własności intelektualnej, dochodzenia w sprawie roszczeń ubezpieczeniowych, kryptografię i generowanie liczb losowych. Sama nauka musi wyznaczać granicę między przypadkiem a projektem, aby zachowywano w niej uczciwość. Artykuł zamieszczony na łamach magazynu „Science” w styczniu 1998 roku wyraźnie uzmysłowił, że fałszowanie danych i plagiaty są w nauce znacznie powszechniejszym zjawiskiem, niż chcielibyśmy to przyznać[11]. Utrzymujemy sytuację w ryzach, bo potrafimy wykrywać takie nadużycia.

Jeśli projekt jest tak łatwo wykrywalny poza naukami przyrodniczymi i jeśli jego wykrywalność jest jednym z kluczowych czynników zmuszających naukowców do zachowania uczciwości, to dlaczego hipoteza projektu powinna być wykluczana z rzeczywistej treści nauk przyrodniczych? Pojawia się tutaj pewien problem, który polega na tym, że jeśli opuścimy wąską dziedzinę ludzkich artefaktów i wkroczymy w nieograniczoną dziedzinę obiektów naturalnych, nie da się wiarygodnie wyznaczyć granicy między projektem a czymś, co projektem nie jest. Rozważmy na przykład uwagę Darwina w ostatnim rozdziale jego dzieła O powstawaniu gatunków:

Niektórzy wybitni przyrodnicy jeszcze niedawno utrzymywali, że wielka liczba domniemanych gatunków należących do różnych rodzajów nie stanowi prawdziwych gatunków, ale że pozostałe stanowią rzeczywiste, to jest niezależnie stworzone gatunki [...]. Pomimo to nie twierdzą oni jednak, że potrafią podać definicję czy tylko domysł co do tego, które formy życiowe zostały stworzone, które zaś powstały tylko wskutek wtórnych praw. Uznają w jednym przypadku przemianę za vera causa, a odrzucają dowolnie w drugim, nie wskazując rozróżnienia między obu przypadkami[12].

Darwin krytykuje tutaj biologów utrzymujących, że pewne gatunki są wytworem czysto naturalnych procesów, a inne zostały specjalnie stworzone. Zdaniem Darwina uczeni ci nie wskazują żadnej obiektywnej metody odróżnienia tych form życia, które zostały specjalnie stworzone, od tych, które są wynikiem procesów naturalnych (lub tego, co Darwin nazywa „prawami wtórnymi”). Jak możemy mieć pewność, nie posiadając takiej metody odróżniania, że nasz wniosek o projekcie jest wiarygodny? To właśnie ta obawa przed błędnym przypisaniem czegoś projektowi (tutaj rozumianemu jako stworzenie) i późniejszym obaleniem tego wniosku uniemożliwiła wejście hipotezy projektu do nauki w jej właściwym sensie.

Obawa ta, być może usprawiedliwiona w przeszłości, obecnie jest już bezpodstawna. Istnieje już ścisłe kryterium odróżniania obiektów powstałych wskutek działania przyczyn inteligentnych od tych, które są wytworami przyczyn nieinteligentnych. W wielu naukach szczegółowych (na przykład kryminalistyce, badaniach sztucznej inteligencji, kryptografii, archeologii i programie SETI) to kryterium jest już stosowane, choć jedynie w postaci przedteoretycznej. Nazywam je kryterium złożoności-specyfikacji. Działanie istot inteligentnych pozostawia po sobie cechę charakterystyczną lub sygnaturę, którą nazywam wyspecyfikowaną złożonością[13]. Kryterium złożoności-specyfikacji pozwala wykryć projekt przez zidentyfikowanie tej cechy charakterystycznej zaprojektowanych obiektów.

1.3 Kryterium złożoności-specyfikacji

Szczegółowe objaśnienie i uzasadnienie kryterium złożoności-specyfikacji ma charakter techniczny i jest tematem mojej książki Wnioskowanie o projekcie. W rozdziale drugim streszczę treść tej książki, wprowadzę pewne przydatne uproszczenia i rozwinę niektóre wątki. W dalszej części tego rozdziału chciałbym po prostu umotywować i zilustrować kryterium złożoności-specyfikacji. Podstawowa idea jest prosta. Przypomnijmy sobie, jak radioastronomowie z filmu Kontakt odkryli inteligencję pozaziemską. Film, oparty na książce Carla Sagana, stanowi uroczy przykład propagandy na rzecz programu badawczego SETI – programu poszukiwania inteligencji pozaziemskiej. Aby uczynić film bardziej interesującym, badacze SETI z filmu Kontakt rzeczywiście odnajdują inteligencję pozaziemską (prawdziwi badacze SETI nie mieli jeszcze tyle szczęścia).

Dlaczego badacze SETI byli przekonani, że odkryli ślad inteligencji pozaziemskiej? Aby zwiększyć szansę jej odnalezienia, monitorują miliony sygnałów radiowych docierających z przestrzeni kosmicznej. Wiele obiektów naturalnych w przestrzeni kosmicznej wytwarza fale radiowe (na przykład pulsary). Poszukiwanie śladów projektu wśród tych wszystkich naturalnych sygnałów radiowych przypomina szukanie igły w stogu siana. Aby odnaleźć właściwy sygnał, badacze SETI przepuszczają monitorowane sygnały przez komputery zaprogramowane do wykrywania wzorców. Jeśli sygnał nie odpowiada żadnemu z nich, przechodzi przez sito (nawet jeśli pochodzi z inteligentnego źródła). Jeśli jednak odpowiada jednemu ze wzorców, wówczas w zależności od tego, który to wzorzec, badacze SETI mogą mieć powód do świętowania.

Radioastronomowie z filmu Kontakt wykryli następujący sygnał, który okazał się godny świętowania:

Badacze SETI odebrali ten sygnał w postaci ciągu złożonego z 1126 impulsów i pauz, w którym jedynką oznaczono impuls, a zerem pauzę. Ciąg ten przedstawia liczby pierwsze od 2 do 101. Każdej liczbie pierwszej odpowiada określona liczba impulsów (jedynek), a poszczególne liczby pierwsze są oddzielone od siebie pauzami (zerami). Ciąg rozpoczyna się dwoma impulsami, po których następuje pauza, następnie są trzy impulsy i pauza, pięć impulsów i pauza i tak dalej aż do 101 impulsów. Badacze SETI w filmie Kontakt uznali ten ciąg za rozstrzygające potwierdzenie istnienia inteligencji pozaziemskiej.

Jaka cecha opisanego sygnału wskazuje na projekt? Kiedy wnioskujemy o projekcie, musimy stwierdzić trzy rzeczy: przygodność, złożoność i specyfikację. Przygodność gwarantuje, że badany obiekt nie jest wynikiem automatycznego, a więc nieinteligentnego procesu, który tworząc ten konkretny rodzaj obiektu, nie miał innego wyboru. Złożoność gwarantuje, że obiekt nie jest tak prosty, aby można go było łatwo wytłumaczyć działaniem przypadku. Wreszcie, specyfikacja zapewnia, że obiekt odpowiada wzorcowi charakterystycznemu dla wytworów inteligencji. Przyjrzyjmy się bliżej każdemu z wymienionych warunków.

W praktyce, aby stwierdzić przygodność obiektu, zdarzenia lub struktury, należy ustalić, czy są zgodne z regularnościami towarzyszącymi ich powstaniu, ale również, czy dopuszczają one wiele rozwiązań alternatywnych. Zwykle uznaje się, że takimi regularnościami są prawa przyrody lub algorytmy. Jeśli warunek ten jest spełniony, oznacza to, że obiekt, zdarzenie lub struktura są nieredukowalne do żadnej fizycznej konieczności leżącej u ich podłoża. Ta metoda ustalania przygodności została opisana przez Michaela Polanyiego i Timothy’ego Lenoira[14]. Ma bardzo szerokie zastosowanie. Na przykład ułożenia płytek scrabble’a na planszy nie da się zredukować do praw przyrody rządzących ich ruchami, konfiguracja atramentu na kartce papieru jest nieredukowalna do fizycznych i chemicznych procesów działających przy interakcjach między papierem i atramentem, sekwencji zasad azotowych DNA nie da się zredukować do powinowactw wiązania między tymi zasadami. Sygnał radiowy z filmu Kontakt – szereg zer i jedynek tworzący ciąg liczb pierwszych – jest nieredukowalny do praw fizyki rządzących transmisją sygnałów radiowych. Dlatego uznajemy go za przygodny.

W celu zilustrowania, dlaczego złożoność odgrywa tak ważną rolę we wnioskowaniu o projekcie, przyjrzyjmy się następującemu ciągowi bitów:

110111011111

Jest to 12 początkowych bitów wcześniejszego ciągu, które odpowiadają liczbom pierwszym 2, 3 i 5. Oczywiście na widok takiego ciągu żaden badacz SETI nie zadzwoni do redaktora działu naukowego „New York Timesa”, nie zwoła konferencji prasowej i nie ogłosi odkrycia pozaziemskiej inteligencji. W prasie nie ukaże się też żaden nagłówek oznajmujący, że obcy znają trzy początkowe liczby pierwsze.

Problem polega na tym, że wspomniany ciąg jest zbyt krótki (a więc zbyt prosty), aby stwierdzić, że wytworzyła go inteligencja pozaziemska posiadająca wiedzę na temat liczb pierwszych. Ciąg mógł równie dobrze pochodzić z losowo pulsującego źródła fal radiowych. Jednak ciąg 1126 bitów reprezentujących liczby pierwsze od 2 do 101 to zupełnie inna sprawa. W tym przypadku ciąg jest wystarczająco długi (a więc wystarczająco złożony), by mogła go wytworzyć jedynie inteligencja pozaziemska.

Złożoność, którą tutaj opisałem, jest postacią prawdopodobieństwa. Żeby dostrzec związek między złożonością a prawdopodobieństwem, przyjrzyjmy się zamkowi szyfrowemu. Im więcej możliwych kombinacji w zamku, tym bardziej złożony mechanizm i odpowiednio, mniejsze prawdopodobieństwo jego przypadkowego otworzenia. Zamek szyfrowy z tarczą zawierającą liczby od 0 do 39, którą trzeba trzykrotnie przekręcać na przemian w jedną i drugą stronę, posiada 64 000 (40 × 40 × 40) możliwych kombinacji, zatem prawdopodobieństwo przypadkowego wybrania prawidłowej wynosi 1/64 000. Bardziej skomplikowany zamek szyfrowy z tarczą oznaczoną liczbami od 0 do 99, którą trzeba przekręcić naprzemiennie pięć razy, ma 10 000 000 000 (100 × 100 × 100 × 100 × 100) możliwych kombinacji, zatem prawdopodobieństwo przypadkowego otworzenia wyniesie 1/10 000 000 000. Złożoność i prawdopodobieństwo są więc względem siebie odwrotnie proporcjonalne: im większa złożoność, tym mniejsze prawdopodobieństwo. A zatem stwierdzenie, że dane zjawisko jest wystarczająco złożone, by wnioskowanie o projekcie było zasadne, jest równoznaczne z ustaleniem, że to zjawisko ma dostatecznie małe prawdopodobieństwo.

Jednak sama złożoność (lub małe prawdopodobieństwo) nie wystarczy do wykluczenia przypadku i stwierdzenia projektu. Jeśli rzucę monetą 1000 razy, będę świadkiem niezwykle złożonego (czyli bardzo mało prawdopodobnego) zdarzenia. Prawdopodobieństwo sekwencji, którą uzyskam, będzie wynosić jeden na bilion bilionów bilionów... a w miejsce wielokropka należałoby wstawić jeszcze 22 powtórzenia słowa „bilionów”. Wspomniana sekwencja rzutów monetą nie uzasadni jednak wniosku o istnieniu projektu. Jest ona wprawdzie złożona, ale nie przejawia odpowiedniego wzorca. Porównajmy ten przykład z poprzednią sekwencją – ciągiem liczb pierwszych od 2 do 101. Sekwencja ta jest nie tylko złożona, lecz także odznacza się odpowiednim wzorcem. Badaczka SETI, która odkryła ją w filmie Kontakt, ujęła to w następujący sposób: „To nie szum. Ma strukturę”.

Jaki wzorzec jest odpowiedni, by umożliwiać wniosek o projekcie? Nie każdy wzorzec się to tego nadaje. Niektóre wzorce dają zasadne podstawy do wniosku o projekcie, a inne nie. Mimo to łatwo jest uzasadnić intuicję leżącą u podstaw rozróżnienia między wzorcami, które pozwalają lub nie pozwalają na wyciągnięcie wniosku o projekcie. Rozważmy przykład łucznika. Przypuśćmy, że łucznik z łukiem i strzałą stoi w odległości 50 metrów od muru. Mur jest dostatecznie duży, aby łucznik nie mógł w niego nie trafić. Wyobraźmy sobie, że za każdym razem, gdy strzała utkwi w murze, łucznik maluje wokół niej tarczę tak, by strzała znajdowała się w polu dziesiątki. Jaki wniosek sformułowalibyśmy na podstawie takiego scenariusza? Nie moglibyśmy stwierdzić niczego o łuczniczych umiejętnościach łucznika. Wzorzec rzeczywiście pasuje, ale został ustalony dopiero po tym, jak strzała utkwiła w murze. Został więc określony całkowicie ad hoc.

A teraz wyobraźmy sobie, że łucznik maluje tarczę na ścianie, a następnie do niej strzela. Przypuśćmy, że posyła 100 strzał i każda trafia w dziesiątkę. Jaki wniosek płynie z drugiego scenariusza? W obliczu takiego zdarzenia jesteśmy zmuszeni przyznać, że łucznik jest mistrzem światowej klasy – sportowcem, którego wyników nie można zasadnie przypisać szczęściu, lecz mistrzowskiemu opanowaniu sztuki łuczniczej. Umiejętności i biegłość są oczywiście świadectwami projektu.

Przykład łucznika zawiera trzy istotne elementy wnioskowania o projekcie:

1. klasę odniesienia możliwych zdarzeń (strzał trafiających w bliżej nieokreślone miejsce muru),

2. wzorzec ograniczający klasę odniesienia możliwych zdarzeń (tarcza namalowana na ścianie) i

3. konkretne zdarzenie (strzała trafiająca w precyzyjnie określony fragment muru).

We wnioskowaniu o projekcie klasa odniesienia, wzorzec i zdarzenie są ze sobą powiązane, przy czym wzorzec pośredniczy między zdarzeniem a klasą odniesienia, pomagając rozstrzygnąć, czy zdarzenie jest dziełem przypadku czy projektu (rysunek 1.1 ilustruje te wzajemne związki). Zwróśmy uwagę, że przy ustalaniu, czy zdarzenie jest wystarczająco mało prawdopodobne lub dostatecznie złożone, by wskazywać na projekt, nie chodzi o prawdopodobieństwo samego zdarzenia. W przykładzie łucznika prawdopodobieństwo zdarzenia odpowiada wielkości grotu strzały w stosunku do rozmiarów muru i jest niezależne od tego, czy na murze namalowano cel. Chodzi natomiast o prawdopodobieństwo trafienia w cel. W przykładzie łucznika prawdopodobieństwo to odpowiada wielkości celu w stosunku do wielkości muru i może przyjąć dowolną wartość z przedziału od zera do jeden. Im większy cel, tym łatwiej w niego trafć przez przypadek i bez udziału projektu. Im mniejszy cel, tym trudniej przypadkowo – a więc bez udziału projektu – w niego trafić. Istotnym prawdopodobieństwem jest zatem prawdopodobieństwo, jakie cel ma w stosunku do klasy odniesienia możliwych zdarzeń (zobacz części 3.4 i 3.5).

Typ wzorca, w którym łucznik najpierw określa cel, a następnie strzela, jest powszechnie stosowany w statystyce, gdzie określa się go mianem obszaru odrzucenia lub obszaru krytycznego, który ustala się przed rozpoczęciem eksperymentu[15]. W statystyce, gdy wynik eksperymentu znajduje się w obszarze odrzucenia, wyklucza się hipotezę przypadku, która miała go rzekomo wyjaśniać. Obszar krytyczny ustala się przed eksperymentem, aby nie dopuścić do nakładania się danych lub złudzeń publikacyjnych. Jeśli dobrze się poszuka, to niemal każdy zbiór danych będzie zawierać dziwne i mało prawdopodobne wzorce. Zmuszając eksperymentatorów do określenia obszaru odrzucenia przed badaniem, statystyk chroni ich przed znajdowaniem pozornych wzorców, które równie dobrze mogłyby być dziełem przypadku.

Rysunek 1.1. Klasa odniesienia–Cel–Zdarzenie