Diametros 36 (June 2013): 47–61
doi: 10.13153/diam.36.2013.518

Złożona natura złożoności

Maciej Dombrowski

Abstract. The article presents various notions of complexity: complexity as length of description, algorithmic complexity, complexity as logical depth, complexity as degree of hierarchy, and effective complexity, which is coupled with the theory of complex adaptive systems. In the article I also discuss many problems connected with these notions of complexity and the ontological and epistemological implications of the theory of complexity. The main thesis is that there is no one, general notion of complexity; the context must always be taken into consideration. The program called “complexity science” is also disputable because of the many problems with the laws of complexity and predictions which allow us to speak about “science” in this particular case.

Keywords: złożoność, ontologia, epistemologia, nauka, filozofia przyrody, Bennett, Lloyd, Morin, Simon.

Wstęp

Złożoność jest pojęciem wszechobecnym, wykorzystywanym do określenia niezliczonych zjawisk – zarówno naturalnych, jak i sztucznych, wydaje się, że ustalenie jednej definicji lub miary złożoności przekracza ludzkie zdolności konceptualizacyjne. Pozostaje pytanie, czy jest to problem wynikający jedynie z ludzkich ograniczeń poznawczych, czy też sama złożoność jest nacechowana swoistą złożonością, która ze swej istoty ogranicza/uniemożliwia jej adekwatne ujęcie. Złożoność nieprzypadkowo stanowi synonim trudności związanych z rozwiązaniem danego problemu, opisem jakiegoś zjawiska czy poznaniem praw, którym ono podlega. Intuicyjnie termin „złożony” znaczy tyle, co skomplikowany, wieloaspektowy, zróżnicowany, kompleksowy[1]. Takie ujęcie, jako wynikające z naszego codziennego doświadczenia, powinniśmy uznać za tło rozważań nad złożonością. W artykule postaram się jednak skupić na tych koncepcjach złożoności, które zdają się pojawiać na pograniczu nauk szczegółowych i filozofii. Jak sądzę, wysiłki czynione zarówno przez naukowców, jak i filozofów pozwalają na częściowe rozwianie swoistej mgły pojęciowej, która otacza złożoność.

Złożoność nie jest zjawiskiem nowym, jej wagę dostrzegano już w starożytności, ale prawdziwa kariera tego terminu przypada na drugą połowę XX wieku. Przełom minionego i obecnego stulecia można z powodzeniem nazwać „erą złożoności” – złożone okazuje się wszystko – od cząstek elementarnych po nasze uczucia i sytuację gospodarczą świata. Mówi się nawet o nowym „paradygmacie złożoności”, który ma zastąpić dawny, jeszcze o proweniencji newtonowskiej[2]. Nauka proponuje szereg cząstkowych definicji złożoności, przyporządkowuje takim definicjom odpowiednie kryteria – miary złożoności. Refleksja filozoficzna miałaby w tym wypadku na celu wyodrębnienie założeń tkwiących u podstaw takich a nie innych rozróżnień oraz podanie definicji złożoności jako pojęcia stojącego w centrum pewnego sposobu opisu rzeczywistości. W obu przypadkach mamy do czynienia zarówno z podejściem metodologiczno-krytycznym, jak i z ontologiczno-epistemologicznym.

Poruszany problem wydaje się należeć do nieco zapomnianej filozofii przyrody, która czerpie z ustaleń filozofii przyrodoznawstwa (jako części filozofii nauki) i w końcu samego przyrodoznawstwa[3]. Filozofia podejmuje w tym kontekście próbę całościowego oglądu, unikając specjalizacji nauk szczegółowych i zadając pytania, które w tamtych obszarach nie pojawiają się, korzysta ponadto z już wspomnianych intuicji potocznych.

W artykule dokonuję przeglądu kilku najczęściej spotykanych sposobów definiowania złożoności, przedstawiam problemy związane z omawianymi ujęciami i proponuję pewne wnioski natury filozoficznej wynikające z dokonanej prezentacji. Od razu wypada zaznaczyć, że proponowany przegląd stanowisk jest z natury rzeczy arbitralny – nie sposób omówić w jednym artykule wszystkich, często bardzo specjalistycznych, dookreśleń znaczenia terminu „złożoność”. Ich zestawienie można znaleźć w zwięzłym opracowaniu Setha Lloyda[4]. Lista składa się z blisko czterdziestu pozycji[5] i, jak sam autor zaznacza, nie może być uznana za kompletną. Podczas jej sporządzania Lloyd posłużył się trzema pytaniami, które w jakiś sposób pozwalają na uszeregowanie złożoności w stosowne typy. Gdy badamy złożoność obiektu lub procesu powinniśmy pytać:

  1. Jak trudno jest go opisać?
  2. Jak trudno jest go stworzyć?
  3. Jaki jest stopień jego organizacji?

Odpowiedzi na pierwsze pytanie odsyłają do teorii informacji, omówione przeze mnie przykłady dotyczą złożoności jako długości opisu i złożoności algorytmicznej. W drugim wypadku kreacja badanego przedmiotu jest przekładana na takie jednostki jak czas, energia, praca. W tym kontekście jako miara złożoności pojawia się między innymi głębokość logiczna. Odpowiedź na ostatnie pytanie Lloyd dzieli na dwa podtypy – możemy mianowicie mówić o stopniu trudności związanych z opisem danej struktury lub ilości informacji przekazywanej między jej elementami. W artykule analizuję złożoność jako stopień zróżnicowania obiektu fizycznego i tzw. złożoność efektywną. Na koniec trzeba jednak zaznaczyć, że omówionych pytań nie można traktować jako rozłącznych.

Wybrane typy złożoności

1. Złożoność jako długość opisu

Chyba najprostszym i najbardziej intuicyjnym sposobem definiowania złożoności jest porównanie jej z długością opisu jakiegoś przedmiotu, rzeczy bądź zjawiska. Najkrócej mówiąc – im dłuższy opis, tym złożoność cechująca to, co opisujemy, większa. Tak rozumiana złożoność może odnosić się do różnorodnych klas zjawisk spotykanych w świecie. Możemy stosować ją zarówno do pomiaru złożoności lokomotywy (opis techniczny budowy takiej maszyny), jak i utworu literackiego (w tym wypadku złożoność równałaby się jego długości). Istotny problem z tak ujmowaną złożonością pojawia się jednak już w tym momencie. Można bowiem zasadnie zapytać, jaki rodzaj opisu uznamy za preferowany, jaki kod powinniśmy zastosować, aby opis był najbardziej wierny, i w końcu – co w przywołanych przykładach miałaby oznaczać sama wierność lub adekwatność opisu? Opis jest zawsze rodzajem modelowania zjawisk, stosujemy odpowiednie skalowanie, idealizację, czy gruboziarniste uśrednienie. Nawet w wypadku utworu literackiego można pokusić się o opis wykraczający daleko poza sam tekst – może on dotyczyć zarówno elementów formalnych, jak i treściowych – sensy odkrywane w procesie interpretacji wielokrotnie nie są dane wprost, stanowią pewien naddatek. Tak rozumiany opis utworu literackiego, np. Ulissesa Joyce’a, uwzględniający przy tym Ingardenowskie „miejsca niedookreślenia”, jawi się jako potencjalnie nieskończony. Opisaną własność można określić jako zależność od kontekstu[6]. Zadając pytanie o złożoność, musimy ustalić przede wszystkim, kto pyta i o co, oraz do kogo kierowany jest przekaz. Istotne jest, jakie informacje podmiot pytający uznaje za relewantne, a jakie za „szum informacyjny”, który można z łatwością pominąć. W różnych kontekstach rozwiązanie takich problemów może wyglądać inaczej. Nie wolno też zapominać o wielorakich problemach związanych z samym pojęciem informacji[7]. Złożoność jawi się więc jako własność będąca funkcją wielu czynników. Wspomniana już adekwatność opisu wydaje się, przynajmniej w pewnym stopniu, zależeć od opinii podmiotu i wyboru elementów, które powinny znaleźć się w danym opisie, a które można określić jako istotne. O ile w przypadku lokomotywy można dojść do konsensu w tej sprawie, nie jest to już tak proste w doniesieniu do zjawisk bardziej złożonych – np. ekosystemu. Opis jest ponadto nie tylko wyliczeniem istotnych składników, ale również zawiera charakterystykę ich interakcji, można więc mówić w tym wypadku o przynajmniej dwóch podtypach złożoności – statycznej (synchronicznej) odnoszącej się do struktury i dynamicznej (diachronicznej) skorelowanej z zachowaniem systemu. W nawiązaniu do niektórych ze wspomnianych ograniczeń Murray Gell-Mann proponuje określenie tzw. przybliżonej złożoności. Jest to: „Długość najkrótszego komunikatu, opisującego dany układ przy przyjętym poziomie gruboziarnistego uśrednienia, przeznaczonego do przesłania na odległość, w którym wykorzystujemy język i wiedzę, jaką dysponują obie strony (i wiedzą, że tak jest), przy czym zarówno język, jak i wiedza muszą być ustalone z góry”[8].

2. Złożoność algorytmiczna

W przeciwieństwie do przedstawionego powyżej typu to ujęcie złożoności jest o wiele bardziej sformalizowane i ścisłe. Koncepcja tak rozumianej złożoności została sformułowana niezależnie przez różnych badaczy: Andreia N. Kołmogorowa, Gregory’ego Chaitina i Raya Solomonoffa. Bardzo ogólnie można scharakteryzować omawianą koncepcję jako związaną z komputerami i algorytmami[9] – w najprostszym ujęciu złożoność ustala się tu przez mierzenie długości programu, w który przy pomocy określonej liczby bitów (zer i jedynek) koduje się daną formułę (bardziej złożony łańcuch bitów, tekst, obraz)[10]. Przy takim podejściu jeden bit oznacza brak złożoności, potem złożoność rośnie. Odkrywane regularności mogą być kodowane skrótowo, przypadkowość ulega wtedy zmniejszeniu, pojawia się tzw. algorytmiczna kompresowalność[11]. W tym momencie spotykamy największą trudność związaną ze złożonością algorytmiczną – otóż im większa przypadkowość wyjściowej formuły, tym większa złożoność końcowego algorytmu. Złożoność jest więc największa dla zupełnie przypadkowych ciągów danych[12]. Nie mamy poza tym możliwości przewidzenia, czy dany ciąg jest istotnie przypadkowy (stochastyczny, algorytmicznie niekompresowalny), czy tylko sprawia takie wrażenie. W ostatnim wypadku ciąg danych może być pseudolosowy, jak w komputerowym generatorze liczb losowych, podstawowa trudność polega jednak na tym, że nie znamy wszystkich algorytmów, zawsze może się okazać, że dla danej formuły taki algorytm uda się znaleźć[13]. Na omawiane problemy wskazują badania Gregory’ego Chaitina, który z kolei powołuje się na limitacyjne ustalenia Kurta Gödela. Mówiąc o złożoności algorytmicznej, badacze odwołują się do pojęcia komputera uniwersalnego, którego modelem jest tzw. maszyna Turinga, trudno jednak nie mieć na uwadze budowy konkretnej maszyny liczącej i własności przyjętego systemu kodowania. O ile nawet przyjąć radykalną tezę ontologiczną, która wyłania się z proponowanego ujęcia, a która głosi, że świat jest rodzajem superkomputera, podczas gdy prawa nim rządzące są rodzajem algorytmów, nie bardzo wiadomo, co zrobić ze zjawiskami, które, choć bezsprzecznie należą do świata, skutecznie opierają się algorytmizacji. Poruszana już kwestia złożoności Ulissesa jest tu dobrym przykładem[14].

3. Złożoność jako głębokość logiczna

Ta propozycja, wysunięta przez Charlesa Bennetta[15], miała na celu większe odniesienie złożoności do procesów fizycznych obserwowanych w świecie, nadal jednak z wykorzystaniem komputerów. Złożoność procesu lub obiektu jest tu proporcjonalna do złożoności programu, który go symuluje, i czasu, jaki potrzebuje komputer wykonujący program, by wygenerować taką symulację. Pod uwagę bierzemy zawsze najkrótszy możliwy program. Jak zaznacza sam Bennett: „Logicznie głębokie obiekty, […] są rezultatem długiego, powolnego w symulacji procesu obliczeniowego i najprawdopodobniej nie powstały w inny sposób”[16]. Do poprzedniego założenia świata-komputera należy więc dodać równie silne założenie o relacji odwzorowania zachodzącej między strukturą rzeczywistych procesów a strukturą (głębokością) programów, które pozwalają symulować te pierwsze. Nietrudno jednak zauważyć, że dyskutowana propozycja wikła się w szereg trudności związanych z adekwatnym ujęciem samego procesu symulacji. Postulatem metodologicznym jest tu zawsze dokładność i możliwość przewidywania zachowania systemu[17]. Problemy z symulowaniem układów o bardzo dużej liczbie parametrów kontrolnych, jak w przypadku zmian klimatycznych, wskazują, że często nie jest możliwe ustalenie tych elementów, które są wystarczające do zbudowania udanej symulacji. Podkreśla się przy tym istotne przeszkody w symulowaniu układów, w których pojawiają się zjawiska nieliniowe, chaotyczne, gdzie nie ma szans na udane predykcje. Aby adekwatnie symulować, musielibyśmy więc posiadać wiedzę na temat złożoności obiektów badanych już w punkcie wyjścia, tak aby zbudować ich udany model, prowadzi to jednak do błędnego koła w wyjaśnianiu. Warto ponadto zaznaczyć, że symulowanie może przebiegać na wiele sposobów, znów więc wybór danej metody zależy od oczekiwanych rezultatów.

4. Złożoność jako stopień zróżnicowania obiektu fizycznego

Idea wykorzystania pojęcia hierarchii do opisu stopnia złożoności została zaproponowana przez Herberta A. Simona[18], współcześnie jest ona rozwijana między innymi przez Bernarda A. Hubermana i Tada Hogga[19] w kontekście fizyki i Daniela McShea[20] na gruncie nauk biologicznych. Takie rozumienie złożoności opiera się na idei braku izomorfii między obiektami z następujących po sobie poziomów rzeczywistości. Odrzuca się przy tym przypadki, w których różnic takich nie ma lub są zbyt duże i nie daje się hierarchii zbudować. Omawiane ujęcie znajduje wyraźną podbudowę w modelu ontologii poziomów bytu zaproponowanej przez Nicolaia Hartmanna[21]. Poszczególne warstwy rzeczywistości dają się ująć w system o określonej hierarchii, która pozwala na ukazanie stopniowego wzrostu złożoności w toku ewolucji zarówno biologicznej, jak i fizycznej oraz kulturowej. Świat jest zatem systemem systemów, które z kolei możemy poddawać analizie i rozkładać na podsystemy, lokowane następnie na określonym miejscu globalnej skali złożoności. Hierarchię określa się nie tylko przez liczbę elementów składających się na system, ale również przez liczbę i częstość interakcji między komponentami. Można więc odróżnić złożoność obiektu od złożoności procesu, złożoność statyczną od dynamicznej, synchroniczną od diachronicznej. Systemy i podsystemy wyróżniamy jako całości mające charakter funkcjonalny, według Simona charakteryzuje je względna rozkładalność (near-decomposibility), która sprowadza się do faktu względnej niezależności danego poziomu od poziomów niższego i wyższego w hierarchii. Wskazuje się w tym momencie na istnienie większej liczby silnych interakcji wewnątrz subsystemów, niż między samymi subsystemami (przykładem są interakcje wewnątrz komórki i między komórkami organizmu)[22]. Na nowych poziomach organizacji pojawiają się własności emergentne. Zarzuty, jakie można postawić takiemu rozumieniu złożoności, pokrywają się w dużej mierze z podnoszonymi w punkcie poprzednim. Hierarchie mogą wyglądać różnie, zależnie od przyjętych założeń wyjściowych, nie sposób też uciec od wrażenia, że taki hierarchiczny opis złożoności musi zakładać niejawnie jakąś uprzednią wiedzę na jej temat. Próba obrony stanowiska może polegać na wykazaniu, że założenia i konwencje występują we wszystkich podejściach do złożoności, a hierarchia złożoności jest budowana stopniowo, poszczególne przykłady są ze sobą porównywane, nie dysponujemy lepszą metodą, niż szukanie analogii z już rozpatrywanymi przypadkami.

5. Złożoność efektywna

Odnosi się ona również do obiektów fizycznych, ale ujmowanych jako złożone systemy adaptacyjne (complex adaptive systems)[23]. Są to systemy, które przystosowują się do zmian środowiska, w jakiś sposób „uczą się” nowych zachowań, wykorzystują efektywnie informacje płynące z zewnątrz. W tym wypadku analizuje się wzory zachowań systemów, liczy się długość takiego schematu, zwraca się jednak uwagę na to, aby opis nie zawierał z jednej strony zbyt dużo regularności, a z drugiej zbyt wielu elementów chaotycznych. Takie systemy, które znajdują się na środku skali, między skrajnościami, uznaje się za najbardziej złożone. Unika się więc pułapki, która pojawiła się przy okazji omawiania złożoności algorytmicznej, gdzie najbardziej złożone były przypadkowe ciągi danych. Istotą złożoności efektywnej jest więc „krytyczna równowaga między porządkiem a chaosem, zachodząca przy lub blisko tak zwanej krawędzi chaosu”[24]. Ostatnie ustalenie należy do najbardziej doniosłych jeśli chodzi o zmianę tradycyjnego rozumienia złożoności. Prostota nie jest już przeciwieństwem złożoności, raczej otacza ona dość wąski pas, w którym pojawiają się zjawiska złożone. Zarzuty wobec omawianej propozycji pokrywają się z już przywoływanymi. Najczęściej jednak zwraca się uwagę na dyskusyjny status podmiotu, który ma oceniać stopień złożoności efektywnej, a który sam jest przecież złożonym systemem adaptacyjnym.

Miejsce złożoności w przyrodzie – kontekst filozoficzny

Powyżej przedstawiłem analizę kilku wybranych koncepcji złożoności. Przy okazji takich zestawień rodzi się jednak podstawowe pytanie – czy złożoność jest cechą świata, czy może stanowi tylko efekt procesów poznawczych? Innymi słowy – jakie relacje zachodzą miedzy złożonością ontologiczną i deskryptywną?[25] Problem ten dotyka szeregu zagadnień ontologiczno-epistemologicznych; na podstawie wcześniejszych analiz można chyba jednak pokusić się o kilka wniosków. Z jednej strony trudno zgodzić się ze stanowiskiem negującym jakiekolwiek obiektywne wyznaczniki złożoności[26], szczególnie badania nad złożonymi systemami adaptacyjnymi wskazują na istotne znaczenie złożoności dla takiej a nie innej struktury otaczającego nas świata. Z drugiej, wspominane wielokrotnie trudności natury językowej, problemy z poznaniem i statusem podmiotu każą jednak zachować ostrożność w stawianiu tez, wedle których złożoność jest w pełni obiektywną własnością rzeczywistości zewnętrznej[27]. Istotny problem pojawia się więc przy próbie jednoczesnego ujęcia aspektu ontycznego i epistemicznego złożoności. Wydaje się, że na pytanie o możliwość ustalenia obiektywnej, istotowej złożoności nie można udzielić jednoznacznej, zadowalającej wszystkich odpowiedzi. Oczywiście zagadnienie to łączy się z całą, ogromną debatą na temat ludzkich ograniczeń poznawczych, jak dotąd zakończoną filozoficznym patem. Sądzę jednak, że tak jak badania nad złożonością wymagają postawy metodologicznego pluralizmu, tak stanowisko ontologiczno-teoriopoznawcze, które wynika z tych analiz, można określić jako umiarkowany (krytyczny) realizm, umiarkowany konstruktywizm lub równie umiarkowany fallibilizm[28]. Złożoność nie jest konstruktem dowolnie tworzonym przez badaczy, nie jest też jednoznacznie i zawsze trafnie rozpoznawana w przyrodzie. Stosunek, jaki zachodzi w tym wypadku między podmiotem poznającym a rzeczywistością zewnętrzną, można określić jako korelację lub współdeterminację obu tych czynników[29]. Znaczenie nie do przecenienia dla statusu filozoficznego namysłu nad złożonością ma dziś nauka, nawet pamiętając o jej ograniczeniach, nie sposób przejść obojętnie wobec dokonań współczesnego przyrodoznawstwa. Podejście do tych ostatnich wyznacza w dużej mierze także rozpoznania filozoficzne lub przynajmniej w jakiś sposób je ukierunkowuje. Bez kontaktu z nauką filozoficzne rozważania nad złożonością wydają się jałowe. Potoczna intuicja przeciwstawia złożoność prostocie i na tym poprzestaje – oba pojęcia definiują się samoistnie jako wykluczające się przeciwieństwa. W rozwoju nauki dążono do prostoty rozumianej jako uproszczenie opisu zjawisk – im dany opis w postaci prawa naukowego był bardziej zwięzły (a jednocześnie obejmujący swą mocą jak najszerszą klasę zjawisk), tym lepiej. Takie formuły jak F = ma czy E = mc² stały się symbolami postępu nauki i, co szczególnie istotne w przypadku osiągnięć Newtona, wiary w prostotę praw rządzących złożonym wszechświatem. Wraz z rozwojem wiedzy sprawy zaczęły się komplikować, zdano sobie sprawę z tego, że sukces nauki jest równocześnie sukcesem idealizacji, tworzenia takiego obrazu rzeczywistości, który pomija szereg istotnych cech zjawisk czy też uznaje całe wycinki świata za niepodlegające efektywnemu badaniu. Powstanie takich działów nauki jak mechanika nieliniowa czy teoria chaosu deterministycznego oraz zainteresowanie problemem samoorganizacji[30] doprowadziło do reinterpretacji pojęcia złożoności. Badacze zajmujący się tym zagadnieniem postulują, aby odejść od wspomnianego przeciwstawiania prostoty i złożoności na rzecz bardziej adekwatnego i zróżnicowanego modelu, w którym uznajemy złożoność za cechę układu – tak jak uporządkowanie czy chaotyczność[31]. Poziom bazowy może cechować prostota, podczas gdy poziom nadbudowany nad nim wykazuje złożoność. Określenia, jakie stosujemy, zależą więc w dużej mierze od poziomu rzeczywistości, który aktualnie rozpatrujemy[32]. W tym kontekście najbardziej interesujące zjawiska lokują się między dwiema skrajnościami – doskonałym porządkiem i kompletnym chaosem[33]. Samoorganizacja, nierozerwalnie sprzężona ze złożonością, pojawia się między uporządkowaniem a chaotycznością[34] – ujęcie to pozwala na pogodzenie opisu ewolucji układu z jednoczesnym zaakcentowaniem jego względnej tożsamości. W przeciwieństwie do układów złożonych „zamiana miejsc” dowolnych, jednakowych fragmentów układów uporządkowanych i chaotycznych nie zaburza ich struktury ani zachowania[35]. Układy takie można więc nazwać izomorficznymi, złożoność można określić jako złamanie izomorfii i pojawienie się specjalizacji w ramach organizacji różnorodnych podsystemów. W układach złożonych hierarchia poziomów pociąga za sobą pojawienie się emergencji, swoistego naddatku, który nie ukazuje się w obu pozostałych kategoriach układów. Złożoność przysługuje zatem systemom, które składają się z podsystemów, te ostatnie stanowią jednocześnie części funkcjonalne zrozumiałe jedynie w kontekście całości. Między podsystemami występują liczne i zmienne interakcje. Systemy złożone reagują elastycznie na wpływy środowiska, ich zachowanie jest charakteryzowane przez kategorię porządku z jednoczesną obecnością elementów chaotycznych. Układy takie nie poddają się prostej analizie część-całość (mikroredukcjonizmowi), ani wyjaśnieniom czysto mechanicznym. Jeśli zgadzamy się na reinterpretację dychotomii prostota-złożoność, zostaje jeszcze jedna, dość często spotykana: prostota-komplikacja. Obie, szczególnie w rodzimym obszarze językowym, są traktowane jako synonimiczne, sądzę jednak, że nie musi tak być. Prostota i komplikacja mogą odnosić się zarówno do możliwości poznania obiektu, jego struktury, jak i zachowania. Skomplikowane jest to, co na pierwszy rzut oka wydaje się trudne do zrozumienia, czego opis może wymagać długiego czasu[36], co składa się z wielu elementów i zależności między nimi, czego zachowanie nie daje się przewidywać i ująć w lapidarnej formule. Przeciwieństwem tak rozumianego skomplikowania miałaby być prostota. Taka siatka pojęciowa rodzi jednak liczne nieporozumienia. Postulowałbym ograniczenie używania określeń „prostota” i „komplikacja” jedynie do aspektu strukturalnego oraz samego procesu poznawania systemu. W tym wypadku złożoność, porządek i chaotyczność byłyby własnościami systemów orzekanymi na metapoziomie oraz związanymi nie tyle z samą strukturą, co z zachowaniem systemu, zaś skomplikowanie lub prostota cechami, które można odnieść do subsystemów, ich opisu lub „pierwszego wrażenia”, jakie wywołuje w obserwatorze dany system[37]. Prostota i komplikacja byłyby zatem pojęciami jedynie pomocniczymi, których użycie wiąże się ze świadomością określonego kontekstu. W proponowanym ujęciu złożoność ma wyróżniony status jako cecha bardzo swoistych systemów[38]. Powyższe wnioski dotyczące złożoności, która pojawia się w otaczającej nas przyrodzie, można przedstawić w formie diagramu:

Diagram

Zaproponowany wykres łączy w sobie trzy wymiary złożoności[39]: statyczny – w którym omawiamy złożoność struktury, dynamiczny – akcentujący zmienność, zachowanie systemu i ostatni – informacyjny, najbardziej abstrakcyjny, odwołujący się do różnorodnie definiowanego pojęcia informacji.

Na zakończenie wypada jeszcze powrócić do kwestii wspomnianej na początku artykułu, to znaczy roli filozofii w badaniach na złożonością. Można mianowicie spotkać się z twierdzeniem, że nauka rozwiązuje w tym wypadku wszystkie problemy. Trzeba jednak pamiętać, że często to, co nazywamy nauką, zawiera treści filozoficzne, wyjaśnienie zjawiska nie jest zawsze tożsame z jego zrozumieniem. To ostatnie pojawia się wtedy, gdy do opisu zaprzęgnięta zostaje wielość dyskursów i perspektyw poznawczych[40]. Próbując zrozumieć, zinterpretować teorie naukowe, posługujemy się językiem wypracowanym przez filozofię, pytania i odpowiedzi przez nią proponowane wykraczają poza horyzont nauki. Oddziaływanie jest tu wzajemne, oba obszary wiedzy są niepełne, jest to widoczne szczególnie w przypadku omawianego zagadnienia. Co istotne, sama nauka w kontekście badań nad złożonością ulega istotnym przemianom[41]. Kluczowa dla tego aspektu okazuje się nieredukowalność obrazów świata wypracowanych przy użyciu różnych dyskursów[42]. W kontekście złożoności dyskusyjne staje się samo określenie „nauka”. Gdyby nawet posługiwać się terminem „nauka (-i) o złożoności (-ach)”, trudno jest wskazać zadowalające sformułowania praw dotyczących złożoności[43], ich moc predykcyjna jest niewielka, sama procedura wyjaśniania naukowego musi w takim wypadku ulec daleko idącemu przeformułowaniu. Zawodzi przede wszystkim redukcjonizm i mechanicyzm jako dominujące formy wyjaśniania zjawisk, układy złożone poznajemy bardziej przez obserwację ich zachowania, możemy budować opisy, ale w niewielkim stopniu jesteśmy w stanie je redukować czy przewidywać ich przyszłość. Filozofia stanowi tu znaczący kontekst, pozwala na zrozumienie znaczenia takich przemian, opis ich podstaw, ale i daleko idących implikacji. Jest to jednak temat na inne, szersze opracowanie. Podsumowując, wypada zauważyć, że wielość określeń złożoności (jej miar) prowadzi do postawienia pod znakiem zapytania przedsięwzięcie mające na celu ufundowanie tzw. nauk(-i) o złożoności. Ilościowe, wyspecjalizowane określenia złożoności gubią jej wieloaspektowość, podczas gdy zbyt ogólne, opisowe ujęcia nie poddają się standaryzacji i zamieniają w opis poszczególnych przypadków[44]. W kontekście przeprowadzonych analiz należy raczej mówić o różnorodnych złożonościach, a nie o jednej, idealnej złożoności[45]. Jak zauważył już Gell-Mann: „Zapewne żadne pojedyncze pojęcie złożoności nie może poprawnie uchwycić naszych intuicji, co słowo to powinno znaczyć. Być może trzeba zdefiniować kilka różnych pojęć złożoności, z których niektóre nie zostały jeszcze wymyślone”[46].

Zakończenie

Złożoność analizowana w artykule okazuje się zjawiskiem wieloaspektowym, niepoddającym się jednoznacznej klasyfikacji. Nie istnieje jedna definicja złożoności czy jej miary. Złożoność algorytmiczna, jako najczęściej przywoływana przez przedstawicieli nauk matematyczno-przyrodniczych, nie jest przydatna w badaniach prowadzonych przez nauki humanistyczne. Filozofia nie może pomijać tego ważnego ograniczenia, które powoduje, że poszukiwanie istoty złożoności staje się przedsięwzięciem arcytrudnym. Złożoność skłania zatem do pluralizmu metodologicznego zarówno w nauce, jak i filozofii, w ramach tej ostatniej prowadzi również do przeformułowania wielu zagadnień z pogranicza ontologii i epistemologii. W tym właśnie miejscu nauka spotyka się z filozofią.

Przypisy

  1. Nie są to jednak synonimy, w dalszej części artykułu wskażę przede wszystkim na różnicę między złożonością a komplikacją.
  2. Morin [2007] s. 10.
  3. Lemańska [1998] s. 60-62.
  4. Lloyd [2001].
  5. Dziewięć definicji i miar złożoności z listy Lloyda omawia w przystępny sposób Melanie Mitchell [2011] s. 94-111; oprócz analizowanych przeze mnie – algorytmicznej zawartości informacyjnej, logicznej głębokości i poziomu hierarchiczności są to: złożoność jako wielkość, entropia, głębokość termodynamiczna, zdolność komputacji, złożoność statystyczna oraz złożoność jako rozmiar fraktalny. John Horgan wspomina o rozszerzonej liście Lloyda, jaką miał otrzymać od autora – Horgan [1999] s. 347, przyp. 11.
  6. Morin mówi wręcz o „potrzebie kontekstualizacji” każdej wiedzy. Morin [2007] s. 18-20.
  7. Poczobut [2005].
  8. Gell-Mann [1996] s. 62-63.
  9. Inne określenie to złożoność obliczeniowa.
  10. W tym wypadku mówi się o badaniu algorytmicznej zawartości informacyjnej (Algorithmic Information Content) danego obiektu.
  11. Jej przeciwieństwem jest algorytmiczna przypadkowość.
  12. W tym wypadku przywołuje się również pojęcie entropii jako miary naszej niewiedzy na temat danego zjawiska.
  13. Jest to trudność analogiczna do tzw. problemu stopu (halting problem) – nie ma algorytmu, dzięki któremu można by jednoznacznie wykazać, czy dowolny, brany pod uwagę program, realizujący algorytm z dowolnie dobranymi danymi wyjściowymi, zakończy swoją pracę, czy nie.
  14. Zagorzały spór między zwolennikami i przeciwnikami algorytmizacji toczy się od lat wokół zagadnienia komputacjonizmu w ramach filozofii umysłu. Najbardziej znanym przeciwnikiem koncepcji mózgu-komputera jest John Searle [1999].
  15. Bennett [2003].
  16. Ibidem, s. 38 [tłum. własne – M.D.].
  17. Należy jednak zawsze pamiętać o zasadniczej różnicy między symulacją a realizacją.
  18. Simon [1962].
  19. Huberman, Hogg [1986].
  20. McShea [1996].
  21. Hartmann [1998].
  22. Simon [1962] s. 473-478; Emmeche [2004] s. 30.
  23. Gell-Mann [1996] s. 88-95; Dodder, Dare [2000].
  24. Wadhawan [2010] s. 58.
  25. Emmeche [2004] s. 27-28.
  26. Takie stanowisko prezentuje Judycki [2005]. Drobiazgową polemikę z jego tezami przeprowadzili Miłkowski [2005] i Poczobut [2005].
  27. Wiara w moc eksplanacyjną nauki prowadzi często do przeceniania teorii. Jak zauważa Jensen: „Dla wyjaśniania i opisu obiektów potrzebujemy czegoś, co potrafi je interpretować – umysłu”, Jensen [2004] s. 123 [tłum. własne – M.D.].
  28. Podobne stanowisko można znaleźć u Morina, którego krytyczny realizm został ulokowany przez komentatora między obiektywizmem (naiwnym realizmem) a naiwnym konstruktywizmem (poznanie jako zbiór subiektywnych interpretacji). Montuori [1998] s. 35.
  29. Jak zauważa Thomas Nagel: „jesteśmy małymi istotami, żyjącymi w wielkim świecie który rozumiemy tylko w drobnej części, a nasze poglądy zależą zarówno od świata jak od naszej konstrukcji”. Nagel [1997] s. 9. W Polsce zwolennikiem tak rozumianego korelatywizmu, lokującego się między empiryzmem a transcendentalizmem, był Joachim Metallmann [1934] s. 31, 48-49, pionier rodzimych badań nad strukturalizmem i emergentyzmem.
  30. Samoorganizacja jest definiowana jako zdolność systemu do samorzutnego wzrostu złożoności, uporządkowania, zmiany jego organizacji i funkcji przy elastycznej reakcji na wpływ czynników zewnętrznych. Posługując się językiem teorii chaosu, można powiedzieć, że samoorganizacja to generowanie struktury atraktorów w oparciu o lokalne oddziaływania.
  31. Wrześniewski [1995] s. 142.
  32. Emmeche [2004] s. 23.
  33. Wrześniewski [1995]; Crutchfield [2002].
  34. Podziałowi temu odpowiada zróżnicowana możliwość przewidywania zachowania systemów – układy uporządkowane są (zasadniczo) w pełni przewidywalne, złożone tylko częściowo, chaotyczne jedynie w bardzo niewielkim stopniu.
  35. Wrześniewski [1995] s. 142.
  36. Opis taki może ostatecznie polegać tylko na iteracji tych samych kroków (jak rozwiązanie „skomplikowanego” zadania matematycznego).
  37. Trzeba pamiętać, że np. chaotyczność może objawiać się w zachowaniu bardzo prostych układów, gdy bierzemy pod uwagę liczbę składników czy parametrów służących do ich opisu. Baranger [2001] s. 7-8. Kryształ na poziomie subatomowym jest bytem skomplikowanym, ale jednocześnie prostym, gdy podajemy podstawowy schemat jego budowy na poziomie wyżej, którym jest symetryczny, powtarzalny układ atomów (mówimy o jego „misternej” budowie). Na metapoziomie jest to układ wysoce uporządkowany w pełni przewidywalny. Motek wełny sprawia wrażenie skomplikowanego, po rozsupłaniu okazuje się jedną prostą nicią.
  38. Zupełnie inaczej podchodzi do zagadnienia Morin [2007], który utrzymuje, że wszystkie systemy są w jakimś stopniu złożone. Twierdzenie takie wynika według francuskiego autora z analizy poznania, które zawsze jest niepełne i niepewne, analiza i synteza dają się oddzielić jedynie teoretycznie. Każde zjawisko ma szereg aspektów, nie ma w świecie nic absolutnie prostego, nawet jeśli jest, nigdy się tego nie dowiemy. Morin dzieli złożoność na ogólną (general) i ograniczoną (restricted). Pierwsza to już wspomniana własność wszystkich systemów, druga związana jest z badaniami nad systemami dynamicznymi, czyli teoriami nauki i konkretnym typem poznania.
  39. Dodder, Dare [2000] s. 8.
  40. Opis badanych fenomenów w jednym języku i z jednej perspektywy może prowadzić do przekonania o istnieniu jakiegoś lingua universalis, w którym można objąć i wyrazić przyrodę. Argumentacje przeciwko takiemu stanowisku proponują Jensen [2004] i Arecchi [1996].
  41. Por. Emmeche [2004] s. 43-44.
  42. Opisywane zjawiska celnie podsumował Stephen Toulmin. Jak pisał: „Aksjomaty nowoczesności zakładały, że pozorna złożoność natury i człowieka odrywa naszą uwagę od leżącego u jej podstaw porządku, który sam w sobie jest prosty i stały. Dzisiaj jednak fizycy – i nie tylko oni – przyznają, że w rzeczywistości zjawiska naturalne wyrażają ów «sam w sobie prosty» porządek jedynie w ograniczonym stopniu: nowe teorie fizycznego, biologicznego i społecznego nieporządku (czy «chaosu») pozwalają zachować równowagę pomiędzy różnymi intelektualnymi przepisami. Możemy tymczasowo («dla celów obliczeniowych») odłożyć na półkę konteksty naszych problemów, jednak w ostatecznym rozrachunku pełne ich rozwiązanie wymaga osadzenia tych kalkulacji w szerszych, ludzkich ramach, obejmujących również cechy konkretne i wszelkie zawiłości”. Toulmin [2005] s. 224.
  43. Por. Sobczyk [2006] s. 57.
  44. Przyczyna tej trudności może leżeć w naszej psychice, która jest tak, a nie inaczej ukształtowana w toku ewolucji i nastawiona na radzenie sobie z nadmiarową złożonością zjawisk przez „odcinanie” tego nadmiaru (skrajnie w przypadku przebodźcowania, traumy) i poszukiwanie w świecie raczej prostoty, wzorów, a nie niuansów i zawiłości. Niemożność rozwikłania zagadki złożoności byłaby wtedy wypadkową niemożności przekroczenia naszych ograniczeń poznawczych. Przeciwnicy takiego pesymistycznego i naturalizującego ujęcia mogą twierdzić, że rozwój kultury pozwolił na przynajmniej częściowe przekroczenie takich ograniczeń.
  45. Problem ten zauważa Emmeche. Z jednej strony uznaje, że poszukiwanie pewnego „wspólnego obrazu rzeczywistości”, nawet zbudowanego z mozaiki różnych sposobów jej ujęcia jest nadrzędnym zadaniem nauki, z drugiej twierdzi, że studia nad złożonością nie powinny być traktowane jako poszukiwanie esencjalnie czy nawet syntetycznie rozumianej teorii złożoności, tylko jako interdyscyplinarne pole dla badań i spotkań badaczy z różnych dziedzin zajmujących się tym tematem. Sceptycyzm wobec takiej ogólnej koncepcji jest u tego autora podyktowany przede wszystkim fiaskiem podobnych przedsięwzięć w przeszłości – sam przywołuje teorię systemów. Emmeche [2004] s. 24-25. W podobnym duchu wypowiada się, mając na myśli antyredukcjonizm, Ron McClamrock. Uznaje on, że zwolennicy tego ostatniego (który można określić jako makroredukcjonizm – redukcjonizm à rebours) podzielają to samo, co ich redukcjonistycznie nastawieni poprzednicy, błędne marzenie o kompletnej teorii poznania i złożoności. Zwolennicy holistycznego, systemowego lub złożonościowego podejścia powinni więc ze wszystkich sił starać się uniknąć swoistego hurraoptymizmu. McClamrock [2008] s. 249-250.
  46. Gell-Mann [1996] s. 55.

Bibliografia

  1. Arecchi [1996] – F.T. Arecchi, Complexity in Science: Models and Metaphors [w:] The Emergence of Complexity in Mathematics, Physics, Chemistry and Biology, ed. B. Pullman, Princeton University Press, Princeton 1996, s. 129-160.
  2. Baranger [2001] – M. Baranger, Chaos, Complexity, and Entropy. A Physics talk for non-physicists, 2001, dostępne na: http://necsi.org/projects/baranger/cce.pdf [2.06.2012].
  3. Bennett [2003] – Ch.H. Bennett, How to Define Complexity in Physics, and why, [w:] From Complexity to Life, ed. N.H. Gregersen, Oxford Uniwersity Press, New York, s. 34-43.
  4. Crutchfield [2002] – J.P. Crutchfield , What lies between Order and Chaos?, dostępne na: http://tuvalu.santafe.edu/~cmg/compmech/tutorials.htm [4.08.2012].
  5. Dodder, Dare [2000] – R. Dodder, R. Dare, Complex Adaptive Systems and Complexity Theory: Inter-related Knowledge Domains, ESD.83: Research Seminar in Engineering Systems, dostępne na: http://pdf.theory1.net/Complex-Adaptive-Systems-and-Complexity-Theory-Inter-related-pdf-e744.pdf [7.06.2012].
  6. Emmeche [2004] – C. Emmeche, At Home in w Complex World: Lessons from the Frontiers of Natural Sciences, [w:] The Significance of Complexity. Approaching a Complex World Through Science, Theology and the Humanities, eds. K.V.K. Kooten Niekerk, H. Buhl, Ashgate, Aldershot 2004, s. 21-46.
  7. Gell-Mann [1996] – M. Gell-Mann, Kwark i jaguar. Przygody z prostotą i złożonością, tłum. P. Amsterdamski, Wydawnictwo CIS, Warszawa 1996.
  8. Hartmann [1998] – N. Hartmann, Nowe drogi ontologii, tłum. L. Kopciuch, A. Mordka, Wydawnictwo Rolewski, Toruń 1996.
  9. Horgan [1999] – J. Horgan, Koniec nauki czyli o granicach wiedzy u schyłku ery naukowej, tłum. M. Tempczyk, Warszawa, Prószyński i Spółka, Warszawa 1999.
  10. Huberman, Hogg [1986] – B.A. Huberman, T. Hogg, Complexity and Adaptation, „Physica 22D” (1-3) 1986, s. 376-384.
  11. Jensen [2004] – H.S. Jensen, Complexity and Non-completeness, [w:] The Significance of Complexity. Approaching a Complex World Through Science, Theology and the Humanities, eds. K.V.K. Kooten Niekerk, H. Buhl, Ashgate, Aldershot, s. 121-131.
  12. Judycki [2005] – S. Judycki, Dwa argumenty przeciw materializmowi, „Diametros” (3) 2005, dostępne na: http://www.diametros.iphils.uj.edu.pl/?l=1&p=deb7&m=17&ik=9 [5.07.2012].
  13. Lemańska [1998] – A. Lemańska, Filozofia przyrody a nauki przyrodnicze, Wydawnictwo Akademii Teologii Katolickiej, Warszawa 1998.
  14. Lloyd [2001] – S. Lloyd, Measures of Complexity a non-exhaustive list, dostępne na: http://www.docstoc.com/docs/102619053/Measures-of-Complexity-a-non-exhaustive-list [3.06.2012].
  15. McClamrock [2008] – R. McClamrock, The Emergent, the Local, and the Epiphenomenal, Ecological Psychology 20 (3) 2008, s. 244-251.
  16. McShea [1996] – D.W. McShea, Perspective: Metazoan Complexity and Evolution: Is there a Trend?, „Evolution” 50 (2) 1996, s. 477-492.
  17. Metallmann [1934] – J. Metallmann, Determinizm nauk przyrodniczych, Polska Akademia Umiejętności, Kraków 1934.
  18. Miłkowski [2005] – M. Miłkowski, o braku argumentów przeciwko materializmowi, a tym bardziej emergentyzmowi. W odpowiedzi Stanisławowi Judyckiemu, „Diametros” (3) 2005, dostępne na: http://www.diametros.iphils.uj.edu.pl/?l=1&p=deb7&m=17&ik=9 [5.07.2012].
  19. Mitchell [2011] – M. Mitchell, Complexity. A Guided Tour, Oxford University Press, New York 2009.
  20. Montuori [1998] – A. Montuori, Complexity, epistemology, and the challenge of the future, „Academy of Management Proceedings” (K1-K8) 1998, s. 31-41.
  21. Morin [2007] – E. Morin, Restricted Complexity, General Complexity, [w:] Worldviews, Science and Us. Philosophy and Complexity, eds. C. Gershenson, D. Aerts, B. Edmonds, World Scientific Publishing, Singapore 2007, s. 5-29.
  22. Nagel [1997] – T. Nagel, Widok znikąd, tłum. C. Cieśliński, Fundacja Aletheia, Warszawa 1997.
  23. Poczobut [2005] – R. Poczobut, Od informacji fizycznej do informacji fenomenalnej, [w:] Informacja a rozumienie, red. M. Heller, J. Mączka, Biblos, Kraków 2005, s. 177-193.
  24. Poczobut [2005] – R. Poczobut, W odpowiedzi Stanisławowi Judyckiemu, „Diametros” (3) 2005, dostępne na: http://www.diametros.iphils.uj.edu.pl/?l=1&p=deb7&m=17&ik=9 [5.07.2012].
  25. Searle [1999] – J. Searle, Umysł na nowo odkryty, tłum. T. Baszniak, Państwowy Instytut Wydawniczy, Warszawa 1999.
  26. Simon [1962] – H.A. Simon, The Architecture of Complexity, „Proceedings of the American Philosophical Society” 106 (6) 1962, s. 467-482.
  27. Sobczyk [2006] – K. Sobczyk, Losowość, złożoność, prognozowalność: próby zrozumienia, „Nauka” (2) 2006, s. 45-64.
  28. Toulmin [2005] – S. Toulmin, Kosmopolis. Ukryty projekt nowoczesności, tłum. T. Zarębski, Wydawnictwo Naukowe Dolnośląskiej Szkoły Wyższej Edukacji TWP, Wrocław 2005.
  29. Wadhawan [2010] – V.K. Wadhawan, Nauka złożoności. Trudne pytania, które zadajemy o sobie i naszym wszechświecie, tłum. M. Koraszewska, Wydawnictwo Racjonalista, Wrocław 2010.
  30. Wrześniewski [1995] – P. Wrześniewski, Pojęcie złożoności w świetle teorii samoorganizujących się systemów, „Filozofia Nauki” (4) 1995, s. 131-146.