Abstract. The article presents various notions of complexity: complexity as length of description, algorithmic complexity, complexity as logical depth, complexity as degree of hierarchy, and effective complexity, which is coupled with the theory of complex adaptive systems. In the article I also discuss many problems connected with these notions of complexity and the ontological and epistemological implications of the theory of complexity. The main thesis is that there is no one, general notion of complexity; the context must always be taken into consideration. The program called “complexity science” is also disputable because of the many problems with the laws of complexity and predictions which allow us to speak about “science” in this particular case.
Keywords: złożoność, ontologia, epistemologia, nauka, filozofia przyrody, Bennett, Lloyd, Morin, Simon.
Złożoność jest pojęciem wszechobecnym, wykorzystywanym do określenia niezliczonych zjawisk – zarówno naturalnych, jak i sztucznych, wydaje się, że ustalenie jednej definicji lub miary złożoności przekracza ludzkie zdolności konceptualizacyjne. Pozostaje pytanie, czy jest to problem wynikający jedynie z ludzkich ograniczeń poznawczych, czy też sama złożoność jest nacechowana swoistą złożonością, która ze swej istoty ogranicza/uniemożliwia jej adekwatne ujęcie. Złożoność nieprzypadkowo stanowi synonim trudności związanych z rozwiązaniem danego problemu, opisem jakiegoś zjawiska czy poznaniem praw, którym ono podlega. Intuicyjnie termin „złożony” znaczy tyle, co skomplikowany, wieloaspektowy, zróżnicowany, kompleksowy[1]. Takie ujęcie, jako wynikające z naszego codziennego doświadczenia, powinniśmy uznać za tło rozważań nad złożonością. W artykule postaram się jednak skupić na tych koncepcjach złożoności, które zdają się pojawiać na pograniczu nauk szczegółowych i filozofii. Jak sądzę, wysiłki czynione zarówno przez naukowców, jak i filozofów pozwalają na częściowe rozwianie swoistej mgły pojęciowej, która otacza złożoność.
Złożoność nie jest zjawiskiem nowym, jej wagę dostrzegano już w starożytności, ale prawdziwa kariera tego terminu przypada na drugą połowę XX wieku. Przełom minionego i obecnego stulecia można z powodzeniem nazwać „erą złożoności” – złożone okazuje się wszystko – od cząstek elementarnych po nasze uczucia i sytuację gospodarczą świata. Mówi się nawet o nowym „paradygmacie złożoności”, który ma zastąpić dawny, jeszcze o proweniencji newtonowskiej[2]. Nauka proponuje szereg cząstkowych definicji złożoności, przyporządkowuje takim definicjom odpowiednie kryteria – miary złożoności. Refleksja filozoficzna miałaby w tym wypadku na celu wyodrębnienie założeń tkwiących u podstaw takich a nie innych rozróżnień oraz podanie definicji złożoności jako pojęcia stojącego w centrum pewnego sposobu opisu rzeczywistości. W obu przypadkach mamy do czynienia zarówno z podejściem metodologiczno-krytycznym, jak i z ontologiczno-epistemologicznym.
Poruszany problem wydaje się należeć do nieco zapomnianej filozofii przyrody, która czerpie z ustaleń filozofii przyrodoznawstwa (jako części filozofii nauki) i w końcu samego przyrodoznawstwa[3]. Filozofia podejmuje w tym kontekście próbę całościowego oglądu, unikając specjalizacji nauk szczegółowych i zadając pytania, które w tamtych obszarach nie pojawiają się, korzysta ponadto z już wspomnianych intuicji potocznych.
W artykule dokonuję przeglądu kilku najczęściej spotykanych sposobów definiowania złożoności, przedstawiam problemy związane z omawianymi ujęciami i proponuję pewne wnioski natury filozoficznej wynikające z dokonanej prezentacji. Od razu wypada zaznaczyć, że proponowany przegląd stanowisk jest z natury rzeczy arbitralny – nie sposób omówić w jednym artykule wszystkich, często bardzo specjalistycznych, dookreśleń znaczenia terminu „złożoność”. Ich zestawienie można znaleźć w zwięzłym opracowaniu Setha Lloyda[4]. Lista składa się z blisko czterdziestu pozycji[5] i, jak sam autor zaznacza, nie może być uznana za kompletną. Podczas jej sporządzania Lloyd posłużył się trzema pytaniami, które w jakiś sposób pozwalają na uszeregowanie złożoności w stosowne typy. Gdy badamy złożoność obiektu lub procesu powinniśmy pytać:
Odpowiedzi na pierwsze pytanie odsyłają do teorii informacji, omówione przeze mnie przykłady dotyczą złożoności jako długości opisu i złożoności algorytmicznej. W drugim wypadku kreacja badanego przedmiotu jest przekładana na takie jednostki jak czas, energia, praca. W tym kontekście jako miara złożoności pojawia się między innymi głębokość logiczna. Odpowiedź na ostatnie pytanie Lloyd dzieli na dwa podtypy – możemy mianowicie mówić o stopniu trudności związanych z opisem danej struktury lub ilości informacji przekazywanej między jej elementami. W artykule analizuję złożoność jako stopień zróżnicowania obiektu fizycznego i tzw. złożoność efektywną. Na koniec trzeba jednak zaznaczyć, że omówionych pytań nie można traktować jako rozłącznych.
Chyba najprostszym i najbardziej intuicyjnym sposobem definiowania złożoności jest porównanie jej z długością opisu jakiegoś przedmiotu, rzeczy bądź zjawiska. Najkrócej mówiąc – im dłuższy opis, tym złożoność cechująca to, co opisujemy, większa. Tak rozumiana złożoność może odnosić się do różnorodnych klas zjawisk spotykanych w świecie. Możemy stosować ją zarówno do pomiaru złożoności lokomotywy (opis techniczny budowy takiej maszyny), jak i utworu literackiego (w tym wypadku złożoność równałaby się jego długości). Istotny problem z tak ujmowaną złożonością pojawia się jednak już w tym momencie. Można bowiem zasadnie zapytać, jaki rodzaj opisu uznamy za preferowany, jaki kod powinniśmy zastosować, aby opis był najbardziej wierny, i w końcu – co w przywołanych przykładach miałaby oznaczać sama wierność lub adekwatność opisu? Opis jest zawsze rodzajem modelowania zjawisk, stosujemy odpowiednie skalowanie, idealizację, czy gruboziarniste uśrednienie. Nawet w wypadku utworu literackiego można pokusić się o opis wykraczający daleko poza sam tekst – może on dotyczyć zarówno elementów formalnych, jak i treściowych – sensy odkrywane w procesie interpretacji wielokrotnie nie są dane wprost, stanowią pewien naddatek. Tak rozumiany opis utworu literackiego, np. Ulissesa Joyce’a, uwzględniający przy tym Ingardenowskie „miejsca niedookreślenia”, jawi się jako potencjalnie nieskończony. Opisaną własność można określić jako zależność od kontekstu[6]. Zadając pytanie o złożoność, musimy ustalić przede wszystkim, kto pyta i o co, oraz do kogo kierowany jest przekaz. Istotne jest, jakie informacje podmiot pytający uznaje za relewantne, a jakie za „szum informacyjny”, który można z łatwością pominąć. W różnych kontekstach rozwiązanie takich problemów może wyglądać inaczej. Nie wolno też zapominać o wielorakich problemach związanych z samym pojęciem informacji[7]. Złożoność jawi się więc jako własność będąca funkcją wielu czynników. Wspomniana już adekwatność opisu wydaje się, przynajmniej w pewnym stopniu, zależeć od opinii podmiotu i wyboru elementów, które powinny znaleźć się w danym opisie, a które można określić jako istotne. O ile w przypadku lokomotywy można dojść do konsensu w tej sprawie, nie jest to już tak proste w doniesieniu do zjawisk bardziej złożonych – np. ekosystemu. Opis jest ponadto nie tylko wyliczeniem istotnych składników, ale również zawiera charakterystykę ich interakcji, można więc mówić w tym wypadku o przynajmniej dwóch podtypach złożoności – statycznej (synchronicznej) odnoszącej się do struktury i dynamicznej (diachronicznej) skorelowanej z zachowaniem systemu. W nawiązaniu do niektórych ze wspomnianych ograniczeń Murray Gell-Mann proponuje określenie tzw. przybliżonej złożoności. Jest to: „Długość najkrótszego komunikatu, opisującego dany układ przy przyjętym poziomie gruboziarnistego uśrednienia, przeznaczonego do przesłania na odległość, w którym wykorzystujemy język i wiedzę, jaką dysponują obie strony (i wiedzą, że tak jest), przy czym zarówno język, jak i wiedza muszą być ustalone z góry”[8].
W przeciwieństwie do przedstawionego powyżej typu to ujęcie złożoności jest o wiele bardziej sformalizowane i ścisłe. Koncepcja tak rozumianej złożoności została sformułowana niezależnie przez różnych badaczy: Andreia N. Kołmogorowa, Gregory’ego Chaitina i Raya Solomonoffa. Bardzo ogólnie można scharakteryzować omawianą koncepcję jako związaną z komputerami i algorytmami[9] – w najprostszym ujęciu złożoność ustala się tu przez mierzenie długości programu, w który przy pomocy określonej liczby bitów (zer i jedynek) koduje się daną formułę (bardziej złożony łańcuch bitów, tekst, obraz)[10]. Przy takim podejściu jeden bit oznacza brak złożoności, potem złożoność rośnie. Odkrywane regularności mogą być kodowane skrótowo, przypadkowość ulega wtedy zmniejszeniu, pojawia się tzw. algorytmiczna kompresowalność[11]. W tym momencie spotykamy największą trudność związaną ze złożonością algorytmiczną – otóż im większa przypadkowość wyjściowej formuły, tym większa złożoność końcowego algorytmu. Złożoność jest więc największa dla zupełnie przypadkowych ciągów danych[12]. Nie mamy poza tym możliwości przewidzenia, czy dany ciąg jest istotnie przypadkowy (stochastyczny, algorytmicznie niekompresowalny), czy tylko sprawia takie wrażenie. W ostatnim wypadku ciąg danych może być pseudolosowy, jak w komputerowym generatorze liczb losowych, podstawowa trudność polega jednak na tym, że nie znamy wszystkich algorytmów, zawsze może się okazać, że dla danej formuły taki algorytm uda się znaleźć[13]. Na omawiane problemy wskazują badania Gregory’ego Chaitina, który z kolei powołuje się na limitacyjne ustalenia Kurta Gödela. Mówiąc o złożoności algorytmicznej, badacze odwołują się do pojęcia komputera uniwersalnego, którego modelem jest tzw. maszyna Turinga, trudno jednak nie mieć na uwadze budowy konkretnej maszyny liczącej i własności przyjętego systemu kodowania. O ile nawet przyjąć radykalną tezę ontologiczną, która wyłania się z proponowanego ujęcia, a która głosi, że świat jest rodzajem superkomputera, podczas gdy prawa nim rządzące są rodzajem algorytmów, nie bardzo wiadomo, co zrobić ze zjawiskami, które, choć bezsprzecznie należą do świata, skutecznie opierają się algorytmizacji. Poruszana już kwestia złożoności Ulissesa jest tu dobrym przykładem[14].
Ta propozycja, wysunięta przez Charlesa Bennetta[15], miała na celu większe odniesienie złożoności do procesów fizycznych obserwowanych w świecie, nadal jednak z wykorzystaniem komputerów. Złożoność procesu lub obiektu jest tu proporcjonalna do złożoności programu, który go symuluje, i czasu, jaki potrzebuje komputer wykonujący program, by wygenerować taką symulację. Pod uwagę bierzemy zawsze najkrótszy możliwy program. Jak zaznacza sam Bennett: „Logicznie głębokie obiekty, […] są rezultatem długiego, powolnego w symulacji procesu obliczeniowego i najprawdopodobniej nie powstały w inny sposób”[16]. Do poprzedniego założenia świata-komputera należy więc dodać równie silne założenie o relacji odwzorowania zachodzącej między strukturą rzeczywistych procesów a strukturą (głębokością) programów, które pozwalają symulować te pierwsze. Nietrudno jednak zauważyć, że dyskutowana propozycja wikła się w szereg trudności związanych z adekwatnym ujęciem samego procesu symulacji. Postulatem metodologicznym jest tu zawsze dokładność i możliwość przewidywania zachowania systemu[17]. Problemy z symulowaniem układów o bardzo dużej liczbie parametrów kontrolnych, jak w przypadku zmian klimatycznych, wskazują, że często nie jest możliwe ustalenie tych elementów, które są wystarczające do zbudowania udanej symulacji. Podkreśla się przy tym istotne przeszkody w symulowaniu układów, w których pojawiają się zjawiska nieliniowe, chaotyczne, gdzie nie ma szans na udane predykcje. Aby adekwatnie symulować, musielibyśmy więc posiadać wiedzę na temat złożoności obiektów badanych już w punkcie wyjścia, tak aby zbudować ich udany model, prowadzi to jednak do błędnego koła w wyjaśnianiu. Warto ponadto zaznaczyć, że symulowanie może przebiegać na wiele sposobów, znów więc wybór danej metody zależy od oczekiwanych rezultatów.
Idea wykorzystania pojęcia hierarchii do opisu stopnia złożoności została zaproponowana przez Herberta A. Simona[18], współcześnie jest ona rozwijana między innymi przez Bernarda A. Hubermana i Tada Hogga[19] w kontekście fizyki i Daniela McShea[20] na gruncie nauk biologicznych. Takie rozumienie złożoności opiera się na idei braku izomorfii między obiektami z następujących po sobie poziomów rzeczywistości. Odrzuca się przy tym przypadki, w których różnic takich nie ma lub są zbyt duże i nie daje się hierarchii zbudować. Omawiane ujęcie znajduje wyraźną podbudowę w modelu ontologii poziomów bytu zaproponowanej przez Nicolaia Hartmanna[21]. Poszczególne warstwy rzeczywistości dają się ująć w system o określonej hierarchii, która pozwala na ukazanie stopniowego wzrostu złożoności w toku ewolucji zarówno biologicznej, jak i fizycznej oraz kulturowej. Świat jest zatem systemem systemów, które z kolei możemy poddawać analizie i rozkładać na podsystemy, lokowane następnie na określonym miejscu globalnej skali złożoności. Hierarchię określa się nie tylko przez liczbę elementów składających się na system, ale również przez liczbę i częstość interakcji między komponentami. Można więc odróżnić złożoność obiektu od złożoności procesu, złożoność statyczną od dynamicznej, synchroniczną od diachronicznej. Systemy i podsystemy wyróżniamy jako całości mające charakter funkcjonalny, według Simona charakteryzuje je względna rozkładalność (near-decomposibility), która sprowadza się do faktu względnej niezależności danego poziomu od poziomów niższego i wyższego w hierarchii. Wskazuje się w tym momencie na istnienie większej liczby silnych interakcji wewnątrz subsystemów, niż między samymi subsystemami (przykładem są interakcje wewnątrz komórki i między komórkami organizmu)[22]. Na nowych poziomach organizacji pojawiają się własności emergentne. Zarzuty, jakie można postawić takiemu rozumieniu złożoności, pokrywają się w dużej mierze z podnoszonymi w punkcie poprzednim. Hierarchie mogą wyglądać różnie, zależnie od przyjętych założeń wyjściowych, nie sposób też uciec od wrażenia, że taki hierarchiczny opis złożoności musi zakładać niejawnie jakąś uprzednią wiedzę na jej temat. Próba obrony stanowiska może polegać na wykazaniu, że założenia i konwencje występują we wszystkich podejściach do złożoności, a hierarchia złożoności jest budowana stopniowo, poszczególne przykłady są ze sobą porównywane, nie dysponujemy lepszą metodą, niż szukanie analogii z już rozpatrywanymi przypadkami.
Odnosi się ona również do obiektów fizycznych, ale ujmowanych jako złożone systemy adaptacyjne (complex adaptive systems)[23]. Są to systemy, które przystosowują się do zmian środowiska, w jakiś sposób „uczą się” nowych zachowań, wykorzystują efektywnie informacje płynące z zewnątrz. W tym wypadku analizuje się wzory zachowań systemów, liczy się długość takiego schematu, zwraca się jednak uwagę na to, aby opis nie zawierał z jednej strony zbyt dużo regularności, a z drugiej zbyt wielu elementów chaotycznych. Takie systemy, które znajdują się na środku skali, między skrajnościami, uznaje się za najbardziej złożone. Unika się więc pułapki, która pojawiła się przy okazji omawiania złożoności algorytmicznej, gdzie najbardziej złożone były przypadkowe ciągi danych. Istotą złożoności efektywnej jest więc „krytyczna równowaga między porządkiem a chaosem, zachodząca przy lub blisko tak zwanej krawędzi chaosu”[24]. Ostatnie ustalenie należy do najbardziej doniosłych jeśli chodzi o zmianę tradycyjnego rozumienia złożoności. Prostota nie jest już przeciwieństwem złożoności, raczej otacza ona dość wąski pas, w którym pojawiają się zjawiska złożone. Zarzuty wobec omawianej propozycji pokrywają się z już przywoływanymi. Najczęściej jednak zwraca się uwagę na dyskusyjny status podmiotu, który ma oceniać stopień złożoności efektywnej, a który sam jest przecież złożonym systemem adaptacyjnym.
Powyżej przedstawiłem analizę kilku wybranych koncepcji złożoności. Przy okazji takich zestawień rodzi się jednak podstawowe pytanie – czy złożoność jest cechą świata, czy może stanowi tylko efekt procesów poznawczych? Innymi słowy – jakie relacje zachodzą miedzy złożonością ontologiczną i deskryptywną?[25] Problem ten dotyka szeregu zagadnień ontologiczno-epistemologicznych; na podstawie wcześniejszych analiz można chyba jednak pokusić się o kilka wniosków. Z jednej strony trudno zgodzić się ze stanowiskiem negującym jakiekolwiek obiektywne wyznaczniki złożoności[26], szczególnie badania nad złożonymi systemami adaptacyjnymi wskazują na istotne znaczenie złożoności dla takiej a nie innej struktury otaczającego nas świata. Z drugiej, wspominane wielokrotnie trudności natury językowej, problemy z poznaniem i statusem podmiotu każą jednak zachować ostrożność w stawianiu tez, wedle których złożoność jest w pełni obiektywną własnością rzeczywistości zewnętrznej[27]. Istotny problem pojawia się więc przy próbie jednoczesnego ujęcia aspektu ontycznego i epistemicznego złożoności. Wydaje się, że na pytanie o możliwość ustalenia obiektywnej, istotowej złożoności nie można udzielić jednoznacznej, zadowalającej wszystkich odpowiedzi. Oczywiście zagadnienie to łączy się z całą, ogromną debatą na temat ludzkich ograniczeń poznawczych, jak dotąd zakończoną filozoficznym patem. Sądzę jednak, że tak jak badania nad złożonością wymagają postawy metodologicznego pluralizmu, tak stanowisko ontologiczno-teoriopoznawcze, które wynika z tych analiz, można określić jako umiarkowany (krytyczny) realizm, umiarkowany konstruktywizm lub równie umiarkowany fallibilizm[28]. Złożoność nie jest konstruktem dowolnie tworzonym przez badaczy, nie jest też jednoznacznie i zawsze trafnie rozpoznawana w przyrodzie. Stosunek, jaki zachodzi w tym wypadku między podmiotem poznającym a rzeczywistością zewnętrzną, można określić jako korelację lub współdeterminację obu tych czynników[29]. Znaczenie nie do przecenienia dla statusu filozoficznego namysłu nad złożonością ma dziś nauka, nawet pamiętając o jej ograniczeniach, nie sposób przejść obojętnie wobec dokonań współczesnego przyrodoznawstwa. Podejście do tych ostatnich wyznacza w dużej mierze także rozpoznania filozoficzne lub przynajmniej w jakiś sposób je ukierunkowuje. Bez kontaktu z nauką filozoficzne rozważania nad złożonością wydają się jałowe. Potoczna intuicja przeciwstawia złożoność prostocie i na tym poprzestaje – oba pojęcia definiują się samoistnie jako wykluczające się przeciwieństwa. W rozwoju nauki dążono do prostoty rozumianej jako uproszczenie opisu zjawisk – im dany opis w postaci prawa naukowego był bardziej zwięzły (a jednocześnie obejmujący swą mocą jak najszerszą klasę zjawisk), tym lepiej. Takie formuły jak F = ma czy E = mc² stały się symbolami postępu nauki i, co szczególnie istotne w przypadku osiągnięć Newtona, wiary w prostotę praw rządzących złożonym wszechświatem. Wraz z rozwojem wiedzy sprawy zaczęły się komplikować, zdano sobie sprawę z tego, że sukces nauki jest równocześnie sukcesem idealizacji, tworzenia takiego obrazu rzeczywistości, który pomija szereg istotnych cech zjawisk czy też uznaje całe wycinki świata za niepodlegające efektywnemu badaniu. Powstanie takich działów nauki jak mechanika nieliniowa czy teoria chaosu deterministycznego oraz zainteresowanie problemem samoorganizacji[30] doprowadziło do reinterpretacji pojęcia złożoności. Badacze zajmujący się tym zagadnieniem postulują, aby odejść od wspomnianego przeciwstawiania prostoty i złożoności na rzecz bardziej adekwatnego i zróżnicowanego modelu, w którym uznajemy złożoność za cechę układu – tak jak uporządkowanie czy chaotyczność[31]. Poziom bazowy może cechować prostota, podczas gdy poziom nadbudowany nad nim wykazuje złożoność. Określenia, jakie stosujemy, zależą więc w dużej mierze od poziomu rzeczywistości, który aktualnie rozpatrujemy[32]. W tym kontekście najbardziej interesujące zjawiska lokują się między dwiema skrajnościami – doskonałym porządkiem i kompletnym chaosem[33]. Samoorganizacja, nierozerwalnie sprzężona ze złożonością, pojawia się między uporządkowaniem a chaotycznością[34] – ujęcie to pozwala na pogodzenie opisu ewolucji układu z jednoczesnym zaakcentowaniem jego względnej tożsamości. W przeciwieństwie do układów złożonych „zamiana miejsc” dowolnych, jednakowych fragmentów układów uporządkowanych i chaotycznych nie zaburza ich struktury ani zachowania[35]. Układy takie można więc nazwać izomorficznymi, złożoność można określić jako złamanie izomorfii i pojawienie się specjalizacji w ramach organizacji różnorodnych podsystemów. W układach złożonych hierarchia poziomów pociąga za sobą pojawienie się emergencji, swoistego naddatku, który nie ukazuje się w obu pozostałych kategoriach układów. Złożoność przysługuje zatem systemom, które składają się z podsystemów, te ostatnie stanowią jednocześnie części funkcjonalne zrozumiałe jedynie w kontekście całości. Między podsystemami występują liczne i zmienne interakcje. Systemy złożone reagują elastycznie na wpływy środowiska, ich zachowanie jest charakteryzowane przez kategorię porządku z jednoczesną obecnością elementów chaotycznych. Układy takie nie poddają się prostej analizie część-całość (mikroredukcjonizmowi), ani wyjaśnieniom czysto mechanicznym. Jeśli zgadzamy się na reinterpretację dychotomii prostota-złożoność, zostaje jeszcze jedna, dość często spotykana: prostota-komplikacja. Obie, szczególnie w rodzimym obszarze językowym, są traktowane jako synonimiczne, sądzę jednak, że nie musi tak być. Prostota i komplikacja mogą odnosić się zarówno do możliwości poznania obiektu, jego struktury, jak i zachowania. Skomplikowane jest to, co na pierwszy rzut oka wydaje się trudne do zrozumienia, czego opis może wymagać długiego czasu[36], co składa się z wielu elementów i zależności między nimi, czego zachowanie nie daje się przewidywać i ująć w lapidarnej formule. Przeciwieństwem tak rozumianego skomplikowania miałaby być prostota. Taka siatka pojęciowa rodzi jednak liczne nieporozumienia. Postulowałbym ograniczenie używania określeń „prostota” i „komplikacja” jedynie do aspektu strukturalnego oraz samego procesu poznawania systemu. W tym wypadku złożoność, porządek i chaotyczność byłyby własnościami systemów orzekanymi na metapoziomie oraz związanymi nie tyle z samą strukturą, co z zachowaniem systemu, zaś skomplikowanie lub prostota cechami, które można odnieść do subsystemów, ich opisu lub „pierwszego wrażenia”, jakie wywołuje w obserwatorze dany system[37]. Prostota i komplikacja byłyby zatem pojęciami jedynie pomocniczymi, których użycie wiąże się ze świadomością określonego kontekstu. W proponowanym ujęciu złożoność ma wyróżniony status jako cecha bardzo swoistych systemów[38]. Powyższe wnioski dotyczące złożoności, która pojawia się w otaczającej nas przyrodzie, można przedstawić w formie diagramu:
Zaproponowany wykres łączy w sobie trzy wymiary złożoności[39]: statyczny – w którym omawiamy złożoność struktury, dynamiczny – akcentujący zmienność, zachowanie systemu i ostatni – informacyjny, najbardziej abstrakcyjny, odwołujący się do różnorodnie definiowanego pojęcia informacji.
Na zakończenie wypada jeszcze powrócić do kwestii wspomnianej na początku artykułu, to znaczy roli filozofii w badaniach na złożonością. Można mianowicie spotkać się z twierdzeniem, że nauka rozwiązuje w tym wypadku wszystkie problemy. Trzeba jednak pamiętać, że często to, co nazywamy nauką, zawiera treści filozoficzne, wyjaśnienie zjawiska nie jest zawsze tożsame z jego zrozumieniem. To ostatnie pojawia się wtedy, gdy do opisu zaprzęgnięta zostaje wielość dyskursów i perspektyw poznawczych[40]. Próbując zrozumieć, zinterpretować teorie naukowe, posługujemy się językiem wypracowanym przez filozofię, pytania i odpowiedzi przez nią proponowane wykraczają poza horyzont nauki. Oddziaływanie jest tu wzajemne, oba obszary wiedzy są niepełne, jest to widoczne szczególnie w przypadku omawianego zagadnienia. Co istotne, sama nauka w kontekście badań nad złożonością ulega istotnym przemianom[41]. Kluczowa dla tego aspektu okazuje się nieredukowalność obrazów świata wypracowanych przy użyciu różnych dyskursów[42]. W kontekście złożoności dyskusyjne staje się samo określenie „nauka”. Gdyby nawet posługiwać się terminem „nauka (-i) o złożoności (-ach)”, trudno jest wskazać zadowalające sformułowania praw dotyczących złożoności[43], ich moc predykcyjna jest niewielka, sama procedura wyjaśniania naukowego musi w takim wypadku ulec daleko idącemu przeformułowaniu. Zawodzi przede wszystkim redukcjonizm i mechanicyzm jako dominujące formy wyjaśniania zjawisk, układy złożone poznajemy bardziej przez obserwację ich zachowania, możemy budować opisy, ale w niewielkim stopniu jesteśmy w stanie je redukować czy przewidywać ich przyszłość. Filozofia stanowi tu znaczący kontekst, pozwala na zrozumienie znaczenia takich przemian, opis ich podstaw, ale i daleko idących implikacji. Jest to jednak temat na inne, szersze opracowanie. Podsumowując, wypada zauważyć, że wielość określeń złożoności (jej miar) prowadzi do postawienia pod znakiem zapytania przedsięwzięcie mające na celu ufundowanie tzw. nauk(-i) o złożoności. Ilościowe, wyspecjalizowane określenia złożoności gubią jej wieloaspektowość, podczas gdy zbyt ogólne, opisowe ujęcia nie poddają się standaryzacji i zamieniają w opis poszczególnych przypadków[44]. W kontekście przeprowadzonych analiz należy raczej mówić o różnorodnych złożonościach, a nie o jednej, idealnej złożoności[45]. Jak zauważył już Gell-Mann: „Zapewne żadne pojedyncze pojęcie złożoności nie może poprawnie uchwycić naszych intuicji, co słowo to powinno znaczyć. Być może trzeba zdefiniować kilka różnych pojęć złożoności, z których niektóre nie zostały jeszcze wymyślone”[46].
Złożoność analizowana w artykule okazuje się zjawiskiem wieloaspektowym, niepoddającym się jednoznacznej klasyfikacji. Nie istnieje jedna definicja złożoności czy jej miary. Złożoność algorytmiczna, jako najczęściej przywoływana przez przedstawicieli nauk matematyczno-przyrodniczych, nie jest przydatna w badaniach prowadzonych przez nauki humanistyczne. Filozofia nie może pomijać tego ważnego ograniczenia, które powoduje, że poszukiwanie istoty złożoności staje się przedsięwzięciem arcytrudnym. Złożoność skłania zatem do pluralizmu metodologicznego zarówno w nauce, jak i filozofii, w ramach tej ostatniej prowadzi również do przeformułowania wielu zagadnień z pogranicza ontologii i epistemologii. W tym właśnie miejscu nauka spotyka się z filozofią.