Home » 2022 » Raport: Ryzyko egzystencjalne – czy czeka nas zagłada?! Czy rozwój technologiczny uchroni nas, czy doprowadzi do końca człowieka lub końca historii ?

Raport: Ryzyko egzystencjalne – czy czeka nas zagłada?! Czy rozwój technologiczny uchroni nas, czy doprowadzi do końca człowieka lub końca historii ?

Spread the love

Transhumanizm z samej swojej natury obiecuje postęp – chce udoskonalić człowieka, przedłużyć jego życie, poszerzyć świadomość – jednym słowem zapowiada, że będzie lepiej, szybciej wygodniej. Ale czy na pewno? Czy jesteśmy przekonani, że postęp będzie liniowy? Czy transhumanizm będzie drabiną wspinania się humanizmu na swoje wyżyny? A może to drabina do kolejnego średniowiecza?

Pomysł kierunku w którym zmierza ludzkość nie jest nowy. Dla kontrastu możemy podać dwa skrajne warianty:

Koniec historii wg Fukuyamy

U zmierzchu upadku Związku Sowieckiego, na krótko przed zburzeniem Muru Berlińskiego, amerykański politolog Francis Fukuyama napisał esej (później rozwinięty do postaci książki) “Koniec Historii”. Argumentował w nim, że ekspansja demokracji, liberalizmu i kapitalizmu, które miały miejsce w drugiej połowie dwudziestego wieku, zaprowadziły ludzkość na metę jej historycznego rozwoju. Moralny łuk historii Martina Luthera Kinga osiągnął punkt końcowy i wszelkie geopolityczne i kulturowe zmiany miały być odtąd pomniejszymi modyfikacjami politycznego i socjoekonomicznego modelu. Ogólnoświatowa adopcja zachodniego modelu liberalnej demokracji była już wyłącznie kwestią czasu.

Kolejne trzydzieści lat historii nie obeszło się lekko z tezą Fukuyamy. Korea Północna wciąż jest totalitarną de facto monarchią i nie wydaje się być zainteresowana demokratyzacją. Przykład Chin, a do mniejszego stopnia również Singapuru, pokazuje, że model kapitalistyczny i gwałtowne uprzemysłowienie nie muszą iść w parze z demokracją i ochroną praw jednostek. W istocie, sama długość sekcji omawiającej krytyki wytoczone przeciw argumentom książki w poświęconym jej artykule Wikipedii jest pewnym świadectwem nietrafności diagnozy Fukuyamy.

Zmierzch Zachodu według Oswalda Spenglera

Pierwsze wydanie dzieła “Zmierzchu Zachodu” ukazało się w 1918 roku – po długim okresie pokoju, czasie dekadencji oraz  podczas tzw. złotego wieku (mówimy oczywiście tylko tzw. okcydencie – świecie zachodu). Technologia i nauka rozwijały się w najlepsze, Pierwsze samochody, samoloty, automatyzacja przemysłu – wszystko idzie w najlepszym kierunku. 

Nagle Oswald Spengler – ogłasza zmierzch cywilizacji zachodu. Używając narzędzia morfologii cywilizacji porównuje różne cywilizacje – istniejące i te już upadłe. Cywilizacja zachodu nieuchronnie skłania się ku upadkowi. Gotyckie katedry i muzyka klasyków wiedeńskich  to dwa szczytowe osiągnięcia tej cywilizacji. Oba te elementy to wedle niego działo narodu niemieckiego, który był morfologiczną emanacją cywilizacji zachodu.  

Od tej pory czeka nas już tylko cywilizacyjna zgnilizna, konsumowanie wcześniejszych zdobyczy do czasu, aż zniszczy nas inna cywilizacja albo niczym feniks odrodzimy się w nowej formie ze swoich popiołów.  

Spengler stał się niesamowicie popularny zarówno wśród intelektualnej elity Zachodu jak i przysłowiowych “praczek”. Człowieka który przewidział upadek cywilizacji w momencie, kiedy wybuchła Wielka Wojna czytano i dyskutowano wszędzie. Sam Adolf Hitler chciał w latach dwudziestych, aby Oswald Spengler stał się naczelnym ideologiem partii NSDAP. Co ciekawe po wielogodzinnych negocjacjach Spengler odrzucił propozycję Furhera – stwierdził, że jest on człowiekiem za małego formatu, aby zburzyć i odrodzić cywilizację zachodu.

Upadek cywilizacji, a upadek Cywilizacji

Nie ma wątpliwości, że znaczna część (większość?) cywilizacji znanych nam z historii doświadczyła przynajmniej jednego “upadku”. Niemniej, w znakomitej większości przypadków, cywilizacja nie upadła bezpowrotnie. Niekiedy imperium dzieli się na kilka samodzielnych królestw, które wciąż jednak łączy kultura i zależności ekonomiczne, umożliwiające ponowne zjednoczenie po kilku wiekach (przykładem tej dynami są Chiny na początku swojego okresu cesarskiego). Innym razem wielki region geograficzny cofa się w rozwoju technologicznym, ale po latach wzrasta do poprzedniego poziomu i nawet go przewyższa (np. “upadek” cywilizacji śródziemnomorskej u schyłku epoki brązu). Nawet w przypadku cywilizacji, których znaczna część dziedzictwa kulturowego została w znacznym stopniu bezpowrotnie zniszczona (Aztekowie i Inkowie przykładem), ich spadkobiercy często wciąż żyją i kultywują część tradycji swych przodków.

Należy odróżnić (nawet najbardziej ekstremalne) przypadki upadku poszczególnych cywilizacji od upadku Cywilizacji, rozumianej jako ogół ludzkiego przedsięwzięcia zwiększania naszego potencjału, rozwijania nauki, technologii i kultury, oraz pokojowego życia w wielkich zbiorowiskach. Jeśli upadnie cywilizacja, inne pojawią się na jej miejscu. Upadek Cywilizacji oznaczałby bezpowrotne utracenie tej możliwości, czy to przez anihilację gatunku ludzkiego, czy ograniczenie naszego potencjału. Kluczowe w tej dyskusji jest pojęcie ryzyka egzystencjalnego.

Kategorie ryzyk egzystencjalnych

Bostrom (2002) definiuje ryzyko egzystencjalne jako czynnik, który może drastycznie ograniczyć nasz przyszły potencjał. Najbardziej stereotypowe przykłady obejmują oczywiście czynniki zdolne do całkowitej eradykacji naszego gatunku, a być może nawet całego życia ziemskiego. Nie dotyczy to jednak wszystkich ryzyk egzystencjalnych w ujęciu Bostroma, który wyróżnia cztery ich główne kategorie. 

  • Wybuchy (bangs, tłumaczenie własne) – unicestwienie wszelkiego pochodzącego z Ziemi inteligentnego życia.
    • Asteroida lub kometa o rozmiarze porównywalnym do tej odpowiedzialnej za wymieranie kredowe z pewnością mogłaby unicestwić naszą cywilizację. Masowe wymierania są odwiecznym elementem ewolucji życia na Ziemii. Za około miliard lat temperatura Słońca wzrośnie dość, by uniemożliwić istnienia jakiegokolwiek życia na naszej planecie. Jeśli ziemska biosfera nie zasiedli do tego czasu innych planet, jej własna gwiazda macierzysta stanie się źródłem jej zagłady.
  • Zmiażdżenia (crunches) – permanentne ograniczenie naszego potencjału osiągnięcia post-ludzkiej przyszłości, ale bez kompletnego wyginięcia naszego gatunku.
    • Możemy wyobrazić sobie scenariusz, w którym globalna cywilizacja przechodzi cykle rozwoju i upadku, nigdy jednak nie wybijając się na tyle, aby opuścić swą kolebkę i zasiedlić inne światy, wiecznie oscylując w pewnym wąskim zakresie cywilizacyjnej dojrzałości. W książce “Secular Cycles”, Peter Turchin i Siergiej Nefedow postulują, że cykle rozwoju i upadku postępowały według wysoce przewidywalnych wzorców w każdej znanej nam cywilizacji od początku istnienia złożonych osiadłych społeczeństw. W późniejszym dziele “Ages of Discord”, Turchin wysuwa hipotezę, że wciąż nie uwolniliśmy się od tej dynamiki i prędzej czy później czeka nas ten sam los.
  • Wrzaski (shrieks) – osiągnięcie jakiejś formy posthumanizmu, ale w bardzo ograniczonej formie, która nie urzeczywistnia pełni naszego potencjału.
    • Przykładem takiego scenariusza byłoby przezwyciężenie ludzkich ograniczeń przez bardzo mały wycinek społeczeństwa, na przykład jeden promil najbogatszych jednostek.
  • Skowyt (whimpers) – osiągnięcie post-ludzkiej przyszłości, która z czasem jednak “zbacza z kursu” i prowadzi nas na manowce wartości.
    • W opowiadaniu “Three Worlds Collide” Eliezera Yudkowsky’ego, ludzkość decyduje się na przekształcenie przez znacznie bardziej zaawansowaną cywilizację do formy, w której permanentnie doznają bezwarunkowego szczęścia i przyjemności. Jakkolwiek można znaleźć zwolenników tzw. wireheading, większość zwolenników trans- i post-humanizmu zgadza się, że nie jest to przyszłość, jakiej byśmy sobie życzyli.

W dalszej części tego artykułu przyjrzymy się najbardziej powszechnie znanym kategoriom ryzyk egzystencjalnych i ich przedstawieniu w dziełach science-fiction.

Wybrane ryzyka egzystencjalne

Ze wszystkich ryzyk egzystencjalnych, jednym z najpowszechniej obecnym w popkulturze jest nieprzyjazna, zaawansowana sztuczna inteligencja. Jako przykłady można wymienić takie dzieła, jak “Terminator”,  “Matrix”, czy nawet polską serię książek dla młodzieży “Felix, Net i Nika”, gdzie głównym antagnonistą jest właśnie AI o nazwie Morten. Jeszcze do niedawna, dyskusja o związanych z AI ryzykach egzystencjalnych była raczej ograniczona do środowisk science-fiction i niemile widziana w środowisku akademickim. Ten trend się jednak zmienia, w dużym stopniu za sprawą takich intelektualistów, jak Sam Harris, Nick Bostrom, czy Stuart Russell (współautor, wraz z Peterem Norvigiem, najsłynniejszego podręcznika poświęconego sztucznej inteligencji). Dla jasności, żaden z nich nie postuluje realistyczności konkretnych scenariuszy znanych nam z “Matrixa”, czy “Terminatora”. Podkreślają jednak, że sformalizowanie ludzkich wartości i stworzenie programu, który je zrozumie i będzie działał w zgodzie z nimi jest ekstremalnie trudnym przedsięwzięciem. Z kolei stworzenie systemu potężniejszego od nas, którego wartości nie będą zgodne z naszymi jest przepisem na katastrofę, nawet jeśli nie zamanifestuje się ona jako wojna z wysłanymi z przyszłości humanoidalnymi robotami.

Jednakże nawet “słaba” lub “wąska” sztuczna inteligencja może stanowić ryzyko egzystencjalne, a przynajmniej być modulatorem innych ryzyk. W artykule “What failure looks like”, Paul Christiano prezentuje dość przyziemny scenariusz (przynajmniej w porównaniu z “Terminatorem”), w którym coraz większe poleganie na uczeniu maszynowym w mierzeniu różnych wartościowanych przez nas rzeczy (takich jak zysk pieniężny, zaangażowanie użytkowników, skuteczność reklam, imersja w wirtualnych światach), sprawia że tracimy z pola widzenia aspekty ludzkich wartości, które znacznie trudniej jest adekwatnie zmierzyć. Wskazówki innych możliwych scenariuszy możemy wyłuskać z tego, jak AI funkcjonuje w dzisiejszym świecie. Wykorzystywanie coraz bardziej zaawansowanych dronów bojowych może intensyfikować konflikt, potencjalnie prowadząc do konfliktu nuklearnego, który, nawet jeśli nie doprowadzi do zagłady całej ludzkości, może permanentnie zredukować nasz potencjał opuszczenia macierzystej planety (zmiażdżenie zamiast wybuchu w kategoriach Bostroma). Oczywiście, stworzenie bezpiecznej i potężnej sztucznej inteligencji byłoby niezwykle pomocne w mitygacji wszelkiego rodzaju ryzyk egzystencjalnych. Dlatego, jak pisze Yudkowsky (2008), sztuczna inteligencja jest w tej domenie czynnikiem zarówno pozytywnym, jak i negatywnym.

W ostatniej dekadzie, znaczna część publicznej uwagi skupia się na problemach spowodowanych przez postępującą, antropogeniczną zmianę klimatu. Czy globalne ocieplenie powinniśmy rozpatrywać w kategorii ryzyka egzystencjalnego? Według obecnego konsensusu środowiska naukowego, prawdopodobieństwo, że doprowadzi ono do wymarcia naszego gatunku jest ekstremalnie niskie. Podobnie ma się sprawa z innymi wyróżnionymi przez Bostroma kategoriami egzystencjalnych ryzyk. Niemniej, nawet jeśli zmiana klimatu sama w sobie nie stanowi ryzyka egzystencjalnego, może wchodzić w interakcje z innymi czynnikami. Na przykład, przesuwające się strefy klimatyczne mogą ograniczyć nasze zdolności produkcji żywności oraz uczynić najgorętsze regiony planety niezdatnymi do długotrwałego zamieszkania, a to z kolei może zmniejszyć nasze szanse na odbudowanie obecnego poziomu cywilizacyjnego w sytuacji zimy nuklearnej spowodowanej globalnym konfliktem atomowym, pandemią, czy burzami słonecznymi, które poważnie uszkodzą naszą infrastrukturę energetyczną. Jakkolwiek możliwym jest, że każdy z tych trzech czynników (i wiele innych), rozpatrywany samodzielnie, nie stanowi wielkiego ryzyka egzystencjalnego, ich interakcja ma znacznie większe szanse permanentnego ograniczenia naszego potencjału.

Science-fiction ostrzega i patrzy w przyszłość

Wszystkie te ryzyka egzystencjalne, katastrofalne wizje upadku dotyczą przyszłości. Możemy o nich spekulować, ale nie mamy pewności czy i jak się to może wydarzyą. Jak zawsze w takim przypadku przychodzi na pomoc pop-kultura spod znaku fantastyki naukowej. 

Oczywiście na jeśli mamy na szali Koniec Historii Fukuyamy oraz Zmierzch Cywilizacji Spenglera – większość wizji przyszłości będzie raczej dotyczyła tej ponurej wizji przyszłości i miejsca przyszłego człowieka, ale nie zawsze. Zacznijmy od przykładu rodem z Fukuymay.

Star Trek: The Next Generation

W świecie serialu Star Trek TNG, którego akcja dzieje się XXIV w. to prawdziwe zwycięstwo Fukuyamy. Cała ludzkość jest zjednoczona pod auspicjami Gwiezdnej Federacji – zajmującej się nauką, odkrywaniem nowych  planet, dyplomacją z innymi rozumnymi rasami. Pomimo, że ich statki gwiezdne są obsadzone przez oficerów, których dystynkcje przypominają stopnie wojskowe – wojsko jako takie nie istnieje. To nie wszystko – problemy ekonomiczne przestały istnieć, ludzie nie gromadzą gotówki czy przedmiotów. Istniej dywersyfikacja prestiżu, kompetencji, doświadczenia ale nie statusu materialnego. Tak wyposażona ludzkość beztrosko podróżuje przez przestrzeń kosmiczną niosą kaganek oświaty i człowieczeństwa. 

Niestety taki przykład jest osamotniony – reszta przykładów uderza bardziej spenglerowski ton.

Diuna – sparzenie AI i nietrywialne rozwiązania transhumanistyczne

W świecie Diuny Franka Herberta ludzkość w dalekiej przyszłości odkryła mocną AI. Niestety nastąpił tutaj klasyczny scenariusz buntu maszyn. Po długiej wojnie maszyny zostały pokonane, a wszystkie mocne AI zostały zakazane. Szczytowy okres ludzkości już był – teraz może być już tylko gorzej – trzeba czymś zastąpić AI. Tutaj mamy trzy ciekawe rozwiązania transhumanistyczne, które mają zastąpić AI. Z jednej strony jest to Gildia Nawigatorów – dzięki farmakologicznym wzmocnieniom poznawczym są w stanie nawigować w ogromnych kosmicznych przestrzeniach unikając, gwiazd, planet i czarnych dziur. Bene Geserit – to kobiecy zakon zajmujący się edukacją i religią – są doradcami wszystkich najważniejszych władców i urzędników – warto wspomnieć, że ludzkość bez AI cofnęła się typowo feudalnej struktury. Dzięki żelaznej rutynie treningu mentalnego i fizycznego potrafią tworzyć religijne mity na swoją własną potrzebę czy wykrywać mikroruch twarzy świadczące o kłamstwie. Na koniec Mantaci – specjalnie wyselekcjonowani i szkoleni od dziecka są żywymi komputerami – idealnymi połączenia komputera i maszyny statystycznej. Niestety mentaci na dworach wysokich rodów są też tytularnie mistrzami assassinów – co rzuca raczej smutną perspektywę na wykorzystanie tak wybirnych jednostek. 

Diuna jest nominalnie światem stagnacji – największą motywacją jest zdobywanie nowych dóbr i gromadzenia tzw. przyprawy (nootropwego narkotyku). 

Warhammer 40 000 – w dalekiej przyszłości jest tylko wojna

W fikcyjnym świecie figurkowej gry strategicznej mam podobny początek jak w Diunie. Bunt maszyn i zdławienie silnej AI. Jednak w tym wypadku historia toczy zupełnie inaczej. Jednym sposobem na przeżycie gatunku ludzkiego okazała się  nieustająca wojna – wojna ludzi z ludźmi, woja ludzi z obcymi rasami, wojna ludzi z psychicznymi bytami demonami. 

Cały pozostały postęp technologiczny został podporządkowany wojnie, co gorsze wojna z AI trwała tak długo, że zapomniano jak działa technologia. Spowodowało to jej skrajną sakralizację, traktowanie jak relikwii. Mand maszynami odprawia się modły i wierzy, że każda ma swojego opiekuńczego ducha. Z perspektywy transhumanizmu – każdy człowiek jest tak modyfikowany cybernetycznie, aby, był jeszcze lepszym trybem w mechanizmie niekończącej się wojny. Nie ma żadnego miejsca na indywidualizm – w dystopijnym świecie Warhammera 40K – liczy się tylko użyteczność.

Konkluzja: czy czeka nas zagłada?

Transhumanizm z pewnością oferuje wiele atrakcyjnych rozwiązań pożądanych przez ludzkość, czy jednak jesteśmy w stanie przewidzieć jakie będą tego konsekwencja. Do czego doprowadzi nas rozwój technologiczny. 

Czy będzie to liniowa droga do doskonałości i beztroskiego życia, czy może czeka na niekończąca się sinusoida technologicznych wzlotów i wojennych upadków. Fantastyka naukowa w zdecydowanej większości nie pozostawia złudzeń. Jednak w randce w ciemno z technologią – klasycznie: wybór należy do nas.

Literatura:

Bostrom, N., & Cirkovic, M. M. (2011). Global catastrophic risks. Oxford University Press.

Bostrom, N. (2001). “Analyzing Human Extinction Scenarios and Related Hazards,” Journal of Evolution and Technology 9(1) 

Herbert, F (2007) Diuna, przeł. M. Marszał, Warszawa, Rebis

Ord, T. (2020). The precipice: Existential risk and the future of humanity. Hachette UK.

Spengler, O (2014) Zmierzch Zachodu, przeł. J. Marzecki, Warszawa, Alatheia

Priestly, R (1992) Warhammer 40 000: rogue trader, Nottingham, Games Workshop

Russell, S., & Norvig, P. (2016). Artificial intelligence: A modern approach.

Turchin, P., & Nefedov, S. A. (2009). Secular cycles. Princeton University Press.

Turchin, P. (2016). Ages of discord: A structural-demographic analysis of American history.

Yudkowsky, E. (2008). Artificial intelligence as a positive and negative factor in global risk. Global Catastrophic Risks. https://doi.org/10.1093/oso/9780198570509.003.0021

Eliezer Yudkowsky – Three Worlds Collide


Leave a comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Najnowsze komentarze