Home » UJ 2022/23 » Co o przyszłej kondycji ludzkiej mówi się na Oksfordzie? Przegląd aktualnych badań z Future of Humanity Institute

Co o przyszłej kondycji ludzkiej mówi się na Oksfordzie? Przegląd aktualnych badań z Future of Humanity Institute

Spread the love

Logo Future of Humanity Institute

Oksfordzki Future of Humanity Institute to interdyscyplinarny ośrodek naukowy, w którym prowadzone są badania z tak różnych dziedzin jak epidemiologia i inżynieria biologiczna, sztuczna inteligencja, metodologia i etyka nauki, bezpieczeństwo międzynarodowe czy teoria informacji. Dociekania z tych pozornie odległych od siebie obszarów łączy jeden przyświecający im cel: zapewnić naszemu gatunkowi długą i pomyślną przyszłość. Przyjrzyjmy się szczegółowym celom, zainteresowaniom i metodom pracy Instytutu oraz najciekawszym pracom opublikowanym w ostatnim czasie przez zrzeszonych w nim naukowców.

Future of Humanity Institute został założony w roku 2005 przez wpływowego filozofa Nicka Bostroma, który kieruje nim do dziś. Obecnie działalność Instytutu koncentruje się na „wielkich pytaniach”, z którymi będzie musiała mierzyć się ludzkość i sposobach na zapewnienie jej stabilnych warunków optymalnego rozwoju, opierając się na dokonaniach filozofii, politologii, etyki i ekonomii ale także matematyki, inżynierii oraz informatyki. Dla zrozumienia wagi jego misji i wizji kluczowe jest spopularyzowane przez Bostroma pojęcie zagrożeń egzystencjalnych (existential risks), to jest takich zagrożeń, które „mogłyby spowodować nasze wyginięcie albo zniszczyć potencjał inteligentnego życia ziemskiego” (Bostrom, 2002). Wśród tematów refleksji sformułowanych i rozwiniętych w ramach Instytutu wymienia się zarówno ogólne i czasowo odległe problemy, takie jak hipoteza symulacji albo perspektywy wirtualnych symulacji działania ludzkiego mózgu, jak również wyzwania, z którymi nasza cywilizacja musi mierzyć się tu i teraz: sztuczna inteligencja, technologiczne udoskonalanie ludzkiej natury, rynki prognostyczne czy kosmiczne śmieci (WEB1).

Kierunki badań na FHI

Obecnie z Instytutem związanych jest czterdzieścioro pięcioro naukowców, a w jego ramach funkcjonuje pięć grup roboczych zajmujących się następującymi zagadnieniami:

  • Makrostrategie, czyli wnioski na temat dalekosiężnych skutków naszych dzisiejszych poczynań, które powinny mieć przełożenie na obecne działania i priorytety
  • Zarządzanie sztuczną inteligencją, odnoszące się do związków pomiędzy geopolityką, stosunkami międzynarodowymi i strukturami władzy a możliwościami wdrażania tej technologii
  • Bezpieczeństwo sztucznej inteligencji, rozumiane jako sposoby tworzenia autonomicznych systemów, które nie będą stwarzać ryzyka bez względu na skalę ich zastosowania i które będą funkcjonować zgodnie z ludzkimi wartościami etycznymi
  • Bezpieczeństwo biologiczne, czyli sposoby na przygotowanie świata na konfrontację z katastroficznymi niebezpieczeństwami natury biologicznej oraz na bezpieczne korzystanie z osiągnięć bioinżynierii
  • Cyfrowe umysły, omawiane z perspektywy filozofii umysłu i etyki SI, zagadnień samoświadomości i moralnej podmiotowości myślących maszyn oraz perspektyw ich harmonijnego funkcjonowania wraz z ludźmi w społeczeństwie przyszłości.

Choć celem Instytutu jest tworzenie dalekosiężnych prognoz i poszukiwanie rozwiązań w kosmicznej skali, prowadzone na nim badania nie pozostają bez związku z bieżącymi wydarzeniami. W ciągu ostatnich dwóch minionych lat odsetek prac poświęconych bezpieczeństwu epidemiologicznemu i zarządzaniu zdrowiem publicznym wśród publikacji związanych z działalnością Instytutu wzrósł do jednej trzeciej w porównaniu do jednej dziesiątej w latach 2018-2019 (WEB2). W centrum zainteresowania pozostają nie tylko doraźne strategie walki z zagrożeniem chorobami zakaźnymi i ocena przygotowania poszczególnych państw i regionów na radzenie sobie z potencjalnymi przyszłymi kryzysami. Naukowcy z FHI nie unikają dyskusji na temat niebezpieczeństw stwarzanych przez nieodpowiedzialną politykę stosowaną w odpowiedzi na sytuacje epidemii, takich jak ograniczenia wolności osobistej i prywatności w ramach prób ograniczenia rozprzestrzeniania patogenów i śledzenia ognisk choroby (Shevlane, Garfinkel, Dafoe, 2019). Podnosi się także zagadnienie ryzyka związanego z rozwojem technologii, które w założeniu ma pomagać nam w walce z chorobami, takich jak szczepionki, które w niepowołanych rękach mogłyby stać się groźne; to tak zwane dual-use risks, czyli potencjał owoców postępu naukowego do bycia wykorzystanymi zarówno w korzystny jak i szkodliwy sposób (Musunuri i in., 2021).

Oprócz zwiększonej uwagi poświęcanej w ostatnim czasie kwestiom bezpieczeństwa biologicznego, jednym z najistotniejszych obszarów pracy Instytutu jest niezmiennie sztuczna inteligencja. Część opublikowanych badań koncentruje się po prostu na nowych technologiach tworzenia systemów inteligentnych, ale znacznie bardziej interesujące bywają publikacje powodowane ostrożnością o przyszłość, do której ten rozwój może nas zaprowadzić. Współpracownicy Nicka Bostroma poświęcają wiele uwagi społecznym konsekwencjom wprowadzania rozwiązań opartych na SI. W zakresie ich zainteresowań znajdują się działania, które dadzą nam pewność, że korzyści z wdrażania tej technologii będą sprawiedliwie rozdystrybuowane dla wspólnego dobra (O’Keefe i in., 2020) albo że będziemy w stanie odpowiednio wcześnie zauważyć naszą zależność od systemów SI, zanim stanie się ona tak głęboka, że nie będziemy w stanie efektywnie zarządzać ich wykorzystaniem (Cremer, Whittlestone, 2021). Istnieje także klasa publikacji poświęconych dobrym praktykom przy samym rozwijaniu, raportowaniu i dyskusji nad uczeniem maszynowym, dzięki którym użytkownicy, rządy i społeczeństwa obywatelskie będą mogły zaufać naukowcom (Bundage, 2020).

Ta ostatnia kategoria zasługuje na szczególną uwagę, ponieważ waga, jaką badacze w FHI przywiązują do odpowiedzialnego planowania przedsięwzięć naukowych i komunikowania ich rezultatów, daje dobre wyobrażenie o tym, jak złożonym i pełnym wewnętrznych zależności systemem jest dla nich rozwój cywilizacji. Nauka nie funkcjonuje w oderwaniu od konsekwencji wyborów, których dokonują naukowcy planując swoje badania, tego jak rozwój wiedzy naukowej jest postrzegany przez społeczeństwo i tego jak kształtuje on bieżącą politykę. Na namysł zasługują nawet kategorie, którymi operuje się w dyskusji na temat priorytetów badawczych (Prunkl, Whittlestone, 2020)! Z tego powodu metodologia nauk i jej społeczny wymiar zamyka podium wśród tematów najczęściej podejmowanych przez pracowników Instytutu w ostatnich latach.

Zakres zagadnień, które mogą mieć znaczenie dla przetrwania cywilizacji jest jednak dużo szerszy i trzy scharakteryzowane powyżej tematy bynajmniej go nie wyczerpują. Omówmy kilka najciekawszych aktualnych publikacji, których problematyka wymyka się prostej kategoryzacji i poszerza nakreślone powyżej obszary badań.

Pandemia: zrób to sam

Pierwsza z prac, którym przyjrzymy się bliżej, „Protocols and risks: when less is more” Pannu i współpracowników z roku 2022, dotyczy przecięcia zagadnień bezpieczeństwa biologicznego i społecznej odpowiedzialności nauki. Powstała ona w reakcji na doniesienie z badania, w toku którego udało się opracować procedurę umożliwiającą sztuczne tworzenie wirusów SARS-CoV-2 z wybranymi mutacjami.

Sama możliwość otrzymywanie zmutowanych wariantów koronawirusa może okazać się bardzo użyteczna; pozwala ona na przykład pozyskać materiał do eksperymentów, które wykażą, czy nowe odmiany patogenu mogą uzyskać odporność na szczepionki. Autorów omawianej pracy bardzo zmartwiło jednak, że ogólnodostępna publikacja zawiera dokładną instrukcję odtworzenia opracowanego procesu, włącznie z „listą zakupów” potrzebną do syntezy zmodyfikowanych wirusów. Zauważają, że swobodnie rozpowszechniana wiedza tego rodzaju może zostać wykorzystana w złowrogim celu albo nawet po prostu ułatwić badania osobom, które z racji mniejszego doświadczenia mogą doprowadzić do wypadków. Zauważają, że postęp naukowy nie zawsze jest celem samym w sobie i czasami powinien zostać spowolniony celem poddania go pod publiczną dyskusję.

Schemat protokołu otrzymywania zmutowanych wirusów SARS-CoV-2
Wytwarzanie zmutowanych wirusów w gruncie rzeczy nie jest takie trudne (Xie i in., 2021)

W artykule pada kilka propozycji rozwiązania tego problemu. Autorzy wskazują na potrzebę ograniczenia swobodnego rozprzestrzeniania tak ryzykownych technologii. Proponują między innymi odgórnie określone ograniczenia tego, ile szczegółów może znaleźć się w ogólnodostępnej publikacji oraz wymóg jawności w planowaniu i prowadzaniu potencjalnie niebezpiecznych badań z zakresu biotechnologii.

Gra w tchórza

Artykuł „Reputations for Resolve and Higher-Order Beliefs in Crisis Bargaining” Dafoe, Zwetsloota i Cebula z roku 2021 można rozpatrywać na gruncie teorii gier, psychologii i relacji międzynarodowych. Dotyczy on zasadniczo rozwiązywania konfliktów. Nie mówimy tutaj raczej o łagodnych konfliktach interesu czy różnicach zdań co do sposobów osiągnięcia wspólnego celu. Chodzi o światowe kryzysy, urastające do rangi zagrożeń egzystencjalnych, takie jak najbardziej niebezpieczne momenty przywoływanej w tekście zimnej wojny.

W sytuacji w której, mówiąc obrazowo, obie strony trzymają palec nad czerwonym przyciskiem zagłady, jedynym wyjściem jest takie rozstrzygnięcie, w którym obaj uczestnicy wiedzą, że nie ma możliwości, by ten drugi poszedł już na jakiekolwiek ustępstwa. W takim układzie kluczowe znaczenie ma reputacja – to, jak obserwatorzy oceniają prawdopodobieństwo, że dany gracz się nie ugnie. Badacze zauważają jednak, że na ocenę reputacji mają wpływ także przekonania wyższego rzędu – przekonania o przekonaniach. „Czy on wie, że ja blefuję?” „Czy on wie, że ja myślę, że on wie, że ja blefuję?” i tak dalej. Autorzy artykułu uzupełniają wywód teoretyczny danymi empirycznymi – z różnic w odpowiedziach osób, które oceniały różne zaproponowane przez nich scenariusze konfliktów międzynarodowych, wynika, że przekonania wyższego rzędu mogą nawet w 70% wpływać na ocenę nieustępliwości międzynarodowych graczy.

Nieograniczony wzrost

Manheim i Sandberg w swoim artykule „What is the upper limit of value?” z roku 2021 łączą ze sobą rozważania z zakresu ekonomii i etyki, teorii informacji oraz fizyki teoretycznej. Jak wskazuje tytuł artykułu, chcą oni ustalić, czy istnieje maksymalna granica wartości; punktem wyjścia jest dla nich moralna wartość, którą można przypisać naszym decyzjom, na przykład w ramach etyki konsekwencjonalistycznej, która ocenia ludzkie działania w zależności od skutków, które one przynoszą, ale odnoszą się także do bardziej praktycznych aplikacji tego pojęcia, takich jak wzrost gospodarczy. To pytanie niebezzasadne, bo na przykład gdyby światowy wzrost gospodarczy utrzymywał się na poziomie 2% rocznie, to w ciągu stu tysięcy lat globalne PKB osiągnęłoby zawrotną wartość 10^874 dzisiejszych dolarów! A przecież jako ludzkość jesteśmy żywo zainteresowani chociażby próbą przetrwania tak długiego czasu.

Wnioski płynące z publikacji mówią nam, że zgodnie z naszą obecną wiedzą o prawach przyrody w istocie istnieje skończone górne ograniczenie wartości, którą możemy starać się opisać jakąś obiektywną formułą. Nie chodzi tutaj tylko o skończone ziemskie zasoby i popyt na dobra wszelkiego rodzaju, które prawdopodobnie uniemożliwią nam utrzymanie stałego tempa wzrostu przez sto tysięcy lat. We wszechświecie ze skończoną prędkością rozchodzenia się informacji oraz nieubłaganym postępem entropii nie można mówić o nieskończoności, kiedy oceniamy konsekwencje naszych decyzji.

Co czeka nas za bilion lat?

Bilion lat to ogromny horyzont czasowy. Ale kto jeśli nie FHI ma mierzyć się z tak dalekosiężnymi perspektywami? Baum i współpracownicy w pracy „Long-term trajectories of human civilization” z 2019 stawiają pytania o kształt ludzkiej cywilizacji za miliard, milion, a także nawet i bilion lat. Ich celem jest stworzenie formalnych fundamentów do naukowej dyskusji na temat tak odległej przyszłości oraz pracy nad związanymi z nią problemami na gruncie etyki, która nadal zdecydowanie chętniej zajmuje się mniej odległymi sprawami. Autorzy proponują klasyfikację na trzy możliwe kategorie scenariuszy, których możemy spodziewać się w przeciągu najbliższych epok geologicznych: utrzymanie statusu quo, czyli zachowanie przez naszą cywilizację w przybliżeniu jej obecnego kształtu przez kolejne tysiące i miliony lat; katastrofy, które mogą cofnąć nas do stadium nieuprzemysłowionych społeczności rolniczych, a nawet ograbić z samej zdolności kultywowania upraw; i wreszcie scenariusze technologicznego przeobrażenia, które popchnie nasz gatunek na zupełnie nowe tory rozwoju i/lub ekspansji w odległe części kosmosu.

Wnioski z analizy tych możliwości dają do myślenia. Przewidywania autorów wskazują, iż spośród wszystkich trzech ścieżek rozwoju, te zapewniające utrzymanie obecnego stanu rzeczy są najmniej prawdopodobne. Szanse na wystąpienie katastrofalnych zjawisk w skali globalnej lub kosmicznej na przestrzeni tak długiego czasu są znaczne, ale nie jest też wcale wykluczone, że czeka nas przełom, który otworzy przed nami zupełnie nowe perspektywy. Wygląda na to, że ludzkość musi zmierzyć się ze scenariuszem „wszystko albo nic”, więc czas najwyższy, by rozważania etyczne przestały faworyzować dociekania na temat działań, których rezultaty odczujemy po niedługim w skali kosmicznej czasie, a nauka przestała obawiać się, że stawianie teorii na temat odległej przyszłości z konieczności musi stanowić spekulacje w duchu science fiction.

Ten wniosek wydaje się być niekontrowersyjny. Historia naturalna podpowiada, że w dziejach naszej planety życie wielokrotnie osiągało wysoki poziom złożoności, lecz jego potencjał był niszczony przez epizody wielkich wymierań. Lista kosmicznych zagrożeń jest długa, od rozbłysków gamma po kolizje z asteroidami, a na Ziemi sami pilnie dopisujemy kolejne pozycje do wyliczanki sposobów, na jakie możemy sami zafundować sobie zagładę, zaczynając od wojny nuklearnej i bezczynności wobec kryzysu klimatycznego, ale z pewnością na nich nie kończąc. Z drugiej strony postęp, który obecnie obserwujemy, nie ma precedensu. Przez tysiące lat najszybszym znanym ludzkości środkiem transportu był rydwan. Potem w XVIII wieku James Watt wprowadził udoskonalony projekt maszyny parowej i zapoczątkował rewolucję przemysłową. Niecałe dwa wieki później bracia Wright odbyli swój pierwszy lot. Mniej niż siedemdziesiąt lat później miało miejsce lądowanie pierwszej misji załogowej na Księżyc. Trudno wyobrazić sobie, co czeka za rogiem, ale jasnym jest, że nie będziemy stać w miejscu. Wszystko albo nic.

Zestawienie zdjęć z pierwszego udanego lotu braci Wright i spaceru księżycowego w ramach misji Apollo 11
Te dwa wydarzenia dzieli dokładnie 65 lat, 7 miesięcy i 3 dni (domena publiczna)

Jako gatunek, który zyskał zbiorową samoświadomość swoich możliwości i konsekwencji własnych działań, stoimy wobec powinności planowania naszej przyszłości. Pytanie brzmi: czy udźwigniemy jej ciężar? Czy wgląd naukowców takich jak ci zrzeszeni w Future of Humanity Institute przełoży się na decyzje polityczne i kierunek, który nadamy rozwojowi w nadchodzących wiekach? A może refleksje co do dual-use risks rozwoju bioinżynierii, rosnącego wpływu rozwiązań opartych na sztucznej inteligencji i sposobów na uniknięcie wojny totalnej okażą się zbyt abstrakcyjne dla szerokiej publiki i globalnych decydentów, tak jak hipoteza symulacji albo wpływ śmierci cieplnej wszechświata na wartość dolara za miliard lat? Dziś nie da się tego stwierdzić. Nie można udzielić jednak wymijającej odpowiedzi: „Czas pokaże”. Przyszłość, choć dziś nieznana, kształtowana jest przez działania, które podejmiemy dzisiaj.

Cytowane prace:

  • About FHI https://www.fhi.ox.ac.uk/about-fhi/
  • Baum, S. D., Armstrong, S., Ekenstedt, T., Häggström, O., Hanson, R., Kuhlemann, K., … & Yampolskiy, R. V. (2019). Long-term trajectories of human civilization. Foresight.
  • Bostrom, N. (2002). Existential risks: Analyzing human extinction scenarios and related hazards. Journal of Evolution and technology, 9.
  • Brundage, M., Avin, S., Wang, J., Belfield, H., Krueger, G., Hadfield, G., … & Anderljung, M. (2020). Toward trustworthy AI development: mechanisms for supporting verifiable claims. arXiv preprint arXiv:2004.07213.
  • Cremer, C. Z., & Whittlestone, J. (2021). Artificial Canaries: Early Warning Signs for Anticipatory and Democratic Governance of AI.
  • Dafoe, A., Zwetsloot, R., & Cebul, M. (2021). Reputations for Resolve and Higher-Order Beliefs in Crisis Bargaining. Journal of Conflict Resolution, 65(7-8), 1378-1404.
  • Manheim, D., & Sandberg, A. (2021). What is the upper limit of value?
  • Musunuri, S., Sandbrink, J. B., Monrad, J. T., Palmer, M. J., & Koblentz, G. D. (2021). Rapid proliferation of pandemic research: implications for dual-use risks. Mbio, 12(5), e01864-21.
  • O’Keefe, C., Cihon, P., Garfinkel, B., Flynn, C., Leung, J., & Dafoe, A. (2020, February). The windfall clause: Distributing the benefits of AI for the common good. In Proceedings of the AAAI/ACM Conference on AI, Ethics, and Society (pp. 327-331).
  • Pannu, J., Sandbrink, J. B., Watson, M., Palmer, M. J., & Relman, D. A. (2022). Protocols and risks: when less is more. Nature protocols, 17(1), 1-2.
  • Prunkl, C., & Whittlestone, J. (2020, February). Beyond near-and long-term: Towards a clearer account of research priorities in AI ethics and society. In Proceedings of the AAAI/ACM Conference on AI, Ethics, and Society (pp. 138-143).
  • Selected publications https://www.fhi.ox.ac.uk/publications/
  • Shevlane, T., Garfinkel, B., & Dafoe, A. (2019). Contact tracing apps can help stop coronavirus. But they can hurt privacy. Washington Post. https://www.washingtonpost.com/politics/2020/04/28/contact-tracing-apps-can-help-stop-coronavirus-they-can-hurt-privacy/
  • Xie, X., Lokugamage, K. G., Zhang, X., Vu, M. N., Muruato, A. E., Menachery, V. D., & Shi, P. Y. (2021). Engineering SARS-CoV-2 using a reverse genetic system. Nature protocols, 16(3), 1761-1784.

2 komentarze

  1. Dobrze wiedzieć, że naukowcy i naukowczynie nie bagatelizują ważnych problemów naszej obecnej sytuacji cywilizacyjnej i angażują się w wysiłki obliczone na dalekosiężne cele. Jestem pod dużym wrażeniem nowatorskiej, interdyscyplinarnej działalności Future of Humanity Institute. Brakuje mi jedynie podjęcia tematu globalnej edukacji. Myślę, że opracowanie międzynarodowej/międzykontynentalnej sieci rozwiązań edukacyjnych, dzięki którym wszyscy obywatele i obywatelki świata mieliby szansę dotrzymać kroku postępowi technologii i idei jest niezwykle istotne w kontekście przyszłości naszego gatunku. To dobrze, że nauka galopuje do przodu, ale jej wielkie osiągnięcia wciąż pozostają w rażącym kontraście ze stanem podstawowej edukacji w wielu miejscach na świecie.

Leave a comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Najnowsze komentarze