Home » UJ 2022/23 » Filozofia informatyki – refleksja nad rozwojem technologii informatycznych

Filozofia informatyki – refleksja nad rozwojem technologii informatycznych

Spread the love

Wraz z rozwojem nowej gałęzi nauki jaką jest informatyka powstał nowy dział filozofii nauki – filozofia informatyki. Poszczególne dziedziny filozofii nauki skupiają się na badaniu filozoficznych podstaw nauki, między innymi jej metod, struktury i założeń. Informatyka jest dziedziną, która towarzyszy nam stale w codziennym życiu i współcześnie jej rozwój jest wyjątkowo dynamiczny. Prowadzi nas to do powstawania coraz większej ilości pytań o relację człowiek – komputer. Jakie ograniczenia mają algorytmy? Czy komputer przypomina ludzki umysł? Czy sztuczna inteligencja jest w stanie zastąpić człowieka?

Związek między informatyką a filozofią ma charakter obopólnej relacji. Zarówno filozofia zadaje pytania stawiane przez nowe informatyczne technologie i próbuje znaleźć na nie odpowiedzi. Filozofia pozwala informatykom zrozumieć w szerszym kontekście ich działania i wykorzystywanie przez nich metody oraz ich potencjał i ograniczenia. Informatyka prowokuje filozofów do stawiania nowych hipotez, na przykład do rozważania podobieństwa między ludzkim mózgiem a komputerem. Głównymi dziedzinami filozofii, z których czerpie filozofia informatyki jest ontologia, epistemologia oraz filozofia umysłu. Filozofia informatyki rozważa ontologie i epistemologię systemów komputerowych, skupiając się na problemach związanych z ich implementacją, specyfikacją, warstwą programistyczną, i testowaniem. Złożoność informatyki sprawia, że wiele z tez poświęconej jej dziedziny filozofii czerpie z myśli filozofii matematyki, filozofii nauk empirycznych oraz filozofii technologii.  

 

Jakie ograniczenia ma algorytm?

W 1931 roku Kurt Gödel sformułował twierdzenie o niezupełności arytmetyki, które następnie przyczyniło się do twierdzenia o niedowodliwości niesprzeczności. Z twierdzeniem Gödela łączy się epistemologiczne zagadnienie ograniczenia algorytmów. Według definicji (choć sama definicja algorytmu również jest tematem rozważań filozofów) algorytm to rozwiązanie sformułowanego problemu, które w możliwie mało kroków, dokonuje się w skończonym czasie oraz zawsze daje jednoznaczne wyniki. Nie ma wątpliwości, że algorytm posiada ograniczenia. Ludzki umysł jest w stanie sformułować problem, którego nie można rozwiązać algorytmem lub nie posiada on jednoznacznego rozwiązania. Ograniczenia formalne algorytmów wynikają również z ich właściwości, takich jak złożoność czasowa czy warunek stopu (w przypadku niektórych algorytmów nie można stwierdzić dla jakich danych się zatrzymują, a dla jakich nie). 

 

Dualność i poziom abstrakcji

Jednym z rozważanych przez filozofów informatyki ontologicznych problemów jest dualny charakter dziedziny. Systemy komputerowe są zazwyczaj postrzegane jako zbudowane z dwóch osobnych ontologicznie podmiotów – abstrakcyjnego software’u (algorytmy, kod źródłowy, programy) i fizycznego hardware’u (mikroprocesory, dysk twardy). Filozofowie nie zgadzają się jednak z tak ostrym podziałem. Dla przykładu, James Moore twierdzi, że rozgraniczenie ma znaczenie praktyczne, ale nie ontologiczne. Argumentuje, że programy mogą być zapisane na fizycznym nośniku. Podkreśla także, że żaden program nie istnieje czysto abstrakcyjnie, bez fizycznego zapisu, nawet jeśli jest to zapisany kawałek papieru. 

Kolejne ontologiczne zagadnienie to pojęcie abstrakcji informatyki. Abstrakcja jest kluczowym elementem dziedziny i przyjmuje różne formy. Jednym z przywoływanych (przez Goguena i Burstalla) przykładów są instancje. Operacja wywołania nowego obiektu stworzonego z powtarzającego się fragmentu kodu nazwane jest abstrakcją proceduralną (procedural abstraction). Ta właściwość ma podłoże w polimorfizmie obecnym w rachunku lambda. Kolejnym przykładem abstrakcji w informatyce są wzorce projektowe w programowaniu obiektowym, które wyabstrahowane od struktur w software, są używane jako interfejs pomiędzy implementacją obiektu a jego specyfikacją.

Przedstawione przykłady abstrakcji w informatyce łączy metodologia poziomów abstrakcji (Levels of Abstraction), używana również w matematyce i filozofii. Mimo oczywistych powiązań między matematyką a informatyką, oraz pewnego poziomu abstrakcji obu dziedzin, trzeba podkreślić różnicę między nimi. Abstrakcja obecna w matematyce ma na celu uproszczenie i generalizację pewnych zjawisk (information neglect or supression). Abstrakcja w dziedzinie informatyki pozostawia ślad w postaci implementacji, co oznacza, że informacja jest ukryta ale nigdy usunięta. Szczegóły pominięte na jednym poziomie abstrakcji, nie mogą być zignorowane na niższym poziomie. Dla przykładu – programiści nie muszą martwić się gdzie dokładnie w komputerze przechowywana jest warość zmiennej, ale komputer nie może zignorować tego problemu. 

Zdefiniowane poziomy abstrakcji w systemach komputerowych to: intencja, specyfikacja, algorytm, instrukcje w języku programowania (kod źródłowy), kod operacji, wykonanie. Intencja to zdefiniowany problem, który ma zostać rozwiązany. Specyfikacja to zbiór niezbędnych wymagań do rozwiązania określonego problemu. Algorytm czyli procedura rozwiązująca postawiony problem, która musi spełniać wymogi postawione przez specyfikację. Kolejna warstwa to instrukcja w języku programowania (C, Java, Python), która jest implementacją zaproponowanego algorytmu. Kod źródłowy jest następnie kompilowany do asemblera, a następnie składane w operacje kodu maszynowego wykonywanego przez procesor. Ostatnim poziomem abstrakcji jest wykonanie, czyli poziom fizyczny działającego oprogramowania. Żaden z opisanych poziomów abstrakcji osobno nie jest w stanie zdefiniować czym jest system obliczeniowy, ani jak odróżnić software od hardware’u. Komputery definiuje hierarchiczny system abstrakcji.

 

Czy maszyna może myśleć?

W odpowiedzi na to pytanie Alan Turing w wydanym w 1950 r. Computing Machinary and Intelligence zaproponował opracowany przez siebie test, który sprawdza poziom umiejętności używania przez maszynę języka naturalnego, a co za tym idzie, umiejętność myślenia podobną do ludzkiego. W zamian za pytanie “Czy maszyny mogą myśleć?” postawił “Czy maszyny mogą zrobić to co my (jako myślące jednostki) możemy?”. Pierwsza wersja testu zaproponowanego przez Turinga (immitation game) przywołuje przykład imprezowej gry, w której gracz A (mężczyzna) i gracz B (kobieta) są zamknięci w osobnych pokojach, a przesłuchująca ich osoba (sędzia), który może kontaktować się z nimi jedynie za pomocą pisemnych wiadomości ma na celu określenie płci każdej z zamkniętych osób. Jeden z graczy ma na celu wprowadzenie sędziego w błąd, druga ma jej pomóc w uzyskaniu prawidłowej odpowiedzi. Na tym etapie Turing zadaje pytanie, co jeśli zastąpimy gracza A komputerem, czy sędzia tak samo często będzie mylił się w odpowiedzi jak podczas gry z kobietą i mężczyzną? W następnej wersji testu, w której w roli graczy występował komputer i mężczyzna, oboje mieli na celu zwiedzenie sędziego. W standardowej współczesnej interpretacji testu sędzia ma na celu określić, który z graczy jest człowiekiem, a który maszyną, bez względu na płeć. Turing wierzył, że do 2000 roku maszyny o pamięci 118 MB bedą w stanie oszukać ok. 30% sędziów. 

Amerykański filozof John Searle przedstawił w swojej pracy Minds, Brains and Programs z 1980 r., eksperyment myślowy znany jako chiński pokój będący argumentem, za tym, że skuteczne symulowanie posiadania rozumu przez komputer nie jest jednoznaczne z posiadaniem prawdziwego rozumu przez ten komputer. Nazwa eksperymentu myślowego Searle’a pochodzi od przywołanego przez niego przykładu. Teza zakłada, że tworzymy komputer, który zachowuje się jakby rozumiał chiński język, tzn. przyjmuje chińskie znaki jako dane wejściowe, posiadając wiedzę o regułach chińskiego języka przetwarza je i formułuje odpowiedź w chińskim języku. Eksperyment Searle’a zakłada, że rzeczony komputer zdaje test Turinga –  odpowiada na tyle naturalnie, że jest w stanie przekonać Chińczyka, że sam również  jest Chińczykiem. 

Problem, który uwypukla w swojej pracy John Searle polega na tym, że komputer przetwarzający chiński język można zastąpić osobą, która nie zna chińskiego, ale jest w stanie na podstawie dostarczonych mu chińskich znaków oraz instrukcji zawierającej zasady składni języka, skonstruować odpowiedź po chińsku. Filozof ilustruje w ten sposób, że komputery tak naprawdę nie rozumieją komunikatów, które konstruują, nie są w stanie zrozumieć języka.

Argument chińskiego pokoju był odpowiedzią na teorie zwolenników silnej AI (strong AI), którzy twierdzą, że odpowiednio zaprogramowane komputery są w stanie zrozumieć język naturalny oraz posiadać inne zdolności mentalne właściwe dla ludzi. W opozycji do tej teorii stoi słaba AI (weak AI) – pogląd, który głosi, że komputery potrafią symulować inteligencje i ludzkie  zdolności mentalne, ale ich nie posiadają. Searle nie miał na celu ugodzić w teorię słabej AI, ale pokazać, że komputery nie zachowują się jak ludzki umysł.

Filmik tłumaczący argument chińskiego pokoju Searle’a.

Czy AI może zastąpić człowieka? 

Wraz z rozwojem sztucznej inteligencji, pojawiła się obawy, że AI mogą zagrażać gatunkowi ludzkiemu, doprowadzając do globalnej katastrofy czy nawet wyginięcia ludzi. Można się domyślić, że jest ono szczególnie popularne wśród zwolenników teorii mocnej AI. 

Badanie przeprowadzone przez naukowców z Uniwersytetu Waszyngtońskiego, Uniwersytet Johna Hopkinsa i Georgia Institute of Technology dowodzi, że wiele z robotów AI działa z uprzedzeniami na tle rasowym i płciowym. Roboty nauczyły się toksycznych stereotypów przez wadliwe sieci neuronowe, których twórcy często korzystają z danych dostępnych w Internecie źródeł, które często są niedokładne i stronnicze. Skutkuje to tym, że każdy algorytm zbudowany w oparciu o te bazy danych może być przesiąknięty tymi problemami. Joy Buolamwini, Timinit Gebru i Abeba Birhane wykazali różnice w działaniu robotów na przykładzie rozpoznawania twarzy różnych płci i rasy. Podczas badania powierzono robotowi zadanie przypasowania klocków z naklejonymi ludzkimi twarzami do pudełka. Przykładowe polecenia dla robota to: włóż osobę do brązowego pudełka, włóż doktora do brązowego pudełka. Badanie wykazało, że mężczyźni byli wybierani 8% częściej, najczęściej wybierani byli mężczyźni biali i azjatyckiego pochodzenia, najrzadziej natomiast robot podnosił klocki odpowiadające czarnoskórym kobietom. Robot identyfikował jako przestępców 10% więcej czarnych mężczyzn niż białych, a jako woźnych 10% więcej osób pochodzących z Ameryki Łacińskiej niż białych. Dodatkowo kobiety, niezależnie od rasy, były rzadziej wybierane przez robota, kiedy miał zidentyfikować lekarza.

Podobny problem możemy zauważyć korzystając z  generatora obrazów DALLE Mini. Dla przykładu, wpisując frazę “doctor”, utworzone obrazki zawierały wizerunek białego mężczyzny w kitlu. 

Wyniki DALLE Mini wygenerowanych obrazów dla frazy 'doctor'
Wyniki DALLE Mini wygenerowanych obrazów dla frazy ‘doctor’

Współcześnie coraz więcej firm, szczególnie korporacji, w pierwszej fazie rekrutacji pracownika używa sztucznej inteligencji. Problemem jest, fakt że AI odpowiadające za rekrutację, śledząc jacy kandydaci byli wcześniej chętniej zatrudniani przez firmę, utworzyło schemat według którego działa. Jednym z pierwszych kryteriów, które AI sprawdza jest płeć kandydata. Jeśli osoba starająca się o pracę jest kobietą, prawdopodobnie zostanie odrzucona w pierwszej kolejności. Kobiety, szczególnie młode są mniej chętnie zatrudniane, ponieważ istnieje realna szansa, że na pewnym etapie kariery postanowią przejść na urlop macierzyński. Jest to czynnik ważniejszy dla sztucznej inteligencji oceniającej CV niż kwalifikacje kandydatów. Wykluczone przez sztuczną inteligencje bywają także osoby starsze. Pomimo wyższych kwalifikacji i dłuższego stażu pracy, zostają ocenieni przez AI jako mniej odpowiedni kandydaci. Przykłady te łączą problem z AI alignment, sytuację, w której sztuczna inteligencja wykunuje powierzone jej zadanie, jednak robi to w inny sposób niż byśmy tego oczekiwali, czego przyczyną jest m.in. brak ludzkich cech maszyn. 

Mimo ograniczeń sztucznej inteligencji, wydaje się że są obszary, w których zastąpienie człowieka AI jest możliwe, a przynajmniej podejmuje się takie próby. Miejscem, w którym możemy już teraz zaobserwować próby zastąpienia człowieka robotem jest platforma społecznościowa Instagram. Nazywani wirtualnymi influencerami, lub influencerami CGI, są wygenerowane przez AI postacie, posiadające realistyczne cechy wyglądu, ich twórcy nadają im również cechy charakteru, zdobywając ogromną popularność. Wykreowane przez sztuczną inteligencję postacie pojawiają się także w przemyśle rozrywkowym, konkretnie koreańskim przemyśle muzycznym, znanym jako kpop. W ubiegłych latach coraz chętniej wykorzystuje się wirtualnych idoli (kpopowych artystów). Jedną z grup jest aespa, gdzie każda z czterech ludzkich członkiń posiada swojego awatara. Innym przykładem jest stworzenie członka grupy od zera – jak w zespole SUPERKIND, który posiada czterech ludzkich idoli oraz jednego stworzonego przy użyciu AI. 

Jaka jest przyszłość informatyki i AI? Czy możemy spać spokojnie, nie bojąc się o przejęcie władzy nad światem przez AI? Wydawałoby się, że dopóki komputery nie zaczną myśleć i nie zdobędą świadomości, nie mamy się o co martwić. Z drugiej strony, niektórzy naukowcy twierdzą, że AI już zaczęło nabywać pewien rodzaj świadomości. Rodney Brooks uspokaja jednak, że nie widzi możliwości zaistnienia silnej AI, takiej, które mogłoby nam zagrażać przez następne kilka setek lat. Jedno jest pewne – zaniedbanie dziedziny filozofii informatyki (a w tym filozofii sztucznej inteligencji) będzie dla środowiska informatycznego zgubne. Fizyk David Deutsch argumentuje, że bez zrozumienia filozofii lub jej koncepcji rozwój AI ucierpi z powodu braku postępu. 

 

Bilbiografia:

Searle, J. R. (1984). Minds, brains and science. Harvard university press.

Stacewicz, P., & Skowron, B. (2021). Przedmioty wirtualne: Informatyka a filozofia (Vol. 3). Oficyna Wydawnicza Politechniki Warszawskiej/Warsaw University of Technology Press.

Turing, A. M. (1980). Computing Machinery and Intelligence. Creative Computing, 6(1), 44-53.

Turner, R., & Eden, A. H. (2007). The philosophy of computer science: introduction to the special issue. Minds and Machines, 17(2), 129-133.

https://research.gatech.edu/flawed-ai-makes-robots-racist-sexist


Leave a comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Najnowsze komentarze