Sztuczna inteligencja – koniec naszej podmiotowości?
Sztuczna inteligencja nie jest złośliwą maszyną, nie jest też sterowana przez tyranów czy spiskowców. Jej działania i decyzje są dla nas korzystne – bardziej racjonalne, skuteczniejsze, zyskowniejsze. Jeśli jednak pójdziemy w kierunku optymalizowania wszystkiego przez AI dla maksymalizacji dobrostanu człowieka, nieuchronnie doprowadzi to do jego odpodmiotowienia. Lecz czy za dwa‑trzy pokolenia brak podmiotowości człowieka będzie dla kogokolwiek stanowić problem?
W powszechnym rozumieniu „sztuczna inteligencja” to „myślące maszyny”. Osoba bardziej obeznana z tematem odpowie, iż są to przeprowadzane przez komputery procesy logiczne, co najmniej dorównujące analogicznym procesom przeprowadzanym w mózgu człowieka. Jeśli się tu dostrzega zagrożenia, to przez pryzmat relacji człowiek‑maszyna. Powtarza się frazy o „dehumanizacji” przez technologię; powracają popkulturowe klisze o władzy AI nad ludzkością czy bezpośrednim kontrolowaniu przez nią ludzkich mózgów.
Moja perspektywa jest zupełnie inna. To, co dziś symbolizują komputery, stanowi bowiem jedynie kolejny etap procesu toczącego się od wieków. To proces przesuwania tego, co nazywamy inteligencją (racjonalnością, Rozumem, Logosem) poza człowieka – i stąd jej „sztuczność”.
Inną kwestią jest natomiast ocena, czy sam ten proces i jego skutki są dobre czy złe, czy należy się ich lękać, czy im sprzyjać – ta ocena bowiem wprost zależy od wartości kultury, w której się wychowaliśmy. Kulturę zaś ów proces zmienia właśnie najszybciej.
Od pisma do sztucznej inteligencji
Na początku był umysł i świat istniejący poza umysłem. Umysł tworzył reprezentacje świata. W tym – reprezentację ciała, z którym umysł się utożsamia. Następnie człowiek nauczył się nazywać te reprezentacje. A język wyniósł reprezentacje świata na poziom symboli i pozwolił dokonywać operacji na symbolach.
Operacje na językowych reprezentacjach świata zaczęły poprzedzać operacje w świecie rzeczywistym. Ludzie nie tylko myśleli o tym, co zrobić, i potem to robili; ludzie już także rozmawiali o tym, co zrobić, i potem to robili. Modele świata i działania na świecie mogły więc przenosić się z wnętrza umysłu człowieka – w przestrzeń zewnętrznie procesowanych symboli. Tak narodziła się sztuczna inteligencja.
Następnie te symbole zyskały niepodległość: mogły istnieć niezależnie od ludzi. Zostały bowiem zapisane. To w piśmie ziścił się drugi etap rozwoju sztucznej inteligencji. Dokonując operacji na zapisanych symbolach nie trzeba było ich rozumieć, ani wiedzieć, co one znaczą; wystarczyło, że z innego zapisu czerpano wiedzę, jak dokonać tych operacji. A nowe znaczenia, nowe informacje, nowe modele rzeczywistości mogły się wyłaniać całkowicie poza świadomością człowieka – wyłaniały się z samego systemu symbolicznych reprezentacji świata i idei o świecie (bo już także z metafor, abstrakcji, relacji).
Nadal jednak to człowiek musiał przeprowadzać te operacje. W trzeciej fazie rozwoju sztucznej inteligencji człowiek został usunięty i z tej pozycji w procesie: operacje na symbolach wykonuje już maszyna. Wykonuje je z zasady nie mając świadomości ich znaczenia; dysponując tylko i wyłącznie przepisem na przeprowadzenie danej operacji (algorytmem). W ten sposób nowe znaczenia, nowe modele wyłaniają się całkowicie poza człowiekiem, bez człowieka. A im bardziej z niego wyabstrahowana, tym efektywniejsza jest sztuczna inteligencja – „pozaludzki Logos”.
Wreszcie na czwartym etapie jej rozwoju odwzorowany w symbolach i procesowany jako model jest sam człowiek.
O utracie podmiotowości człowieka można tu mówić na dwa sposoby: (A) gdy ten zewnętrzny model człowieka zyskuje władzę nad samym człowiekiem (jako jednostką); (B) gdy zewnętrzna racjonalność (Logos pozaludzki) przejmuje kontrolę nad kolejnymi aspektami i dziedzinami życia człowieka w ogóle (jako ludzkości, cywilizacji).
Przewaga zewnętrznego modelu człowieka nad człowiekiem ma dwojakie źródła: (A1) w tym, że człowiek jest sam dla siebie w dużym stopniu nieprzejrzysty, niepoznawalny; (A2) i w tym, że operacje na symbolicznych reprezentacjach człowieka ujawniają wzorce jego zachowań, które stanowią o jego tożsamości i które pozwalają jego zachowania przewidywać, a zatem – sterować nimi; a człowiek nie jest władny tych wzorców zmienić nawet uzyskawszy o nich wiedzę.
Mimochodem zgubiona podmiotowość
Zewnętrzna, niepodległa wobec człowieka racjonalność przejmuje kontrolę nad naszym życiem nie dlatego, że padliśmy ofiarą jakiegoś spisku, że Big Tech tak źle nam życzy albo że masowo zgłupieliśmy. Dzieje się tak dlatego, że naprawdę bardziej jest racjonalnym (zyskownym, słusznym, skutecznym) postępowanie wedle wiedzy płynącej ze sztucznej inteligencji, aniżeli wbrew niej.
Zewnętrzna, niepodległa wobec człowieka racjonalność przejmuje kontrolę nad naszym życiem nie dlatego, że padliśmy ofiarą jakiegoś spisku, że Big Tech tak źle nam życzy albo że masowo zgłupieliśmy. Dzieje się tak dlatego, że naprawdę bardziej jest racjonalnym (zyskownym, słusznym, skutecznym) postępowanie wedle wiedzy płynącej ze sztucznej inteligencji, aniżeli wbrew niej.
Alternatywa, przed jaką tu stanęliśmy, to sytuacja małego Jasia, który na złość mamie odmraża sobie uszy. Albo poddajemy się tej racjonalizacji – i żyjemy zdrowiej, dłużej, lepiej, szczęśliwiej, dostatniej; albo zachowujemy swoją podmiotowość – i żyjemy krócej, nędzniej, biedniej, w mniejszym dobrobycie i dobrostanie.
Człowiek staje wobec konieczności podejmowania decyzji w kwestiach dotyczących trybu jego życia, zawodu, osobistych relacji, spędzania wolnego czasu itp., i teoretycznie ma wybór: skorzystać czy nie skorzystać z pomocy AI. Ale zarazem człowiek ma świadomość, że decyzja podjęta za niego przez AI jest obiektywnie lepsza niż jakakolwiek jego indywidualna decyzja. Niby więc ma wolną wolę, lecz w istocie ogranicza się ona do wolności popełnienia błędu. Po 2‑3 pokoleniach wychowanych w takich realiach wszyscy odruchowo będą podążać za radami, poleceniami, zarządzeniami sztucznej inteligencji – tak już nawykliśmy podążać za wskazaniami GPS‑u i Google Maps.
Sztuczna inteligencja nie jest złośliwą maszyną, nie jest sterowana przez tyranów czy spiskowców – naprawdę robi nam dobrze. Przy okazji pozbawiając nas podmiotowości.
Sztuczna inteligencja nie jest złośliwą maszyną, nie jest sterowana przez tyranów czy spiskowców – naprawdę robi nam dobrze. Przy okazji pozbawiając nas podmiotowości.
Wychowani w kulturze już w znacznym stopniu opartej na wartościach sztucznej inteligencji zazwyczaj postrzegamy to poddaństwo wobec Logosu jako ułatwienie. Logos rządzi naszą pracą: pracujemy w maszynach logicznych nazywanych korporacjami, zarządzanych przez procedury, w których ludzie są wymiennymi podzespołami. Tak jest lepiej, mądrzej, wydajniej. Logos rządzi naszym życiem społecznym: organizujemy się i podejmujemy decyzje poprzez coraz bardziej zracjonalizowane i zdepersonalizowane procedury mierzenia i analizy modeli rzeczywistości w głowach członków społeczeństwa; uprawiamy politykę jako technologię kształtowania i manipulowania owymi modelami. Logos rządzi naszym życiem prywatnym: Tinder podsuwa nam partnerów życiowych; facebookowe algorytmy dobierają nam przyjaciół; podręczniki work‑life balance podpowiadają nam cykle aktywności i przepisy szczęścia rodzinnego. Logos rządzi naszymi ciałami: nauczyliśmy się je hackować chemią, dietą, treningami, operacjami, rzeźbić ich wygląd, dostrajać metabolizmy i gospodarkę hormonalną. Logos rządzi naszymi duszami: technologie dobrostanu otaczają nas zewsząd, od soundtracków zawsze sączących ze słuchawek odpowiedni nastrój, przez gamifikację wysiłku, do nieustannych psychoterapii i elektronicznych gadżetów programujących nam cykl i treść snów. Tak żyje się lepiej.
Iluzja podmiotowości
Nawet jednak płytka i cząstkowa świadomość odpodmiotowienia rani dumę Homo sapiens. Toteż już od początku XX wieku – gdy rozwinięto psychologię głębi i skomercjalizowano nauki o człowieku (psychologię, socjologię) – usiłujemy zasłonić, zagłuszyć tę prawdę. Wypracowaliśmy na to co najmniej dwa w miarę skuteczne sposoby.
Nawet płytka i cząstkowa świadomość odpodmiotowienia rani dumę Homo sapiens. Toteż już od początku XX wieku – gdy rozwinięto psychologię głębi i skomercjalizowano nauki o człowieku (psychologię, socjologię) – usiłujemy zasłonić, zagłuszyć tę prawdę.
Pierwszy polega na kanalizowaniu podmiotowości w coraz węższe i coraz mniej znaczące aspekty życia. To np. kulturowa plemienność, bycie kibicem danego klubu czy fanem danego celebryty, wolność seksualna, moda. Czyż nie czujemy się w tych wyborach absolutnie wolni? Czyż nie tam się możemy samorealizować?
Drugi sposób polega na przenoszeniu życia i poczucia podmiotowości do świata fikcji. Ja sam być może nie mam możliwości decydowania o swoim życiu, ani nie mam wpływu na to, w jakim kierunku zmierza świat, ale mogę w każdym momencie włączyć serial Netflixa czy jakąś wielką produkcję hollywoodzką, albo zagrać w grę komputerową, i w ten sposób wżyć się w bohatera, który dokonując niesamowitych wyczynów jednoosobowo zmienia losy świata, dzieje ludzkości. Utożsamiam się z nim; jestem nim.
W następnym etapie sztuczna inteligencja przejmuje jednak kontrolę także nad tymi fikcjami, nad naszą wyobraźnią. Stoimy obecnie u progu tej ery: algorytmy GPT‑3 i im podobne uczą się tworzyć coraz lepsze opowieści, coraz bardziej wciągające i uzależniające, coraz głębiej przeżywane. Odbierane przez nas jako coraz bardziej ludzkie.
O algorytmizacji procesu twórczego można było jednak mówić już wcześniej – odkąd Big Data zaczęła gromadzić dane o naszych zachowaniach i reakcjach na bodźce, w tym na rozmaite produkty kultury. Te dane są następnie wykorzystywane do takiego profilowania rozrywki, by jak najbardziej nas ona wciągała; do podpowiadania, co temu konkretnemu odbiorcy będzie się podobać, co do niego najmocniej, najszczerzej przemówi. I naprawdę się podoba; naprawdę przemawia.
Rachunek zysków i strat
Wszystko to można odczytać jako powtórkę z dobrze znanych dystopii – opowieść o postępującym odpodmiotowieniu człowieka, nieuchronnym od wynalezienia języka. Technologia odpowiada jednak także za zmiany wartości. System wartości, względem których oceniamy te zmiany, również się zmienia.
Toteż nasze dzieci, wnuki nie zgodzą się z nami. Nie będą postrzegać tych zmian jako zmian na gorsze. Mogą być w takim świecie szczęśliwe. Ambicje pełnej podmiotowości już teraz są zrozumiałe jedynie dla mniejszości. Przeciętny człowiek zawsze wybiera to, co przyjemniejsze, łatwiejsze, szybciej dostępne, wygodniejsze. Żeby ludzie działali przeciwko tej swojej naturze, trzeba by wywrzeć na nich bardzo silną, sztuczną presję.
Więc przyzwyczaimy się. To, co dziś opisujemy jako brak podmiotowości, stanie się tak naturalne i powszechne, że nasi potomkowie nie zrozumieją w ogóle tych dylematów. Zresztą i dla nas naturalny jest znacznie wyższy stopień odpodmiotowienia niż np. szlachcica z XVI czy XVII wieku. W porównaniu z nim już musimy się jawić się automatami poddanymi Logosowi niemal w każdym aspekcie naszego życia.
Istnieją wszakże korzyści z AI innego rodzaju niż owo wygodniejsze, przyjemniejsze życie. Tracąc podmiotowość w jednym obszarze, dzięki AI możemy zwiększyć ją w innym. Dość powszechna jest świadomość, że wyborów politycznych obywatele dokonują dziś pod presją nie tylko wykrzywionych i przemyślnie targetowanych informacji, ale i pod presją emocjonalną, bodźcowani przez rozmaite technologie manipulacji. Wiedza o człowieku (o jednostkach i statystycznych zbiorach) rośnie bardzo szybko, pozwalając coraz precyzyjniej wpływać na jego – teoretycznie suwerenne – wybory polityczne. Na ten problem Slavoj Žižek czy Yuval Harari odpowiadają propozycją oddania tu decyzji algorytmom. Algorytmy nie są bowiem podatne na manipulacje emocjonalne. Jeśli to spersonalizowany wcześniej przeze mnie program dokona wyboru politycznego, to ten wybór będzie bardziej zgodny z moimi głębokimi, ugruntowanymi przekonaniami, niż gdybym dokonywał go sam, będąc przed wrzuceniem kartki wyborczej atakowanym przez taką nawałnicę memów, fake newsów i perwersyjnych kampanii psychologicznych, że po odejściu od urny i ochłonięciu sam sobie nie jestem w stanie wytłumaczyć, dlaczego zagłosowałem jak zagłosowałem.
Ostatecznie jednak i w tym można się dopatrzyć tej samej pułapki: optymalizowania wszystkiego przez AI pod kątem maksymalizacji dobrostanu człowieka, co nieuchronnie prowadzi do jego odpodmiotowienia. Skąd bowiem mają się wziąć te najgłębsze przekonania obywatela i jego szczere indywidualne preferencje, skoro coraz większa część treści jego życia pochodzi z – jak najsłuszniejszych – decyzji pozaludzkiego rozumu?
Ale wkrótce nie będziemy się przejmować takimi kwestiami. Następnym pokoleniom wydadzą się abstrakcyjne, wydumane, „nieludzkie”. Podmiotowości nie można zobaczyć, dotknąć, posmakować. Skoro państwo, prawo, korporacje, urządzenia i programy rzeczywiście czynią nasze życia przyjemniejszymi, zdrowszymi, łatwiejszymi, lepszymi – to czym tu się martwić? Co właściwie tracimy?
Podmiotowości nie można zobaczyć, dotknąć, posmakować. Skoro państwo, prawo, korporacje, urządzenia i programy rzeczywiście czynią nasze życia przyjemniejszymi, zdrowszymi, łatwiejszymi, lepszymi – to czym tu się martwić? Co właściwie tracimy?
Artykuł ukazał się w Pomorskim Thinkletterze nr 4/2021. Kompletne wydanie w postaci pliku pdf można pobrać tutaj.
Wydawca
Partnerzy