Stefan Sękowski:
— Czytając to, co pan pisał i mówił o Wielkim Spowolnieniu, doszedłem do wniosku, że hymnem tego postulatu mogłaby być piosenka Anny Marii Jopek „Niech ktoś zatrzyma wreszcie świat, ja wysiadam”. O to panu chodzi?
Prof. Andrzej Zybertowicz:
— Jeśli piosenka sugeruje, że sprawy toczą się wbrew ludzkiej naturze i że trzeba się temu przeciwstawić, to tak. Człowiek jest w pewnym sensie skończoną konstrukcją i technologia nie powinna nim zarządzać; ona powinna być człowiekowi podporządkowana. W niedawno wydanej po polsku książce „Ludzie przeciw technologii”, Jamie Bartlett radzi odwrotnie – by człowiek i jego instytucje dopasowali się do wyzwań technologii. To niedobra droga. To technologie i instytucje należy dopasowywać do człowieka, w tym do naszych możliwości poznawczych.
— A nie człowieka do świata.
— Oczywiście, z poszanowaniem rozsądnego rdzenia ekologii. W książce „Samobójstwo Oświecenia? Jak neuronauka i nowe technologie pustoszą ludzki świat”, w roku 2015 wydanej przez mój zespół, napisaliśmy, że w dziejach technologii nastąpiło brzemienne w skutkach przekształcenie. Przez większość dziejów technika była naszym sługą. Aż do czasów Internetu, czyli usieciowienia technologii, umysł ludzki, zarówno na poziomie instytucjonalnym jak i indywidualnym, mógł w zasadzie rozumieć technologię i dzięki temu mieliśmy nad nią przewagę. Gdy technologia się usieciowiła, asymetria między człowiekiem-panem a technologią-sługą została odwrócona. Wraz z usieciowieniem technologii jej rozwój zyskał nową wewnętrzną, nieprzejrzystą dla nas autodynamikę. Mechanizmy ewolucji technologii są coraz trudniejsze do ogarnięcia nawet dla najwybitniejszych umysłów. Pewnie jeszcze nie utraciliśmy możliwości jej kontroli, ale do tego już niedaleko. Nie żyjemy już w systemach społecznych, ale w technosystemach. Szereg lat temu zwrócił mi na to uwagę profesor Lech Zacher.
— Trudniej je kontrolować także tym, którzy ją rozwijają?
— Oczywiście, bo technologie działają w ramach systemu regulowanego przez rynki, właścicielskie prawa kapitalizmu i media (te w ostatniej dekadzie są pod wpływem gigantów technologicznych z Doliny Krzemowej). Inżynierowie mogą rozumieć technologie, ale słabo ogarniają jej społeczne uwikłania i skutki. Można być beneficjentem lub ofiarą pewnych elementów technosystemu, ale nawet beneficjenci nad wieloma procesami nie panują. Mówi się, że ponad połowa miliarderów z Doliny Krzemowej już przygotowała sobie specjalne zasoby na wypadek globalnego kataklizmu. Jedni mają posiadłości w Nowej Zelandii, inni jakąś prywatną wyspę, jeszcze inni bunkry wyposażone w systemy przetrwania. Oficjalnie co dzień głoszą: „Zmieniamy świat na lepsze”, ale po cichu przyznają, że procesy wyzwolone przez rewolucję cyfrową już wymknęły się spod kontroli, i może nastąpić wstrząs systemowy, po którym cywilizacja przestanie działać – i na taką okoliczność trzeba zabezpieczyć możliwość przetrwania sobie i bliskim.
— Kiedy doszło do tej jakościowej zmiany?
— Zaczęła się wraz z pojawieniem się internetu, a obecnie ważną fazą przejściową jest internet rzeczy i systemy 5G. Na przykład smart cities mają być bardziej bezpieczne, zdrowsze, ekologiczne, bardziej przewidywalne, zużywać mniej paliwa i prądu. Ale w tym ekosystemie człowiek będzie drobnym elementem, który musi się podporządkować całej maszynerii. W tle nie istnieje przemyślana wizja dobrego życia i społeczeństwa, wizja tworzona z poszanowaniem dla ludzkiej natury (czego brakowało w projekcie komunistycznym). Zamiast tego, w centrum uwagi stawiamy racjonalność technologiczną. Pod jej dyktando są montowane kolejne techniczne rozwiązania, często naruszające podstawy solidarności społecznej, a nawet godności ludzkiej.
— Skąd pewność, że tak się stanie? Do tej pory, nie licząc kredytu społecznego w Chinach, tak się nie dzieje.
— Już dziś te same technologie monitorowania przestępczości wcielane są w USA, czyli w kraju demokratycznym o dużej kulturze wolnościowej, i w Chinach – kraju autorytarnym. System punktowania obywateli za zachowania „właściwe” rozwijany jest w Chinach, ale w Stanach Zjednoczonych mamy predictive policing. Coraz częściej decyzje o tym, czy więzień składający wniosek o warunkowe zwolnienie wyjdzie na wolność, są podejmowane przy automatycznym wspomaganiu. Coraz więcej decyzji podejmują algorytmy. Zakłada się, że będą bardziej obiektywne.
— Może będą? Badania psychologiczne wykazały, że surowość sędziów zależy choćby od tego, czy zjedli już obiad, czy nie…
— Tyle tylko, że kontrola nad procesami społecznymi punkt po punkcie przesuwa się poza to, co ludzkie. Shoshana Zuboff w książce „The Age of Surveillance Capitalism” pisze, że kluczowy proces nie polega na tym, że nasze życie czynimy bezpieczniejszym i wygodniejszym dzięki temu że automatyzowane są coraz to kolejne nasze czynności. Efektem rewolucji cyfrowej jest kapitalizm nadzoru, który automatyzuje nas samych. Człowiek staje się zautomatyzowany, a nie otoczenie. To on jest ostatecznym oczekiwanym produktem – potrzebny jest zautomatyzowany konsument, obywatel etc. Biznes może przewidzieć przyszłość, jeśli dopasuje miliony klientów do swoich ofert. Nie odwrotnie.
— Pisze pan, że człowiek utracił bezpieczeństwo ontologiczne. Wiąże pan to z nadmiarem informacji, która nas otacza. Może to kwestia utraty poczucia bezpieczeństwa, a nie samego bezpieczeństwa?
— Odróżnienie utraty poczucia bezpieczeństwa od samej sytuacji bezpieczeństwa ma sens w przypadku bezpieczeństwa fizycznego, ale już nie ontologicznego. Jeśli np. znajduję się w dobrze chronionym budynku, a ktoś wywoła u mnie lęk na przykład za pomocą SMS-a, to choć obiektywnie jestem bezpieczny, mogę czuć się przerażony. W przypadku bezpieczeństwa ontologicznego (autorem tej koncepcji jest brytyjski socjolog Anthony Giddens) rzecz wygląda inaczej. Bezpieczeństwo ontologiczne powstaje dzięki zanurzeniu jednostki w powtarzalne sekwencje zdarzeń, budujące poczucie sprawstwa i kontroli. Tutaj subiektywne poczucie współkonstytuuje, współtworzy samo zjawisko bezpieczeństwa ontologicznego. Jeśli czuję, że nie jestem w stanie zrozumieć ważnych elementów mojego życia, że nie mogę zrozumieć relacji między sobą a przełożonymi lub z kolegami w pracy, jeśli podczas robienia zakupów w sieci ktoś może ukraść moją tożsamość, jeśli nie rozumiem, czy dla Facebooka jestem klientem/konsumentem czy produktem, to moje bezpieczeństwo ontologiczne jest zagrożone. Tu chodzi o sprawstwo; nie mogę działać skutecznie, jeśli uważam, że nie działam skutecznie. Jeśli nie czuję się bezpieczny ontologicznie, to nie jestem bezpieczny, bo został zaburzony mój podmiotowy stosunek do świata.
— Dlaczego bezpieczeństwo ontologiczne jest teraz mniejsze?
— Składa się na to tysiące drobiazgów. Często na tyle słabo zauważalnych, że na co dzień lekceważonych. Kiedyś przez lata używałem tej samej marki mydła, tego samego czajnika etc. Teraz, jak wiadomo, wiele przedmiotów ma zaprogramowane samobójstwo. W momencie, gdy zepsuje mi się mój ekspres do kawy, z którym mam oswojony rytuał poranny, nie mogę kupić sobie takiego samego, bo tego modelu na rynku już nie ma. Musze kupić sobie nowy z jakimś zbędnym dla mnie wodotryskiem. To są niby niewinne rzeczy. Nagle muszę zmienić swój nawyk w jakimś nie tak istotnym obszarze. Ale gdy w krótkim czasie muszę zmieniać ich wiele, gdy w dodatku moja firma ulega reorganizacji, gazeta, którą przez 10 lat czytałem, znika z rynku lub zmienia profil ideowy, moja zdolność orientacji w świecie tak się kurczy, że nie jestem w stanie sprawnie funkcjonować. W obliczu stałego przeciążenia informacyjnego staję się podatny na argumentację demagogiczną, populistyczną, wreszcie autorytarną. Moim zdaniem naruszenie bezpieczeństwa ontologicznego spowodowane przez nadmierną dynamikę technologii należy do kluczowych przyczyn kryzysu Unii Europejskiej i całej cywilizacji zachodniej.
— Ta zmiana rzeczywiście teraz zaszła? Ja widzę szybkie przemiany technologiczne, od kiedy żyję, i dla mnie są czymś naturalnym.
— Zuboff nawiązuje do znanego pojęcia digital natives, tubylcy cyfrowi. Piję teraz do pana. W jednym z wywiadów mówiła, że to pojęcie stało się ironiczne. Wydawałoby się, że to świetnie, że młode pokolenie czuje się swojsko, naturalnie w świecie nowych technologii. Zuboff przypomina jednak: dawno temu przyjechali do Ameryki faceci z paciorkami – czymś atrakcyjnym dla Indian. Ale zabrali im inny zasób – ziemię. Ziemię, która przez tubylców nie była w ogóle postrzegana jako zasób, który podlega obrotowi. Jaki zasób oddajemy za cyfrowe paciorki, czyli iluzje podmiotowości surfowania po „całym” świecie cyfrowym? Internet może się jawić jako przestrzeń ogromnej wolności, jako ocean mojego potencjalnego sprawstwa. Tymczasem przemieszczam się tam prowadzony za rękę przez cyfrowe technologie uzależniające. Ktoś je obmyślił, przetestował na innych „tubylcach” i stosuje na masową skalę. Jeśli za coś nie płacisz, to ty jesteś produktem. Tubylcom cyfrowym zabrano to, co może najważniejsze: zdolność do samodzielnego, krytycznego myślenia; w tym, jak celne podkreśla Bartlett, zdolność do formułowania pogłębionych ocen moralnych. Za „darmowe” usługi każdego dnia przekazuje pan dane na swój temat – po drodze, nieświadomie, staje się pan kimś innym, przeprogramowywanym przez algorytmy, o których nie ma pan pojęcia.
— Wszystko zależy od paciorka. Bez internetu nie napisałbym swojej magisterki, bo musiałbym pojechać do USA, by zrobić kwerendę. A tak miałem wszystko zdigitalizowane na wyciągnięcie kursora.
— Mógłby pan napisać magisterkę na tysiąc innych tematów. Indianie bez tych paciorków byli mniej szczęśliwi? One zdestabilizowały ich ład społeczny i nie podnieśli się z tego do dzisiaj.
— Nie traktuje pan jednak tego zerojedynkowo? Jest różnica między dostępem do informacji, którą mogę sobie sam wybrać, a korzystaniem z mediów społecznościowych, w których handluję swoimi prywatnymi danymi.
— Gdzie tu zerojedynkowość? Naruszam pana strefę komfortu. Wiadomo, że większość prywatnego ruchu w sieci to entertainment, infotainment, narcyzm, ekshibicjonizm, pornografia i prymitywna propaganda. Aktywność ukierunkowana na treści obywatelskie, krytyczne, wymagające zaangażowania, długotrwałej lektury, to ułamek transferów danych.
Internet odniósł oszałamiający sukces dzięki technologiom uzależniającym. One są tak skuteczne, gdyż umysł ludzki ma dwie ścieżki przetwarzania informacji: jedną zautomatyzowaną, emocjonalną, spontaniczną, niskowysiłkową, oraz drugą, samoświadomą i wysokowysiłkową, racjonalną. Spontanicznie wybieramy tą pierwszą. Korzystając ze smartfonu, szybko trafiam na strony niewymagające wysiłku, pobudzające ośrodki przyjemności albo rozdrażniające, mobilizujące, motywujące do agresji. Sama natura obcowania z ekranem sprzyja spontanicznej ścieżce przetwarzania informacji, a nie tej, o której symbolicznie powiemy, że wyrasta „z edukacji klasycznej”. Kiedyś trzeba było przedrzeć się przez łacinę i potem można było czytać Wergiliusza. Był wysiłek – była nagroda. Dziś internet to same nagrody – bez wysiłku. W obliczu tego bledną wszystkie opowieści dotyczące tego, jak poprzez edukację bronić się przed tymi mechanizmami.
W dyskusjach o zagrożeniach, jakie niesie świat cyfrowy, w kółko przewija się postulat: musimy uczyć krytycznego myślenia. Chyba prawie od dziecka słyszałem, że szkoła powinna uczyć krytycznego myślenia. Jednak racjonalne krytyczne myślenie ciągle stanowi drobny promil praktyk edukacyjnych. To przypadek?
— Nie sądzę.
— Jest społecznie funkcjonalne, by szkoła uczyła wszystkiego, tylko nie krytycznego myślenia – za wyjątkiem wybranej mniejszości. Każda kultura bazuje na nisko refleksyjnych, zautomatyzowanych codziennych reakcjach.
— Co zrobić w takim razie z internetem? Na czym miałoby polegać Wielkie Spowolnienie?
Wielkie Spowolnienie jest niezbędne, by uniknąć zmarnowania dotychczasowego cywilizacyjnego dorobku. Tempo zmian technologicznych i zakres tzw. innowacji przełomowych (disruptive) muszą być zmniejszone tak, by podstawowym procesom społecznym udało się przywrócić sterowność w ramach demokracji.
Wszyscy – jednostki ludzkie, czy demokracja jako układ instytucji – mamy ograniczone możliwości rozumiejącego przetwarzania informacji. Obecnie tempo, zakres i głębokość zmian przekroczyły zdolności przetwarzania informacji przez systemy ludzkie.
Jeśli chcemy poradzić sobie z jakimś problemem, to musimy zredukować jego złożoność. Jest pan w stanie uporządkować bałagan w swoim domu pod warunkiem, że ściany są na swoim miejscu. Ale jeśli pana dzieci zrobią imprezę z kolegami i podczas porządkowania po nich okaże się, że jednocześnie trzeba przestawić sieć wodociągową, zmienić układ ścian i zamontować nowy typ ogrzewania, to nie będzie pan w stanie zrobić porządku po imprezie dzieci. Ludzkość jest na etapie, w którym technologie otwierają nowe pola zmian. Nie możemy uporządkować jednej grupy problemów, ponieważ natychmiast mamy negatywne efekty uboczne na innych powiązanych polach. Spowolnienie jest niezbędne, jeśli chcemy zachować jakiś element racjonalności w rozwoju społecznym. Gdy jesteśmy przeciążeni informacjami, ciągłe dochodzi do sytuacji kryzysowych.
Wybitny brytyjski ekonomista Robert Skidelsky w niedawnym wykładzie uzasadnia potrzebę spowolnienia rozwoju technologicznego w inny sposób. Wykazuje on, że iluzją jest przekonanie, iż kolejne fale automatyzacji eliminujące liczne miejsca pracy dzięki spontanicznym mechanizmom rynkowym zostaną na czas skompensowane przez nowe miejsca pracy. Skidelsky wskazuje, że polityka musi skierować większą uwagę na powiązanie tempa zmian technologicznych ze zdolnością społeczeństwa ludzkiego do wchłaniania tych zmian. Tempo rozprzestrzeniania się automatyzacji należy spowolnić, by zrównoważyć narastające niepokoje pracownicze.
Jeśli chcemy spowolnienia, musimy wpłynąć na przyczyny przyspieszenia. Należą do nich ideologia wolnego rynku, swoboda badań naukowych i wyobrażenie, że nauka bada obiektywną rzeczywistość, chociaż w istocie ją współkonstruuje (o tym ostatnim pisałem w wydanej w roku 1995 książce „Przemoc i poznanie”). W takim układzie uczeni są kapłanami prawdy i dlatego obywatelom nie wolno wpływać na ich działania.
Do odrzucania takich, głęboko wdrukowanych przesądów, nie sposób przekonać samą racjonalną argumentacją. Zbyt wielowarstwowe interesy tu narosły. Obecny technosystem prędzej czy później doprowadzi do konwulsji. To może być jakiś kryzys finansowy, fale paniki i agresji z tysiącami ofiar, epidemie czy inne wydarzenia wywołane przez nadmiernie rozdęte technologie, wydarzenia, których nie potrafimy sobie dziś wyobrazić. Po zrzuceniu bomb atomowych na Hiroszimę i Nagasaki przyjęto – częściowo w trybie prawnym, częściowo kulturowym, częściowo w ramach nieformalnych, „dorozumianych” uzgodnień – że nie rozwijamy broni masowego rażenia. Zaraz po drugiej wojnie światowej analitycy mówili: katastrofa atomowa jest nieunikniona, to tylko kwestia czasu. Udało się jej jednak uniknąć. W latach 70. na pewien czas udało się wprowadzić moratorium na badania genetyczne. Dziś niestety technoentuzjazm jest tak ogromny, że musimy czekać na konwulsje, by otrzeźwieć. Ważne, żebyśmy mieli wizję instytucjonalnych rozwiązań, które można by wtedy wdrożyć.
— Czy one nie rodzą zagrożeń, związanych np. z cenzurą?
— Cenzura już istnieje – na przykład zakaz szerzenia poglądów rasistowskich i podburzenia do przemocy jest już formą cenzury. To tylko kwestia jej zakresu. Nie oszukujmy się: ludzkość zawsze „umawiała” się, że pewnych poglądów nie wolno głosić, bo są złe. Spór powinien się toczyć o zakres cenzury, a nie o to, czy ona jest, czy nie. Za każdym razem, gdy mówię, że faza „Dzikiego Zachodu” w internecie powinna się skończyć, to wolnościowcy reagują histerycznie, nie próbując się zastanowić nad tym, że wolność nie może być abstrakcyjnie nieskończona.
— Łatwo jest jednak powiedzieć, że rozwój internetu powinien się skończyć…
— Kto mówi o skończeniu? Powinien zostać istotnie spowolniony i na niektórych polach poddany międzynarodowej kontroli.
— OK, łatwo więc powiedzieć, że rozwój internetu powinien zostać istotnie spowolniony, ale trudniej jest powiedzieć, jak to konkretnie powinno wyglądać.
— Nie mogę odpowiedzieć na wszystkie ważne pytania, to da się uczynić tylko w wyniku zespołowej, wielowymiarowej debaty. Nie pławię się w kolejnych, w istocie niekończących się diagnozach. Proponuję przeskok ku dyskusji nad kluczowym fundamentalnym rozwiązaniem. Podstawowy jest postulat Wielkiego Spowolnienia. Ale nikt samodzielnienie nie jest w stanie zaprojektować kompleksowej serii rozwiązań instytucjonalnych, prawnych i kulturowych, potrzebnych dla realizacji Spowolnienia. Jako intelektualista funkcjonujący jedną nogą w polityce, wskazuję horyzonty zagrożeń. Niestety, realizm nakazuje przyjąć, że racjonalne prognozy ostrzegawcze to za mało.
— W tej chwili nie powinno się proponować konkretnych rozwiązań?
— Należy proponować rozwiązania i dyskutować nad nimi.
— To dlaczego pan tego nie chce zrobić?
— Chcę, ale moje kompetencje intelektualne sięgają systemowych warstw procesów przemian cywilizacyjnych. Konkretne projekty wymagają współpracy wielu specjalistów. Dyskutowane są np. pomysły, że każde państwo powinno uruchomić system certyfikacji algorytmów. Nie może być tak, że korzystanie z jakiegoś dobra społecznego zależy tylko od algorytmów. Wyobraźmy sobie, że algorytm wylicza wyższe ceny lotów osobom, które uzna za wymagające specjalnej opieki (np. ze względu na wiek) albo uznaje je za „trudnych” pasażerów do takiego stopnia, by zniechęcić ich do lotu. Wszystkie algorytmy, które oddziałują na życie publiczne, powinny być certyfikowane. Takich pomysłów jest wiele. Należy je zbierać i zastanawiać się, czy nie spowodują efektów ubocznych.
— W artykule „Okiełznać zmianę” pisze pan wspólnie z żoną, że „nasuwa się przypuszczenie, iż państwa autorytarne – takie jak Rosja i Chiny – w których proces obiegu informacji jest pod wieloma względami odgórnie kontrolowany, lepiej sobie radzą z problemem infoprzeciążenia, niż kraje demokratyczne, gdzie nie ma instrumentów opanowywania lawiny informacji każdego dnia pomnażanej przez media społecznościowe”. Od razu przychodzą do głowy skutki uboczne. Czy takie rozwiązania byłyby dobre?
— Pytanie nie uwzględnia kontekstu. Prawdopodobnie ładu społecznego w społeczeństwie opartym na kulturze chińskiej bez coraz szerszego wcielania zautomatyzowanego systemu social credit nie uda się utrzymać. Na razie w Europie nie ma ani przyzwolenia, ani nawet potrzeby takiego rozwiązania. Niedawno przeczytałem, że UE narzuciła Google’owi karę za nadużycia przy pozycjonowaniu reklam. Przywoływana już wcześniej Zuboff mówi: prawdopodobnie nie jest jeszcze za późno, by interwencją polityczną powstrzymać patologiczny trend rozwoju kapitalizmu, który dziś stał się kapitalizmem masowego nadzoru (surveillance capitalism). Prawdopodobnie trzeba fundamentalnie zmienić poziom anonimowości w sieci. Na przykład tak, żeby można było wejść do sieci tylko przez własny identyfikator, ale legalnie można będzie posługiwać się nickami dopóty, dopóki nie łamie się prawa. Koniec Dzikiego Zachodu nie oznaczał końca kreatywności w Kalifornii. Najpierw ludzie sami powoływali szeryfów w ramach self policing, potem instytucje państwa wraz z przesuwaniem się mas ludzkich na zachód wprowadzały formy ładu, który był wcześniej już na wschodzie. W ostatnich dekadach dokonaliśmy – my, ludzkość – podboju nowej rzeczywistości cyfrowej. Rozwija się dynamicznie i chaotycznie – co samo w sobie nie musi być niczym złym. Ale zbyt wielka jest swoboda dla cyberprzestępczości i działań destrukcyjnych.
— Póki nie ma kataklizmu, mamy sytuację, w której upada multilateralizm. USA chcą wystąpić z porozumienia paryskiego, na znaczeniu traci WTO. Będą chętni do takiej międzynarodowej współpracy?
— Multilateralizm nie upada całkowicie. W gospodarce globalnej nie można zlikwidować multilateralizmu, bo choćby protokoły techniczne muszą być wspólne, by komputer z Chicago mógł się komunikować z komputerem w Kuala Lumpur. Polska uczestniczy w około dwustu organizacjach międzynarodowych, i uczestnictwo w każdej z nich wiąże się ze zrzeczeniem się jakiejś części naszej suwerenności. Huawei współpracuje bodaj z trzystoma instytucjami certyfikującymi. Obecnie mamy do czynienia tylko z wycofaniem się z pewnych form, przykładów multilateralizmu. Wycofać się z niego całkowicie – oznaczałoby zlikwidować globalizację. To tylko korekta systemu. Być może gdyby nie w pewnym sensie przypadkowy wybór Donalda Trumpa i jego zdeterminowana osobowość, nierównowagi handlowe z Chinami czy Niemcami narosłyby do jeszcze bardziej niebezpiecznego poziomu.
— Z jednej strony problem jest realny, ale Wielkie Spowolnienie budzi obawy, jeśli chodzi o zagrożenie wolności. Jak zachować tutaj umiar?
— Wolność nie jest czymś abstrakcyjnym. Wolność jako możliwość wyboru celu i osiągnięcia tego celu istnieje tylko w świecie ustrukturalizowanym. Jeśli chcę wybrać się autostopem do Paryża, by tam założyć start-up, to za każdym razem zakładam, że inni ludzie działają w ramach wzorców, które czynią ich zachowania przewidywalnymi. Zakładam, że nie każdy kierowca jest potencjalnym mordercą, że większość przestrzega kodeksu drogowego i że na miejscu będę mógł w przewidywalny sposób prowadzić działalność w ramach gospodarczego ekosystemu Francji. Część z tych wzorców ma charakter prawny, część obyczajowy, inne są wyznaczane przez rynki finansowe. Kłopot w tym, że nowe technologie i trendy kulturowe niszczą strukturalne fundamenty, na których bazuje rozwój społeczny.
— Utrata bezpieczeństwa ontologicznego bardziej zagraża wolności, niż potencjalne interwencje?
— W obecnej sytuacji – tak. Żyjemy w świecie, w którym nieokiełznana wolność grozi zamianą w swoje przeciwieństwo.
Ilustracja © brak informacji / Archiwum ITP
Brak komentarzy:
Prześlij komentarz