Reklama

Nauka

Temat numeru

Ostatni wynalazek człowieka

O trendach cywilizacyjnych i nowych technologiach, które mogą wymknąć się spod kontroli, rozmawiamy z prof. Andrzejem Zybertowiczem.

Niedziela Ogólnopolska 27/2023, str. 8-11

[ TEMATY ]

sztuczna inteligencja

Adobe Stock

Bądź na bieżąco!

Zapisz się do newslettera

Wojciech Dudkiewicz: Rozwój sztucznej inteligencji (AI) wzbudza bardziej entuzjazm niż obawy – wynika z badania World Trend Index. Duża część pracowników na świecie obawia się, że AI zastąpi ich w pracy, ale znacznie więcej z nich chce przerzucić na sztuczną inteligencję pewną ilość zadań. Są nieświadomi zagrożeń?

Prof. Andrzej Zybertowicz: Przyglądamy się rzeczywistości na ogół punktowo. Każdy z nas orientuje się w świecie w zależności od wykonywanych zadań – zawodowych i rodzinnych. Drwal np. rozumie, jak rosną drzewa i które z nich nadają się do wycinki, nie musi natomiast pojmować procesu sterowania płynnością ruchu w dużym mieście. Wybitny fizyk budujący wyrafinowane modele kosmologiczne może być naiwny, jeśli chodzi o flirtowanie nastolatków. Ludzie oceniają znaczenie innowacji w ramach swoich horyzontów poznawczych. Mało kto, z wyjątkiem analityków i badaczy przyglądających się systemom społecznym, na co dzień posługuje się pojęciem nieplanowanych, trudno rozpoznawalnych konsekwencji jakiegoś działania. Innowacja, która w krótkim czasie może przynosić korzyści, po upowszechnieniu się może powodować mnóstwo złych konsekwencji.

Reklama

Czy mógłby Pan Profesor podać jakiś przykład?

Dla wielu Amerykanów prawo do posiadania broni, wpisane w drugą poprawkę do konstytucji, jest czymś bardzo ważnym. Ale w żadnym innym kraju nie powtarzają się rzezie w szkołach, gdy nastolatek przychodzi do szkoły z karabinem i zabija swoich kolegów. To jeden z dzisiejszych skutków upowszechnienia się innowacji prawnej, którą był masowy dostęp do broni... Moim zdaniem, nawet gdybyśmy mieli do czynienia tylko z technologiami, których nie można stosować do złych celów, to w ostatnim czasie w systemy społeczne jednocześnie wprowadzanych jest za dużo innowacji. Nawet jeśli każda z nich, postrzegana osobno, przynosiłaby same dobre efekty, to nakładanie się ich na siebie rodzi dezorientację. Gdy tempo zmian przekracza zdolność objęcia ich ludzkimi umysłami oraz możliwości regulacyjne organizmów państwowych – rodzi się chaos.

Pomóż w rozwoju naszego portalu

Wspieram

Często, nawet gdy rozumiemy zagrożenie, myślimy: to kwestia dalekiej przyszłości, mnie to nie dotyczy...

Taka ucieczka od odpowiedzialności jest niebezpieczna, tym bardziej że rośnie odsetek młodych ludzi, którzy programowo wyrzekają się posiadania dzieci. Jest cała grupa mediów, firm i fundacji, które lansując postawy konsumpcjonizmu i hiperindywidualizmu, ich w tym wzmacniają. A to musi się przekładać na brak odpowiedzialności za przyszłość. Jeśli ktoś nie ma dzieci i nie spodziewa się mieć wnuków, to łatwiej jest nim manipulować – nasilając konsumpcjonizm – by nie przejmował się przyszłością. Stąd głosy: jeśli jakaś technologia sztucznej inteligencji, jak ChatGPT, jest dziś atrakcyjna, to się nią bawmy. Tym bardziej kiedy pomoże rozwiązać jakiś problem, zrobi coś szybciej od człowieka, np. przygotuje ilustrację graficzną, napisze tekst itp.

...nawet wiersz czy poemat.

I masę innych rzeczy, i to powyżej jakości dostępnej większości ludzi. Systemy AI dostarczają dzieł plastycznych, które warsztatowo przekraczają możliwości plastyków zatrudnionych w korporacjach. Po „wytrenowaniu” AI na wielkiej części dorobku ludzkości może ona od razu działać na poziomie mistrzowskim.

Reklama

Gdy ktoś widzi fajną zabawkę, która pomaga mu zrobić coś, co kiedyś było dlań niedostępne, zyskuje poczucie podmiotowości: stworzyłem coś. Nie dostrzega tego, że gdy taka zabawka się rozpowszechni, to przyniesie szkody także jemu. Ale jeśli te szkody na poziomie cywilizacyjnym ujawnią się, kiedy nie będzie go już wśród nas – nie musi się o to troszczyć. Odbieranie ludziom odpowiedzialności za młode pokolenie to kolejny degradacyjny trend cywilizacyjny po odebraniu ludziom Boga przez europejskie oświecenie. Nie ma Boga, no dobrze, ale mam dzieci, czuję się za nie odpowiedzialny, warto z mojego majątku coś im zostawić. Jeśli programowo nie chcę mieć dzieci, to po „śmierci Boga” następuje kolejna faza – „śmierć” odpowiedzialności. I przyczyniają się do tego nowe technologie cyfrowe. To jedna z perspektyw, która powinna być rozważana przez wszystkich, także przez Kościół.

Czy Kościół dostrzega problem sztucznej inteligencji?

Byłem niedawno w Watykanie, rozmawiałem z polskimi duchownymi, którzy tam pracują, i wspólnie doszliśmy do wniosku, że istnieje potrzeba, żeby w tej kwestii mocno zabrzmiał głos papieża. Naprawdę warto ogłosić encyklikę w tej sprawie. Jeden z księży zaproponował tytuł, który po polsku brzmiałby: „Jesteśmy spóźnieni”. My – ludzie żyjący w przekonaniu, że istnieje wymiar metafizyczny – jesteśmy spóźnieni w przestrzeganiu nie tylko wiernych, ale także niewierzących, dla których głos Ojca Świętego jest ważny jako sygnał wrażliwości i głos wielkiej wspólnoty.

Ale to nie opóźnienie miałoby być istotą tego ostrzeżenia? Kościelne młyny mielą powoli...

Zbyt wolno, a technologia pędzi. Ciekawy byłby też w sprawie sztucznej inteligencji głos wybitnych teologów, marzyłyby mi się konferencje przygotowywane przez episkopaty różnych krajów. Przypominają się dyskusje wybitnych umysłów, które w Castel Gandolfo organizował Jan Paweł II...

Reklama

Zbyt późno, tak uważam, doszło np. do zrozumienia w Watykanie sytuacji na Ukrainie. Spójrzmy teraz na zagrożenia AI w długofalowej perspektywie cywilizacyjnej: czyż to, co sztuczna inteligencja może uczynić ze światem ludzkim, nie jest równie przerażające jak zniszczenia i okrucieństwo siane przez wojnę Putina? A może, w tej właśnie optyce cywilizacyjnej, AI jest jeszcze większym zagrożeniem dla ludzkości?

Mocna ocena.

Uzasadnię ją. Eksperci mówią, że nawet gdyby doszło do wojny między Rosją i USA, takiej, do której włączyłyby się Chiny, do pełnowymiarowej wymiany nuklearnych uderzeń – ludzkość i tak przetrwa. Cywilizacja mogłaby zostać zdruzgotana, ale setki milionów ludzi przetrwają. I zachowają wiedzę, na czym polegają cywilizacja naukowo-techniczna, prawa człowieka i instytucje ich ochrony. Owszem, spadłby poziom życia, ale fundamenty cywilizacyjne przetrwałyby jako podstawa do odbudowy.

A w przypadku sztucznej inteligencji?

Gdyby rozwijała się w kierunku tzw. silnej superinteligencji, jako ludzie możemy stać się dla niej mało ważni, niemal niedostrzegalni. Są różne scenariusze. W tym taki: AI może być tak zainteresowana eksploracją innych galaktyk – że aby zbudować sobie służące temu nowe technologie, zużyłaby wszystkie zasoby energetyczne Ziemi. Z opłakanymi skutkami dla nas. AI nie musi mieć wobec nas żadnych złych intencji, wystarczy, że znajdziemy się na marginesie jej zainteresowań. Eksplozja sztucznej superinteligencji może wywołać skutki przekraczające siłę rażenia wszystkich bomb jądrowych, które są dziś na Ziemi.

Reklama

Ale to, na szczęście, tylko perspektywa pewnej hipotezy.

Oczywiście, że tak. Nie ma dziś żadnej teorii naukowej, z której by wynikało, że tak musi się to skończyć. Nie ma też żadnej poważnej teorii naukowej, która by mówiła, że agresja Rosji na Ukrainę musi się przerodzić w wojnę jądrową. Ale nie wykluczamy tego.

W książce Cyber kontra real. Cywilizacja w techno-pułapce pisze Pan Profesor, że żyjemy w momencie, w którym można jeszcze odzyskać przewagę nad technologią. Apel o moratorium w pracach nad AI podpisało ponad 30 tys. specjalistów. Jeden z pionierów AI zaczął ostrzegać przed ryzykiem, jakie wiąże się z tą technologią, a Unia Europejska próbuje regulacji. To dużo za mało. Czy jest szansa na cofnięcie się, wprowadzenie regulacji ograniczającej tę technologię?

O potrzebie moratorium technologicznego mówię co najmniej od 2015 r., od wydania razem z zespołem książki Samobójstwo Oświecenia?. Choć, moim zdaniem, postulat moratorium jest logicznie uzasadniony, to obawiam się, że nie zostanie wprowadzony z powodu czysto racjonalnego postępowania – systemy społeczne tak, niestety, nie działają. Może natomiast zostać wcielony w życie, gdy ludzkość dotknie – tak to określmy – katastrofa średniego kalibru.

Reklama

To znaczy?

Na tyle słaba, by ramy obecnego ładu globalnego przetrwały, ale na tyle dramatyczna, by szok nią wywołany uświadomił konieczność podjęcia nadzwyczajnych działań naprawczych. Natura systemów decyzyjnych w dzisiejszym świecie jest taka, że bez potężnego wstrząsu opinii publicznej nie będzie gotowości do radykalnych, ale niezbędnych działań. Wstrząsy, które nasza cywilizacja przeżyła w ostatnich latach: kryzys finansowy w 2008 r., pandemia COVID-19, tysiące ofiar i ludobójstwo na Ukrainie, nie okazały się wystarczająco przemawiającymi do wyobraźni dramatami, żeby się ogarnięto. Cała nadzieja w tym, że stanie się to, zanim sztuczna inteligencja nabierze pełnej mocy. Zakładam, że nie doszliśmy jeszcze, na szczęście, do punktu krytycznego, gdy uruchomią się procesy samodoskonalenia się AI, nad którymi nie będziemy mieli już żadnej kontroli.

Ci, którzy prowadzą i finansują badania nad sztuczną inteligencją, którzy je rozbujali do obecnego stanu, mają na uwadze pieniądze i władzę. Czy coś jeszcze?

Jest coś, co trzeba dodać w przypadku Geoffreya Hintona, jednego z guru środowiska sztucznej inteligencji. Odchodząc niedawno z Google’a, Hinton powiedział, że jakaś jego część żałuje, iż przyczynił się do rozwoju AI. W 2015 r. na pytanie, że skoro widzi zagrożenia, iż ludzie o skłonnościach terrorystycznych mogliby nadużywać AI, to czemu nad tym dalej pracuje, odpowiedział, że smak odkrycia jest taki słodki... Jest zatem trzecia motywacja, poza władzą i pieniędzmi – fascynacja własnym sukcesem poznawczym, przygodą przy rozwiązywaniu trudnych problemów. A gdy taka przygoda jest ważniejsza niż zobowiązania moralne, to mamy kolejny zły znak czasu.

Reklama

Na jesień zapowiadana jest premiera nowej, piątej wersji ChatGPT – narzędzia AI, które według ekspertów może osiągnąć poziom ludzkiej inteligencji i rozumienia. Czy to początek wymykania się sztucznej inteligencji spod kontroli?

Nie wiadomo dokładnie, czy akurat tego można się spodziewać, ale szybki rozwój sztucznej inteligencji wciąż zaskakuje nawet samych jej twórców. Zwrócę uwagę na coś innego. Pytanie: na jakim etapie należy sztuczną inteligencję uznać za odrębny podmiot, za „istotę zdolną do przeżywania cierpienia”? A jeśli sztuczna inteligencja będzie symulowała cierpienie, żeby wywołać zamieszanie albo empatię? Około roku temu inż. Blake Lemoine z Google’a powiedział publicznie, że program sztucznej konwersacji LaMDA, który testował, jest „świadomą istotą, której pragnienia należy uszanować”.

Za to został z Google’a zwolniony...

Tak. A chodziło o program słabszy od ChatGPT. Wyobrażam sobie, że gdy jakaś kolejna wersja będzie wyraźnie lepsza, pojawią się ruchy społeczne na rzecz przyznania danemu systemowi AI praw ludzkich. Są już przecież ruchy tych, którzy uważają, że trzeba odrębne prawa przyznawać nie tylko zwierzętom, ale i roślinom. Patrzę na to wszystko pod kątem zwiększania zamętu w już i tak zdestabilizowanym życiu społecznym. Nie próbuje się całościowo podejść do poważnych problemów, przed którymi stoi ludzkość: strukturalnie zatrutej infosfery i rosnącego oceanu dezinformacji, epidemii samotności i depresji, głębokiej dezorientacji młodego pokolenia w obliczu wyzwań ich życia, ogromnych nierówności społecznych – wielkich fortun ludzi o zasobach, których nie wydadzą do końca życia, a działają poza demokratyczną kontrolą itd. Zamiast podchodzić do takich problemów całościowo, tysiące wybitnych umysłów próbuje tworzyć kolejne „przełomowe” innowacje, by zdobyć sławę i miliardy, przy okazji generując nowe strumienie problemów. Tak widzę główne zagrożenie przyniesione przez rewolucję cyfrową, której AI jest – oby nie cierniowym – ukoronowaniem. Już dawno wypowiedziano tezę, że jak ruszy superinteligencja, to będzie to ostatni wynalazek człowieka.

Przyzna Pan Profesor, że to ponura, dramatyczna wizja...

To jeszcze dopowiem. W ostatnich kilkunastu latach zbliżają się do siebie dwie krzywe. Jedna z nich pokazuje proces zwiększania się sprawności wykonywania zadań przez AI. Krzywa idzie wyraźnie pod górę, choć wcześniej miała przestoje. Druga krzywa, wyznaczona przez rewolucję cyfrową, a zwłaszcza media społecznościowe, obrazuje degradację poznawczą człowieka. Te krzywe jeszcze się nie spotkały, ale gdy do tego dojdzie, to będzie po nas. Może sztuczna inteligencja nas nie zlikwiduje, ale najpewniej utracimy kontrolę nad swoją cywilizacją. Żadna dyskusja o wartościach, na bazie których warto świat zmieniać, nie będzie miała sensu, bo to nie my będziemy dysponować kluczowymi zasobami.

Zdjęcie na okładce zostało wygenerowane przez sztuczną inteligencję

Prof. Andrzej Zybertowicz socjolog z Uniwersytetu Mikołaja Kopernika w Toruniu, kierownik Ośrodka Studiów nad Wyzwaniami Cywilizacyjnymi Akademii Sztuki Wojennej, doradca prezydenta RP i szefa Biura Bezpieczeństwa Narodowego.

2023-06-26 16:09

Ocena: +7 0

Reklama

Wybrane dla Ciebie

Warszawa: „Czy sztuczna inteligencja może pomóc w głoszeniu Słowa Bożego?”

[ TEMATY ]

sztuczna inteligencja

Adobe Stock

„Czy sztuczna inteligencja może pomóc w głoszeniu Słowa Bożego?” - odpowiedzi na to pytanie szukali uczestnicy konferencji zorganizowanej w poniedziałek w Sekretariacie Konferencji Episkopatu Polski. - Nigdy sztuczna inteligencja nie zastąpi człowieka, ale może być pomocna - mówiła teolog z UKSW dr hab. Monika Marta Przybysz. Wśród prelegentów byli także ks. dr hab. Marcin Kowalski z KUL i dominikanin o. Paweł Kozacki. Punktem wyjścia spotkania było wydanie Nowego Testamentu z infografikami, które ukazało się nakładem Wydawnictwa Świętego Wojciecha. - To wydanie Pisma Świętego ma ogromną szansę przemówić do współczesnego człowieka - przekonywał ks. Kowalski. Spotkanie odbyło się na kanwie rozpoczętego w niedzielę Tygodnia Biblijnego.

Konferencję zorganizowało wydawnictwo „Święty Wojciech Dom Medialny”. Spotkanie poprowadził Tomasz Królak, wiceprezes Katolickiej Agencji Informacyjnej.
CZYTAJ DALEJ

Tatry: W górach zagrożenie lawinowe pierwszego stopnia

2024-11-21 10:24

[ TEMATY ]

Góry

Tatry

lawiny

śnieg

Karol Porwich/Niedziela

Ratownicy TOPR ogłosili w czwartek, po raz pierwszy w tym sezonie, pierwszy stopień zagrożenia lawinowego. Najniższy stopień zagrożenia obowiązuje w Tatrach od wysokości 1800 m n.p.m. – ogłosili ratownicy z Zakopanego. Możliwe jest samoistne schodzenie małych i średnich lawin.

"Pokrywa śnieżna jest na ogół dobrze związana i stabilna. Wyzwolenie lawiny jest na ogół możliwe jedynie przy dużym obciążeniu dodatkowym, w nielicznych miejscach, na bardzo stromych lub ekstremalnych stokach. Możliwe jest samoistne schodzenie małych i średnich lawin" – czytamy w komunikacie ratowników TOPR.
CZYTAJ DALEJ

Abp Budzik: sztuczna inteligencja jest wielkim wyzwaniem

2024-11-21 18:41

[ TEMATY ]

abp Stanisław Budzik

sztuczna inteligencja

ks. Paweł Rytel-Andrianik/Vatican News

Abp Stanisław Budzik i bp Marian Florczyk w Watykanie

Abp Stanisław Budzik i bp Marian Florczyk w Watykanie

O tym, że internet jest „kontynentem”, który trzeba ewangelizować, oraz nowych technologiach, mogących pomóc w wychowaniu i edukacji, mówił abp Stanisław Budzik w rozmowie z Radiem Watykańskim - Vatican News. Metropolita lubelski i Wielki Kanclerz Katolickiego Uniwersytetu Lubelskiego Jana Pawła II wraz z bp. Marianem Florczykiem podsumowali audiencję u Papieża, która była zwieńczeniem zebrania plenarnego Dykasterii ds. Kultury i Edukacji.

Bogactwo nadziei
CZYTAJ DALEJ
Przejdź teraz
REKLAMA: Artykuł wyświetli się za 15 sekund

Reklama

Najczęściej czytane

W związku z tym, iż od dnia 25 maja 2018 roku obowiązuje Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia Dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych) uprzejmie Państwa informujemy, iż nasza organizacja, mając szczególnie na względzie bezpieczeństwo danych osobowych, które przetwarza, wdrożyła System Zarządzania Bezpieczeństwem Informacji w rozumieniu odpowiednich polityk ochrony danych (zgodnie z art. 24 ust. 2 przedmiotowego rozporządzenia ogólnego). W celu dochowania należytej staranności w kontekście ochrony danych osobowych, Zarząd Instytutu NIEDZIELA wyznaczył w organizacji Inspektora Ochrony Danych.
Więcej o polityce prywatności czytaj TUTAJ.

Akceptuję