Kiedy biorę dziś do ręki książkę czy publikację naukową, to mogę nie zgodzić się z jej treścią, ale na okładce mam nazwisko autora, a na stronie redakcyjnej: informację, kto tę publikację zrecenzował. Chciałbym jednak wiedzieć np. też to, kto będzie tworzył sztuczną inteligencję w największych narzędziach chińskich, kto za to odpowiada u Elona Maska, w Google czy Yahoo. Nie chodzi o nazwisko tej osoby, lecz o to, kim ona jest wewnętrznie, jakie ma kompetencje moralne, do czego zmierza i jakie są jej idee” – mówi portalowi wPolityce.pl prof. Mariusz Jędrzejko, wykładowca Akademii Piotrkowskiej, pedagog, socjolog, terapeuta uzależnień.
wPolityce.pl: Nowe technologie to zarówno ułatwienie życia, jak i pewne niebezpieczeństwa. A co ze sztuczną inteligencją, której możliwości chyba do końca wciąż nie znamy i nadal się obawiamy? Jakie niesie za sobą zagrożenia?
Prof. Mariusz Jędrzejko: Wiemy już od dawien dawna, że gdy pojawiają się wielkie, nowe procesy, to wymagają regulacji prawnych. Nie dlatego, że trzeba wszystko prawem ogarnąć, ale to, co kluczowe, powinno być ogarnięte. Sztuczna inteligencja jest przestrzenią nieuregulowaną prawnie, co w sposób automatyczny tworzy pole do nadużyć.
0d ok. 30-35 lat mamy do czynienia z ogromną presją cybertechnologii. Od czasu, gdy w 2007 r. Apple wprowadził pierwszego smartfona, dostaliśmy do rąk niezwykłe urządzenie. Ale okazuje się, że ponieważ nie uregulowaliśmy wielu rzeczy związanych z tymi nowymi urządzeniami, to mamy dziś poważny problem. Na przykład z Tik-Tokiem, który zdaje się być narzędziem infiltrującym człowieka. Mamy problem z pojawieniem się nowej jednostki chorobowej – cyber addiction, zaburzenia związane z nadużywaniem technologii cyfrowych. Ale to wszystko to tylko kropla w morzu tego, z czym możemy mieć do czynienia jeśli chodzi o technologie cyfrowe.
Po pierwsze: sztuczna inteligencja będzie mieć odniesienie nie tylko do indywidualnych odbiorców, a nawet nie tylko do grup społecznych czy instytucji zawodowych, ale prawdopodobnie stanie się ona największym polem geopolitycznej konfrontacji pomiędzy największymi graczami współczesnego świata.
I ta wielka gra jest już rozpoczęta i widoczna. Pierwszym przykładem może być ogromny rozwój wojsk cyberwojny na terenie Rosji, ale również miliardowe nakłady Chin na tworzenie konfrontacji cyberprzestrzennej. Odpowiedzią w naszym kręgu cywilizacyjnym jest oczywiście to, co robi Wielka Brytania, Stany Zjednoczone, a w Polsce – powołanie nowego rodzaju Sił Zbrojnych, do walki w cyberprzestrzeni. I narzędzia sztucznej inteligencji będą głównym elementem.
Sztuczna inteligencja opiera się wyłącznie na zasobach, które wprowadzi do niej człowiek. W tym ogromną ilość danych osobowych. Nad tymi danymi osobowymi zresztą dawno już straciliśmy kontrolę, ponieważ otwarcie niemalże każdej strony internetowej wiąże się z pytaniami o „ciasteczka”. Jeśli ich nie zatwierdzimy, nie mamy dostępu do zawartych tam informacji. Udzielając tych ciasteczek, nie czytamy, co się z tym wiąże – czyli godzimy się na to, aby stać się osobami „publicznymi” – różne narzędzia nowoczesnych technologii mogą wpływać poprzez obserwowanie na nasze życie, na przykład podpowiadając nam różne rzeczy.
I ułatwiając czy utrudniając nasze życie codzienne?
Proszę wyobrazić sobie, że sztuczna inteligencja dostanie od stołecznego MPWiK zadanie optymalizacji zużycia wody w Warszawie, a od zakładu energetycznego- podpowiedzi, jak zaoszczędzić na oświetleniu w stolicy, aby miasto ponosiło jak najmniejsze koszty. Ona rzeczywiście to zrobi, ponieważ będzie posługiwała się nieporównywalnie większą liczbą algorytmów niż jest w stanie zrobić to człowiek.
Powiedzmy, że da miastu oszczędność 1-2 proc. Będziemy szczęśliwi, bo oszczędzamy środki samorządowe czy środki publiczne. Ale sztuczna inteligencja, również na podstawie tych swoich algorytmów, będzie zarządzała sferami bezpieczeństwa.
A co zrobi, gdy pojawi się moment krytyczny? Na przykład nastąpi gwałtowne zwiększenie zużycia energii. Jak wówczas postąpi? Otóż, może zachować się na podstawie informacji, które zostały do niej wprowadzone i np. wyłączyć wszystkich użytkowników. Nie dysponuje bowiem żadnym kanonem moralnym, posługuje się tylko algorytmami. Sztuczna inteligencja, wykorzystując dorobek człowieka, szuka rozwiązań szybkich i skutecznych. Nie będzie jednak patrzyła na skutki swoich decyzji. Jeśli powie: wyłączamy prąd, to wyłączy go także w szpitalach, wyłączy go policji i instytucjom publicznym.
A jak wykorzystywane są gromadzone przez AI informacje?
Kiedy pojawił się czat GPT oraz inne narzędzia związane ze sztuczną inteligencją, zauważyliśmy, że dysponowanie tak ogromnymi zasobami informacyjnymi, może doprowadzić do tego, że sztuczna inteligencja wykreuje fałszywe środowisko informacyjne.
Chcąc czegoś się dowiedzieć, wpisujemy hasło w wyszukiwarkę internetową. Gdy chcę zweryfikować jakąś nową informację, która jest ważna, szukam informacji w minimum siedmiu źródłach: np. Indie, Japonia, Stany Zjednoczone, Niemcy, Szwajcaria, Warszawski Uniwersytet Medyczny czy Uniwersytet Jagielloński w Krakowie. Uzyskuję siedem niezależnych opinii. W momencie, gdy zarządzać tym będzie sztuczna inteligencja, stworzy środowisko informacyjne, z którego nie wyjdę. Ponad tym środowiskiem będą niezwykle istotne informacje weryfikujące pozytywnie lub negatywnie, ale ja tego nie osiągnę, ponieważ to ona będzie zarządzać przestrzenią informacyjną.
Obecna przestrzeń informacyjna, przy wszystkich swoich ułomnościach, jest absolutnie otwarta. Prawdziwą informację mogę znaleźć nawet jako 125., ale ją znajdę. Kiedy jednak ktoś zadecyduje, że przekazujemy AI zarządzanie informacją, to wtedy musi się pojawić pytanie, na jakich ograniczeniach ta sztuczna inteligencja działa i według jakiego algorytmu będzie to dobierała. Czy będzie otwarty, czy będzie takie ograniczenie? To jest wielkie niebezpieczeństwo i nawet szef Google mówi, że obawia się takiego rozwiązania.
A żeby sztuczna inteligencja rozwijała się, musi być przez cały czas „dokarmiana”. Trzeba będzie wprowadzać do niej kolejne, nowe dane. I podstawowym pytaniem jest, kto te dane wprowadza? Bo może to być np. osoba reprezentująca określone poglądy ideologiczne i danych informacji po prostu nie wpuści. Przykładowo: czy na portalu informacyjnym uczelni o. Tadeusza Rydzyka znajdą się informacje o środowisku LGBT przedstawione z perspektywy tego środowiska? Nie, tak samo, jak na portalu informacyjnym środowisk LGBT nie pojawi się argumentacja naukowców z KUL. I w tym momencie mogę zajrzeć na stronę KUL, mogę zajrzeć na stronę uczelni o. Rydzyka, a mogę zajrzeć też na strony LGBT. Ale gdy przejmie to sztuczna inteligencja, będą to jasno ograniczone, wręcz wybetonowane ścieżki informacyjne.
Jak sztuczna inteligencja wykorzysta podawane jej informacje, tym bardziej, że wiele z nich to takie, które określamy jako dane osobowe? Będzie starała się automatycznie sama je ściągać, a być może nawet kupowała. Dziś, gdy udzielamy jakiejś firmie prawa do zarządzania częścią naszej prywatności – np. podajemy adres zamieszkania, to sztuczna inteligencja, która będzie dysponować algorytmem poszerzania, będzie te dane pozyskiwać. Pytanie brzmi: po co? Jak miałoby to wyglądać?
Kolejnym niebezpieczeństwem jest to, że już dziś dysponujemy niesamowitymi narzędziami technologicznymi pozwalającymi przerabiać wirtualną rzeczywistość. Do takiego narzędzia możemy wprowadzić Pani czy moje zdjęcie i moja twarz może znaleźć się tego samego dnia na Dominikanie, w Afganistanie czy na wojnie na Ukrainie. Sztuczna inteligencja będzie mieć możliwości nie tylko tworzenia naszych nowych kontekstów sytuacyjnych, ale wręcz… tworzenia zupełnie nowych osób. Na podstawie informacji, które uzyska np. o 300 mężczyznach i 100 wizerunków twarzy, będzie mogła stworzyć 30 nowych osób. Nada im żywotność, a ich nieustanne przedstawianie jako naukowca, nauczyciela, dziennikarza, może wygenerować tzw. sztuczne autorytety.
Autorytety, które nie istnieją, a za którymi kryją się ogromne możliwości przekazu informacyjnego. Ci sztuczni, cyfrowi ludzie stworzeni przez AI, mogą dysponować większymi zasobami niż wszyscy pracownicy naukowi Uniwersytetu Warszawskiego. A gdy zaczną powstawać takie sztuczne autorytety, to – jak mówi prof. Zybertowicz, w czym absolutnie się z nim zgadzam – może pojawić się nawet pokusa „stworzenia” zupełnie nowych religii. Wydaje nam się dziś że chrześcijaństwo, judaizm czy islam to religie niezachwiane. To nieprawda.
Bo człowieka kreujemy poprzez przekazywanie mu informacji. Dziś już mamy widoczną pustkę aksjologiczną w młodym pokoleniu, ludzi w wieku 15-20 lat odchodzących od Kościoła czy religii. Ale oni wciąż będą potrzebować jakiegoś przekazu aksjologicznego. Dzisiaj to są celebryci, przedstawiciele różnych nurtów muzycznych, ale to na razie jest na etapie „subkulturowym”. Ale później będą potrzebować odniesienia wewnętrznego. I wówczas może się okazać, że ich wewnętrznymi procesami budowania sumienia zarządza coś albo ktoś, co nie istnieje, ale jest kierowane przez kogoś.
Kiedy biorę dziś do ręki książkę czy publikację naukową, to mogę nie zgodzić się z jej treścią, ale na okładce mam nazwisko autora, a na stronie redakcyjnej: informację, kto tę publikację zrecenzował. Chciałbym jednak wiedzieć np. też to, kto będzie tworzył sztuczną inteligencję w największych narzędziach chińskich, kto za to odpowiada u Elona Muska, w Google czy Yahoo. Nie chodzi o nazwisko tej osoby, lecz o to, kim ona jest wewnętrznie, jakie ma kompetencje moralne, do czego zmierza i jakie są jej idee.
Sztuczna inteligencja może prowadzić nie tylko do zagrożeń personalnych: człowiek dowiaduje się nagle z ogromnej liczby zdjęć czy filmików, że był gdzieś, ale w ogóle go tam nie było, co będzie powodowało dramatyczne zamieszanie, ale – w skali masowej – ludzie mogą dostawać zupełnie nowe idee.
Kolejnym zagrożeniem jest fakt, że sztuczna inteligencja, mając wprowadzone do swoich zasobów głosy nawet 900 tys. czy miliona ludzi, bardzo szybko się tych głosów nauczy. I co zrobi? Zadzwoni np. do pani Anny Kowalskiej, a pani Anna będzie przekonana, że rozmawia z własną córką czy mężem.
I ten dostęp do ludzkich głosów stwarza możliwość np. oszustw finansowych, o których wiele mówi się już dziś. Tymczasem, jak Pan wspominał, AI to sfera zupełnie nieuregulowana prawnie?
Widzimy dzisiaj, że tworzenie SI nie opiera się na żadnych ograniczeniach. Nie chodzi mi, broń Boże, o prohibicję cyfrową, lecz o to, że tworzymy sobie coś, nad czym już teraz kompletnie nie panujemy.
Nie chciałbym jednak, żeby ta rozmowa miała wydźwięk absolutnie pesymistyczny. Chodzi mi tylko o to, że tworzymy chyba największe narzędzie w historii współczesnego człowieka od powstania Internetu. Świat zmienił się najpierw, gdy pojawiła się czcionka Gutenberga. Możliwość poznawania świata za pomocą czytania zmieniła także naszą świadomość. Następnie naszą świadomość zmieniło radio, później pojawiła się telewizja i wreszcie Internet, który stworzył zupełnie nowe społeczeństwo. Ale sztuczna inteligencja to już zupełnie co innego. To pole rywalizacji między SI – ale te sztuczne inteligencje będą rywalizować ponad człowiekiem i ofiarą tej rywalizacji będzie człowiek.
Dlatego SI wymaga porozumień regulacyjnych podobnych do tych, które wytworzono, gdy pojawił się Internet.
Sztuczną inteligencję można porównać do tego, co się stało, gdy człowiek wytworzył bombę atomową. Byliśmy przerażeni tym, co się stało w Nagasaki i Hiroszimie, a później próbami termojądrowymi w USA i Rosji, ale ostatecznie udało się jakoś to opanować, jest porozumienie. I teraz powstaje pytanie, czy i w kontekście SI takie porozumienie się znajdzie.
A jest jeszcze jedna rzecz, której się obawiam: młodzi ludzie w sposób masowy korzystają z zasobów internetowych, przygotowując się do egzaminów czy pisząc prace. Bardzo często jest to takie bezwiedne czytanie niewielkich, szczątkowych, hasłowych informacji. A jeśli czyta się je 10, 20 czy 30 razy, to utrwalają się w głowie jako empiryczne fakty – a tymi faktami nie są.
Boję się, że kiedy kilkunastoletnia dziewczynka usiądzie przed swoim czatem GPT lub innym narzędziem sztucznej inteligencji i powie: „Mam 17 lat, jestem słaba z polskiego, pomóż mi napisać wypracowanie z ‘Chłopów’ Reymonta”, zapłaci określoną sumę pieniędzy i po 30 minutach dostanie opracowanie dostosowane do języka, w jakim mówiła do narzędzia SI, z określoną ilością bogactwa lub braku bogactwa słownictwa, a następnie przedłoży tę pracę nauczycielce lub nauczycielowi i uzyska zaliczenie.
Obawiam się więc nadużywania SI nie tylko na poziomie rywalizacji globalnej, ale również tego, że ona da człowiekowi sygnał: „Nic nie musisz robić, ja wszystko robię za ciebie”. A jeśli na to pozwolimy, to ona nie tylko będzie robiła wszystko za nas, ale też nami kierowała.
I jak bronić się przed tymi skutkami społecznymi, dopóki nie mamy jeszcze wypracowanych uregulowań prawnych?
Chyba identycznie, jak z wykorzystaniem nowych technologii cyfrowych i cyfrowych sieci społecznych: trzeba edukować. Rzecz w tym, że jest taka społeczna maniera: „Ja się sam wyedukuję”. Mówiąc po góralsku: „G… prawda, sam się nie wyedukujesz”.
Jedyne, co możemy zrobić, to uruchamiać metodę kuli śnieżnej. Prowadzę prywatny ośrodek, w którym leczę dzieci z cyberzaburzeniami. Wcześniej, gdy ktoś poszukiwał u nas pomocy dla dziecka, czas oczekiwania wynosił ok. 3 miesięcy. W tej chwili czas oczekiwania jest do lipca-sierpnia przyszłego roku. Nie mamy jak leczyć dzieci z zaburzeniami. Jeśli już w tym momencie tak jest, to możliwości wpływu SI na formatowanie osobowości człowieka będą przerażająco wielkie. Tym bardziej, że do niej zostaną wprowadzone również testy psychologiczne, zasoby wiedzy wielu psychologów, psychiatrów, pedagogów. Ona rozpozna po swojemu to, co wydobędzie z umysłów setek specjalistów w danej dziedzinie i zaproponuje rozwiązania. Ale te rozwiązania wcale nie muszą być prawdziwe. Sztuczna inteligencja dalej będzie bowiem posługiwała się swoim schematem.
To, czego nie będzie wiedziała sztuczna inteligencja, to naturalne zachowania człowieka. Gdy włączymy kamerę, to na podstawie wiedzy psychiatrycznej będzie mogła, chociażby po ruchach gałki ocznej, rozpoznać stan emocjonalny człowieka. Być może, przy nowych urządzeniach, będzie mogła rozpoznać temperaturę ciała czy napięcia mięśniowe, ale to będzie wciąż za mało. Zagrożeniem będzie to, że stanie się ona zbiorowym lekarzem i zbiorowym nauczycielem człowieka. Stanie się sublimacją wiedzy zbiorowej, ale nie ma żadnego dowodu, że ta wiedza pchnie człowieka do przodu, będzie to raczej wielkie, zbiorowe manipulowanie człowiekiem.
Bardzo dziękuję za rozmowę.
Publikacja dostępna na stronie: https://wpolityce.pl/spoleczenstwo/675675-jedrzejkoczy-sztuczna-inteligencja-stworzy-nowa-religie