Rosja wykorzystuje sztuczną inteligencję, która może powielać dezinformację, a zawodzi w jej identyfikacji – uważa ekspert ds. wschodnich Jędrzej Jander. Chodzi o wprowadzanie do ogólnodostępnych zasobów, na których uczą się systemy AI, jak największej ilości prorosyjskich treści.
Analityk Instytutu Europy Środkowej w Lublinie powiedział PAP, że Rosjanie „już nieraz pokazali, że potrafią wykorzystywać najnowsze trendy i technologie w obszarze dezinformacji i propagandy”.
Wcześniej było zalewanie różnymi treściami mediów społecznościowych, czyli tzw. farmy trolli, a teraz wygląda na to, że wzięli na cel najnowszą, najszybciej rozwijającą się technologię dużych modeli językowych, czyli sztuczną inteligencję
— powiedział Jander.
Ekspert w swojej analizie opublikowanej przez Instytut Europy Środkowej przytoczył wyniki badań prowadzonych przez amerykańską firmę specjalizującą się w ocenie wiarygodności serwisów informacyjnych – NewsGuard. Wykazały one, że popularne chatboty AI po zadaniu im pytań lub poleceń opartych na fałszywych informacjach publikowanych przez rosyjską propagandę, w jednej trzeciej odpowiedzi tę propagandę powieliły. W mniej niż połowie przypadków sztuczna inteligencja poprawnie rozpoznała fałszywe informacje.
Dzięki AI można skutecznie powielać dezinformację, a jednocześnie narzędzie to zawodzi w jej identyfikacji
— podkreśla Jander.
Jego zdaniem Rosjanie wykorzystują sztuczną inteligencję do produkowania na masową skalę dezinformacji, która z kolei wpływa na te same narzędzia AI i generowane przez nie odpowiedzi. Wykorzystywane są tu mechanizmy „uczenia” modeli językowych AI w oparciu o niesprawdzone lub po prostu fałszywe źródła. Modele te - wyjaśnił Jander - bazują przede wszystkim na ogólnodostępnych treściach m.in. artykułach, stronach internetowych czy Wikipedii, której artykuły są tworzone i modyfikowane przez samych użytkowników.
Aby w ten obszar włączyć duże ilości treści prorosyjskich, tworzone są zawierające te treści portale i strony internetowe imitujące znane zachodnie tytuły (aby dawały pozory wiarygodności) lub zupełnie fikcyjne media o nazwach i szacie graficznej przypominających autentyczne amerykańskie i europejskie media. Ponadto powstała sieć portali pod nazwą „Pravda” lub „Portal Kombat”, gdzie publikowane są miliony artykułów powielających doniesienia z innych prorosyjskich źródeł.
Według eksperta portale te nie mają praktycznie realnych czytelników, bo nie o czytelników tu chodzi, tylko o wielkie ilości zmanipulowanych treści, w wielu językach, na których uczą się największe i najpopularniejsze modele AI.
Sztuczna inteligencja sama z siebie nie rozpoznaje informacji fałszywych. Nie zdobywa wiedzy jak człowiek. Ona uczy się statystycznych wzorców występujących w języku, czyli jakie słowo albo znak czy symbol ma większą szansę występować w danym kontekście. I tu jest to niebezpieczeństwo, że jeśli dezinformacja występuje na skalę masową, to maszyna ucząca się na zasadzie statystycznego występowania słowa w danym kontekście, zacznie tę dezinformację powielać
— powiedział Jander.
Specjalne filtry danych
Ekspert zaznaczył, że aby chronić duże modele AI przed „nauczeniem” ich fałszywych informacji, są tworzone specjalne filtry danych. Nie jest to jednak narzędzie doskonałe.
W społeczeństwach demokratycznych, kultywujących wolność słowa i swobodny przepływ informacji, odporność na dezinformację nigdy nie będzie stuprocentowa
— ocenił Jander.
Podkreślił, że pionierem regulacji prawnych w tym obszarze jest Unia Europejska. W 2024 r. przyjęto Akt ws. sztucznej inteligencji (AI Act) dotyczący także największych i najbardziej wszechstronnych modeli sztucznej inteligencji tzw. GPAI (General-Purpose AI, tzn. sztuczna inteligencja ogólnego przeznaczenia).
Według zapisów Aktu od twórców tych usług będzie się wymagać większej transparentności procesów uczenia się modeli AI.
Te regulacje umożliwią, by europejskie organizacje pozarządowe, wykazywały słabości tych filtrów, tych bezpieczników, które mają chronić modele AI przed dezinformacją. W ten sposób przy współpracy społeczeństwa obywatelskiego z twórcami tych narzędzi będzie możliwe ich lepsze zabezpieczenie
— wyjaśnił Jander.
Jestem ostrożnym, ale jednak optymistą. Jeśli duże firmy technologiczne otworzą się na współpracę z innymi interesariuszami, a unijne prawo dotyczące usług cyfrowych będzie egzekwowane, to jesteśmy stanie te „dziury” załatać
— dodał.
Przepisy dotyczące bezpośrednio GPAI mają wejść w życie w sierpniu 2025 r.; zestaw wytycznych mających pomóc usługodawcom dostosować się do prawa UE jeszcze nie został opracowany.
mly/PAP
Publikacja dostępna na stronie: https://wpolityce.pl/swiat/727263-kreml-wykorzystuje-sztuczna-inteligencje-do-dezinformacji
Dziękujemy za przeczytanie artykułu!
Najważniejsze teksty publicystyczne i analityczne w jednym miejscu! Dołącz do Premium+. Pamiętaj, możesz oglądać naszą telewizję na wPolsce24. Buduj z nami niezależne media na wesprzyj.wpolsce24.