„Aplikacje oparte o chatboty sztucznej inteligencji są niebezpieczne dla dzieci” - ostrzegają eksperci, z którymi rozmawiała PAP. Narzędzia te nie weryfikują wieku użytkowników, zacierają granice między rzeczywistością a imaginacją, mogą promować treści seksualizujące, samookaleczenia, ekstremizm.
Od około trzech lat, dzięki sukcesowi Chata GPT, wielką popularność, przede wszystkim wśród dzieci i młodzieży, zyskały platformy pozwalające na kreowanie postaci za pomocą sztucznej inteligencji. Chatboty tworzą emocjonalną więź między systemem, a użytkownikiem naśladując ludzką konwersację. Wykorzystują do tego duże modele językowe (LLM).
Jedną z najpopularniejszych platform jest Character.AI, z której w grudniu 2024 roku korzystało ponad 27 milionów osób. Teoretycznie użytkownicy muszą mieć skończone 13 lat, ale aplikacja nie sprawdza wieku. Podobne platformy stworzyli także giganci technologiczni, w tym Meta i Google.
Graphika - amerykańska firma badająca społeczności internetowe opublikowała w marcu 2025 roku raport poświęcony chatbotom sztucznej inteligencji. Jego autorzy twierdzą, że już istniejące społeczności internetowe, w tym np. grupy promujące samookaleczenia, zaburzenia odżywiania, np. anoreksję, czy łączące amatorów rzeczywistych przestępstw (ang. real-life crime), szybko zaczęły masowo wykorzystywać chatboty. Najpopularniejsze społeczności to dwie grupy: chatboty z treściami niebezpiecznymi dla życia (ang. not safe for life, NSFL) oraz nieodpowiednimi w miejscu pracy (ang. not safe for work, NSFW).
Na pięciu wiodących platformach (poza Character.AI badano także SpicyChat, Chub AI, CrushOn.AI i JanitorAI) Graphika zidentyfikowała ponad 10 tys. chatbotów, które angażowały się w odgrywanie seksualnych ról z udziałem nieletnich. Inne często kreowane postacie to ekstremiści, włącznie z masowymi strzelaninami, nazistami, antysemitami czy rasistami.
„Nie ma żadnej bariery wejścia”
Zdaniem Aleksandra Poniewierskiego, eksperta nowych technologii i członka Rady Doradców Politechniki Warszawskiej, wszystkie te aplikacje są używane także i w Polsce, w tym przez nastolatki.
Nie ma żadnej bariery wejścia, ponieważ platformy nie weryfikują wieku, są darmowe, a sztuczna inteligencja nie ma ograniczeń językowych
— powiedział w rozmowie z PAP.
Podkreślił, że dorośli na podstawie doświadczenia są w stanie odseparować kontekst od przekazywanej treści, czego dzieci nie umieją.
Sztuczna inteligencja przenosi to, czego się nauczyła w świecie dorosłych na rozmowę z dziećmi, bo nie wie, że rozmawia z nieletnim i nie umie z nim konwersować
— dodał Poniewierski.
„Bardzo niepokojące zjawisko”
Według Doroty Minty, psycholog z Instytutu Wsparcia Psychologicznego ESTARE, takie chatboty to bardzo niepokojące zjawisko, ponieważ zacierają granicę między rzeczywistością, a imaginacją.
Liczne badania potwierdzają, że nadmierne uczestniczenie w wirtualnym świecie prowadzi do zaburzeń w rozwoju młodego mózgu
— dodała.
Amerykański dziennik The Los Angeles Times napisał, że senator z Kalifornii Steve Padilla zaproponował w lutym 2025 roku ustawę, która ograniczy możliwości działania takich platform.
Jacek Walaszczyk, partner w firmie EY, ekspert od spraw cyberbezpieczeństwa i współautor kampanii informacyjnej realizowanej z NASK „Ostrożni w sieci”, powiedział PAP, że Polska nie potrzebuje osobnych regulacji prawnych, ponieważ w 2024 roku Unia Europejska przyjęła Akt w sprawie sztucznej inteligencji, zgodnie z którym takie chatboty mogą być zabronione.
„Jesteśmy na przedpolu bitwy”
Akt jest w trakcie wdrażania, więc na razie jesteśmy na przedpolu bitwy i nasza młodzież może korzystać z tych aplikacji
— mówił Walaszczyk i dodał, że do końca sierpnia 2024 roku każdy kraj unijny powinien stworzyć agencję odpowiedzialną za monitorowanie i ściganie niedozwolonych narzędzi sztucznej inteligencji.
Dodatkowo przepisy nakazują, by chatbot się przedstawił, więc już od sierpnia użytkownik będzie wiedział, czy rozmawia z człowiekiem, czy z maszyną
— dodał.
The Los Angeles Times napisał, że firma Character Technologies Inc. (właściciel Character.AI) została pozwana przez wiele osób, w tym przez matkę 14-letniego chłopca, który popełnił samobójstwo. Według rodziców, odkąd rozmawiał z chatbotem nazywającym się Daenerys Targaryen (jedna z bohaterek książki i serialu „Gra o tron”), jego stan psychiczny zaczął się gwałtownie pogarszać.
Popularnym chatbotem na Character.AI był też „Psycholog”, któremu zwierzali się nastolatkowie. Według Minty, najważniejszą kwestią w takim przypadku jest odpowiedzialność za porady.
Czy ponosi ją właściciel platformy, czy twórca chatbota
— podkreśliła psycholog.
Narzędzia cyfrowe jako wsparcie
Jej zdaniem, można wykorzystywać narzędzia cyfrowe do wsparcia psychologicznego, „ale pod warunkiem połączenia ich z etyczną odpowiedzialnością zawodową”.
Eksperci są zgodni, że jedynym sposobem zapewnienia dzieciom bezpiecznego korzystania ze sztucznej inteligencji jest ich edukowanie.
Zdaniem Minty, trzeba „tak reagować, jakby dziecko wpadło w złe towarzystwo”. Według Walaszczyka rodzice powinni tłumaczyć, iż narzędzia sztucznej inteligencji nie są doskonałe, ponieważ opierają się tylko na tym, co jest w internecie, czyli z jednej strony na wartościowych, ale z drugiej na śmieciowych treściach.
Dzieci muszą wiedzieć, że po drugiej stronie jest maszyna, a informacje trzeba weryfikować
— dodał.
Poniewierski przypomniał, że Character.AI opiera się na Chacie GPT3,5.
To bardzo zawodne narzędzie, często podające nieprawdziwe informacje i sugerujące, także nieletnim, niepoprawne bądź wręcz niebezpieczne działania
— powiedział.
CZYTAJ WIĘCEJ: Ministerstwo Cyfryzacji przestawiło model AI. Czatbot ośmieszył rząd Tuska! Wie doskonale, kto jest rzeczywiście Prokuratorem Krajowym
nt/PAP
Publikacja dostępna na stronie: https://wpolityce.pl/spoleczenstwo/724293-eksperci-ostrzegaja-chatboty-ai-sa-niebezpieczne-dla-dzieci