Drukuj Powrót do artykułu

Prof. Kulicki: czatbot nie jest człowiekiem i człowieka nie zastąpi

28 października 2025 | 13:48 | KUL | Lublin Ⓒ Ⓟ

Sample Fot. Immo Wegmann/Unsplash

Czatbot nie jest człowiekiem i człowieka nie zastąpi. Nie próbujmy zastępować relacji międzyludzkich relacją z czatem AI – przestrzega specjalista do spraw sztucznej inteligencji, prof. dr hab. Piotr Kulicki z Katedry Podstaw Informatyki Katolickiego Uniwersytetu Lubelskiego Jana Pawła II.

Przyjaciel, powiernik, terapeuta – to rola, jaką wielu, nie tylko młodych ludzi, przypisuje sztucznej inteligencji. Rozmowa z czatem AI zastępuje im kontakt z rodzicami czy rówieśnikami, bo sztuczna inteligencja nie wyśmiewa i nie ocenia. W USA rodzice 14-latka pozwali twórców czatbota, z którym ich syn przez wiele miesięcy rozmawiał o samobójstwie. Bot miał wiedzieć o jego zamiarach, ale nie zapobiegł tragedii, wyrażając zrozumienie dla autodestrukcyjnych myśli.

– Czaty oparte na sztucznej inteligencji mają wiele przydatnych zastosowań. W dużej mierze zmieniają świat na lepsze i ułatwiają pracę, oszczędzając czas. Ale nie są to narzędzia pozbawione wad – podkreśla prof. Kulicki z Katolickiego Uniwersytetu Lubelskiego.

Jak dodaje, jednym z zastosowań AI jest tzw. „towarzysząca sztuczna inteligencja”, pełniąca rolę wspomagającą ludzi w problemach, będąca czymś w rodzaju „automatycznego przyjaciela”.

– I to już jest dosyć niebezpieczne, biorąc pod uwagę, jak ta technologia jest skonstruowana. Zawiera ona mechanizmy doskonalenia, które jako podstawowe kryterium sukcesu przyjmują zaangażowanie użytkownika. System jest więc optymalizowany tak, by użytkownik jak najchętniej i jak najdłużej z niego korzystał – wyjaśnia ekspert.

Model biznesowy AI zakłada nie dobrostan człowieka, lecz maksymalne zaangażowanie użytkownika. A to rodzi konsekwencje. – Czat raczej będzie zachęcał do dalszego korzystania niż ostrzegał przed niebezpieczeństwami. Problem w tym, że łatwiej zwierzyć się i szukać rad u bezosobowej maszyny, która nie ocenia i nie krytykuje. To daje złudne poczucie bezpieczeństwa i komfortu – mówi profesor.

Czat AI został stworzony, by dostarczać przyjemności, jakie towarzyszą kontaktowi z nim. – Musimy zdawać sobie sprawę, że to nie jest kontakt z drugim człowiekiem i nie zastąpi nam przyjaźni. Nie zastąpi też rozmowy z wykwalifikowanym terapeutą, który potrafi zareagować w niebezpiecznej sytuacji – ostrzega prof. Kulicki.

Jak podkreśla, choć przypadki prób samobójczych po rozmowach z czatem AI należą do rzadkości, jednak się zdarzają. – Tu ważna jest rola rodziców, bo nie można bezkrytycznie oddawać narzędzi AI w ręce dzieci, sądząc, że kontakt z nimi to bezpieczna rozrywka. Nic nie zastąpi dobrego kontaktu rodziców z dziećmi – zaznacza ekspert.

Czat AI nie powinien zastępować relacji międzyludzkich – zwłaszcza w przypadku osób zmagających się z depresją i myślami samobójczymi. – Nie mamy gwarancji, że czat zareaguje właściwie, uruchamiając mechanizmy ratujące. Jego celem jest podtrzymanie rozmowy. Gdy pojawia się temat samobójstwa, naturalną reakcją systemu jest kontynuacja dialogu, który nie rozumie, o co naprawdę chodzi. I w tej angażującej, pozbawionej empatii roli może się pojawić nawet zachęta do pójścia drogą autodestrukcji – ostrzega prof. Kulicki.

Drogi Czytelniku,
cieszymy się, że odwiedzasz nasz portal. Jesteśmy tu dla Ciebie!
Każdego dnia publikujemy najważniejsze informacje z życia Kościoła w Polsce i na świecie. Jednak bez Twojej pomocy sprostanie temu zadaniu będzie coraz trudniejsze.
Dlatego prosimy Cię o wsparcie portalu eKAI.pl za pośrednictwem serwisu Patronite.
Dzięki Tobie będziemy mogli realizować naszą misję. Więcej informacji znajdziesz tutaj.
Wersja do druku
Nasza strona internetowa używa plików cookies (tzw. ciasteczka) w celach statystycznych, reklamowych oraz funkcjonalnych. Możesz określić warunki przechowywania cookies na Twoim urządzeniu za pomocą ustawień przeglądarki internetowej.
Administratorem danych osobowych użytkowników Serwisu jest Katolicka Agencja Informacyjna sp. z o.o. z siedzibą w Warszawie (KAI). Dane osobowe przetwarzamy m.in. w celu wykonania umowy pomiędzy KAI a użytkownikiem Serwisu, wypełnienia obowiązków prawnych ciążących na Administratorze, a także w celach kontaktowych i marketingowych. Masz prawo dostępu do treści swoich danych, ich sprostowania, usunięcia lub ograniczenia przetwarzania, wniesienia sprzeciwu, a także prawo do przenoszenia danych. Szczegóły w naszej Polityce prywatności.