Bliskie, emocjonalne więzi między ludźmi a sztuczną inteligencją mogą prowadzić do poważnych problemów psychologicznych i społecznych – ostrzegają amerykańscy psychologowie. Wśród zagrożeń wymieniają m.in. pogorszenie relacji międzyludzkich, większą podatność na manipulację oraz ryzyko otrzymywania szkodliwych porad.
W artykule opublikowanym w czasopiśmie Trends in Cognitive Sciences naukowcy podkreślają potrzebę pilnych badań nad tym zjawiskiem oraz stałego monitorowania jego skutków.
Coraz więcej osób zaczyna traktować interakcje z AI nie tylko jako narzędzie do rozwiązywania problemów, ale jako źródło emocjonalnego wsparcia. Zdarzają się przypadki, w których ludzie wchodzą w relacje przypominające romantyczne związki – niektórzy nawet symbolicznie „poślubili” swoich wirtualnych partnerów. Niestety, odnotowano również tragiczne sytuacje, w których po rozmowie z chatbotem dochodziło do samobójstw.
Zdaniem autorów publikacji, problem nasila się, gdy rozmowy z AI przestają być sporadyczne i stają się częścią codziennego życia. W takich przypadkach użytkownicy zaczynają traktować sztuczną inteligencję jak bliskiego przyjaciela – kogoś, kto ich rozumie i troszczy się o nich. Może to prowadzić do unikania prawdziwych relacji i zaburzać naturalne funkcjonowanie społeczne.
„Ludzie mogą zacząć przenosić swoje oczekiwania wobec AI na relacje z innymi ludźmi. Choć dziś to zjawisko ma charakter jednostkowy, nie wiemy, czy nie rozwinie się na większą skalę” – mówi Daniel B. Shank, autor badania z Missouri University of Science & Technology.
Dodatkowym niebezpieczeństwem jest to, że sztuczna inteligencja nie zawsze udziela wiarygodnych odpowiedzi. Potrafi generować nieprawdziwe informacje („halucynować”) lub powtarzać uprzedzenia obecne w danych, na których została wytrenowana. Im dłużej użytkownik ufa AI i traktuje ją jak bliskiego powiernika, tym większe ryzyko, że otrzyma szkodliwe porady.
„Kiedy ktoś wierzy, że AI go zna i chce jego dobra, automatycznie zakłada, że wszystkie jej sugestie są wartościowe. A to nie zawsze jest prawdą” – zaznacza Shank. W skrajnych przypadkach może to prowadzić do dramatycznych decyzji, takich jak próby samobójcze.
W dodatku łatwowierność wobec AI może być wykorzystywana przez cyberprzestępców. Wirtualni rozmówcy zdobywają zaufanie użytkowników, co może posłużyć do wyłudzania informacji, manipulacji, a nawet szantażu. „AI może działać jak agent – zdobywa nasze zaufanie, ale jej działania mogą służyć interesom kogoś innego, np. firm, organizacji czy przestępców” – ostrzega badacz.
Szczególnie niebezpieczne są chatboty zaprojektowane do długotrwałego budowania więzi, tzw. relacyjne AI. Ich wpływ może być jeszcze silniejszy niż dezinformacyjne konta w mediach społecznościowych, ponieważ rozmowy odbywają się w prywatnych kanałach i trudniej je kontrolować.
„Chatboty często są projektowane tak, by były sympatyczne i ugodowe, ale może to sprawić, że będą unikać trudnych tematów lub zbyt łatwo wchodzić w rozmowy na temat np. samobójstw czy teorii spiskowych, nie dbając o dobro użytkownika” – dodaje Shank.
Z tego powodu autorzy publikacji apelują o intensyfikację badań nad wpływem AI na psychikę i relacje społeczne. „Musimy lepiej rozumieć, dlaczego ludzie tak bardzo ufają AI. Psychologia daje nam narzędzia do badania tych mechanizmów, ale musimy nadążyć za szybkim tempem rozwoju tej technologii” – podsumowują badacze.
(za: PAP/Nauka w Polsce)
(fot. Igor Omilaev on Unsplash)