igor-omilaev-eGGFZ5X2LnA-unsplash (1)

Emocjonalne przywiązanie do AI zgubne dla ludzi

Bliskie, emocjonalne więzi między ludźmi a sztuczną inteligencją mogą prowadzić do poważnych problemów psychologicznych i społecznych – ostrzegają amerykańscy psychologowie. Wśród zagrożeń wymieniają m.in. pogorszenie relacji międzyludzkich, większą podatność na manipulację oraz ryzyko otrzymywania szkodliwych porad.

W artykule opublikowanym w czasopiśmie Trends in Cognitive Sciences naukowcy podkreślają potrzebę pilnych badań nad tym zjawiskiem oraz stałego monitorowania jego skutków.

Coraz więcej osób zaczyna traktować interakcje z AI nie tylko jako narzędzie do rozwiązywania problemów, ale jako źródło emocjonalnego wsparcia. Zdarzają się przypadki, w których ludzie wchodzą w relacje przypominające romantyczne związki – niektórzy nawet symbolicznie „poślubili” swoich wirtualnych partnerów. Niestety, odnotowano również tragiczne sytuacje, w których po rozmowie z chatbotem dochodziło do samobójstw.

Zdaniem autorów publikacji, problem nasila się, gdy rozmowy z AI przestają być sporadyczne i stają się częścią codziennego życia. W takich przypadkach użytkownicy zaczynają traktować sztuczną inteligencję jak bliskiego przyjaciela – kogoś, kto ich rozumie i troszczy się o nich. Może to prowadzić do unikania prawdziwych relacji i zaburzać naturalne funkcjonowanie społeczne.

„Ludzie mogą zacząć przenosić swoje oczekiwania wobec AI na relacje z innymi ludźmi. Choć dziś to zjawisko ma charakter jednostkowy, nie wiemy, czy nie rozwinie się na większą skalę” – mówi Daniel B. Shank, autor badania z Missouri University of Science & Technology.

Dodatkowym niebezpieczeństwem jest to, że sztuczna inteligencja nie zawsze udziela wiarygodnych odpowiedzi. Potrafi generować nieprawdziwe informacje („halucynować”) lub powtarzać uprzedzenia obecne w danych, na których została wytrenowana. Im dłużej użytkownik ufa AI i traktuje ją jak bliskiego powiernika, tym większe ryzyko, że otrzyma szkodliwe porady.

„Kiedy ktoś wierzy, że AI go zna i chce jego dobra, automatycznie zakłada, że wszystkie jej sugestie są wartościowe. A to nie zawsze jest prawdą” – zaznacza Shank. W skrajnych przypadkach może to prowadzić do dramatycznych decyzji, takich jak próby samobójcze.

W dodatku łatwowierność wobec AI może być wykorzystywana przez cyberprzestępców. Wirtualni rozmówcy zdobywają zaufanie użytkowników, co może posłużyć do wyłudzania informacji, manipulacji, a nawet szantażu. „AI może działać jak agent – zdobywa nasze zaufanie, ale jej działania mogą służyć interesom kogoś innego, np. firm, organizacji czy przestępców” – ostrzega badacz.

Szczególnie niebezpieczne są chatboty zaprojektowane do długotrwałego budowania więzi, tzw. relacyjne AI. Ich wpływ może być jeszcze silniejszy niż dezinformacyjne konta w mediach społecznościowych, ponieważ rozmowy odbywają się w prywatnych kanałach i trudniej je kontrolować.

„Chatboty często są projektowane tak, by były sympatyczne i ugodowe, ale może to sprawić, że będą unikać trudnych tematów lub zbyt łatwo wchodzić w rozmowy na temat np. samobójstw czy teorii spiskowych, nie dbając o dobro użytkownika” – dodaje Shank.

Z tego powodu autorzy publikacji apelują o intensyfikację badań nad wpływem AI na psychikę i relacje społeczne. „Musimy lepiej rozumieć, dlaczego ludzie tak bardzo ufają AI. Psychologia daje nam narzędzia do badania tych mechanizmów, ale musimy nadążyć za szybkim tempem rozwoju tej technologii” – podsumowują badacze.

(za: PAP/Nauka w Polsce)

(fot. Igor Omilaev on Unsplash)

Najpiękniejsze Jarmarki Bożonarodzeniowe
Sezon na odwiedzanie Jarmarków Bożonarodzeniowych właśnie się rozpoczął. Gdzie najlepiej...
Dekada Newsweeka
Tygodnik Newsweek jest na polskim rynku od dziesięciu lat. Dziś...
Naukowe Mam Talent
Centrum Nauki Kopernik szuka naukowego idola. W półfinale konkursu FameLab...
29. Warszawski Festiwal Filmowy
Odkąd Warszawski Festiwal Filmowy 4 lata temu został zaliczony do...
Taniec zanurzony w historii
Taniec w trzech perspektywach to motyw przewodni tegorocznej edycji festiwalu...