igor-omilaev-eGGFZ5X2LnA-unsplash (1)

Emocjonalne przywiązanie do AI zgubne dla ludzi

Bliskie, emocjonalne więzi między ludźmi a sztuczną inteligencją mogą prowadzić do poważnych problemów psychologicznych i społecznych – ostrzegają amerykańscy psychologowie. Wśród zagrożeń wymieniają m.in. pogorszenie relacji międzyludzkich, większą podatność na manipulację oraz ryzyko otrzymywania szkodliwych porad.

W artykule opublikowanym w czasopiśmie Trends in Cognitive Sciences naukowcy podkreślają potrzebę pilnych badań nad tym zjawiskiem oraz stałego monitorowania jego skutków.

Coraz więcej osób zaczyna traktować interakcje z AI nie tylko jako narzędzie do rozwiązywania problemów, ale jako źródło emocjonalnego wsparcia. Zdarzają się przypadki, w których ludzie wchodzą w relacje przypominające romantyczne związki – niektórzy nawet symbolicznie „poślubili” swoich wirtualnych partnerów. Niestety, odnotowano również tragiczne sytuacje, w których po rozmowie z chatbotem dochodziło do samobójstw.

Zdaniem autorów publikacji, problem nasila się, gdy rozmowy z AI przestają być sporadyczne i stają się częścią codziennego życia. W takich przypadkach użytkownicy zaczynają traktować sztuczną inteligencję jak bliskiego przyjaciela – kogoś, kto ich rozumie i troszczy się o nich. Może to prowadzić do unikania prawdziwych relacji i zaburzać naturalne funkcjonowanie społeczne.

„Ludzie mogą zacząć przenosić swoje oczekiwania wobec AI na relacje z innymi ludźmi. Choć dziś to zjawisko ma charakter jednostkowy, nie wiemy, czy nie rozwinie się na większą skalę” – mówi Daniel B. Shank, autor badania z Missouri University of Science & Technology.

Dodatkowym niebezpieczeństwem jest to, że sztuczna inteligencja nie zawsze udziela wiarygodnych odpowiedzi. Potrafi generować nieprawdziwe informacje („halucynować”) lub powtarzać uprzedzenia obecne w danych, na których została wytrenowana. Im dłużej użytkownik ufa AI i traktuje ją jak bliskiego powiernika, tym większe ryzyko, że otrzyma szkodliwe porady.

„Kiedy ktoś wierzy, że AI go zna i chce jego dobra, automatycznie zakłada, że wszystkie jej sugestie są wartościowe. A to nie zawsze jest prawdą” – zaznacza Shank. W skrajnych przypadkach może to prowadzić do dramatycznych decyzji, takich jak próby samobójcze.

W dodatku łatwowierność wobec AI może być wykorzystywana przez cyberprzestępców. Wirtualni rozmówcy zdobywają zaufanie użytkowników, co może posłużyć do wyłudzania informacji, manipulacji, a nawet szantażu. „AI może działać jak agent – zdobywa nasze zaufanie, ale jej działania mogą służyć interesom kogoś innego, np. firm, organizacji czy przestępców” – ostrzega badacz.

Szczególnie niebezpieczne są chatboty zaprojektowane do długotrwałego budowania więzi, tzw. relacyjne AI. Ich wpływ może być jeszcze silniejszy niż dezinformacyjne konta w mediach społecznościowych, ponieważ rozmowy odbywają się w prywatnych kanałach i trudniej je kontrolować.

„Chatboty często są projektowane tak, by były sympatyczne i ugodowe, ale może to sprawić, że będą unikać trudnych tematów lub zbyt łatwo wchodzić w rozmowy na temat np. samobójstw czy teorii spiskowych, nie dbając o dobro użytkownika” – dodaje Shank.

Z tego powodu autorzy publikacji apelują o intensyfikację badań nad wpływem AI na psychikę i relacje społeczne. „Musimy lepiej rozumieć, dlaczego ludzie tak bardzo ufają AI. Psychologia daje nam narzędzia do badania tych mechanizmów, ale musimy nadążyć za szybkim tempem rozwoju tej technologii” – podsumowują badacze.

(za: PAP/Nauka w Polsce)

(fot. Igor Omilaev on Unsplash)

Najpiękniejsze Jarmarki Bożonarodzeniowe
Sezon na odwiedzanie Jarmarków Bożonarodzeniowych właśnie się rozpoczął. Gdzie najlepiej...
Rybim okiem
Większość obiektywów stara się wytworzyć obraz, który wygląda naturalnie. Zdjęcia...
MBA, czyli Biznesowy Mount Everest
Pierwsze skojarzenie, jakie przychodzi na myśl o człowieku w drogim,...
Zobacz, jak rodzą się gwiazdy
Jak zapewnić sobie świetny humor na cały wieczór? To proste....
Dworzec w niecodziennej roli

W każdy weekend miłośnicy jedzenia będą mogli spróbować potraw z...