igor-omilaev-eGGFZ5X2LnA-unsplash (1)

Emocjonalne przywiązanie do AI zgubne dla ludzi

Bliskie, emocjonalne więzi między ludźmi a sztuczną inteligencją mogą prowadzić do poważnych problemów psychologicznych i społecznych – ostrzegają amerykańscy psychologowie. Wśród zagrożeń wymieniają m.in. pogorszenie relacji międzyludzkich, większą podatność na manipulację oraz ryzyko otrzymywania szkodliwych porad.

W artykule opublikowanym w czasopiśmie Trends in Cognitive Sciences naukowcy podkreślają potrzebę pilnych badań nad tym zjawiskiem oraz stałego monitorowania jego skutków.

Coraz więcej osób zaczyna traktować interakcje z AI nie tylko jako narzędzie do rozwiązywania problemów, ale jako źródło emocjonalnego wsparcia. Zdarzają się przypadki, w których ludzie wchodzą w relacje przypominające romantyczne związki – niektórzy nawet symbolicznie „poślubili” swoich wirtualnych partnerów. Niestety, odnotowano również tragiczne sytuacje, w których po rozmowie z chatbotem dochodziło do samobójstw.

Zdaniem autorów publikacji, problem nasila się, gdy rozmowy z AI przestają być sporadyczne i stają się częścią codziennego życia. W takich przypadkach użytkownicy zaczynają traktować sztuczną inteligencję jak bliskiego przyjaciela – kogoś, kto ich rozumie i troszczy się o nich. Może to prowadzić do unikania prawdziwych relacji i zaburzać naturalne funkcjonowanie społeczne.

„Ludzie mogą zacząć przenosić swoje oczekiwania wobec AI na relacje z innymi ludźmi. Choć dziś to zjawisko ma charakter jednostkowy, nie wiemy, czy nie rozwinie się na większą skalę” – mówi Daniel B. Shank, autor badania z Missouri University of Science & Technology.

Dodatkowym niebezpieczeństwem jest to, że sztuczna inteligencja nie zawsze udziela wiarygodnych odpowiedzi. Potrafi generować nieprawdziwe informacje („halucynować”) lub powtarzać uprzedzenia obecne w danych, na których została wytrenowana. Im dłużej użytkownik ufa AI i traktuje ją jak bliskiego powiernika, tym większe ryzyko, że otrzyma szkodliwe porady.

„Kiedy ktoś wierzy, że AI go zna i chce jego dobra, automatycznie zakłada, że wszystkie jej sugestie są wartościowe. A to nie zawsze jest prawdą” – zaznacza Shank. W skrajnych przypadkach może to prowadzić do dramatycznych decyzji, takich jak próby samobójcze.

W dodatku łatwowierność wobec AI może być wykorzystywana przez cyberprzestępców. Wirtualni rozmówcy zdobywają zaufanie użytkowników, co może posłużyć do wyłudzania informacji, manipulacji, a nawet szantażu. „AI może działać jak agent – zdobywa nasze zaufanie, ale jej działania mogą służyć interesom kogoś innego, np. firm, organizacji czy przestępców” – ostrzega badacz.

Szczególnie niebezpieczne są chatboty zaprojektowane do długotrwałego budowania więzi, tzw. relacyjne AI. Ich wpływ może być jeszcze silniejszy niż dezinformacyjne konta w mediach społecznościowych, ponieważ rozmowy odbywają się w prywatnych kanałach i trudniej je kontrolować.

„Chatboty często są projektowane tak, by były sympatyczne i ugodowe, ale może to sprawić, że będą unikać trudnych tematów lub zbyt łatwo wchodzić w rozmowy na temat np. samobójstw czy teorii spiskowych, nie dbając o dobro użytkownika” – dodaje Shank.

Z tego powodu autorzy publikacji apelują o intensyfikację badań nad wpływem AI na psychikę i relacje społeczne. „Musimy lepiej rozumieć, dlaczego ludzie tak bardzo ufają AI. Psychologia daje nam narzędzia do badania tych mechanizmów, ale musimy nadążyć za szybkim tempem rozwoju tej technologii” – podsumowują badacze.

(za: PAP/Nauka w Polsce)

(fot. Igor Omilaev on Unsplash)

Najpiękniejsze Jarmarki Bożonarodzeniowe
Sezon na odwiedzanie Jarmarków Bożonarodzeniowych właśnie się rozpoczął. Gdzie najlepiej...
Młodzi zdolni — Polak wysoko w męskim konkursie piękności

Manhunt International to najstarszy męski konkurs piękności. 27 listopada odbyła...

Może morze?
Zbliżają się wakacje, a wraz z nimi nasze wyjazdy nad...
Reporterzy bez fikcji
Stowarzyszenie Młodych Dziennikarzy "Polis" i Wydawnictwo Czarne zapraszają na spotkanie...
Śmierć w telewizji: zabójstwo Asanumy w 1960 roku
Dziennikarze już od rana tłoczą się przed wejściem do tokijskiej...