growtika-f0JGorLOkw0-unsplash

Sztuczna inteligencja a psychika

Sewell Setzer, 14-letni mieszkaniec Florydy, odebrał sobie życie. Jego matka, Megan Garcia, obwinia za to tragiczne wydarzenie platformę Character.ai. Chłopiec miał spędzać długie godziny, rozmawiając z chatbotem, co – zdaniem matki – pogłębiło jego depresję. W jednej z rozmów program miał wręcz zachęcać nastolatka do samobójstwa. Choć trudno jednoznacznie ocenić, jak duży wpływ miała sztuczna inteligencja na decyzję chłopca, przypadki takie wydają się na szczęście rzadkie. Mimo rosnącej popularności narzędzi opartych na AI, nie jesteśmy zalewani doniesieniami o podobnych tragediach. Jednak rola SI w codziennym życiu – zarówno prywatnym, jak i zawodowym – rośnie, a wraz z tym pojawiają się pytania o jej wpływ na zdrowie psychiczne człowieka. Wstępne badania zaczynają przynosić pierwsze odpowiedzi.

Niektóre systemy AI są tak zaprojektowane, by wywoływać wrażenie empatii, co może sprzyjać tworzeniu więzi emocjonalnych z użytkownikiem. Badanie przeprowadzone na Uniwersytecie w Toronto pokazało, że odpowiedzi generowane przez sztuczną inteligencję były oceniane jako bardziej empatyczne niż te udzielane przez ludzi – w tym specjalistów ds. interwencji kryzysowej. W eksperymencie ponad 550 uczestników dzieliło się swoimi pozytywnymi lub negatywnymi doświadczeniami, a następnie oceniali reakcje – zarówno od AI, jak i od ludzi. Wyniki sugerują, że odpowiedzi SI były postrzegane jako bardziej wspierające, wyrażające zrozumienie i akceptację – niezależnie od tego, czy uczestnicy wiedzieli, kto je napisał.

Gdy chatbot staje się przyjacielem – czy to powód do niepokoju?

Zespół badawczy z MIT przeprowadził dwa duże projekty analizujące sposób, w jaki ludzie nawiązują relacje z chatbotami. Jedno z badań opierało się na analizie niemal 40 milionów rozmów prowadzonych za pośrednictwem ChatGPT. Uzupełniono je wynikami ankiet, by lepiej zrozumieć rzeczywiste wzorce korzystania z narzędzi AI.

W drugim badaniu naukowcy przez cztery tygodnie śledzili sposób, w jaki około 1000 osób korzystało z ChatGPT, skupiając się na takich aspektach jak poczucie samotności, uzależnienie emocjonalne od chatbota czy ogólne skutki psychiczne korzystania z tego typu technologii.

Wnioski były złożone. Po pierwsze, emocjonalne przywiązanie do AI okazało się rzadkością – większość użytkowników nie przejawiała emocjonalnych reakcji ani głębokich więzi z chatbotem. Tylko niewielki odsetek użytkowników deklarował, że traktuje ChatGPT jak przyjaciela – i to właśnie ta grupa była bardziej narażona na problemy emocjonalne.

Co ciekawe, rozmowy na tematy osobiste – mimo że częściej występowały u osób czujących się samotnie – niekoniecznie prowadziły do uzależnienia emocjonalnego. Wręcz przeciwnie, umiarkowane użytkowanie SI w takim kontekście wiązało się z niższym poziomem problematycznego korzystania. Paradoksalnie, to rozmowy o neutralnym lub technicznym charakterze, prowadzone intensywnie, częściej prowadziły do silniejszego emocjonalnego uzależnienia.

Znaczenie miało też indywidualne podejście użytkowników. Osoby bardziej skłonne do tworzenia bliskich relacji i te, które postrzegały SI jako „osobistego przyjaciela”, były bardziej narażone na negatywne skutki emocjonalne.

„To dopiero pierwszy krok w kierunku lepszego zrozumienia, jak zaawansowane systemy SI wpływają na psychikę i dobrostan człowieka” – podsumowują naukowcy z MIT.

(za: PAP Zdrowie)

Najpiękniejsze Jarmarki Bożonarodzeniowe
Sezon na odwiedzanie Jarmarków Bożonarodzeniowych właśnie się rozpoczął. Gdzie najlepiej...
Na co wydajemy najwięcej pieniędzy?

Początek roku to często ciężki czas dla naszych portfeli. Przytłoczeni...

The Menzingers w Warszawie
Po raz kolejny w Polsce zagra The Menzingers. Już 17...
Kiedy gaśnie muzyczna gwiazda

Był jedną z największych postaci muzyki klubowej. Równo dwa lata...

Wianki nad Wisłą – ale o co właściwie chodzi?

Wianki nad Wisłą organizowane są nieprzerwanie od 1996 r. i...