growtika-f0JGorLOkw0-unsplash

Użycie AI a pisanie tekstów naukowych

„Coraz bardziej widoczna staje się skala wątpliwości dotyczących wykorzystania sztucznej inteligencji w tworzeniu publikacji naukowych” – zauważył w rozmowie z PAP Artur Strzelecki, profesor Uniwersytetu Ekonomicznego w Katowicach. Jak podkreślił, temat ten staje się coraz bardziej palący, a kolejne przypadki nadużyć w tym zakresie zostały przedstawione przez magazyn Nature, w tym te związane z tzw. „cichą korektą” tekstów.

W artykule opublikowanym w Nature, autorka Diana Kwon informuje o wykryciu charakterystycznych zwrotów używanych przez chatboty w setkach publikacji naukowych, które zostały wstawione do prac bez odpowiedniego ujawnienia tego faktu – czyli bez zaznaczenia, że przy tworzeniu tekstu wykorzystano ChatGPT. Tego typu praktyki podważają wiarygodność procesu recenzji naukowych.

Nature powołuje się także na badania dr. hab. Artura Strzeleckiego, profesora Uniwersytetu Ekonomicznego w Katowicach. W grudniu 2024 roku prof. Strzelecki opublikował wyniki swoich analiz przeprowadzonych na podstawie zasobów Google Scholar – jednej z największych baz publikacji naukowych. Wykazał on, że nieoznaczone fragmenty generowane przez sztuczną inteligencję pojawiają się nawet w prestiżowych czasopismach z najwyższą rangą cytowań, a część z tych tekstów zdobyła już dodatkowe odniesienia, co podkreśla systemowy charakter tego problemu.

Badacz Artur Strzelecki sprawdzał, czy w anglojęzycznych publikacjach naukowych pojawiają się „nienaturalne” sformułowania, które są charakterystyczne dla ChatGPT, takie jak: „Mam nadzieję, że to pomoże!”, „Oczywiście! Tutaj jest/są …”, czy „Cieszę się, że mogę pomóc!” Strzelecki skoncentrował się na artykułach, w których autorzy nie zadeklarowali użycia programu ChatGPT w procesie pisania pracy.

Wśród fraz, które zaczęły pojawiać się w naukowych publikacjach za sprawą użycia ChatuGPT, były m.in. takie zwroty jak: „As of my last knowledge update” („Według mojej wiedzy na dzień ostatniej aktualizacji”), „As an AI language model” („Jako model językowy AI”) czy „I don’t have access to real-time…” („Nie mam dostępu do aktualnych…”). Dodatkowo, w niektórych przypadkach kopiowano także treść interfejsu samego narzędzia – na przykład przycisk „regenerate response” (regenerowanie odpowiedzi), który był widoczny po każdej odpowiedzi ChatuGPT. Niejednokrotnie, nieuważni naukowcy kopiowali odpowiedzi AI wraz z tymi technicznymi szczegółami, nie zwracając uwagi na to, co było w tekście.

Takie niezamierzone kopiowanie fragmentów generowanych przez AI nie zostało zauważone ani przez współautorów, ani przez recenzentów, czy redaktorów czasopism naukowych. Prof. Strzelecki odkrył frazy związane z ChatGPT w 89 artykułach, kiedy przeanalizował publikacje z prestiżowych, recenzowanych czasopism naukowych obecnych w bazie Scopus (w pierwszym i drugim kwartylu wskaźnika CiteScore).

Obecnie temat nieprzemyślanego wykorzystania AI w nauce powrócił na łamy Nature. Redakcja zwróciła uwagę na zjawisko „cichej korekty”, polegające na usuwaniu fraz generowanych przez chatboty z już opublikowanych artykułów, bez oficjalnych errat. To zjawisko budzi poważne wątpliwości co do transparentności i wiarygodności procesu publikacyjnego w nauce.

(za: Nauka w Polsce)

Najpiękniejsze Jarmarki Bożonarodzeniowe
Sezon na odwiedzanie Jarmarków Bożonarodzeniowych właśnie się rozpoczął. Gdzie najlepiej...
Walki humanitarystów
Do Afryki jedzie Amerykanin, który chce pomagać. Zbiera fundusze w...
Nierówności społeczne a poczucie wartości młodzieży

W krajach o największych nierównościach społecznych młodzież najmocniej wierzy, że...

Samotna wyspa – Krym rok po aneksji

Na półwysep przyjeżdża coraz mniej turystów, padają kolejne lokalne firmy,...

NAWA da pieniądze na promocję języka polskiego

Narodowa Agencja Wymiany Akademickiej (NAWA) rozpoczęła nabór wniosków do programu...