growtika-f0JGorLOkw0-unsplash

Użycie AI a pisanie tekstów naukowych

„Coraz bardziej widoczna staje się skala wątpliwości dotyczących wykorzystania sztucznej inteligencji w tworzeniu publikacji naukowych” – zauważył w rozmowie z PAP Artur Strzelecki, profesor Uniwersytetu Ekonomicznego w Katowicach. Jak podkreślił, temat ten staje się coraz bardziej palący, a kolejne przypadki nadużyć w tym zakresie zostały przedstawione przez magazyn Nature, w tym te związane z tzw. „cichą korektą” tekstów.

W artykule opublikowanym w Nature, autorka Diana Kwon informuje o wykryciu charakterystycznych zwrotów używanych przez chatboty w setkach publikacji naukowych, które zostały wstawione do prac bez odpowiedniego ujawnienia tego faktu – czyli bez zaznaczenia, że przy tworzeniu tekstu wykorzystano ChatGPT. Tego typu praktyki podważają wiarygodność procesu recenzji naukowych.

Nature powołuje się także na badania dr. hab. Artura Strzeleckiego, profesora Uniwersytetu Ekonomicznego w Katowicach. W grudniu 2024 roku prof. Strzelecki opublikował wyniki swoich analiz przeprowadzonych na podstawie zasobów Google Scholar – jednej z największych baz publikacji naukowych. Wykazał on, że nieoznaczone fragmenty generowane przez sztuczną inteligencję pojawiają się nawet w prestiżowych czasopismach z najwyższą rangą cytowań, a część z tych tekstów zdobyła już dodatkowe odniesienia, co podkreśla systemowy charakter tego problemu.

Badacz Artur Strzelecki sprawdzał, czy w anglojęzycznych publikacjach naukowych pojawiają się „nienaturalne” sformułowania, które są charakterystyczne dla ChatGPT, takie jak: „Mam nadzieję, że to pomoże!”, „Oczywiście! Tutaj jest/są …”, czy „Cieszę się, że mogę pomóc!” Strzelecki skoncentrował się na artykułach, w których autorzy nie zadeklarowali użycia programu ChatGPT w procesie pisania pracy.

Wśród fraz, które zaczęły pojawiać się w naukowych publikacjach za sprawą użycia ChatuGPT, były m.in. takie zwroty jak: „As of my last knowledge update” („Według mojej wiedzy na dzień ostatniej aktualizacji”), „As an AI language model” („Jako model językowy AI”) czy „I don’t have access to real-time…” („Nie mam dostępu do aktualnych…”). Dodatkowo, w niektórych przypadkach kopiowano także treść interfejsu samego narzędzia – na przykład przycisk „regenerate response” (regenerowanie odpowiedzi), który był widoczny po każdej odpowiedzi ChatuGPT. Niejednokrotnie, nieuważni naukowcy kopiowali odpowiedzi AI wraz z tymi technicznymi szczegółami, nie zwracając uwagi na to, co było w tekście.

Takie niezamierzone kopiowanie fragmentów generowanych przez AI nie zostało zauważone ani przez współautorów, ani przez recenzentów, czy redaktorów czasopism naukowych. Prof. Strzelecki odkrył frazy związane z ChatGPT w 89 artykułach, kiedy przeanalizował publikacje z prestiżowych, recenzowanych czasopism naukowych obecnych w bazie Scopus (w pierwszym i drugim kwartylu wskaźnika CiteScore).

Obecnie temat nieprzemyślanego wykorzystania AI w nauce powrócił na łamy Nature. Redakcja zwróciła uwagę na zjawisko „cichej korekty”, polegające na usuwaniu fraz generowanych przez chatboty z już opublikowanych artykułów, bez oficjalnych errat. To zjawisko budzi poważne wątpliwości co do transparentności i wiarygodności procesu publikacyjnego w nauce.

(za: Nauka w Polsce)

Najpiękniejsze Jarmarki Bożonarodzeniowe
Sezon na odwiedzanie Jarmarków Bożonarodzeniowych właśnie się rozpoczął. Gdzie najlepiej...
Król współczesności

Tegoroczne Walentynki zakochani mogli obchodzić „z pazurem”. A to dlatego,...

Dania pokonana

Polacy wygrali z Danią 3:2 w eliminacjach do mistrzostw świata...

MediaTory 2013 rozpoczęte
Blisko 15 tysięcy studentów i studentek dziennikarstwa z 19 uczelni...
Wyścig po OGUN-y

Już niedługo rozpoczyna się rejestracja na przedmioty ogólnouniwersyteckie na semestr...