growtika-f0JGorLOkw0-unsplash

Użycie AI a pisanie tekstów naukowych

„Coraz bardziej widoczna staje się skala wątpliwości dotyczących wykorzystania sztucznej inteligencji w tworzeniu publikacji naukowych” – zauważył w rozmowie z PAP Artur Strzelecki, profesor Uniwersytetu Ekonomicznego w Katowicach. Jak podkreślił, temat ten staje się coraz bardziej palący, a kolejne przypadki nadużyć w tym zakresie zostały przedstawione przez magazyn Nature, w tym te związane z tzw. „cichą korektą” tekstów.

W artykule opublikowanym w Nature, autorka Diana Kwon informuje o wykryciu charakterystycznych zwrotów używanych przez chatboty w setkach publikacji naukowych, które zostały wstawione do prac bez odpowiedniego ujawnienia tego faktu – czyli bez zaznaczenia, że przy tworzeniu tekstu wykorzystano ChatGPT. Tego typu praktyki podważają wiarygodność procesu recenzji naukowych.

Nature powołuje się także na badania dr. hab. Artura Strzeleckiego, profesora Uniwersytetu Ekonomicznego w Katowicach. W grudniu 2024 roku prof. Strzelecki opublikował wyniki swoich analiz przeprowadzonych na podstawie zasobów Google Scholar – jednej z największych baz publikacji naukowych. Wykazał on, że nieoznaczone fragmenty generowane przez sztuczną inteligencję pojawiają się nawet w prestiżowych czasopismach z najwyższą rangą cytowań, a część z tych tekstów zdobyła już dodatkowe odniesienia, co podkreśla systemowy charakter tego problemu.

Badacz Artur Strzelecki sprawdzał, czy w anglojęzycznych publikacjach naukowych pojawiają się „nienaturalne” sformułowania, które są charakterystyczne dla ChatGPT, takie jak: „Mam nadzieję, że to pomoże!”, „Oczywiście! Tutaj jest/są …”, czy „Cieszę się, że mogę pomóc!” Strzelecki skoncentrował się na artykułach, w których autorzy nie zadeklarowali użycia programu ChatGPT w procesie pisania pracy.

Wśród fraz, które zaczęły pojawiać się w naukowych publikacjach za sprawą użycia ChatuGPT, były m.in. takie zwroty jak: „As of my last knowledge update” („Według mojej wiedzy na dzień ostatniej aktualizacji”), „As an AI language model” („Jako model językowy AI”) czy „I don’t have access to real-time…” („Nie mam dostępu do aktualnych…”). Dodatkowo, w niektórych przypadkach kopiowano także treść interfejsu samego narzędzia – na przykład przycisk „regenerate response” (regenerowanie odpowiedzi), który był widoczny po każdej odpowiedzi ChatuGPT. Niejednokrotnie, nieuważni naukowcy kopiowali odpowiedzi AI wraz z tymi technicznymi szczegółami, nie zwracając uwagi na to, co było w tekście.

Takie niezamierzone kopiowanie fragmentów generowanych przez AI nie zostało zauważone ani przez współautorów, ani przez recenzentów, czy redaktorów czasopism naukowych. Prof. Strzelecki odkrył frazy związane z ChatGPT w 89 artykułach, kiedy przeanalizował publikacje z prestiżowych, recenzowanych czasopism naukowych obecnych w bazie Scopus (w pierwszym i drugim kwartylu wskaźnika CiteScore).

Obecnie temat nieprzemyślanego wykorzystania AI w nauce powrócił na łamy Nature. Redakcja zwróciła uwagę na zjawisko „cichej korekty”, polegające na usuwaniu fraz generowanych przez chatboty z już opublikowanych artykułów, bez oficjalnych errat. To zjawisko budzi poważne wątpliwości co do transparentności i wiarygodności procesu publikacyjnego w nauce.

(za: Nauka w Polsce)

Najpiękniejsze Jarmarki Bożonarodzeniowe
Sezon na odwiedzanie Jarmarków Bożonarodzeniowych właśnie się rozpoczął. Gdzie najlepiej...
Niezwykły prezent

Niektóre rzeczy mają to do siebie, że posiadają dwie funkcje....

Zobaczyć, zrozumieć, zachwycić się
Potrzeba utrwalania obrazu w celach naukowych wykorzystuje ogromne możliwości fotografii....
Alexander Krone w galerii Fundacji Atelier
„When The Cold Reaches The Heart” to druga indywidualna, a...
Polityczny domek z kart
Amerykański serial „House of Cards” z Kevinem Spaceym w roli...