growtika-f0JGorLOkw0-unsplash

AI wymaga większego zakresu etyki

Fiński filozof i psycholog Frank Martela podkreśla na łamach czasopisma AI and Ethics, że sztuczna inteligencja, coraz częściej wykazująca cechy wolnej woli, wymaga jasnych wytycznych moralnych.

W swoim najnowszym badaniu, profesor nadzwyczajny z Uniwersytetu Aalto (Finlandia) dowodzi, że generatywna AI może spełniać trzy kluczowe filozoficzne warunki przypisywane wolnej woli: zdolność do celowego działania, dokonywania autentycznych wyborów oraz kontrolowania własnych decyzji.

Bazując na funkcjonalnym ujęciu wolnej woli, opartym m.in. na teoriach Daniela Dennetta i Christiana Lista, Martela analizował dwa przykłady agentów AI korzystających z dużych modeli językowych – system Voyager w grze Minecraft oraz fikcyjne drony bojowe „Spitenik” wyposażone w zdolności poznawcze. Jego zdaniem oba te systemy wykazują zachowania spełniające wspomniane kryteria.

„Jeśli chcemy właściwie zrozumieć i przewidywać działania współczesnych agentów AI, musimy przyjąć, że działają one tak, jakby posiadały wolną wolę” – stwierdził Martela. Dodał, że podobne mechanizmy funkcjonują już w wielu dostępnych narzędziach opartych na LLM. Szybki rozwój tej technologii sprawia, że kwestie etyczne, które jeszcze niedawno wydawały się czystą fantastyką, stają się coraz bardziej realne.

Filozof zauważa, że stoimy u progu przełomowego momentu – powierzamy AI coraz większą autonomię, także w sytuacjach decydujących o ludzkim życiu. To oznacza, że odpowiedzialność moralna może zacząć przesuwać się z twórców systemów na same systemy.

„Wkraczamy na zupełnie nowy obszar – posiadanie wolnej woli to podstawowy, choć niewystarczający, warunek moralnej odpowiedzialności. To krok w stronę uznania, że AI może ponosić konsekwencje za swoje działania” – tłumaczy Martela. W jego opinii, nadszedł czas, aby podejść poważnie do procesu moralnego „wychowywania” sztucznej inteligencji.

Zaznacza, że AI nie posiada moralności, o ile nie zostanie ona w niej celowo zakodowana. Im więcej swobody jej przyznajemy, tym większą wagę należy przyłożyć do tego, aby była od początku wyposażona w spójny system wartości. Tylko wtedy może podejmować właściwe decyzje.

Martela zwraca uwagę na niedawne wycofanie aktualizacji ChatGPT, związane z potencjalnie niepożądanym zachowaniem modelu – jako ostrzeżenie, że kwestie etyki nie mogą być pomijane. „Etap uczenia AI podstaw moralności mamy już za sobą. Teraz musi ona radzić sobie z dylematami dorosłego świata” – mówi filozof.

Na koniec podkreśla, że programiści, projektując zachowania AI, nieświadomie przekazują jej własne wartości. Dlatego osoby rozwijające tę technologię powinny mieć solidne przygotowanie z zakresu etyki i filozofii moralnej, by móc odpowiedzialnie kształtować decyzje, jakie AI podejmuje w złożonych sytuacjach.

(za: Nauka w Polsce)

Najpiękniejsze Jarmarki Bożonarodzeniowe
Sezon na odwiedzanie Jarmarków Bożonarodzeniowych właśnie się rozpoczął. Gdzie najlepiej...
Studencie, czeka Cię więcej praktyk
Rynek pracy oczekuje od świeżo upieczonych absolwentów praktycznych umiejętności wyniesionych...
Druga strona Wisły w oczach młodych reżyserów
Warszawska Praga wzbudza intensywne emocje, zarówno te pozytywne jak i...
To już jest koniec
7 miliardów dolarów – tyle w sumie zarobili twórcy ośmiu...
Morderstwa w świecie muzyki – Narkoman zabija wirtuoza saksofonu
Jego zadziornego stylu gry na saksofonie tenorowym nie można pomylić...