growtika-f0JGorLOkw0-unsplash

AI wymaga większego zakresu etyki

Fiński filozof i psycholog Frank Martela podkreśla na łamach czasopisma AI and Ethics, że sztuczna inteligencja, coraz częściej wykazująca cechy wolnej woli, wymaga jasnych wytycznych moralnych.

W swoim najnowszym badaniu, profesor nadzwyczajny z Uniwersytetu Aalto (Finlandia) dowodzi, że generatywna AI może spełniać trzy kluczowe filozoficzne warunki przypisywane wolnej woli: zdolność do celowego działania, dokonywania autentycznych wyborów oraz kontrolowania własnych decyzji.

Bazując na funkcjonalnym ujęciu wolnej woli, opartym m.in. na teoriach Daniela Dennetta i Christiana Lista, Martela analizował dwa przykłady agentów AI korzystających z dużych modeli językowych – system Voyager w grze Minecraft oraz fikcyjne drony bojowe „Spitenik” wyposażone w zdolności poznawcze. Jego zdaniem oba te systemy wykazują zachowania spełniające wspomniane kryteria.

„Jeśli chcemy właściwie zrozumieć i przewidywać działania współczesnych agentów AI, musimy przyjąć, że działają one tak, jakby posiadały wolną wolę” – stwierdził Martela. Dodał, że podobne mechanizmy funkcjonują już w wielu dostępnych narzędziach opartych na LLM. Szybki rozwój tej technologii sprawia, że kwestie etyczne, które jeszcze niedawno wydawały się czystą fantastyką, stają się coraz bardziej realne.

Filozof zauważa, że stoimy u progu przełomowego momentu – powierzamy AI coraz większą autonomię, także w sytuacjach decydujących o ludzkim życiu. To oznacza, że odpowiedzialność moralna może zacząć przesuwać się z twórców systemów na same systemy.

„Wkraczamy na zupełnie nowy obszar – posiadanie wolnej woli to podstawowy, choć niewystarczający, warunek moralnej odpowiedzialności. To krok w stronę uznania, że AI może ponosić konsekwencje za swoje działania” – tłumaczy Martela. W jego opinii, nadszedł czas, aby podejść poważnie do procesu moralnego „wychowywania” sztucznej inteligencji.

Zaznacza, że AI nie posiada moralności, o ile nie zostanie ona w niej celowo zakodowana. Im więcej swobody jej przyznajemy, tym większą wagę należy przyłożyć do tego, aby była od początku wyposażona w spójny system wartości. Tylko wtedy może podejmować właściwe decyzje.

Martela zwraca uwagę na niedawne wycofanie aktualizacji ChatGPT, związane z potencjalnie niepożądanym zachowaniem modelu – jako ostrzeżenie, że kwestie etyki nie mogą być pomijane. „Etap uczenia AI podstaw moralności mamy już za sobą. Teraz musi ona radzić sobie z dylematami dorosłego świata” – mówi filozof.

Na koniec podkreśla, że programiści, projektując zachowania AI, nieświadomie przekazują jej własne wartości. Dlatego osoby rozwijające tę technologię powinny mieć solidne przygotowanie z zakresu etyki i filozofii moralnej, by móc odpowiedzialnie kształtować decyzje, jakie AI podejmuje w złożonych sytuacjach.

(za: Nauka w Polsce)

Najpiękniejsze Jarmarki Bożonarodzeniowe
Sezon na odwiedzanie Jarmarków Bożonarodzeniowych właśnie się rozpoczął. Gdzie najlepiej...
Staliśmy się watahą
Słowa „zmęczenie”, „niemożliwe” i „niebezpieczeństwo” zdaje się, że dla nich...
Pożegnanie z biblioteką
Trwająca 15 lat przygoda ,,Hulakuli" z Biblioteką Uniwersytetu Warszawskiego została...
Inteligentny słownik w wersji polskiej – Word Lens Translator

Wybieracie się na wakacje za granicę, a nie znacie tamtejszego...

Kampanie "beauty" już nie takie piękne
Pierwsze skojarzenie z reklamą kosmetyków? Piękna aktorka lub top modelka,...