Fiński filozof i psycholog Frank Martela podkreśla na łamach czasopisma AI and Ethics, że sztuczna inteligencja, coraz częściej wykazująca cechy wolnej woli, wymaga jasnych wytycznych moralnych.
W swoim najnowszym badaniu, profesor nadzwyczajny z Uniwersytetu Aalto (Finlandia) dowodzi, że generatywna AI może spełniać trzy kluczowe filozoficzne warunki przypisywane wolnej woli: zdolność do celowego działania, dokonywania autentycznych wyborów oraz kontrolowania własnych decyzji.
Bazując na funkcjonalnym ujęciu wolnej woli, opartym m.in. na teoriach Daniela Dennetta i Christiana Lista, Martela analizował dwa przykłady agentów AI korzystających z dużych modeli językowych – system Voyager w grze Minecraft oraz fikcyjne drony bojowe „Spitenik” wyposażone w zdolności poznawcze. Jego zdaniem oba te systemy wykazują zachowania spełniające wspomniane kryteria.
„Jeśli chcemy właściwie zrozumieć i przewidywać działania współczesnych agentów AI, musimy przyjąć, że działają one tak, jakby posiadały wolną wolę” – stwierdził Martela. Dodał, że podobne mechanizmy funkcjonują już w wielu dostępnych narzędziach opartych na LLM. Szybki rozwój tej technologii sprawia, że kwestie etyczne, które jeszcze niedawno wydawały się czystą fantastyką, stają się coraz bardziej realne.
Filozof zauważa, że stoimy u progu przełomowego momentu – powierzamy AI coraz większą autonomię, także w sytuacjach decydujących o ludzkim życiu. To oznacza, że odpowiedzialność moralna może zacząć przesuwać się z twórców systemów na same systemy.
„Wkraczamy na zupełnie nowy obszar – posiadanie wolnej woli to podstawowy, choć niewystarczający, warunek moralnej odpowiedzialności. To krok w stronę uznania, że AI może ponosić konsekwencje za swoje działania” – tłumaczy Martela. W jego opinii, nadszedł czas, aby podejść poważnie do procesu moralnego „wychowywania” sztucznej inteligencji.
Zaznacza, że AI nie posiada moralności, o ile nie zostanie ona w niej celowo zakodowana. Im więcej swobody jej przyznajemy, tym większą wagę należy przyłożyć do tego, aby była od początku wyposażona w spójny system wartości. Tylko wtedy może podejmować właściwe decyzje.
Martela zwraca uwagę na niedawne wycofanie aktualizacji ChatGPT, związane z potencjalnie niepożądanym zachowaniem modelu – jako ostrzeżenie, że kwestie etyki nie mogą być pomijane. „Etap uczenia AI podstaw moralności mamy już za sobą. Teraz musi ona radzić sobie z dylematami dorosłego świata” – mówi filozof.
Na koniec podkreśla, że programiści, projektując zachowania AI, nieświadomie przekazują jej własne wartości. Dlatego osoby rozwijające tę technologię powinny mieć solidne przygotowanie z zakresu etyki i filozofii moralnej, by móc odpowiedzialnie kształtować decyzje, jakie AI podejmuje w złożonych sytuacjach.
(za: Nauka w Polsce)