growtika-f0JGorLOkw0-unsplash

AI wymaga większego zakresu etyki

Fiński filozof i psycholog Frank Martela podkreśla na łamach czasopisma AI and Ethics, że sztuczna inteligencja, coraz częściej wykazująca cechy wolnej woli, wymaga jasnych wytycznych moralnych.

W swoim najnowszym badaniu, profesor nadzwyczajny z Uniwersytetu Aalto (Finlandia) dowodzi, że generatywna AI może spełniać trzy kluczowe filozoficzne warunki przypisywane wolnej woli: zdolność do celowego działania, dokonywania autentycznych wyborów oraz kontrolowania własnych decyzji.

Bazując na funkcjonalnym ujęciu wolnej woli, opartym m.in. na teoriach Daniela Dennetta i Christiana Lista, Martela analizował dwa przykłady agentów AI korzystających z dużych modeli językowych – system Voyager w grze Minecraft oraz fikcyjne drony bojowe „Spitenik” wyposażone w zdolności poznawcze. Jego zdaniem oba te systemy wykazują zachowania spełniające wspomniane kryteria.

„Jeśli chcemy właściwie zrozumieć i przewidywać działania współczesnych agentów AI, musimy przyjąć, że działają one tak, jakby posiadały wolną wolę” – stwierdził Martela. Dodał, że podobne mechanizmy funkcjonują już w wielu dostępnych narzędziach opartych na LLM. Szybki rozwój tej technologii sprawia, że kwestie etyczne, które jeszcze niedawno wydawały się czystą fantastyką, stają się coraz bardziej realne.

Filozof zauważa, że stoimy u progu przełomowego momentu – powierzamy AI coraz większą autonomię, także w sytuacjach decydujących o ludzkim życiu. To oznacza, że odpowiedzialność moralna może zacząć przesuwać się z twórców systemów na same systemy.

„Wkraczamy na zupełnie nowy obszar – posiadanie wolnej woli to podstawowy, choć niewystarczający, warunek moralnej odpowiedzialności. To krok w stronę uznania, że AI może ponosić konsekwencje za swoje działania” – tłumaczy Martela. W jego opinii, nadszedł czas, aby podejść poważnie do procesu moralnego „wychowywania” sztucznej inteligencji.

Zaznacza, że AI nie posiada moralności, o ile nie zostanie ona w niej celowo zakodowana. Im więcej swobody jej przyznajemy, tym większą wagę należy przyłożyć do tego, aby była od początku wyposażona w spójny system wartości. Tylko wtedy może podejmować właściwe decyzje.

Martela zwraca uwagę na niedawne wycofanie aktualizacji ChatGPT, związane z potencjalnie niepożądanym zachowaniem modelu – jako ostrzeżenie, że kwestie etyki nie mogą być pomijane. „Etap uczenia AI podstaw moralności mamy już za sobą. Teraz musi ona radzić sobie z dylematami dorosłego świata” – mówi filozof.

Na koniec podkreśla, że programiści, projektując zachowania AI, nieświadomie przekazują jej własne wartości. Dlatego osoby rozwijające tę technologię powinny mieć solidne przygotowanie z zakresu etyki i filozofii moralnej, by móc odpowiedzialnie kształtować decyzje, jakie AI podejmuje w złożonych sytuacjach.

(za: Nauka w Polsce)

Najpiękniejsze Jarmarki Bożonarodzeniowe
Sezon na odwiedzanie Jarmarków Bożonarodzeniowych właśnie się rozpoczął. Gdzie najlepiej...
Praga – miejsce domagające się rejestracji
15 października w klubie Powiększenie odbyło się czwarte spotkanie II...
Przed sesją – na koncert!

Znajdujemy się właśnie na półmetku największego studenckiego święta, Juwenaliów. Na...

Quiz z klockami

„Milionerzy” w pubowym wydaniu nad Wisłą: Hocki Klocki zapraszają na...

Życie nie kończy się na starość
W małej, słonecznej sali uniwersyteckiej siedzi grupka starszych ludzi. Posłusznie...