Systemy oparte na sztucznej inteligencji „nie mogą myśleć, czuć, decydować ani brać odpowiedzialności za swoje działania, ponieważ brakuje im impulsu moralnego”. Nigdy nie jest więc dopuszczalne pozwalać im na użycie broni – podkreśliła w imieniu Stolicy Apostolskiej Francesca Di Giovanni, Podsekretarz ds. relacji z państwami w watykańskim Sekretariacie Stanu podczas konferencji w Hadze nt. odpowiedzialności sztucznej inteligencji w wojsku.
„Mówienie o tym, że sztuczna inteligencja jest «odpowiedzialna» wydaje się wewnętrznie sprzeczne” – wyjaśniła Francesca Di Giovanni. Jak dodała, Stolica Apostolska „przypomina pilną potrzebę utrzymywania oraz wyjaśniania różnicy zachodzącej między osobami a przedmiotami”.
Przeczytaj: Fałszywe zdjęcie papieża w internecie wywołało zamieszanie
Podsekretarz ds. relacji z państwami w Sekretariacie Stanu podkreśliła: „jeśli ważne uprawnienia decyzyjne w zakresie użycia siły zostaną przekazane systemowi broni, którego zachowanie jest nieprzewidywalne lub którego cel oraz zakres działania nie są dobrze zdefiniowane lub znane” – przykładem stanowi tu autonomiczny system broni ze zdolnością samouczenia się – „to kluczowy związek między «działaniami», skutkami i odpowiedzialnością byłby nieuchronnie zagrożony”, zwłaszcza że – powtarza Stolica Apostolska – „każdy atak zbrojny musi być wnikliwie wyważony i udowodniona jego zgodność z prawem”.
Przeczytaj też: Będzie idealnie. Tylko nieprawdziwie
„Wysiłkom na rzecz sztucznej inteligencji w wojsku musi towarzyszyć jeszcze większy wysiłek, aby uczynić bardziej odpowiedzialnymi nasze serca i umysły, aby całkowicie unikać konfliktów” – podkreśliła Francesca Di Giovanni. Jak dodała, nie oznacza to, iż Stolica Apostolska zamierza utrudniać badania, rozwój i stosowanie technologii. Przeciwnie, powinny być one ukierunkowane „na bardziej odpowiedni i dobroczynny horyzont, który nie opiera się wyłącznie na kryteriach użyteczności lub skuteczności, ale na promowaniu dobra wspólnego ludzkości oraz dla ludzkości, z poszanowaniem godności ludzkiej oraz ze wsparciem integralnego rozwoju człowieka” – stwierdziła.
Czytaj również: ChatGPT nie zastąpi dziennikarstwa jakościowego
Szefowa delegacji Stolicy Apostolskiej na konferencji w Hadze, zaproponowała powołanie międzynarodowej agencji zajmującej się sztuczną inteligencją, której zadaniem byłoby promowanie jej pokojowego użycia w różnych cywilnych zastosowaniach, aby zmniejszać nierówności między ludźmi, a także zapobiegać jej szkodliwemu użyciu, ograniczając przy tym wszelkie niepożądane konsekwencje.
Konferencja w Hadze miała miejsce w dniach 15-16 lutego. Wzięli w niej udział przedstawiciele ok. 50 państw.
Warto wiedzieć: Do jakich dylematów moralnych prowadzi korzystanie ze sztucznej inteligencji? Odpowiada o. Janusz Pyda OP