Moralne dylematy sztucznej inteligencji, czyli niedoskonała broń przyszłości

Czy naprawdę jesteśmy gotowi na autonomiczne systemy bojowe?
Czy naprawdę jesteśmy gotowi na autonomiczne systemy bojowe?123RF/PICSEL

Hawking i Musk ostrzegali już dawno temu

Bunt maszyn niekoniecznie, ale są inne poważne zagrożenia
Bunt maszyn niekoniecznie, ale są inne poważne zagrożenia123RF/PICSEL
  • systemy sztucznej inteligencji powinny dążyć do sprawiedliwych społeczeństw, wspierając ludzkie interesy i fundamentalne prawa oraz nie zmniejszać i ograniczać ludzkiej autonomii;
  • obywatele powinni mieć pełną kontrolę nad swoimi danymi, a dane ich dotyczące nie mogą być wykorzystywane, żeby ich dyskryminować czy krzywdzić;
  • wszystkie systemy AI muszą być możliwe do zidentyfikowania;
  • systemy AI powinny być wykorzystywane do wzmacniania pozytywnych zmian społecznych, odpowiedzialności ekologicznej i szanse na przetrwanie;
  • trzeba zastosować odpowiednie mechanizmy i wziąć odpowiedzialność za wszystkie systemy AI.

Niebezpieczne narzędzie do produkcji broni

Jedni będą z jej pomocą szukać leków, a inni broni masowego rażenia
Jedni będą z jej pomocą szukać leków, a inni broni masowego rażenia123RF/PICSEL
Sztuczna inteligencja nigdy nie będzie etyczna. Jest tylko narzędziem i jak każde narzędzie jest wykorzystywana do czynienia dobra lub zła. Nie istnieje coś takiego jak dobra czy zła sztuczna inteligencja, istnieją wyłącznie dobrzy i źli ludzie
odpowiedział na pytanie Megatron.

Deepfake w służbie wojennego kłamstwa

Broń samodzielnie decydująca o życiu i śmierci

Ludzie powinni zachować odpowiedni poziom kontroli oraz być odpowiedzialni za rozwój, rozmieszczenie, wykorzystanie i skutki działania sztucznej inteligencji w wojsku.
Systemy sztucznej inteligencji likwidują cele bez ludzkiego operatora?
Systemy sztucznej inteligencji likwidują cele bez ludzkiego operatora?123RF/PICSEL