Moralne dylematy sztucznej inteligencji, czyli niedoskonała broń przyszłości

Czy naprawdę jesteśmy gotowi na autonomiczne systemy bojowe?
Czy naprawdę jesteśmy gotowi na autonomiczne systemy bojowe?123RF/PICSEL

Zobacz również:

    Hawking i Musk ostrzegali już dawno temu

    Bunt maszyn niekoniecznie, ale są inne poważne zagrożenia
    Bunt maszyn niekoniecznie, ale są inne poważne zagrożenia123RF/PICSEL
    • systemy sztucznej inteligencji powinny dążyć do sprawiedliwych społeczeństw, wspierając ludzkie interesy i fundamentalne prawa oraz nie zmniejszać i ograniczać ludzkiej autonomii;
    • obywatele powinni mieć pełną kontrolę nad swoimi danymi, a dane ich dotyczące nie mogą być wykorzystywane, żeby ich dyskryminować czy krzywdzić;
    • wszystkie systemy AI muszą być możliwe do zidentyfikowania;
    • systemy AI powinny być wykorzystywane do wzmacniania pozytywnych zmian społecznych, odpowiedzialności ekologicznej i szanse na przetrwanie;
    • trzeba zastosować odpowiednie mechanizmy i wziąć odpowiedzialność za wszystkie systemy AI.

    Niebezpieczne narzędzie do produkcji broni

    Jedni będą z jej pomocą szukać leków, a inni broni masowego rażenia
    Jedni będą z jej pomocą szukać leków, a inni broni masowego rażenia123RF/PICSEL
    Sztuczna inteligencja nigdy nie będzie etyczna. Jest tylko narzędziem i jak każde narzędzie jest wykorzystywana do czynienia dobra lub zła. Nie istnieje coś takiego jak dobra czy zła sztuczna inteligencja, istnieją wyłącznie dobrzy i źli ludzie
    odpowiedział na pytanie Megatron.

    Deepfake w służbie wojennego kłamstwa

    Zobacz również:

      Broń samodzielnie decydująca o życiu i śmierci

      Ludzie powinni zachować odpowiedni poziom kontroli oraz być odpowiedzialni za rozwój, rozmieszczenie, wykorzystanie i skutki działania sztucznej inteligencji w wojsku.
      Systemy sztucznej inteligencji likwidują cele bez ludzkiego operatora?
      Systemy sztucznej inteligencji likwidują cele bez ludzkiego operatora?123RF/PICSEL

      Zobacz również: