Facebook gorszy niż bunt maszyn? Karta Praw AI będzie chronić ludzi przed sztuczną inteligencją

Systemy rozpoznawania twarzy i inne algorytmy na cenzurowanym
Systemy rozpoznawania twarzy i inne algorytmy na cenzurowanym123RF/PICSEL
Te problemy są dobrze udokumentowane (...) algorytmy stosowane przy zatrudnianiu i decyzjach kredytowych odzwierciedlają i odtwarzają istniejące niechciane nierówności lub zawierają nowe szkodliwe uprzedzenia. Niekontrolowane gromadzenie danych z mediów społecznościowych zagraża prywatności użytkowników i prowadzi do wszechobecnego śledzenia ich aktywności - często bez ich wiedzy lub zgody
czytamy w dokumencie.

Koniec wolnej amerykanki? Rozwój AI pod kontrolą

  • Bezpieczne i efektywne systemy (Safe and Effective Systems) - obywatele mają być chronieni przed niebezpiecznymi lub nieefektywnymi systemami, a zautomatyzowane systemy powinny być opracowywane w porozumieniu z różnymi społecznościami, interesariuszami i ekspertami dziedzinowymi, aby zidentyfikować obawy, zagrożenia i potencjalny wpływ systemu, a następnie przetestowane, by wykazać, że są bezpieczne i skuteczne.
  • Ochrona przed dyskryminacją ze strony algorytmów (Algorithmic Discrimination Protections) - systemy powinny być używane i projektowane w sprawiedliwy sposób, dyskryminacja algorytmiczna ma miejsce, gdy zautomatyzowane systemy przyczyniają się do nieuzasadnionego odmiennego traktowania lub wywierają niekorzystny wpływ na ludzi ze względu na ich rasę, kolor skóry, pochodzenie etniczne, płeć (w tym tożsamość płciową, status interseksualny i orientację seksualną), religię, wiek, pochodzenie narodowe, niepełnosprawność, status weterana, informacje genetyczne lub jakąkolwiek inną klasyfikację chronioną prawem.
  • Prywatność danych (Data Privacy) - użytkownik powinien być chroniony przed naruszeniem prywatności, nadużyciami w zakresie danych i świadomy tego, w jaki sposób dane o nim są wykorzystywane. Mowa jest tu o rozwiązaniach na poziomie systemu, domyślnie włączonych zabezpieczeniach i gromadzeniu oraz pozyskiwaniu danych ściśle niezbędnych w określonym kontekście.
  • Powiadamianie i wyjaśnianie (Notice and Explanation) - użytkownik powinien wiedzieć, że używany jest zautomatyzowany system i rozumieć, w jaki sposób na niego wpływa.
  • Ludzkie alternatywy, rozważania i plan awaryjny (Human Alternatives, Consideration and Fallback) - użytkownik ma mieć możliwość rezygnacji i kiedy zajdzie taka potrzeba, kontaktu z osobą, która szybko pomoże rozwiązać mu zaistniały problem.