Unia Europejska opublikowała regulacje dotyczące etyki sztucznej inteligencji

To kwestia, o której mówiło się od dłuższego czasu, ale dopiero teraz doczekaliśmy się konkretnych oficjalnych zaleceń i poradnika. Unia Europejska w końcu postanowiła zająć się etycznymi problemami związanymi z AI.

Żadna technologia nie wzbudzała dotąd tak ogromnych kontrowersji, głównie w wymiarze etycznym, jak sztuczna inteligencja. Problem zaczynają zauważać nawet największe korporacje, jak Facebook czy Google oraz placówki badawcze, jak Uniwersytet Stanforda, które inwestują coraz więcej w centra badawcze zajmujące się etyką AI. W zeszłym roku problem podjęły również Kanada i Francja, które wspólnie stworzyły międzynarodowy panel do dyskusji o odpowiedzialnym wprowadzaniu sztucznej inteligencji w życie.

Teraz zaś do problemu w końcu odniosła się Komisja Europejska, publikując swoje wytyczne dla godnego zaufania AI, które powinno podlegać podstawowym etycznym zasadom, jak respekt dla ludzkiej autonomii, unikanie krzywdy, uczciwość i odpowiedzialność. Wszystko zostało zawarte w 7 konkretnych wymogach, a KE dodatkowo nawołuje do szczególnego dbania o najbardziej wrażliwe grupy, jak dzieci czy osoby z niepełnosprawnościami czy pełnej kontroli obywateli nad swoimi danymi.

Reklama

Od razu warto jednak zaznaczyć, że mają to być tylko wskazówki i Komisja Europejska nie ma zamiaru czynić z nich oficjalnych regulacji. Latem odbędzie się jednak szereg spotkań z interesariuszami, aby przedyskutować, czy są jeszcze jakieś aspekty wymagające dodatkowego prowadzenia. Na początku 2020 roku grupa ekspertów przeanalizuje dane z tej fazy pilotażowej, żeby upewnić się, czy takie działanie - szczególnie w obliczu nadchodzącej autonomicznej broni czy algorytmów generujących fake newsy - jest wystarczające.

Pełna treść dokumentu Komisji Europejskiej do wglądu TUTAJ, a poniżej 7 wytycznych w skrócie:

  • Systemy sztucznej inteligencji powinny dążyć do sprawiedliwych społeczeństw, wspierając ludzkie interesy i fundamentalne prawa oraz nie zmniejszać i ograniczać ludzkiej autonomii
  • Godne zaufania AI wymaga algorytmów, które uczynią je bezpiecznym, wiarygodnym i na tyle silnym, żeby uporać się z błędami i niespójnościami w czasie całego życiowego cyklu
  • Obywatele powinni mieć pełną kontrolę nad swoimi danymi, a dane ich dotyczące nie mogą być wykorzystywane, żeby ich dyskryminować czy krzywdzić
  • Wszystkie systemy AI muszą być możliwe do zidentyfikowania
  • Systemy AI powinny brać pod uwagę cały zakres ludzkich zdolności, umiejętności i wymagania oraz zapewnić im tzw. możliwość skorzystania
  • Systemy AI powinny być wykorzystywane do wzmacniania pozytywnych zmian społecznych, odpowiedzialności ekologicznej i szanse na przetrwanie
  • Trzeba zastosować odpowiednie mechanizmy i wziąć odpowiedzialność za wszystkie systemy AI

Źródło: GeekWeek.pl/engadget

Geekweek
Reklama
Reklama
Reklama
Reklama
Reklama
Strona główna INTERIA.PL
Polecamy