Popularna aplikacja analizuje dane użytkowników? Burza w sieci

Użytkownicy popularnej aplikacji dokopali się do niepokojących zapisów w regulaminie oprogramowania. Te dotyczą przetwarzania naszych danych i jeżeli w waszej pracy obecny jest Slack, to koniecznie musicie to przeczytać.

Korzystasz z tej apki? Lepiej uważaj!
Korzystasz z tej apki? Lepiej uważaj!123RF/PICSEL

Sztuczna inteligencja a Slack

Coraz więcej firm opracowuje własne narzędzia sztucznej inteligencji, które w jakiś sposób są wykorzystywane np. do obsługi dodatkowych funkcji. Jedne firmy tworzą całe modele językowe, inne ograniczają się do precyzyjnie działających narzędzi. Tak czy inaczej, opracowywanie sztucznej inteligencji wymaga nie tylko know-how, ale również danych, na których dany model pracuje i z których się uczy.

W jaki sposób sztuczna inteligencja może pozyskać takie informacje? Jedną opcją jest manualne szkolenie modeli poprzez pracę licznych zespołów, które wpisują odpowiednie treści, prowadzą rozmowy czy podejmują określone działania. Inna opcja to podawanie SI konkretnych pakietów danych do analizy i przepracowywania. Ta druga metoda jest wykorzystywana przez popularną aplikację Slack. Ku zaskoczeniu użytkowników, niekoniecznie w przyjazny dla nich sposób.

Prywatność zagrożona?

W regulaminie aplikacji Slack zawarto zapisy informujące o tym, co i w jaki sposób jest przetwarzane przez modele uczące sztuczną inteligencję - chodzi m.in. o dane z aplikacji i rzeczy tworzone przez jej użytkowników. Zapisy te bardzo nie spodobały się osobom wykorzystującym program w swojej pracy. Można stwierdzić, że w sieci wybuchła z tego powodu niemała burza:

Na problem zwrócił uwagę użytkownik Twittera o nazwie @QuinnyPig, który w swoim poście wyszczególnił kontrowersyjny zapis z regulaminu. Ten dotarł do niemal dwóch milionów osób. O co konkretnie chodzi? Okazuje się, że Slack wykorzystuje rzeczy przesyłane przez użytkowników, w tym pliki czy nawet wiadomości prywatne. Wszystko to, co przesyłamy i widzimy na naszym Slacku jest domyślnie wykorzystywane przez firmę do trenowania swojej sztucznej inteligencji.

Domyślna zgodna nie jest okej

I właśnie na tej domyślności problem polega, bo zgoda jest niejako wyrażana z góry. Jasne, możemy z niej zrezygnować - a w zasadzie może to zrobić jedynie zarządzający daną przestrzenią roboczą poprzez wysłanie odpowiedniego maila. Ostatecznie jednak tak duży zakres działania na naszych danych nie powinien być domyślnie brany pod uwagę w trenowaniu SI.

Nie dziwi zatem oburzenie użytkowników, bo odpowiednią praktyką byłoby zapytanie ich o zgodę. Domyślnie aplikacja nie powinna brać naszych danych, wiadomości i tym podobnych. Martwi jednak fakt, że takie praktyki mogą zdarzać się coraz częściej.

INTERIA.PL
Masz sugestie, uwagi albo widzisz błąd?
Dołącz do nas