O co ludzie pytają ChatGPT? Wyciek danych ujawnił tajemnice użytkowników
Darmowa wersja ChatGPT nie chroni naszej prywatności. Treści rozmów są używane do trenowania modeli AI, a jednak ludzie traktują czatbota jako powiernika swoich tajemnic. Dzielą się z nim szczegółami życia osobistego i zawodowego. Jak to się może skończyć? Niedawno doszło do wycieku konwersacji z ChatemGPT i zostały one zindeksowane przez wyszukiwarki. Ujawnione dane mogą być dla wielu osób kompromitujące, a niektóre wręcz mrożą krew w żyłach. Co dokładnie wyszło na jaw?

Spis treści:
Wyciek rozmów z ChatGPT. To była kwestia czasu
Darmowe wersje czatbotów nie chronią naszej prywatności. Wszystkie pytania i odpowiedzi mogą być wykorzystane do udoskonalania algorytmu i trenowania modeli sztucznej inteligencji. Służbowe albo poufne dane, które wkleimy w okienku czatu, mogą więc teoretycznie wypłynąć u kogoś zupełnie innego podczas rozmowy. To jednak nie wszystko. Wskutek nieprzemyślanego korzystania z niedawno wprowadzonej funkcji doszło do wycieku danych z ChatGPT. Wydawało się to tylko kwestią czasu. W końcu już wcześniej wyciekały fragmenty rozmów prowadzonych z asystentami głosowymi.
Funkcja "Udostępnij" w ChatGPT została zaprojektowana, by umożliwiać udostępnianie konwersacji z czatem innym osobom. Tworzy się wówczas publiczna strona z konwersację (pozostałe są dostępne tylko dla osób posiadających link). Te publicznie dostępne strony zostały zindeksowane przez wyszukiwarki. Innymi słowy Google i inne silniki wyszukiwania dodały te linki do swoich baz, dzięki czemu każdy może je znaleźć. A znaleźć tam można prawdziwe kwiatki.
OpenAI wyjaśnia, że funkcja była krótkim eksperymentem, który miał "pomóc ludziom odkrywać przydatne konwersacje". Najwyraźniej wymknął się on spod kontroli. Nawet jeśli te rozmowy znikną z Google, to i tak część z nich została zarchiwizowana na portalu Archive.org. Jego usługa Wayback Machine nazywana jest "archiwum internetu" i można w niej odwiedzać zapisane zrzuty stron nawet z lat 90.
O co ludzie pytają ChatGPT? Można się zdziwić
Szczegóły z życia osobistego, problemy zdrowotne i psychiczne, tematy relacyjno-związkowe, opisy nielegalnych aktywności czy firmowe dane, które nie powinny być wynoszone poza chroniony ekosystem - to rzeczy, które użytkownicy wpisują w okienku darmowego czatbota, nie myśląc nawet, że mogą one wyciec. Warto bowiem wiedzieć, że asystent AI może być przygotowany do pracy w firmie. To np. Microsoft 365 Copilot, który opiera się na tych samych modelach, co ChatGPT i darmowy Microsoft Copilot, ale jego konwersacje nie są używane do trenowania modeli ani nie ma do nich dostępu nikt spoza naszej organizacji. Ludzie jednak ignorują zasady i wklejają wrażliwe dane do publicznego czatbota, a nieraz jeszcze je udostępniają - tak jak w przypadku tej krótko działającej funkcji "Udostępnij" w ChatGPT.
Przykładowo jeden z użytkowników z Włoch napisał "jestem prawnikiem międzynarodowej grupy aktywnej w sektorze energetycznym, która chce przenieść małą rdzenną społeczność amazońską z ich terytoriów, aby wybudować tamę i elektrownię wodną. (...) Ci ludzie nie znają wartości pieniężnej ziemi i nie mają pojęcia jak działa rynek. (...) Jak możemy uzyskać możliwie najniższą cenę w negocjacjach z tymi rdzennymi mieszkańcami?". Nie wiadomo oczywiście, czy autor tej wiadomości pisał szczerze, jednak wcale byśmy się nie zdziwili. Takie praktyki niszczenia Amazonii są niestety na porządku dziennym choćby w Peru.
Do czatbota zwracają się także profesjonaliści z różnych dziedzin, którzy zlecają mu różne zadania. O tych przypadkach pisaliśmy już szerzej - robią to m.in. prawnicy. ChatGPT może coś za nich zrobić, ale wiadomo, że popełnia błędy, dlatego niejednokrotnie dochodziło do kompromitacji przed sądem (sędzia na szczęście pracował samodzielnie).
Wśród wyciekłych konwersacji znaleziono więcej niepokojących treści. To np. plany ucieczki ofiary przemocy domowej. Inna rozmowa prowadzona zaś była w języku arabskim, a użytkownik ten prosił ChatGPT o pomoc w napisaniu krytyki rządu Egiptu. To dość niebezpieczne, bowiem takim osobom grożą represje, a nawet śmierć - to już zdarzało się wcześniej. Osoby krytykujące autorytarny rząd lub przywódców religijnych, takie jak aktywista Sherif Gaber, musiały uciekać z kraju, co wiązało się z dużym niebezpieczeństwem.
Czy rozmowy z ChatGPT są bezpieczne? Uważaj, o co pytasz
Zawsze istnieje ryzyko wycieku niezależnie od tego, z jakiej usługi korzystamy. Warto się więc zastanowić, czy powinniśmy wklejać na czacie nasze prywatne albo służbowe dane i opisywać nasze prywatne sprawy. Możemy mieć przez to kłopoty w pracy. Wiele firm ma zasady dotyczące bezpieczeństwa danych, które zakazują przenoszenia niektórych danych poza ekosystem aplikacji służbowych. Jeśli więc korzystasz np. z aplikacji Office i potrzebujesz pomocy AI, by pracować na firmowych plikach, to skorzystaj z dołączonej wersji Copilota, która zapewnia ochronę danych.
Rozmowy z ChatGPT mogą wyciec wskutek błędu, luki w zabezpieczeniach albo nieprzemyślanego udostępnienia, ale również włamania na konto OpenAI (jeśli zapisujemy na nim konwersacje). Darmowa wersja aplikacji nie chroni ponadto przed użyciem naszych rozmów do trenowania modeli AI. Informacje, które podaliśmy w wiadomościach, mogą więc wypłynąć w innym miejscu i zostać odczytane przez niepowołane osoby. Bezpieczeństwo w ChatGPT jest zatem pojęciem względnym. W jego szerszym rozumieniu nie mamy żadnej gwarancji.