AI wie o tobie więcej, niż myślisz. Czego lepiej nie pisać w ChatGPT?
Sztuczna inteligencja na dobre zadomowiła się w naszym życiu. Wiele osób wykorzystuje popularne chatboty, takie jak ChatGPT, Claude czy Gemini do codziennej pracy, nauki, a nierzadko również dla rozrywki. Korzystając z dobrodziejstw tego rodzaju narzędzi, należy zwracać uwagę na ochronę swoich danych. Co sztuczna inteligencja wie o użytkownikach? Czego lepiej nie pisać chatbotowi? Odpowiadamy.

Spis treści:
- Co sztuczna inteligencja wie o użytkownikach? Więcej, niż ci się wydaje
- Przerabiasz zdjęcia w AI? Sprawdź, czego lepiej nie wysyłać
- Dobre praktyki korzystania z chatbotów AI
Co sztuczna inteligencja wie o użytkownikach? Więcej, niż ci się wydaje
Prowadząc konwersację z chatbotem, musimy zdawać sobie sprawę z tego, że każde zapytanie, a nawet udostępniane załączniki (zdjęcia, filmy lub dokumenty) mogą być zapisywane i przechowywane w celu doskonalenia usług. Wykorzystywanie rozmów użytkowników do trenowania modeli stało się standardem wśród największych firm - między innymi Google, Anthropic czy OpenAI, czyli twórców kolejno Gemini, Claude i ChatGPT.
Co ważne - narzędzia AI mogą uczyć się również na podstawie udostępnionych prywatnych informacji lub poufnych dokumentów. Przed tego rodzaju zagrożeniami przestrzegał w rozmowie z GeekWeekiem Radosław Mechło - ekspert w dziedzinie sztucznej inteligencji.
"Rozwiązania oparte na AI stają się coraz bardziej popularne, co wiąże się z częstym przekazywaniem różnorodnych, nawet wrażliwych danych. Warto mieć świadomość zagrożeń, jakie to niesie. Udostępnianie prywatnych informacji lub poufnych dokumentów firmowych może spowodować, że dane narzędzie AI użyje ich jako podstawy do generowania odpowiedzi. Odpowiednio sformułowane zapytanie może potencjalnie umożliwić osobom niepowołanym dostęp do naszych sekretów. Chociaż twórcy projektują te narzędzia tak, by minimalizować takie ryzyko, w przeszłości zdarzały się incydenty naruszenia prywatności" - wskazał.
Na podstawie rozmów, AI może poznać nasze imię i nazwisko, wiek, płeć, lokalizację, a nawet zatrudnienie czy zainteresowania. Po krótkiej konwersacji modele sztucznej inteligencji mogą określić nasz profil osobowościowy. W przypadku ewentualnego wycieku, takie dane mogą zostać wykorzystane przez cyberprzestępców między innymi do tworzenia przekonujących kampani phishingowych.
Przerabiasz zdjęcia w AI? Sprawdź, czego lepiej nie wysyłać
W trakcie rozmowy z chatbotem, wielu osobom zdarza się przesyłać modelowi zdjęcia, na przykład w celu ich szybkiego przerobienia. Pamiętajmy jednak, że one także mogą być przechowywane i wykorzystywane do celów szkoleniowych. Ponadto, metadane fotografii (tak zwane dane EXIF) mogą ujawniać prywatne informacje, takie jak między innymi współrzędne GPS miejsca, w którym zdjęcie zostało zrobione.
Przesyłając zdjęcia w rozmowie z chatbotem, lepiej unikać ujawniania wizerunku swojego lub bliskich. W przypadku wycieku danych, istnieje ryzyko wykorzystania fotografii przez cyberprzestępców. W tym kontekście oczywistym staje się również to, by nie wysyłać skanów ważnych dokumentów - na przykład dowodów osobistych, paszportów, deklaracji podatkowych czy wyciągów bankowych.
Dobre praktyki korzystania z chatbotów AI
Korzystając z chatbotów AI, dobrze jest znać kilka dobrych praktyk, które mogą pozytywnie wpłynąć na bezpieczeństwo naszych prywatnych danych. Oto one:
- Jeśli istnieje taka możliwość, w ustawieniach danego narzędzia wyłączaj opcję wykorzystywania rozmów do ulepszania modelu;
- Stosuj deidentyfikacje - anonimizuj nazwy i nie używaj prawdziwych nazwisk czy nazw firm;
- Unikaj przesyłania zdjęć z wizerunkiem swoim lub bliskich, jeśli chcesz wysłać grafikę do analizy, pamiętaj o usunięciu metadanych (EXIF) oraz zamazaniu wrażliwych szczegółów znajdujących się na fotografii;
- Nigdy nie przesyłaj swoich prywatnych danych, numerów kont i kart bankowych, haseł, numeru PESEL czy dokumentów poufnych;
- Rozważ używanie lokalnych modeli językowych - w ich przypadku istnieje możliwość pracy w trybie offline, a dane nie są przesyłane do chmury, dzięki czemu zapewniają większą prywatność.
Sztuczna inteligencja daje nam całe mnóstwo możliwości, jednak może również wiązać się z wieloma zagrożeniami. Wobec tego należy z niej korzystać w sposób rozsądny, nie zapominając przy tym o dobrych praktykach kluczowych dla ochrony prywatności.










