Na zdjęciu jest monitor z panelem głównym ChatGPT. W kółku w lewym górnym rogu jest mężczyzna w okularach pakujący swoje rzeczy do kartonu.

Pracownik wrzucił tajne dane do ChatGPT? Sprawdź, czy możesz je jeszcze odzyskać

Wielu pracowników chce sobie ułatwić życie dzięki AI. Kopiują ważne umowy, raporty finansowe lub bazy klientów wprost do okna czatu. Proszą sztuczną inteligencję o szybkie streszczenie lub analizę. Często myślą, że to bezpieczne i nikt się nie dowie. Prawda jest jednak brutalna: w momencie wklejenia tekstu firma traci nad nim kontrolę. Tajne dane trafiają na obce serwery i mogą stać się częścią ogólnej wiedzy modelu.

  • Teza. Pracownicy szukający drogi na skróty nieświadomie narażają firmy na wyciek tajemnic przedsiębiorstwa. Wklejają poufne umowy i bazy danych wprost do okien czatbotów, co skutkuje natychmiastową i często nieodwracalną utratą kontroli nad tymi informacjami.
  • Dowód. Poziom zagrożenia zależy od używanej licencji – o ile wersje biznesowe (Enterprise) posiadają zabezpieczenia, o tyle popularne konta darmowe i Plus domyślnie „karmią” model wprowadzonymi treściami. Tym samym sprawiają, że firmowe sekrety fizycznie trafiają na zewnętrzne serwery i mogą stać się częścią ogólnej wiedzy AI.
  • Efekt. Dochodzenie praw autorskich czy usunięcie danych po fakcie jest prawnie skomplikowane i niepewne, dlatego jedyną skuteczną metodą ochrony jest prewencja i uświadomienie zespołom, że każde bezrefleksyjne użycie „kopiuj-wklej” do chata może oznaczać upublicznienie unikalnego know-how organizacji.

Pierwszą reakcją na taki wyciek zazwyczaj jest panika. Szefowie pytają: „co stało się z tymi informacjami? Czy OpenAI wykorzysta je do nauki? Czy konkurencja pozna nasze sekrety, wpisując odpowiednie zapytanie?”. Odpowiedź zależy od kilku technicznych szczegółów, a przede wszystkim od wersji czatu, której użył pracownik.

ChatGPT darmowy czy płatny? To robi różnicę

Wersje ChatGPT dostępne dla każdego różnią się od tych dla firm. Wariant darmowy oraz płatny (Plus) domyślnie mogą wykorzystywać twoje rozmowy do treningu. Oznacza to, że AI faktycznie uczy się na wprowadzonych zdaniach. Można to wyłączyć w ustawieniach, ale wielu pracowników o tym zapomina lub w ogóle o tym nie wie.

Inaczej wygląda to w wersjach czysto biznesowych, jak Team czy Enterprise. Są one znacznie bezpieczniejsze. Ich ustawienia domyślne blokują karmienie modelu danymi firmowymi. Nie zmienia to jednak faktu, że dane i tak muszą gdzieś trafić.

Tu dochodzimy do drugiego dna problemu. Nawet jeśli pracownik wyłączył opcję trenowania modelu, dane i tak opuszczają mury firmy. Fizycznie wędrują na serwery należące do OpenAI, a dostawca usługi gromadzi przy tym nie tylko sam tekst.

Twoje sekrety na obcych serwerach AI. Oto jak je usunąć

System zapisuje też informacje o przeglądarce, typie urządzenia czy systemie operacyjnym. Pracodawca traci więc fizyczną kontrolę nad plikami. Mimo zapewnień o szyfrowaniu dane znajdują się w obcej jurysdykcji i na infrastrukturze, której nie nadzorujesz.

O komentarz w tej sprawie poprosiliśmy kancelarię prawną BBW. Pracujący tam eksperci wskazali dwie możliwe ścieżki. W przypadku użytkowników prywatnych OpenAI umożliwia złożenie wniosku „Privacy Request”. To prośba o skasowanie wprowadzonych danych, wygenerowanych obrazów, wyników i odpowiedzi sztucznej inteligencji. Co jednak, kiedy nie ma takiej możliwości, a udostępnione dane byłyby wrażliwe?

Jeśli doszłoby do wykorzystania danych stanowiących tajemnicę przedsiębiorstwa teoretycznie, w zależności od okoliczności sprawy, możliwe będzie rozważanie dochodzenie ochrony na podstawie ustawy z dnia 16 kwietnia 1993 r. o zwalczaniu nieuczciwej konkurencji.

Adw. Katarzyna Bando-Tylińska, Kancelaria BWW, dla Biznes Enter

Ekspertka zwraca jednak uwagę na kluczowy problem: twórca AI nie odpowiada za to, jak inni ludzie wykorzystają odpowiedzi wygenerowane przez system. Walka sądowa może być więc długa i niepewna.

Zamiast usuwać dane, nie wpisuj ich bezmyślnie do ChatGPT

Proces usuwania danych z bazy AI jest trudny i żmudny. Dlatego najlepszą metodą ochrony nie są późniejsze pozwy, tylko prewencja. Firma musi jasno ustalić zasady korzystania z AI. Pracownik musi wiedzieć, że wrzucenie umowy do czatu to naruszenie bezpieczeństwa. Jeśli zaniedbasz edukację zespołu, twoje unikalne know-how może stać się publiczne. Wtedy na skuteczną reakcję będzie już za późno.

Ignacy Zieliński, dziennikarz Biznes Enter

Źródło: własne. Zdjęcie otwierające: Emiliano Vittoriosi, Vitaly Gariev / Unsplash.com, montaż własny

Część odnośników to linki afiliacyjne lub linki do ofert naszych partnerów. Po kliknięciu możesz zapoznać się z ceną i dostępnością wybranego przez nas produktu – nie ponosisz żadnych kosztów, a jednocześnie wspierasz niezależność zespołu redakcyjnego.

Motyw