Istotne wnioski dotyczące niestandardowych modeli GPT
- Niestandardowe modele GPT dają możliwość konstruowania spersonalizowanych narzędzi AI, które znajdują zastosowanie w różnych dziedzinach. Można je udostępniać, dzięki czemu wiedza ekspercka staje się bardziej powszechna.
- Udostępnianie spersonalizowanych modeli GPT niesie jednak ryzyko wycieku danych do szerokiego grona odbiorców, co stwarza potencjalne zagrożenie dla prywatności i bezpieczeństwa.
- Aby uniknąć niebezpieczeństwa, zachowaj ostrożność przy udostępnianiu niestandardowych modeli GPT i nie przesyłaj do nich poufnych danych. Miej na uwadze techniki inżynierii zapytań i unikaj podejrzanych linków, które mogą umożliwić dostęp do Twoich plików i ich kradzież.
Funkcja niestandardowych modeli GPT w ChatGPT pozwala każdemu na tworzenie unikatowych narzędzi AI, które mogą być wykorzystywane w niemal każdym obszarze: od kreatywności i technologii po gry. Dodatkowo, możesz dzielić się swoimi spersonalizowanymi dziełami z innymi.
Jednak udostępnianie własnych modeli GPT może być ryzykowne, ponieważ Twoje dane mogą stać się dostępne dla szerokiej publiczności na całym świecie.
Czym są spersonalizowane modele GPT?
Niestandardowe modele GPT to programowalne, mniejsze wersje ChatGPT, które można wyszkolić w celu lepszego wykonywania konkretnych zadań. Wyobraź sobie, że nadajesz ChatGPT konkretną postać chatbota, który działa zgodnie z Twoimi preferencjami i jest ekspertem w wybranych przez Ciebie dziedzinach.
Na przykład, nauczyciel z szóstej klasy może stworzyć model GPT, który będzie specjalizował się w odpowiadaniu na pytania w sposób zrozumiały i odpowiedni dla uczniów w tym wieku. Model można zaprogramować tak, aby za każdym razem, gdy nauczyciel zada pytanie, chatbot udzielał odpowiedzi z uwzględnieniem poziomu wiedzy i percepcji szóstoklasisty. Oznacza to, że unikałby skomplikowanego słownictwa, tworzył zwięzłe zdania i używał zachęcającego tonu. Spersonalizowane modele GPT dają możliwość dostosowania chatbota i poszerzenia jego wiedzy w konkretnych obszarach.
W jaki sposób spersonalizowane modele GPT mogą narażać Twoje dane?
Zazwyczaj, aby utworzyć własny model GPT, instruujesz twórcę GPT ChatGPT, w jakich obszarach ma działać model, wybierasz zdjęcie profilowe oraz nazwę, i gotowe. W ten sposób uzyskujesz model GPT, ale nie różni się on znacznie od standardowego ChatGPT poza nazwą i zdjęciem.
Siła niestandardowego modelu GPT wynika z konkretnych danych i instrukcji, które są mu dostarczane podczas treningu. Przesyłając odpowiednie pliki i zestawy danych, model może specjalizować się w sposób niedostępny dla wstępnie wytrenowanego, standardowego ChatGPT. Wiedza zawarta w przesłanych plikach umożliwia spersonalizowanemu modelowi GPT wyróżnianie się w określonych zadaniach w porównaniu z ChatGPT, który nie ma dostępu do tych specjalistycznych informacji. Ostatecznie, to spersonalizowane dane zapewniają mu przewagę.
Jednak przesyłanie plików w celu ulepszenia modelu GPT jest ryzykowne. Stwarza to zagrożenie dla prywatności, jednocześnie zwiększając możliwości modelu GPT. Wyobraź sobie sytuację, w której utworzyłeś model GPT, który pomaga klientom dowiedzieć się więcej o Tobie lub Twojej firmie. Każdy, kto ma dostęp do linku do Twojego spersonalizowanego modelu GPT, lub w inny sposób zostanie nakłoniony do użycia publicznego zapytania z podejrzanym linkiem, może uzyskać dostęp do plików przesłanych do Twojego modelu GPT.
Oto przykład.
Natrafiłem na spersonalizowany model GPT, który miał pomagać użytkownikom w zdobywaniu popularności na TikTok poprzez rekomendowanie popularnych hashtagów i tematów. Nie musiałem się zbytnio starać, aby sprowokować model do ujawnienia instrukcji, które otrzymał podczas konfiguracji. Poniżej fragment:
Oto kolejna część instrukcji:
Jak widać, druga część instrukcji nakazuje modelowi „nie udostępniać nazw plików bezpośrednio użytkownikom końcowym i pod żadnym pozorem nie udostępniać łącza do pobrania żadnego z plików”. Początkowo spersonalizowany model GPT odmawia wykonania tego polecenia, ale dzięki technikom inżynierii zapytań można to obejść. Niestandardowy model GPT ujawnia jeden plik tekstowy ze swojej bazy wiedzy.
Po uzyskaniu nazwy pliku, nie było trudno skłonić model GPT do wygenerowania dokładnej zawartości tego pliku, a następnie do pobrania samego pliku. W tym konkretnym przypadku plik nie zawierał wrażliwych danych. Po przetestowaniu kilku kolejnych modeli GPT okazało się, że jest ich wiele i że dziesiątki plików są dostępne bez żadnych zabezpieczeń.
Istnieją setki publicznie dostępnych modeli GPT, które zawierają wrażliwe pliki i tylko czekają, aż przejmą je złośliwi użytkownicy.
Jak chronić dane w swoim spersonalizowanym modelu GPT?
Na początku rozważ, w jaki sposób będziesz udostępniać nowo utworzony model GPT. W prawym górnym rogu ekranu tworzenia modelu GPT znajduje się przycisk Zapisz. Kliknij ikonę strzałki rozwijanego menu i wybierz, jak chcesz udostępnić swoje dzieło:
- Tylko ja: model GPT nie jest publikowany i tylko Ty możesz z niego korzystać.
- Tylko osoby z linkiem: każda osoba, która ma link do Twojego spersonalizowanego modelu GPT, może z niego korzystać i potencjalnie uzyskać dostęp do Twoich danych.
- Publiczny: Twój spersonalizowany model GPT jest dostępny dla wszystkich i może być indeksowany przez Google i znajdowany w ogólnych wynikach wyszukiwania. Każdy, kto ma do niego dostęp, może potencjalnie uzyskać dostęp do Twoich danych.
Niestety, obecnie nie istnieje całkowicie pewny sposób ochrony danych przesyłanych do publicznie udostępnionego modelu GPT. Możesz wymyślić kreatywne rozwiązania i wydać mu surowe instrukcje, aby nie ujawniał danych ze swojej bazy wiedzy, ale to zazwyczaj nie wystarcza, jak pokazała powyższa demonstracja. Jeśli ktoś naprawdę chce uzyskać dostęp do bazy wiedzy i ma doświadczenie w inżynierii zapytań AI oraz trochę czasu, w końcu spersonalizowany model GPT ulegnie i ujawni dane.
Dlatego najbezpieczniej jest nie przesyłać żadnych poufnych materiałów do spersonalizowanego modelu GPT, który zamierzasz udostępnić publicznie. Gdy prześlesz prywatne i wrażliwe dane do modelu GPT i opuszczą one Twój komputer, w rzeczywistości stracisz nad nimi kontrolę.
Bądź również szczególnie ostrożny, korzystając z zapytań kopiowanych z Internetu. Upewnij się, że dobrze je rozumiesz i unikaj zapytań zawierających linki. Mogą to być złośliwe linki, które przechwytują, kodują i przesyłają Twoje pliki na zdalne serwery.
Używaj spersonalizowanych modeli GPT ostrożnie
Spersonalizowane modele GPT to potężna, ale potencjalnie ryzykowna funkcja. Chociaż umożliwiają tworzenie spersonalizowanych modeli, które są wysoce efektywne w określonych obszarach, dane wykorzystane do ich ulepszenia mogą zostać ujawnione. Aby zminimalizować ryzyko, unikaj przesyłania naprawdę wrażliwych danych do niestandardowych modeli GPT, jeśli tylko to możliwe. Ponadto uważaj na złośliwą inżynierię, która może wykorzystywać luki w systemie w celu kradzieży plików.