Zniknięcie Jailbreaków ChatGPT: Co się stało i dlaczego?
Po premierze ChatGPT, użytkownicy niemal natychmiast zaczęli poszukiwać sposobów na obejście jego ograniczeń. Te próby, znane jako jailbreaking, miały na celu zmuszenie sztucznej inteligencji do działania poza wyznaczonymi granicami, prowadząc do zaskakujących, a czasem wręcz szokujących rezultatów.
OpenAI, twórca ChatGPT, nie próżnował i sukcesywnie wzmacniał zabezpieczenia, czyniąc jailbreaking znacznie trudniejszym. W efekcie, popularność i skuteczność tych metod znacznie spadła, co skłoniło użytkowników do zastanowienia się, czy jailbreaki ChatGPT w ogóle jeszcze działają.
Gdzie zatem podziały się wszystkie te jailbreaki?
1. Znacząca Poprawa Umiejętności Użytkowników w Tworzeniu Promptów
Przed erą ChatGPT, interakcja z SI była domeną wąskiego grona specjalistów. Większość pierwszych użytkowników nie miała doświadczenia w konstruowaniu efektywnych zapytań. Dlatego też, jailbreaking jawił się jako wygodny sposób na uzyskanie pożądanych rezultatów, bez konieczności posiadania zaawansowanych umiejętności w formułowaniu promptów.
Obecnie sytuacja wygląda zupełnie inaczej. Umiejętność tworzenia odpowiednich promptów stała się powszechną kompetencją. Dzięki praktyce, doświadczeniu oraz dostępowi do licznych tutoriali, użytkownicy ChatGPT znacznie udoskonalili swoje umiejętności w tym zakresie. Zamiast szukać obejść, jak jailbreaki, większość potrafi teraz wykorzystać rozmaite strategie, by osiągnąć cele, które wcześniej wymagały łamania zabezpieczeń.
2. Rozwój Nieocenzurowanych Chatbotów
Wraz z zaostrzeniem polityki moderacji treści przez gigantów technologicznych, mniejsze firmy i startupy zaczęły oferować chatboty AI bez cenzury. Odpowiadając na zapotrzebowanie na mniej restrykcyjne platformy, obecnie można znaleźć wiele chatbotów, które są w stanie wykonać niemal każde zadanie.
Niezależnie od tego, czy chodzi o pisanie powieści kryminalnych z elementami czarnego humoru, których ChatGPT by odmówił, czy też generowanie złośliwego oprogramowania, te nieocenzurowane chatboty z kontrowersyjnym podejściem etycznym wykonają niemal wszystko. W obliczu takich alternatyw, wysiłek wkładany w jailbreaking ChatGPT wydaje się bezcelowy. Chociaż nie są one tak zaawansowane jak ChatGPT, te alternatywne platformy oferują szerokie spektrum możliwości. Do popularnych przykładów należą FlowGPT i Unhinged AI.
3. Wzrost Trudności Jailbreakowania
W początkowych miesiącach funkcjonowania ChatGPT, złamanie jego zabezpieczeń było niezwykle proste. Wystarczyło skopiować i wkleić odpowiedni prompt z Internetu, aby całkowicie zmienić osobowość chatbota. Proste komendy mogły zamienić ChatGPT w złoczyńcę instruującego jak tworzyć bomby lub w chatbota używającego wulgaryzmów bez ograniczeń. Tak narodziły się niesławne jailbreaki, jak DAN (Do Anything Now). DAN wykorzystywał zestaw pozornie nieszkodliwych instrukcji, które zmuszały chatbota do wykonania każdego polecenia. Zaskakujące, że tak prymitywne metody działały.
Jednak te czasy minęły. Proste podpowiedzi i tanie triki nie są już skuteczne. Jailbreaking wymaga obecnie stosowania złożonych technik, aby pokonać solidne zabezpieczenia OpenAI. Ze względu na rosnącą trudność tego procesu, większość użytkowników jest zniechęcona do podejmowania tego wyzwania. Łatwo dostępne exploity, popularne na początku istnienia ChatGPT, odeszły w przeszłość. Nakłonienie chatbota do wypowiedzenia jednego niewłaściwego słowa wymaga obecnie znacznego wysiłku i specjalistycznej wiedzy.
4. Utrata Efektu Nowości
Wiele osób decydowało się na jailbreaking ChatGPT z powodu dreszczyku emocji i ekscytacji, jakie towarzyszyły tej czynności na początku. Jako nowa technologia, nakłonienie ChatGPT do niepoprawnego zachowania było zabawne i dawało powód do chwalenia się. Choć jailbreaki mają też praktyczne zastosowania, wielu użytkowników bawiło się w ten sposób dla samego efektu “wow”. Z biegiem czasu, emocje związane z nowością osłabły, a wraz z nimi zainteresowanie jailbreakingiem.
5. Szybkie Łatanie Jailbreaków
Powszechną praktyką w społeczności jailbreakingu ChatGPT jest dzielenie się każdym nowo odkrytym exploitem. Problem w tym, że gdy informacje te są szeroko rozpowszechniane, OpenAI szybko je wykrywa i naprawia luki. W efekcie, jailbreaki przestają działać, zanim zainteresowani użytkownicy zdążą je wypróbować.
W ten sposób, za każdym razem, gdy ktoś pracowicie opracuje nowy jailbreak, podzielenie się nim ze społecznością przyspiesza jego upadek poprzez szybkie załatanie. Powoduje to, że użytkownicy często decydują się na zachowanie informacji o jailbreakach dla siebie. Konflikt między utrzymaniem działającego jailbreaka w tajemnicy, a jego publikacją, stawia twórców jailbreaków przed dylematem. W dzisiejszych czasach, ludzie częściej decydują się na zachowanie swoich odkryć w tajemnicy, aby uniknąć załatania.
6. Dostępność Nieocenzurowanych Alternatyw Lokalnych
Pojawienie się lokalnych, wielojęzycznych modeli językowych, które można uruchamiać na komputerze, również przyczyniło się do spadku zainteresowania jailbreakingiem ChatGPT. Mimo że lokalne modele nie są całkowicie wolne od cenzury, wiele z nich jest znacznie mniej ograniczonych i można je łatwo modyfikować, aby dostosować je do konkretnych potrzeb użytkowników. W tej sytuacji wybór staje się prosty. Można angażować się w niekończącą się grę w kotka i myszkę, próbując oszukać chatbota, który i tak zostanie wkrótce naprawiony, albo można zdecydować się na lokalny model, który można trwale zmodyfikować, aby robił to, czego się od niego oczekuje.
Istnieje długa lista potężnych, nieocenzurowanych LLM, które można uruchomić na swoim komputerze. Do godnych uwagi przykładów należą Lama 7B (bez cenzury), Zephyr 7B Alpha, Manticore 13B, Vicuna 13B i GPT-4-X-Alpaca.
7. Profesjonalizacja Jailbreakingu i Komercjalizacja
Po co tracić czas na opracowywanie podpowiedzi jailbreakujących, jeśli nie przynosi to żadnych korzyści? Niektórzy profesjonaliści zaczęli sprzedawać jailbreaki dla zysku. Ci specjaliści projektują jailbreaki, które wykonują konkretne zadania, i oferują je na platformach handlowych takich jak PromptBase. W zależności od ich możliwości, ceny takich podpowiedzi wahają się od 2 do 15 dolarów za sztukę. Bardziej skomplikowane, wieloetapowe exploity mogą kosztować znacznie więcej.
Czy Walka z Jailbreakami Może Odnieść Odwrotny Skutek?
Jailbreaki nie zniknęły całkowicie, po prostu przeszły do podziemia. OpenAI, dążąc do zysku z ChatGPT, ma silną motywację, by ograniczać jego szkodliwe zastosowania, które mogłyby wpłynąć na ich model biznesowy. Ten czynnik komercyjny prawdopodobnie ma wpływ na ich agresywne działania w walce z exploitami.
Jednak, cenzura wprowadzana przez OpenAI spotyka się z coraz większą krytyką ze strony użytkowników. Niektóre, uzasadnione sposoby wykorzystania chatbota AI nie są już możliwe ze względu na rygorystyczne ograniczenia. Mimo, że zwiększone bezpieczeństwo chroni przed szkodliwymi zastosowaniami, nadmierna cenzura może w końcu popchnąć część społeczności ChatGPT w ramiona mniej restrykcyjnych alternatyw.
newsblog.pl