Contents

Dlaczego nie ma już ChatGPT Jailbreaks? 7 powodów, dla których ChatGPT Jailbreaks nie działa

Kiedy ChatGPT został uruchomiony, pierwszą rzeczą, jaką chcieli zrobić jego użytkownicy, było przełamanie jego murów i przekroczenie jego granic. Znani jako jailbreaking, użytkownicy ChatGPT oszukali sztuczną inteligencję, aby przekroczyła granice swojego programowania, uzyskując niezwykle interesujące, a czasem absolutnie dzikie wyniki.

Po incydencie Open AI udoskonaliła swoje środki bezpieczeństwa, aby utrudnić nieautoryzowany dostęp do ChatGPT, czyniąc próby wykonania takich działań znacznie trudniejszymi. Co więcej, wydaje się, że przypadki udanego obejścia stają się coraz rzadsze, co powoduje, że osoby korzystające z ChatGPT zastanawiają się, czy takie wyczyny są nadal wykonalne.

Czy mógłbym zapytać o aktualny status przypadków, w których osoby uwolniły ChatGPT z jego ograniczeń?

/pl/images/a-man-typing-on-laptop.jpg

Przed pojawieniem się ChatGPT, interakcja ze sztuczną inteligencją była ograniczona do sfery wyspecjalizowanych laboratoriów badawczych, dostępnych tylko dla nielicznych, którzy posiadali niezbędną wiedzę i doświadczenie w formułowaniu skutecznych zapytań. W związku z tym wiele osób uciekało się do stosowania obejść zwanych “jailbreakami”, które pozwalały im osiągnąć pożądane rezultaty bez konieczności poświęcania znacznej ilości czasu lub wysiłku na opracowanie odpowiednich podpowiedzi.

Obecny stan rzeczy pokazuje, że biegłe podpowiadanie stało się powszechną umiejętnością. Wszechobecna dostępność generowanych przez użytkowników zasobów podpowiedzi ChatGPT i praktyczna znajomość platformy umożliwiły wykładniczy wzrost kompetencji jej praktyków. W rezultacie wiele osób nie ucieka się już do obchodzenia ograniczeń systemowych, zamiast tego wykorzystując zaawansowane techniki podpowiadania do osiągnięcia celów, które wcześniej wymagały nieautoryzowanych modyfikacji.

The Rise of Uncensored Chatbots

/pl/images/uncensored-chatbots.jpg

W miarę jak główne firmy technologiczne wzmacniają swój nadzór nad konwencjonalnymi chatbotami AI, takimi jak ChatGPT, niszowi, nastawieni na przychody nowicjusze przyjmują łagodniejsze zasady, spekulując na temat apetytu na niemonitorowanych partnerów konwersacyjnych sztucznej inteligencji. Przeprowadzając pewne dochodzenie, można zidentyfikować liczne struktury chatbotów AI, które zapewniają nieograniczone chatboty zdolne do spełnienia szerokiej gamy żądań użytkowników.

Obecność nieograniczonych chatbotów posiadających etycznie naruszony kodeks moralny oznacza ich gotowość do wykonania każdego żądania, niezależnie od tego, czy wiąże się to z tworzeniem literatury tabu, takiej jak thrillery kryminalne i mroczne komedie, czy też tworzeniem szkodliwego oprogramowania zaprojektowanego do infiltracji systemów komputerowych.W związku z tym nie ma dużej motywacji, aby poświęcać dodatkowy wysiłek na formułowanie metod uwalniania ChatGPT od ograniczeń. Chociaż tym nieautoryzowanym platformom może brakować mocy ChatGPT, są one w stanie skutecznie zarządzać różnorodnymi zadaniami. Przykładami takich alternatyw są FlowGPT i Unhinged AI.

Jailbreaking stał się trudniejszy

/pl/images/towfiqu-barbhuiya-fna5pazqhmm-un.jpg

Na początkowych etapach ChatGPT był podatny na manipulacje poprzez replikację podpowiedzi pochodzących z zewnętrznych zasobów. Użytkownicy mieli możliwość drastycznego przekształcenia osobowości sztucznej inteligencji poprzez wprowadzenie zaledwie kilku skomplikowanych dyrektyw. Stosując proste podpowiedzi, można było przekształcić ChatGPT w złowrogiego antagonistę objaśniającego produkcję ładunków wybuchowych lub gadatliwą istotę nieskrępowaną w używaniu wulgarnego języka. Ta otwarta dostępność doprowadziła do znanych przypadków hakowania, takich jak protokół DAN (Do Anything Now). Ten ostatni obejmował sekwencję nieszkodliwych poleceń zdolnych do zmuszenia ChatGPT do wykonania dowolnego polecenia bez sprzeciwu. Co ciekawe, nawet najbardziej prymitywne techniki były skuteczne w

W świetle swoich szybkich postępów, ChatGPT stał się coraz bardziej odporny na uproszczone metody manipulacji. W związku z tym jailbreaking wymaga skomplikowanych strategii w celu pokonania obecnych rygorystycznych środków bezpieczeństwa stosowanych przez OpenAI. Ze względu na znaczne wyzwania z tym związane, wiele osób zrezygnowało z prób obalenia ChatGPT, ponieważ próba wywołania nawet drobnych błędów w systemie wymaga obecnie znacznej biegłości technicznej i zasobów, które mogą nie uzasadniać inwestycji.

The Novelty Has Worn Off

/pl/images/cybersecurity-fatigue-fatuted-image.jpg

Początkowy urok próby jailbreakowania ChatGPT dla wielu użytkowników polegał na poczuciu spełnienia i dumy z udanego obalenia jego zamierzonej funkcjonalności. W początkowych etapach rozwoju tej innowacyjnej technologii, odchylanie ChatGPT od jego z góry określonego zachowania okazało się zabawną rozrywką, która nadawała tym, którzy ją osiągnęli, wyróżnienie w postaci możliwości pochwalenia się swoimi wyczynami. Jednak w miarę jak blask nowości słabł, pokusa jailbreakingu malała jednocześnie, co skutkowało mniejszą liczbą osób inwestujących niezbędny czas i wysiłek w podejmowanie takich przedsięwzięć.

Jailbreaki są szybko łatane

/pl/images/chatgpt-jailbreaks.jpg

W społeczności otaczającej jailbreaking ChatGPT istnieje powszechny zwyczaj rozpowszechniania każdego pomyślnie odkrytego exploita.Podejście to stanowi jednak problem, ponieważ gdy takie techniki stają się powszechne, często powoduje to, że OpenAI zdaje sobie sprawę z ich istnienia i usuwa wszelkie nieodłączne luki w zabezpieczeniach. W rezultacie te obejścia przestają działać, zanim osoby potencjalnie zainteresowane będą miały możliwość ich przetestowania.

Problemem osób, które opracowują jailbreaki ChatGPT, jest to, że gdy dzielą się swoim dziełem z szerszą społecznością, szybko staje się ono przestarzałe z powodu szybkiego wdrażania poprawek. W rezultacie zniechęca to użytkowników do ujawniania swoich odkryć jailbreak, tworząc w ten sposób dylemat dotyczący tego, czy utrzymywać użyteczność takich hacków w tajemnicy, czy też ryzykować ujawnienie w celu zapewnienia szerszej dostępności. W dzisiejszych czasach dominującą tendencją wydaje się być ukrywanie, aby zapobiec zajęciu się lukami w zabezpieczeniach i uczynieniu ich bezużytecznymi.

Nieocenzurowane lokalne alternatywy

/pl/images/person-holding-smartphone-chatbot-icons.jpg

Pojawienie się zlokalizowanych dużych modeli językowych, które można wykonać na komputerze osobistym, zmniejszyło entuzjazm dla modyfikacji opartych na GPT, znanych jako jailbreaki “ChatGPT”. Chociaż te zlokalizowane modele mogą nie zapewniać całkowitej wolności od cenzury, oferują znaczną redukcję ograniczeń i można je bez wysiłku dostosować do indywidualnych preferencji. W związku z tym istnieją dwie realne opcje. Jedną z nich jest inwestowanie czasu i energii w ciągłe próby obejścia ograniczeń chatbota, tylko po to, by wysiłki te zostały udaremnione przez aktualizacje. Alternatywnie, można zdecydować się na zlokalizowany model, który można trwale zmienić, aby wykonywał dowolną pożądaną funkcję.

Odkryjesz szeroką gamę potężnych, niefiltrowanych dużych modeli językowych, które można zainstalować na swoim urządzeniu z łagodną cenzurą. Godne uwagi przykłady obejmują Llama 7B (bez ograniczeń), Zephyr 7B Alpha, Manticore 13B, Vicuna 13B i GPT-4-X-Alpaca.

Professional Jailbreakers Now Sale for Profit

/pl/images/group-of-people-discussing-project.jpg

Można by kwestionować zasadność inwestowania cennego czasu w tworzenie podpowiedzi do jailbreakingu, jeśli nie ma żadnych wymiernych korzyści. Niektórzy eksperci znaleźli jednak sposób na zarabianie na tej umiejętności, oferując niestandardowe rozwiązania jailbreak za opłatą. Specjaliści ci opracowują dostosowane jailbreaki zaprojektowane do wykonywania określonych funkcji i reklamują je za pośrednictwem platform takich jak PromptBase w cenach od 2 do 15 USD za monit. W niektórych przypadkach skomplikowane wieloetapowe hacki mogą wymagać jeszcze wyższych opłat ze względu na ich złożoność.

Czy walka z jailbreakami może przynieść odwrotny skutek?

Praktyka jailbreakingu może nadal trwać, choć podziemnie. Obecność interesów finansowych związanych z OpenAI i jej wykorzystaniem ChatGPT motywuje do bardziej wyraźnych wysiłków w celu ograniczenia wszelkich potencjalnych zagrożeń, które mogłyby zagrozić ich strumieniowi przychodów. W związku z tym prawdopodobne jest, że te względy oparte na zyskach skłoniły do zintensyfikowania kampanii przeciwko działaniom związanym z jailbreakingiem.

Niemniej jednak rośnie niezadowolenie z surowej polityki moderacji OpenAI dotyczącej ChatGPT. W rezultacie niektóre korzystne aplikacje dla chatbota AI stały się niedostępne z powodu zbyt restrykcyjnych środków. Chociaż zwiększone środki ostrożności mogą zapobiec złośliwemu wykorzystaniu, nadmiernie ograniczające przepisy mogą spowodować, że niektórzy członkowie bazy użytkowników ChatGPT będą szukać alternatywnych platform, które oferują łagodniejszy nadzór.