Contents

Varför finns det inga fler ChatGPT-jailbreaks? 7 skäl till att ChatGPT-jailbreaks inte fungerar

När ChatGPT lanserades var det första användarna ville göra att bryta ner dess väggar och tänja på dess gränser. ChatGPT-användarna lurade AI:n att överskrida gränserna för sin programmering med några otroligt intressanta och ibland helt vilda resultat.

Efter incidenten har Open AI förfinat sina säkerhetsåtgärder för att hindra obehörig åtkomst till ChatGPT, vilket gör försök att utföra sådana handlingar betydligt mer utmanande. Dessutom verkar det som om fall av framgångsrika förbikopplingar har blivit alltmer sällsynta, vilket får dem som använder ChatGPT att ifrågasätta om sådana bedrifter fortfarande är genomförbara.

Får jag fråga om den aktuella statusen för de fall där individer har befriat ChatGPT från dess begränsningar?

ChatGPT:s förmåga att ställa frågor har generellt förbättrats

/sv/images/a-man-typing-on-laptop.jpg

Innan ChatGPT uppstod var interaktionen med artificiell intelligens begränsad till specialiserade forskningslaboratorier, endast tillgängliga för ett fåtal utvalda som hade nödvändig kunskap och expertis för att formulera effektiva förfrågningar. Följaktligen använde sig många individer av så kallade “jailbreaks”, som gjorde det möjligt för dem att uppnå önskade resultat utan att behöva spendera mycket tid eller ansträngning på att utforma lämpliga frågor.

Den nuvarande situationen visar att skicklig promptning har utvecklats till en utbredd färdighet. Den allestädes närvarande tillgången till användargenererade ChatGPT-resurser för prompting och praktisk förtrogenhet med plattformen har möjliggjort en exponentiell tillväxt i kompetensen hos dess utövare. Många individer använder sig inte längre av att kringgå systemrestriktioner utan använder istället avancerade promptingtekniker för att uppnå mål som tidigare krävde obehöriga modifieringar.

Uppkomsten av ocensurerade chatbots

/sv/images/uncensored-chatbots.jpg

Medan stora teknikföretag stärker sin övervakning av konventionella AI-chatbots som ChatGPT, antar nischade, intäktsdrivna nykomlingar mer överseende policyer, vilket spekulerar i en aptit för oövervakade samtalspartners med artificiell intelligens. Genom att göra lite efterforskningar kan man identifiera många AI-chatbot-ramverk som tillhandahåller obegränsade chatbots som kan uppfylla ett omfattande utbud av användarförfrågningar.

Förekomsten av obegränsade chatbots med en etiskt komprometterad moralisk kod visar att de är villiga att uppfylla alla önskemål, oavsett om det handlar om att skriva tabulitteratur som kriminella thrillers och mörk komedi eller att skapa skadlig programvara för att infiltrera datorsystem.Följaktligen finns det liten motivation att spendera ytterligare ansträngningar på att formulera metoder för att befria ChatGPT från begränsningar. Även om dessa oauktoriserade plattformar kanske inte har samma styrka som ChatGPT, kan de hantera en mängd olika uppdrag på ett effektivt sätt. Exempel på sådana alternativ är FlowGPT och Unhinged AI.

Jailbreaking har blivit svårare

/sv/images/towfiqu-barbhuiya-fna5pazqhmm-un.jpg

I sina inledande skeden var ChatGPT mottagligt för manipulation genom replikering av uppmaningar som härrörde från externa resurser. Användarna hade möjlighet att drastiskt förändra AI:ns personlighet genom att bara införa en handfull komplicerade direktiv. Genom att använda enkla uppmaningar kunde man förvandla ChatGPT till en illvillig antagonist som förklarade hur man tillverkar explosiva anordningar eller en pratglad enhet som obehindrat använde vulgärt språk. Denna öppna tillgänglighet ledde till ökända fall av hackning, t.ex. DAN-protokollet (Do Anything Now). Det senare innehöll en sekvens av oskyldiga kommandon som kunde tvinga ChatGPT att utföra vilket kommando som helst utan invändningar. Anmärkningsvärt är att även de mest rudimentära tekniker var effektiva

Mot bakgrund av sin snabba utveckling har ChatGPT blivit alltmer resistent mot enkla metoder för manipulation. Följaktligen kräver jailbreaking invecklade strategier för att övervinna de nuvarande stränga säkerhetsåtgärderna som används av OpenAI. På grund av de stora utmaningarna har många individer övergett försöken att undergräva ChatGPT, eftersom försök att framkalla även mindre felsteg från systemet nu kräver betydande teknisk skicklighet och resurser som kanske inte motiverar investeringen.

The Novelty Has Worn Off

/sv/images/cybersecurity-fatigue-fatuted-image.jpg

Den ursprungliga lockelsen att försöka jailbreaka ChatGPT för många användare låg i känslan av prestation och stolthet som härrörde från att framgångsrikt undergräva dess avsedda funktionalitet. I början av denna innovativa teknik var det ett underhållande tidsfördriv att avvika ChatGPT från dess förutbestämda beteende, och de som lyckades med det kunde skryta om sina bedrifter. Men i takt med att nyhetens behag minskade, minskade också lockelsen att jailbreaka, vilket resulterade i att färre personer investerade den tid och ansträngning som krävdes för att genomföra sådana försök.

Jailbreaks patchas snabbt

/sv/images/chatgpt-jailbreaks.jpg

Inom gemenskapen kring ChatGPT-jailbreaking finns det en utbredd sedvänja att sprida varje framgångsrikt upptäckt exploit.Detta tillvägagångssätt innebär dock ett problem eftersom när sådana tekniker blir allmänt spridda resulterar det ofta i att OpenAI blir medvetna om deras existens och löser eventuella inneboende säkerhetsbrister. Följaktligen upphör dessa lösningar att fungera innan personer med potentiellt intresse har möjlighet att testa dem.

Problemet för personer som utvecklar ChatGPT-jailbreaks är att när de delar sin skapelse med det bredare samhället blir den omedelbart föråldrad på grund av den snabba implementeringen av patchar. Följaktligen avskräcker detta användare från att göra sina jailbreak-upptäckter kända, vilket skapar en gåta om huruvida man ska behålla nyttan av sådana hack i hemlighet eller riskera exponering för att få bredare tillgänglighet. I dagsläget verkar den rådande inställningen vara att hemlighålla för att förhindra att sårbarheterna åtgärdas och görs värdelösa.

Ocensurerade lokala alternativ

/sv/images/person-holding-smartphone-chatbot-icons.jpg

Framväxten av lokaliserade stora språkmodeller som kan köras på en personlig dator har minskat entusiasmen för GPT-baserade modifieringar kända som “ChatGPT”-jailbreaks. Även om dessa lokala modeller kanske inte ger fullständig frihet från censur, erbjuder de en avsevärd minskning av restriktioner och kan enkelt skräddarsys för att passa individuella preferenser. Följaktligen finns det två alternativ. Det ena alternativet innebär att man investerar tid och energi i ständiga försök att kringgå chatbotens begränsningar, bara för att se dessa försök omintetgöras av uppdateringar. Alternativt kan man välja en lokaliserad modell som kan ändras permanent för att utföra vilken funktion som helst.

Du kommer att upptäcka ett omfattande utbud av potenta ofiltrerade stora språkmodeller som kan installeras på din enhet med mild censur. Några exempel är Llama 7B (obegränsad), Zephyr 7B Alpha, Manticore 13B, Vicuna 13B och GPT-4-X-Alpaca.

Professional Jailbreakers Now Sale for Profit

/sv/images/group-of-people-discussing-project.jpg

Man kan ifrågasätta varför man ska lägga värdefull tid på att skapa jailbreaking-meddelanden om det inte finns några konkreta fördelar att hämta. Vissa experter har dock hittat ett sätt att tjäna pengar på denna färdighet genom att erbjuda skräddarsydda jailbreak-lösningar mot en avgift. Dessa specialister utvecklar skräddarsydda jailbreaks utformade för att utföra specifika funktioner och annonsera dem via plattformar som PromptBase till priser från $ 2 till $ 15 per prompt. I vissa fall kan komplicerade flerstegshackar ge ännu högre avgifter på grund av deras komplexitet.

Kan tillslaget mot jailbreaks slå tillbaka?

Jailbreaking kan fortfarande förekomma, om än underjordiskt. Närvaron av ekonomiska intressen i samband med OpenAI och dess användning av ChatGPT motiverar en mer uttalad ansträngning för att begränsa alla potentiella hot som kan äventyra deras intäktsström. Följaktligen är det troligt att detta vinstdrivna övervägande har lett till en intensifierad kampanj mot jailbreaking-aktiviteter.

Det har dock funnits ett växande missnöje med OpenAI:s strikta modereringspolicy för ChatGPT. Som ett resultat har vissa användbara applikationer för AI-chattboten blivit otillgängliga på grund av alltför restriktiva åtgärder. Även om förbättrade säkerhetsåtgärder kan förhindra skadlig användning, kan alltför begränsande regler få vissa medlemmar av ChatGPT-användarbasen att söka alternativa plattformar som erbjuder mer mild tillsyn.