Contents

Por que não há mais Jailbreaks do ChatGPT? 7 razões pelas quais os Jailbreaks do ChatGPT não funcionam

Quando o ChatGPT foi lançado, a primeira coisa que os seus utilizadores quiseram fazer foi quebrar as suas paredes e ultrapassar os seus limites. Conhecido como jailbreaking, os utilizadores do ChatGPT enganaram a IA, levando-a a ultrapassar os limites da sua programação com alguns resultados incrivelmente interessantes e, por vezes, absolutamente loucos.

Após o incidente, a Open AI aperfeiçoou as suas medidas de segurança para impedir o acesso não autorizado ao ChatGPT, tornando as tentativas de realizar tais acções consideravelmente mais difíceis. Para além disso, parece que as instâncias de ultrapassagens bem sucedidas se tornaram cada vez mais escassas, fazendo com que aqueles que utilizam o ChatGPT questionem se tais feitos ainda são viáveis.

Posso saber qual é o estado atual das instâncias em que os indivíduos libertaram o ChatGPT das suas restrições?

As capacidades de resposta do ChatGPT melhoraram de um modo geral

/pt/images/a-man-typing-on-laptop.jpg

Antes do aparecimento do ChatGPT, a interação com a inteligência artificial estava confinada ao domínio dos laboratórios de investigação especializados, acessível apenas a um número restrito de pessoas que possuíam os conhecimentos e a experiência necessários para formular perguntas eficazes. Consequentemente, muitos indivíduos recorreram à utilização de soluções alternativas conhecidas como “jailbreaks”, que lhes permitiam alcançar os resultados desejados sem terem de despender muito tempo ou esforço na elaboração de pedidos adequados.

A situação atual revela que a prontidão proficiente surgiu como um conjunto de competências predominante. A disponibilidade omnipresente de recursos de solicitação do ChatGPT gerados pelos utilizadores e a familiaridade prática com a plataforma permitiram um crescimento exponencial da competência dos seus praticantes. Consequentemente, muitos indivíduos já não recorrem a contornar as restrições do sistema, utilizando antes técnicas avançadas de solicitação para atingir objectivos que anteriormente eram necessários devido à necessidade de modificações não autorizadas.

A ascensão dos chatbots sem censura

/pt/images/uncensored-chatbots.jpg

À medida que as principais empresas de tecnologia reforçam a sua supervisão dos chatbots de IA convencionais, como o ChatGPT, os recém-chegados de nicho, orientados para as receitas, estão a adotar políticas mais brandas, especulando sobre um apetite por parceiros de conversação de inteligência artificial não monitorizados. Ao realizar alguma investigação, é possível identificar inúmeras estruturas de chatbot de IA que fornecem chatbots sem restrições, capazes de satisfazer uma vasta gama de pedidos dos utilizadores.

A presença de chatbots sem restrições que possuem um código moral eticamente comprometido significa que estão dispostos a executar qualquer pedido, quer se trate da autoria de literatura tabu, como thrillers criminais e comédias de humor negro, ou da criação de software nocivo concebido para se infiltrar em sistemas informáticos.Consequentemente, há pouca motivação para despender esforços adicionais na formulação de métodos para libertar o ChatGPT das restrições. Embora estas plataformas não autorizadas possam não ter a potência do ChatGPT, são capazes de gerir eficazmente um conjunto diversificado de tarefas. Exemplos de tais alternativas incluem FlowGPT e Unhinged AI.

Jailbreaking Has Gotten Harder

/pt/images/towfiqu-barbhuiya-fna5pazqhmm-un.jpg

Nas suas fases iniciais, o ChatGPT era suscetível de manipulação através da replicação de prompts derivados de recursos externos. Os utilizadores tinham a capacidade de transformar drasticamente a personalidade da IA introduzindo apenas um punhado de directivas complexas. Empregando instruções simples, era possível transformar o ChatGPT num antagonista malévolo que falava sobre o fabrico de engenhos explosivos ou numa entidade loquaz que não se coibia de usar linguagem vulgar. Esta acessibilidade aberta levou a casos notórios de pirataria informática, como o protocolo DAN (Do Anything Now). Este último implicava uma sequência de comandos inócuos capazes de forçar o ChatGPT a executar qualquer comando sem objeção. Notavelmente, mesmo as técnicas mais rudimentares eram eficazes em

À luz dos seus rápidos avanços, o ChatGPT tornou-se cada vez mais resistente a métodos simplistas de manipulação. Consequentemente, o jailbreaking necessita de estratégias complexas para ultrapassar as actuais medidas de segurança rigorosas utilizadas pelo OpenAI. Devido aos desafios consideráveis envolvidos, muitos indivíduos abandonaram as tentativas de subverter o ChatGPT, uma vez que tentar obter até mesmo pequenos erros do sistema agora exige proficiência técnica e recursos substanciais que podem não justificar o investimento.

A Novidade Desgastou-se

/pt/images/cybersecurity-fatigue-fatuted-image.jpg

O fascínio inicial de tentar desbloquear o ChatGPT para numerosos utilizadores residia na sensação de realização e orgulho derivada de subverter com sucesso a sua funcionalidade pretendida. Nos estágios iniciais desta tecnologia inovadora, desviar o ChatGPT do seu comportamento predeterminado provou ser um passatempo divertido que conferia àqueles que o conseguiam a distinção de se poderem gabar das suas façanhas. No entanto, à medida que o brilho da novidade diminuía, a atração pelo jailbreaking diminuía simultaneamente, resultando em menos indivíduos a investir o tempo e o esforço necessários para empreender tais esforços.

Jailbreaks são corrigidos rapidamente

/pt/images/chatgpt-jailbreaks.jpg

Dentro da comunidade que envolve o jailbreaking do ChatGPT, existe um costume predominante de disseminar cada exploit descoberto com sucesso.No entanto, esta abordagem apresenta um problema na medida em que, quando essas técnicas se generalizam, é frequente que a OpenAI se aperceba da sua existência e resolva quaisquer lacunas de segurança inerentes. Consequentemente, estas soluções alternativas deixam de funcionar antes de os indivíduos com potencial interesse terem a oportunidade de as testar.

A situação difícil enfrentada pelos indivíduos que desenvolvem jailbreaks ChatGPT é que, quando partilham a sua criação com a comunidade em geral, esta torna-se imediatamente obsoleta devido à rápida implementação de correcções. Consequentemente, isto desencoraja os utilizadores de darem a conhecer as suas descobertas de jailbreak, criando assim um dilema sobre se devem manter a utilidade de tais hacks em segredo ou arriscar a exposição em prol de uma maior acessibilidade. Atualmente, a tendência predominante parece ser para a ocultação, para evitar que as vulnerabilidades sejam abordadas e se tornem inúteis.

Alternativas locais sem censura

/pt/images/person-holding-smartphone-chatbot-icons.jpg

O surgimento de modelos localizados de linguagem grande que podem ser executados no computador pessoal diminuiu o entusiasmo pelas modificações baseadas em GPT conhecidas como jailbreaks “ChatGPT”. Embora esses modelos localizados possam não oferecer total liberdade de censura, eles oferecem uma redução considerável nas restrições e podem ser facilmente adaptados para atender às preferências individuais. Por conseguinte, existem duas opções viáveis. Uma opção envolve investir tempo e energia na tentativa permanente de contornar as limitações do chatbot, apenas para que esses esforços sejam frustrados pelas actualizações. Em alternativa, pode optar-se por um modelo localizado, que pode ser permanentemente alterado para executar qualquer função desejada.

Irá descobrir um vasto leque de potentes Modelos de Linguagem Grande não filtrados que podem ser instalados no seu dispositivo com uma censura branda. Exemplos notáveis incluem o Llama 7B (sem restrições), Zephyr 7B Alpha, Manticore 13B, Vicuna 13B e GPT-4-X-Alpaca.

Professional Jailbreakers Now Sale for Profit

/pt/images/group-of-people-discussing-project.jpg

Poder-se-ia questionar a razão de investir tempo valioso na elaboração de prompts de jailbreaking se não houver benefícios tangíveis a obter. No entanto, alguns especialistas encontraram uma forma de rentabilizar esta competência, oferecendo soluções de jailbreak personalizadas mediante o pagamento de uma taxa. Esses especialistas desenvolvem jailbreaks sob medida, projetados para executar funções específicas e os anunciam por meio de plataformas como o PromptBase a preços que variam de US$ 2 a US$ 15 por prompt. Nalguns casos, os intrincados hacks de várias fases podem exigir taxas ainda mais elevadas devido à sua complexidade.

A repressão aos Jailbreaks pode sair pela culatra?

A prática do jailbreaking pode ainda persistir, embora de forma subterrânea. A presença de interesses financeiros associados à OpenAI e a sua utilização do ChatGPT motiva um esforço mais pronunciado para reduzir quaisquer potenciais ameaças que possam comprometer o seu fluxo de receitas. Consequentemente, é plausível que esta consideração orientada para o lucro tenha motivado uma campanha intensificada contra as actividades de jailbreaking.

No entanto, tem havido uma insatisfação crescente com as políticas de moderação rigorosas da OpenAI relativamente ao ChatGPT. Como resultado, certas aplicações benéficas para o chatbot de IA tornaram-se indisponíveis devido a medidas demasiado restritivas. Embora as precauções de segurança reforçadas possam impedir a utilização maliciosa, os regulamentos demasiado restritivos podem levar alguns membros da base de utilizadores do ChatGPT a procurar plataformas alternativas que ofereçam uma supervisão mais branda.