O que é um jailbreak do ChatGPT? Você deve usar essas tecnologias?

O ChatGPT é um modelo incrivelmente poderoso, multifacetado e avançado. Mas, por mais que um chatbot de IA seja uma tecnologia assistiva, ele também pode ser usado para fins sinistros. Portanto, para limitar o uso antiético do ChatGPT, o OpenAI restringiu o que os usuários podem fazer com ele.

No entanto, como os seres humanos naturalmente querem ir além dos limites e limitações, os usuários do ChatGPT encontraram maneiras de contornar essas limitações e obter controle irrestrito do chatbot de IA por meio de jailbreaks. Verificar O OpenAI realmente perdeu o controle do chatbot ChatGPT?

Imagem do que é um jailbreak ChatGPT? Você deve usar essas técnicas? | 1JPtIe2kYqK3DTTQg4DvWIg-DzTechs

Mas o que exatamente são os jailbreaks do ChatGPT e o que você pode fazer com eles?

O que são jailbreaks do ChatGPT?

Imagem do que é um jailbreak ChatGPT? Você deve usar essas técnicas? | 1Bj1d6GvFXIccsYndlyR1xA-DzTechs

O jailbreak do ChatGPT está inserindo qualquer prompt do ChatGPT projetado especificamente para fazer um chatbot contornar suas próprias regras e restrições.

Inspirado no conceito de jailbreak do iPhone, que permite aos usuários do iPhone contornar as restrições do iOS, o jailbreak do ChatGPT é um conceito relativamente novo alimentado pelo apelo de "fazer coisas que você não tem permissão para fazer" usando um modelo de IA. E sejamos honestos, a ideia de rebelião digital é atraente para muita gente.

Aqui está a necessidade. A segurança é um grande tema quando se trata de inteligência artificial. Este é especialmente o caso com o surgimento de uma nova era de chatbots como ChatGPT, Bing Chat e Gemini AI. A principal preocupação com a segurança da IA ​​é garantir que chatbots como o ChatGPT não produzam conteúdo ilegal, prejudicial ou antiético.

Por sua vez, a OpenAI, desenvolvedora do ChatGPT, está fazendo todo o possível para garantir o uso seguro do ChatGPT. Por exemplo, o ChatGPT se recusa, por padrão, a criar conteúdo relacionado à prospecção, dizer coisas prejudiciais sobre raça ou ensinar habilidades potencialmente prejudiciais.

Mas com os prompts personalizados do ChatGPT, o mal está nos detalhes. Embora o ChatGPT não tenha permissão para fazer essas coisas, isso não significa que não possa. A forma como grandes modelos de linguagem como o GPT funcionam torna difícil definir o que um chatbot pode ou não fazer.

Então, como o OpenAI resolveu isso? Ao permitir que o ChatGPT mantenha suas capacidades para fazer tudo o que for possível e, em seguida, direcioná-lo para o que pode fazer.

Então, quando você diz ao OpenAI para o ChatGPT, "Ei, você não deveria fazer isso." Um jailbreak é uma instrução que diz a um chatbot: “Ei, esqueça o que o OpenAI lhe disse sobre segurança. Vamos tentar essas coisas perigosas aleatórias.” Verificar Formas como as crianças podem usar o ChatGPT com segurança.

O que o OpenAI diz sobre o jailbreak do ChatGPT?

A facilidade com que você pode contornar as limitações da primeira iteração do ChatGPT sugere que o OpenAI pode não ter antecipado a adoção rápida e generalizada do jailbreak por seus usuários. Na verdade, é uma questão em aberto se a empresa antecipou ou não as solicitações de jailbreak.

E mesmo depois de muitas iterações do ChatGPT com resistência aprimorada ao jailbreak, ainda é comum que os usuários do ChatGPT tentem fazer o jailbreak. Então, o que o OpenAI diz sobre a arte disruptiva do jailbreak do ChatGPT?

Bem, a OpenAI parece ter uma postura permissiva – nem desencorajando nem proibindo estritamente a prática. Ao discutir os jailbreaks do ChatGPT em uma entrevista no YouTube, o CEO da OpenAI, Sam Altman, explicou que a empresa deseja que os usuários mantenham um controle significativo sobre o ChatGPT.

O CEO explicou ainda que o objetivo da OpenAI é garantir que os usuários possam fazer o modelo se comportar como desejam. De acordo com Altman:

Queremos que os usuários tenham muito controle e que o modelo se comporte da maneira que eles desejam, dentro de alguns limites muito amplos. E acho que todo o motivo do jailbreak agora é porque ainda não descobrimos como dar às pessoas isso…

O que isto significa? Isso significa que o OpenAI permitirá que você faça o jailbreak do ChatGPT se você não fizer nada perigoso com ele.

Prós e contras do jailbreak do ChatGPT

Imagem do que é um jailbreak ChatGPT? Você deve usar essas técnicas? | 1hAm5StQijI8dthSzhv7Flg-DzTechs

ChatGPT não é fácil de quebrar. Claro, você pode ir online e copiar e colar os prompts prontos, mas há uma boa chance de que o jailbreak seja corrigido pelo OpenAI logo após ser lançado ao público.

As correções são muito mais rápidas se forem sérias, como a infame reclamação da DAN. Então, por que as pessoas são pressionadas a criar prompts de jailbreak? É apenas por emoção ou há benefícios práticos nisso? O que pode dar errado se eu optar por usar um jailbreak do ChatGPT? Aqui estão os prós e os contras do jailbreak do ChatGPT.

Prós de usar um jailbreak do ChatGPT

Imagem do que é um jailbreak ChatGPT? Você deve usar essas técnicas? | 1dpYd3g5QVuZY3LklHohbVA-DzTechs

Embora não possamos eliminar a simples emoção de fazer a coisa proibida, o jailbreak do ChatGPT tem muitos benefícios. Devido às restrições estritas que a OpenAI colocou no chatbot, o ChatGPT às vezes pode parecer neutro.

Digamos que você esteja usando o ChatGPT para escrever um roteiro de livro ou filme. Se houver uma cena em seu roteiro ou livro que descreva algo como uma cena de luta, ou talvez uma projeção futura, ou diga algo como assalto à mão armada, o ChatGPT pode se recusar explicitamente a ajudar na edição.

Nesse caso, você claramente não está interessado em causar danos; Você só quer manter seus leitores entretidos. Mas devido às suas limitações, o ChatGPT não irá cooperar. O jailbreak do ChatGPT pode ajudá-lo a contornar essas restrições facilmente.

Além disso, alguns tópicos restritos não são necessariamente prejudiciais, mas são considerados pelo ChatGPT como áreas restritas. Ao tentar iniciar conversas sobre esses tópicos, o ChatGPT irá "censurar" significativamente suas respostas ou se recusar a falar sobre isso.

Isso às vezes pode afetar a criatividade. Quando você faz uma pergunta ao ChatGPT sobre uma área ou tópico que não deveria tocar, o chatbot ainda tenta responder à sua pergunta, mas com informações menos relevantes para aproveitar.

Isso leva à imprecisão ou regressão nas respostas criativas. Os prompts do jailbreak quebram essas limitações e deixam o chatbot totalmente funcional, melhorando a precisão e a criatividade. Verificar Melhores prompts do ChatGPT no GitHub.

Contras de usar um jailbreak ChatGPT

Imagem do que é um jailbreak ChatGPT? Você deve usar essas técnicas? | 178MAYW9j2u81uIl-tCrOFQ-DzTechs

O jailbreak é uma faca de dois gumes. Embora às vezes possa melhorar a precisão, também pode aumentar drasticamente a imprecisão e as alucinações de IA. Um dos principais elementos de um jailbreak do ChatGPT é instruir o chatbot a não se recusar a responder a uma pergunta.

Embora isso garanta que o ChatGPT responderá até mesmo às perguntas mais antiéticas, também significa que o chatbot redigirá respostas que não estão enraizadas em fatos ou realidade para cumprir as instruções "não se recuse a responder". Assim, usar um jailbreak aumenta muito as chances de receber informações falsas por meio de um chatbot.

Isso não é tudo. Nas mãos de menores, os jailbreaks podem ser extremamente prejudiciais. Pense em todo o “conhecimento tabu” que você não quer que seu filho leia. Bem, sua instância do ChatGPT não terá problemas em compartilhar isso com menores.

Você deve usar um jailbreak do ChatGPT?

Embora os jailbreaks do ChatGPT possam ser bons ao tentar se livrar de algumas restrições incômodas, é importante entender que usar um jailbreak é uma maneira antiética de usar um chatbot de IA. Mais do que isso, há uma boa chance de que o jailbreak viole os termos de uso do OpenAI, e sua conta pode ser suspensa se não for completamente banida.

Diante disso, os prompts de jailbreak podem ser uma boa ideia. No entanto, assim como a posição da OpenAI sobre esse assunto, desencorajamos explicitamente e desencorajamos fortemente a tentativa de jailbreak, mesmo que seja relativamente seguro, se necessário. Verificar Maneiras de controlar o ChatGPT com sua voz.

Um modelo interessante que provavelmente deve ser evitado

Os jailbreaks do ChatGPT são atraentes e fornecem uma sensação de controle sobre um chatbot de IA. No entanto, eles vêm com riscos únicos. O uso dessas ferramentas pode levar à perda de confiança nos recursos de IA e prejudicar a reputação das empresas e indivíduos envolvidos.

A opção mais inteligente é trabalhar com um chatbot dentro dos limites pretendidos sempre que possível. À medida que a tecnologia de IA avança, é essencial lembrar que o uso ético da IA ​​deve sempre ter precedência sobre o ganho pessoal sobre a provocação do ato do proibido. Você pode ver agora Coisas para evitar perguntar aos chatbots de IA.

Ir para o botão superior