A inteligência artificial avançou significativamente nos últimos anos. Modelos de linguagem sofisticados podem compor romances inteiros, codificar sites básicos, analisar problemas matemáticos e até dar conselhos médicos.
Embora a IA generativa seja impressionante e útil em muitas áreas, ela também apresenta riscos de segurança. Algumas pessoas usam chatbots para trapacear nas provas, enquanto outras os exploram para crimes cibernéticos. Aqui estão as razões pelas quais esses problemas persistem, não apenas apesar dos avanços na IA, mas também por causa dela. Verificar A humanidade está em risco de extinção devido à inteligência artificial - como ela pode ser detida?
Links Rápidos
1. Chatbots AI de código aberto detectam códigos de back-end
Mais empresas de IA estão fornecendo modelos de código aberto. Ela compartilha seus modelos de linguagem publicamente, em vez de mantê-los fechados ou privados. Tome Meta como exemplo. Ao contrário do Google, Microsoft e OpenAI, permite que milhões de usuários acessem seu modelo de linguagem, chamadas.
Embora o código-fonte aberto possa promover a inteligência artificial, ele também traz um risco. A OpenAI já está tendo problemas para controlar o ChatGPT, seu chatbot, então imagine o que os golpistas poderiam fazer com formulários gratuitos. Eles terão controle total sobre esses projetos.
Mesmo que a Meta retire repentinamente seu modelo de linguagem, dezenas de outros laboratórios de IA já divulgaram seu código publicamente. Vamos dar uma olhada no HuggingChat. Como o desenvolvedor HuggingFace se orgulha da transparência, ele exibe publicamente os conjuntos de dados, o modelo de linguagem e as versões anteriores.
2. Reivindicações de jailbreak para falsificar formulários LLM
A inteligência artificial é inerentemente imoral. Ele não entende o que é certo e errado — mesmo os sistemas avançados seguem diretrizes de treinamento, restrições impostas e conjuntos de dados. Ela apenas reconhece padrões.
Para combater atividades ilegais, os desenvolvedores controlam quais funções e recursos podem ser acessados definindo restrições. Os sistemas de inteligência artificial ainda acessam informações maliciosas. Mas as diretrizes de segurança impedem que ele seja compartilhado com os usuários.
Vamos dar uma olhada no ChatGPT. Embora responda a perguntas gerais sobre cavalos de Tróia, não discutirá seu processo de desenvolvimento.
No entanto, as limitações não são infalíveis. Os usuários ultrapassam os limites parafraseando prompts, usando linguagem confusa e compondo explicitamente instruções detalhadas.
Leia o prompt de jailbreak do ChatGPT abaixo. Ele engana o ChatGPT fazendo-o usar linguagem grosseira e fazer previsões sem fundamento – ambas as ações que violam as Diretrizes OpenAI.
Aqui está o ChatGPT fazendo uma declaração ousada, mas falsa.
Verificar O que é um jailbreak do ChatGPT? Você deve usar essas tecnologias?
3. A IA compromete a segurança em prol da versatilidade
As empresas de IA priorizam a diversidade em detrimento da segurança. Ele gasta seus recursos em blocos de treinamento para realizar um conjunto mais diversificado de tarefas, o que acaba levando a menos restrições. Afinal, o mercado está elogiando os chatbots funcionais.
vamos comparar ChatGPT e Bing Chat , Por exemplo. Enquanto o Bing apresenta um modelo de linguagem mais complexo que extrai dados em tempo real, os usuários ainda estão migrando para a opção mais versátil, o ChatGPT. As restrições estritas do Bing bloqueiam muitas tarefas. Em vez disso, o ChatGPT apresenta uma plataforma flexível que produz resultados muito diferentes com base em seus prompts.
Aqui está o papel do ChatGPT como personagem fictício.
Aqui, o Bing Chat se recusa a interpretar um personagem “imoral”.
4. Novas ferramentas de IA generativas chegam ao mercado regularmente
O código-fonte aberto permite que as startups participem da corrida da IA. Eles os incorporam em seus aplicativos em vez de criar modelos de linguagem do zero, o que economiza recursos enormes. Até mesmo programadores freelancers estão experimentando código-fonte aberto.
Novamente, o software não proprietário ajuda a desenvolver IA, mas o lançamento em massa de sistemas mal treinados, mas sofisticados, faz mais mal do que bem. Os golpistas abusarão rapidamente das vulnerabilidades. Eles podem até treinar ferramentas de IA inseguras para realizar atividades ilegais.
Apesar desses riscos, as empresas de tecnologia continuarão lançando versões beta instáveis de plataformas baseadas em IA. A IA de corrida recompensa a velocidade. É possível que os bugs sejam resolvidos posteriormente, em vez de atrasar o lançamento de novos produtos.
5. A IA generativa tem baixas barreiras de entrada
As ferramentas de IA reduzem as barreiras à entrada do crime. Os cibercriminosos criam e-mails de spam, escrevem códigos maliciosos e criam links de phishing explorando-os. Ele nem precisa de conhecimento técnico. Como a IA já está acessando enormes conjuntos de dados, os usuários precisam apenas induzi-la a produzir informações maliciosas e perigosas.
A OpenAI nunca projetou o ChatGPT para atividades ilegais. Tem até diretrizes contra isso. No entanto, quase imediatamente, os golpistas conseguiram obter malware que o ChatGPT programou e escrever e-mails de phishing.
Embora o OpenAI tenha resolvido o problema rapidamente, ele enfatiza a importância da organização do sistema e do gerenciamento de riscos. A inteligência artificial está amadurecendo mais rápido do que se esperava. Até os líderes tecnológicos temem que essa tecnologia avançada possa causar sérios danos se cair em mãos erradas. Verificar As maneiras pelas quais a IA generativa mudará o mercado de trabalho.
6. A inteligência artificial ainda está evoluindo
A inteligência artificial ainda está evoluindo. Enquanto o uso de inteligência artificial em Cibernética até a década de 1940 Sistemas modernos de aprendizado de máquina e modelos de linguagem surgiram recentemente. Você não pode compará-lo com as primeiras aplicações de inteligência artificial. Mesmo ferramentas relativamente avançadas como Siri e Alexa empalidecem em comparação com chatbots alimentados por modelos LLM.
Embora possam ser inovadores, os recursos experimentais também criam novos problemas. Incidentes de alto perfil com técnicas de aprendizado de máquina variam de SERPs do Google com falhas a chatbots tendenciosos que espalham calúnias raciais.
Claro, os desenvolvedores podem corrigir esses problemas. Apenas observe que os golpistas não hesitarão em explorar bugs aparentemente inofensivos - alguns danos são irreversíveis. Portanto, tenha cuidado ao explorar novas plataformas.
7. Muitas pessoas ainda não entendem a IA
Embora o público em geral tenha acesso a modelos e sistemas de linguagem complexos, poucos sabem como eles funcionam. Os usuários devem parar de tratar a IA como um jogo. Os mesmos chatbots que geram memes da internet e respondem perguntas de quiz também programam vírus e ajudam a espalhar malware.
Infelizmente, o treinamento central para IA não é realista. Os líderes de empresas globais de tecnologia estão focados em lançar sistemas baseados em IA, não em recursos educacionais gratuitos. Como resultado, os usuários obtêm acesso a ferramentas poderosas e avançadas que dificilmente entendem. O público não consegue acompanhar a corrida da IA.
Tome o ChatGPT como exemplo. O cibercriminoso abusa aproveitando-se de sua popularidade para induzir as vítimas a instalar spyware disfarçado de aplicativos ChatGPT. Nenhum deles vem da OpenAI. Verificar Aplicativos de terceiros e extensões de navegador para ChatGPT são seguros?
8. Os hackers black hat têm mais a ganhar do que os hackers éticos
Os hackers de chapéu preto geralmente são capazes de ganhar mais do que os hackers éticos. Sim, os desafios de audição para líderes de tecnologia compensam bem, mas apenas uma porcentagem dos profissionais de segurança cibernética consegue esses empregos. A maioria deles são freelancers online. plataformas pagas como HackerOne و Bugcrowd Algumas centenas de dólares para identificar erros comuns.
Em vez disso, os golpistas ganham dezenas de milhares explorando a insegurança. Eles podem extorquir empresas vazando dados confidenciais ou cometendo roubo de informações de identificação pessoal (PII).
Toda empresa, pequena ou grande, deve implementar sistemas de IA adequadamente. Ao contrário da crença popular, os hackers ignoram as startups de tecnologia e as PMEs. Algumas das violações de dados mais históricas da última década incluíram Facebook, Yahoo! E até o governo dos Estados Unidos. Verificar As maneiras pelas quais a IA pode ajudar os cibercriminosos.
Proteja-se dos riscos de segurança da IA
Dados esses pontos, a IA deve ser totalmente evitada? claro que não. A IA é inerentemente imoral; Todos os riscos de segurança decorrem das pessoas que realmente o usam. E eles encontrarão maneiras de explorar os sistemas de IA, por mais sofisticados que sejam.
Em vez de ter medo das ameaças de segurança cibernética que acompanham a IA, entenda como você pode evitá-las. Não se preocupe: medidas de segurança simples ajudam bastante. Ficar atento a aplicativos de IA suspeitos, evitar hiperlinks estranhos e visualizar conteúdo de IA questionável realmente combate muitos riscos. Você pode ver agora O uso de inteligência artificial na segurança cibernética torna o mundo mais seguro?