Por que a janela de contexto de 1.5 milhão de tokens no Gemini XNUMX é uma virada de jogo

O campo do processamento de linguagem natural (PNL) testemunhou uma tremenda revolução nos últimos anos, com o surgimento de grandes modelos de linguagem (LLMs) que oferecem capacidades excepcionais na compreensão e processamento da linguagem humana. Gemini 1.5 é um dos mais recentes modelos, oferecendo enormes possibilidades contextuais. O modelo Google Gemini 1.5 agora vem com uma enorme janela de contexto de XNUMX milhão de ícones exclusivos, superando seus concorrentes diretos como ChatGPT, Claude e outros chatbots com tecnologia de IA.

A janela contextual de um milhão de tokens no Gemini 1.5 é uma virada de jogo, permitindo que o modelo tenha uma compreensão mais profunda e precisa da linguagem. Com maior capacidade contextual, o modelo pode analisar mais palavras e frases em torno de uma determinada palavra ou frase, o que o ajuda a inferir melhor o significado. Verificar Chega o Gemini AI do Google: ele se destaca mais que o ChatGPT no mundo da IA?

Qual é a janela de contexto?

Ao responder às suas dúvidas, como explicar um conceito ou resumir um texto, os modelos de IA têm limites na quantidade de dados que podem levar em consideração para gerar uma resposta. O tamanho máximo do texto que pode ser considerado é chamado de janela de contexto.

Aqui está outra maneira de ver esse conceito. Suponha que você tenha ido a um supermercado para comprar alguns vegetais e utensílios domésticos sem sua lista de compras. O número máximo de compras que você lembra ao fazer compras é a janela de contexto. Quanto mais compras você lembrar, maiores serão as chances de não arruinar seus planos de compras designados. Da mesma forma, quanto maior a janela de contexto de um modelo de IA, maior será a probabilidade de o modelo se lembrar de tudo o que precisa para fornecer os melhores resultados.

No momento em que este artigo foi escrito, a janela de contexto Claude 2.1 da Anthropic com 200 tokens é a maior janela de contexto de qualquer modelo de IA disponível publicamente. É seguido pelo GPT-4 Turbo com uma janela de contexto de 128 tokens. O Google Gemini 1.5 oferece um milhão de janelas contextuais, quatro vezes maiores do que qualquer outra coisa no mercado. Isso leva à grande questão: o que há de especial em uma janela de contexto com um milhão de ícones distintos? Verificar Qual é o limite de token ChatGPT e você pode ignorá-lo?

Por que a janela de contexto no Gemini 1.5 é tão importante?

Para ser mais detalhado, a janela de contexto de 200 mil de Claude AI significa que ele pode pegar um livro com cerca de 150 mil palavras e fornecer respostas para ele. Isso é realmente enorme. Mas o Google Gemini 1.5 será capaz de acomodar 700000 mil palavras de uma só vez!

Quando você alimenta um grande bloco de texto em prompts para um chatbot de IA como ChatGPT ou Gemini, ele tenta receber o máximo de texto possível, mas a quantidade que pode receber depende de sua janela de contexto. Então, se você tiver uma conversa de 100 palavras em um modelo que só pode lidar com 28 palavras, e então começar a fazer perguntas que exijam que ele tenha conhecimento completo de todas as 100 palavras da conversa, você está configurando-o para o fracasso .

Imagine assistir apenas 20 minutos de um filme de uma hora, mas ser solicitado a explicar o filme inteiro. Quão bons serão seus resultados? Recuse-se a responder ou simplesmente invente coisas, que é exatamente o que um chatbot de IA fará, resultando em... Alucinações de inteligência artificial.

Agora, se você acha que nunca precisou inserir 100 palavras em um chatbot, isso não é tudo que importa. A janela de contexto vai além do texto alimentado ao modelo de IA em apenas um prompt. Os modelos de IA levam em consideração toda a conversa que você tem durante uma sessão de chat para garantir que suas respostas sejam tão relevantes quanto possível.

Portanto, mesmo que você não esteja alimentando o modelo com um livro de 100 palavras, suas conversas de ida e volta e as respostas que elas fornecem somam-se ao cálculo da janela de contexto. Você está se perguntando por que o ChatGPT ou Gemini do Google continua esquecendo coisas que você disse no início da conversa? Ele pode ter ficado sem espaço na janela de contexto e começou a esquecer coisas.

A janela de contexto maior é especialmente importante para tarefas que exigem uma compreensão profunda do contexto, como resumir artigos longos, responder a perguntas complexas ou manter uma narrativa coerente no texto gerado. Você quer escrever um romance de 50 palavras que tenha uma narrativa consistente? Quer um modelo que possa “assistir” e responder perguntas em um vídeo de uma hora? Você precisa de uma janela de contexto maior!

Resumindo, a janela de contexto maior do Gemini 1.5 pode melhorar significativamente o desempenho do seu modelo de IA, reduzindo as alucinações e aumentando drasticamente a precisão e a capacidade de seguir melhor as instruções.

O Gemini 1.5 corresponderá às expectativas?

Se tudo correr como planejado, o Gemini 1.5 provavelmente superará os melhores modelos de IA do mercado. No entanto, dadas as inúmeras falhas do Google na construção de um modelo de IA estável, é importante ser cauteloso. Aumentar apenas a janela de contexto do formulário não melhora automaticamente o formulário.

Tenho usado a janela de contexto 2.1k Claude 200 há vários meses desde seu lançamento, e uma coisa ficou clara para mim: uma janela de contexto maior pode realmente melhorar a sensibilidade ao contexto, mas problemas com o desempenho do modelo subjacente podem tornar o contexto maior problemático por isso.

O Google Gemini 1.5 será uma virada de jogo? Atualmente, a mídia social está repleta de críticas elogiosas sobre o Gemini 1.5 de usuários com acesso antecipado. No entanto, a maioria das avaliações cinco estrelas resulta de casos de uso apressados ​​ou simplistas. Um bom lugar para verificar o desempenho do Gemini 1.5 em estado selvagem é no relatório técnico do Google Gêmeos 1.5 [PDF]. O relatório mostra que mesmo durante os “testes controlados”, o modelo não conseguiu recuperar todos os detalhes dos documentos dentro do tamanho da sua janela de contexto.

Uma janela de contexto de um milhão de tokens já é uma conquista técnica impressionante, mas sem a capacidade de recuperar detalhes do documento de forma confiável, uma janela de contexto maior tem pouco valor prático e pode se tornar a causa de diminuição da precisão e alucinações adicionais. Agora você pode visualizar Além do ChatGPT: uma visão para o futuro dos chatbots e da IA ​​generativa?

Ir para o botão superior