O Google lançou na quinta-feira um novo modelo de inteligência synthetic (IA) na família Gemini 2.0, focado em raciocínio avançado. Chamado de Gemini 2.0 Pondering, o novo modelo de linguagem grande (LLM) aumenta o tempo de inferência para permitir que o modelo gaste mais tempo em um problema. A gigante da tecnologia com sede em Mountain View afirma que pode resolver tarefas complexas de raciocínio, matemática e codificação. Além disso, diz-se que o LLM executa tarefas em maior velocidade, apesar do aumento do tempo de processamento.
Google lança novo modelo de IA focado no raciocínio
Em um publicar no X (anteriormente conhecido como Twitter), Jeff Dean, cientista-chefe do Google DeepMind, apresentou o modelo Gemini 2.0 Flash Pondering AI e destacou que o LLM é “treinado para usar pensamentos para fortalecer seu raciocínio”. Atualmente está disponível no Google AI Studio e os desenvolvedores podem acessá-lo por meio da API Gemini.
Os membros da equipe do Devices 360 puderam testar o modelo de IA e descobriram que o modelo Gemini focado no raciocínio avançado resolve questões complexas que são muito difíceis para o modelo Flash 1.5 com facilidade. Em nossos testes, descobrimos que o tempo típico de processamento fica entre três a sete segundos, uma melhoria significativa em comparação com a série o1 da OpenAI, que pode levar mais de 10 segundos para processar uma consulta.
O Gemini 2.0 Flash Pondering também mostra seu processo de pensamento, onde os usuários podem conferir como o modelo de IA chegou ao resultado e os passos necessários para chegar lá. Descobrimos que o LLM conseguiu encontrar a solução certa oito em cada dez vezes. Por se tratar de um modelo experimental, os erros são esperados.
Embora o Google não tenha revelado os detalhes sobre a arquitetura do modelo de IA, destacou suas limitações em um ambiente focado no desenvolvedor. postagem no blog. Atualmente, o Gemini 2.0 Flash Pondering tem um limite de entrada de 32.000 tokens. Ele só pode aceitar texto e imagens como entradas. Ele suporta apenas texto como saída e tem um limite de 8.000 tokens. Além disso, a API não vem com uso de ferramentas integradas, como pesquisa ou execução de código.