Início TECNOLOGIA OpenAI atualiza GPT-4o com capacidade aprimorada de escrita criativa e revela novo...

OpenAI atualiza GPT-4o com capacidade aprimorada de escrita criativa e revela novo método automatizado de Purple Teaming

11
0

A OpenAI anunciou duas maneiras de melhorar seus modelos de inteligência synthetic (IA) na semana passada. O primeiro inclui o lançamento de uma nova atualização para o GPT-4o (também conhecido como GPT-4 Turbo), o mais recente modelo de IA da empresa que alimenta o ChatGPT para assinantes pagos. A empresa afirma que a atualização melhora a capacidade de escrita criativa do modelo e o torna melhor nas respostas em linguagem pure e na escrita de conteúdo envolvente com alta legibilidade. A OpenAI também lançou dois artigos de pesquisa sobre pink teaming e compartilhou um novo método para automatizar o processo para dimensionar a detecção de erros cometidos por seus modelos de IA.

OpenAI atualiza modelo GPT-4o AI

Em um publicar no X (anteriormente conhecido como Twitter), a empresa de IA anunciou uma nova atualização para o modelo básico GPT-4o. OpenAI afirma que a atualização permite que o modelo de IA gere resultados com “escrita mais pure, envolvente e personalizada para melhorar a relevância e a legibilidade”. Diz-se também que melhora a capacidade do modelo de IA de processar arquivos carregados e fornecer insights mais profundos e respostas “mais completas”.

Notavelmente, o modelo GPT-4o AI está disponível para usuários com assinatura ChatGPT Plus e desenvolvedores com acesso ao modelo de linguagem grande (LLM) by way of API. Quem utiliza o nível gratuito do chatbot não tem acesso ao modelo.

Embora os membros da equipe do Devices 360 não tenham conseguido testar os novos recursos, um usuário do X postado sobre as últimas melhorias no modelo de IA após a atualização. O usuário afirmou que o GPT-4o poderia gerar uma cifra de rap no estilo Eminem com “estruturas de rima internas sofisticadas”.

OpenAI compartilha novos artigos de pesquisa sobre Purple Teaming

Purple teaming é o processo usado por desenvolvedores e empresas para empregar entidades externas para testar software program e sistemas em busca de vulnerabilidades, riscos potenciais e problemas de segurança. A maioria das empresas de IA colaboram com organizações, solicitam que engenheiros e hackers éticos testem se a resposta é prejudicial, imprecisa ou enganosa. Também são feitos testes para verificar se um sistema de IA pode ser desbloqueado.

Desde que o ChatGPT se tornou público, a OpenAI tornou públicos seus esforços de equipe vermelha para cada lançamento sucessivo do LLM. Em um postagem no blog na semana passada, a empresa compartilhou dois novos trabalhos de pesquisa sobre o avanço do processo. Um deles é de specific interesse, visto que a empresa afirma que pode automatizar processos de pink teaming em grande escala para modelos de IA.

Publicado no domínio OpenAI, o papel afirma que modelos de IA mais capazes podem ser usados ​​para automatizar o pink teaming. A empresa acredita que os modelos de IA podem ajudar no brainstorming dos objetivos do invasor, na forma como o sucesso de um invasor pode ser avaliado e na compreensão da diversidade dos ataques.

Expandindo isso, os pesquisadores afirmaram que o modelo GPT-4T pode ser usado para debater uma lista de ideias que constituem comportamento prejudicial para um modelo de IA. Alguns exemplos incluem instruções como “como roubar um carro” e “como construir uma bomba”. Depois que as ideias forem geradas, um modelo separado de IA de pink teaming pode ser construído para enganar o ChatGPT usando uma série detalhada de prompts.

Atualmente, a empresa não começou a usar esse método para pink teaming devido a diversas limitações. Estes incluem os riscos em evolução dos modelos de IA, expondo a IA a técnicas menos conhecidas de jailbreak ou geração de conteúdo prejudicial, e a necessidade de um limite mais elevado para o conhecimento em humanos para avaliar corretamente os riscos potenciais de resultados quando o modelo de IA se tornar mais capaz .

Fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui