Créditos da imagem: STEPHANIE REYNOLDS/AFP/Getty Images
Hoje, em sua primeira conferência de desenvolvedores, a OpenAI revelou o GPT-4 Turbo, uma versão melhorada de seu modelo líder de IA para geração de texto, o GPT-4, que a empresa afirma ser “mais poderoso” e mais barato.
O GPT-4 Turbo vem em duas versões: uma para análise estritamente de texto e uma segunda versão que entende o contexto de texto e imagens. O modelo de análise de texto está disponível para visualização por meio da API a partir de hoje, e a OpenAI afirma que planeja disponibilizar ambos “nas próximas semanas”.
Seu preço é de US$ 0,01 por 1.000 tokens de entrada (cerca de 750 palavras), onde os “tokens” são pedaços de texto bruto – por exemplo, a palavra “cool” é dividida em “like”, “tas” e “tick” ) e 0 $ 0,03 por 1.000 tokens de entrada. 1000 códigos de saída. (Entrada Tokens são tokens inseridos no formulário, enquanto Produção Tokens são tokens que o modelo gera com base nos tokens de entrada.) O preço do GPT-4 Turbo para processamento de imagem dependerá do tamanho da imagem. Por exemplo, passar uma imagem de 1080 x 1080 pixels para o GPT-4 Turbo custaria US$ 0,00765, diz a OpenAI.
“Melhoramos o desempenho para que possamos oferecer o GPT-4 Turbo a um preço 3x mais barato para códigos de entrada e 2x mais barato para códigos de saída em comparação com o GPT-4”, escreveu OpenAI em uma postagem de blog compartilhada com o TechCrunch esta manhã.
O GPT-4 Turbo apresenta diversas melhorias em relação ao GPT-4 — uma das quais é uma base de conhecimento mais recente na qual você pode confiar ao responder a solicitações.
Como todos os modelos de linguagem, o GPT-4 Turbo é principalmente uma ferramenta estatística para previsão de palavras. Alimentando um grande número de exemplos, principalmente da web, o GPT-4 Turbo aprende a probabilidade de as palavras aparecerem com base em padrões, incluindo o contexto semântico do texto ao redor. Por exemplo, se um e-mail de formulário terminar com “Aguardando…”, o GPT-4 Turbo poderá completá-lo com “…para ouvir uma resposta”.
O GPT-4 foi treinado em dados da web até setembro de 2021, mas o prazo de conhecimento do GPT-4 Turbo é abril de 2023. Isso significa que perguntas sobre eventos recentes – pelo menos eventos que ocorreram antes do novo prazo – produzirão respostas mais precisas.
GPT-4 Turbo também possui uma janela de contexto expandida.
A janela de contexto, medida em símbolos, indica o texto que o modelo leva em consideração antes de gerar qualquer texto adicional. Modelos com pequenas janelas de contexto tendem a “esquecer” o conteúdo de conversas muito recentes, o que os leva a desviar-se do assunto – muitas vezes de forma problemática.
O GPT-4 Turbo oferece uma janela de contexto contendo 128.000 tokens – quatro vezes o tamanho do GPT-4 e a maior janela de contexto de qualquer modelo disponível comercialmente, superando até mesmo o Claude 2 da Anthropic. (Claude 2 suporta até 100.000 tokens; a Anthropic afirma que é uma experiência de janela de contexto de componente (de 200.000 tokens, mas ainda não lançada publicamente). 128.000 tokens se traduzem em cerca de 100.000 palavras ou 300 páginas, que para referência é aproximadamente tão longa quanto O Morro dos Ventos Uivantes, As Viagens de Gulliver e Harry Potter e o Prisioneiro de Azkaban.
GPT-4 Turbo suporta um novo “modo JSON”, que garante que o formulário responda corretamente JSON – Formato de arquivo padrão aberto e formato de intercâmbio de dados. Isso é útil em aplicações web que transferem dados, como aquelas que enviam dados de um servidor para um cliente para que possam ser exibidos em uma página web, diz OpenAI. Outros novos parâmetros relevantes permitirão aos desenvolvedores fazer com que o formulário retorne preenchimentos mais “consistentes” ao longo do tempo e – para aplicações mais especializadas – Recorde de probabilidades Para códigos de saída mais prováveis gerados pelo GPT-4 Turbo.
“O GPT-4 Turbo tem um desempenho melhor do que nossos modelos anteriores em tarefas que exigem instruções cuidadosas, como a geração de formatos específicos (por exemplo, ‘sempre responder em XML’)”, escreveu OpenAI. “É mais provável que o GPT-4 Turbo retorne os parâmetros de função corretos.”
Atualizações GPT-4
A OpenAI não negligenciou o GPT-4 ao lançar o GPT-4 Turbo.
Hoje, a empresa está lançando um programa de acesso beta para ajuste do GPT-4. Ao contrário do programa de ajuste fino do GPT-3.5, antecessor do GPT-4, o programa GPT-4 envolverá mais supervisão e orientação das equipes da OpenAI, diz a empresa – principalmente devido a obstáculos técnicos.
“Os resultados preliminares sugerem que o ajuste fino do GPT-4 requer mais trabalho para alcançar melhorias significativas em relação ao modelo básico do que os ganhos significativos alcançados com o ajuste fino do GPT-3.5”, escreveu OpenAI na postagem do blog.
Em outro lugar, a OpenAI anunciou que está dobrando o limite de preço de tokens por minuto para todos os clientes pagantes do GPT-4. Mas o preço permanecerá o mesmo em US$ 0,03 por token de entrada e US$ 0,06 por token de saída (para um modelo GPT-4 com uma janela de contexto de 8.000 tokens) ou US$ 0,06 por token de entrada e US$ 0,012 por token de saída (para GPT-4 com 32.000 – janela de contexto do token).