Isso eles estavam esperando, chatgpt 4 desde que um CTO regional da Microsoft vazou a notícia na semana passada.
Em sua última postagem no blog, a OpenAI disse que GPT-4 já está em uso em aplicativos por Duolingo, Be My Eyes, Stripe, Morgan Stanley, Khan Academy e o Governo da Islândia.
Agora a boa notícia para os assinantes Bate-papo GPT Plus: já pode usar GPT-4 com um limite de 100 mensagens/hora. Se você não é assinante do ChatGPT Plus terá que esperar um pouco.
Aqui está a declaração inicial do OpenAI, contida nas notas de lançamento do GPT-4:
Em uma conversa casual, a distinção entre GPT-3.5 e GPT-4 pode ser pequena. A diferença surge à medida que a complexidade da tarefa aumenta: o GPT-4 acaba sendo mais confiável, criativo e capaz de lidar com instruções muito mais sutis do que o GPT-3.5. — Notas de versão do OpenAI GPT4
Eu tentei brevemente GPT-4 através da interface Bate-papo GPT Plus, e de fato tive melhores resultados em tarefas narrativas mais complicadas, como enredos de múltiplas perspectivas e na construção de arcos de história.
As novas capacidades de raciocínio são ilustradas com um diagrama, mostrando a melhoria do chatGPT-4 em vários testes em relação aos seus antecessores:
Notavelmente, o chatGPT-4 teve um desempenho brilhante no exame USABO (USA BioOlympics) e no GRE Verbal Test (o teste de admissão em faculdades e pós-graduação mais amplamente utilizado no mundo). E no UBE (Uniform Bar Exam), o chatGPT-4 geral melhora drasticamente.
Em algumas áreas, aumenta o poder de raciocínio do chatGPT-4. Aqui está uma visão geral de alguns dos testes simulados:
O GPT-4 superou o GPT-3.5 e outros modelos de idiomas para problemas de múltipla escolha, abrangendo 57 assuntos em 24 idiomas, incluindo idiomas com poucos recursos, como letão, galês e suaíli.
GPT-4 pode aceitar mensagens que consistem em texto e imagens. Isso nos permite especificar qualquer tarefa visual ou linguística que combine esses modos de entrada. No entanto, as entradas de imagem ainda estão em pesquisa e ainda não estão disponíveis ao público.
No entanto, é impressionante ver o quanto a compreensão da imagem já avançou com o GPT-4!
O novo modelo lê e interpreta documentos, resolve quebra-cabeças visuais, aqui estão dois exemplos:
Com o GPT-4 será possível alterar a chamada mensagem de “sistema” para alterar a verbosidade, o tom e o estilo de conversação doInteligência artificial. Um recurso que já estava disponível para desenvolvedores que trabalham com GPT3.5 turbo estará disponível em breve para todos os usuários do ChatGPT:
Claro, ainda há limites. O problema relacionado à conversa de eventos extremos, por exemplo, ou erros de raciocínio. O GPT-4 melhorou nesse aspecto e também há progresso em relação ao comportamento de bug e conteúdo confidencial. No entanto, a OpenAI afirma que ainda há “muito a ser feito”:
Nossas mitigações melhoraram significativamente muitos recursos de segurança do GPT-4 em relação ao GPT-3.5. Reduzimos a tendência do modelo de responder a solicitações de conteúdo proibido em 82% em comparação com a GPT-3.5, e a GPT-4 responde a solicitações confidenciais (por exemplo, orientação médica e automutilação) de acordo com nossas políticas 29% mais frequentemente . — Notas de versão do OpenAI GPT4
Ercole Palmeri
A Coveware by Veeam continuará a fornecer serviços de resposta a incidentes de extorsão cibernética. A Coveware oferecerá recursos forenses e de remediação…
A manutenção preditiva está revolucionando o setor de petróleo e gás, com uma abordagem inovadora e proativa para o gerenciamento de plantas.…
A CMA do Reino Unido emitiu um alerta sobre o comportamento da Big Tech no mercado de inteligência artificial. Lá…
O Decreto "Case Green", formulado pela União Europeia para melhorar a eficiência energética dos edifícios, concluiu o seu processo legislativo com…