notícias

é revelado que o misterioso modelo “strawberry” da openai será lançado em duas semanas. levará mais de dez segundos para responder à pergunta e o preço da assinatura pode ser 10 vezes mais caro.

2024-09-11

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

no mês passado, altman, ceo da openai, ganhou muitas manchetes com uma foto de morangos. agora, talvez o modelo morango realmente vá “amadurecer”.

de acordo com the information, como parte do serviço chatgpt,a openai planeja lançar o modelo “strawberry” dentro de duas semanas.

é claro que o relatório também afirma que a data final de lançamento pode mudar, portanto, proceda com cautela.

o informante confiável @apples_jimmy acredita que o modelo morango deverá ser lançado esta semana.

e ele também disse que a openai deverá lançar um novo modelo chamado versão gpt-4.x em outubro, que pode ser chamado de gpt-4.5.

quanto ao modelo gpt-5 mais poderoso, ouvi dizer que ele poderia ser lançado já em dezembro, mas para garantir, sugiro que você o espere no primeiro ou segundo trimestre de 2025.

a informação informa que não está claro de que forma o modelo morango será lançado.uma possibilidade é que o modelo morango seja um produto independente.

outra possibilidade é que o modelo morangoserá integrado ao menu de seleção de modelos do chatgpt, os usuários podem alternar entre diferentes serviços de modelo à vontade.

relatórios anteriores também mencionaram que a maior diferença entre o modelo morango e outros modelos é quesabe “pensar” antes de responder a uma pergunta.

além disso, o modelo morango não só tem um bom desempenho em matemática e programação, mas se tiver mais tempo para “pensar”, também pode responder às perguntas dos clientes sobre tópicos subjetivos, como estratégias de marketing de produtos.

a informação afirma,o tempo de pensamento do modelo morango costuma durar de 10 a 20 segundos, o que tem a vantagem de ajudar a reduzir erros.

e como o modelo morango passa mais tempo pensando, isso faz com que ele consiga perceber quando precisa fazer mais perguntas ao cliente para entender totalmente as necessidades do usuário.

além disso, o modelo morango também apresenta algumas diferenças em relação ao modelo gpt-4o. por exemplo, sua versão originalnão possui os recursos multimodelo do gpt-4o, só pode receber e gerar respostas de texto, mas não pode processar imagens.

a informação acredita que isso pode ocorrer porque os concorrentes também estão lançando produtos semelhantes, portanto, mesmo que este produto não seja perfeito em alguns aspectos (como não ser capaz de processar imagens), o openai só pode acelerar o ritmo de lançamento.

a este respeito, o denunciante @apples_jimmy também mencionou, a anthropic e o google também estão preparando secretamente seus novos modelos,e planeja lançá-lo na época das eleições nos eua.

além do mais, o preço da assinatura despertou repetidamente as emoções dos usuários.

chatgpt lançou um novo nível pago, chatgpt pro, e já o distribuiu para alguns usuários.custando us$ 200/mês, dez vezes mais caro que os atuais us$ 20/mês.

se for verdade, isto também pode ecoar os relatórios acima mencionados sobre o modelo do morango.

as informações também apontaram que o modelo morango pode ser limitado no número de vezes que um usuário pode utilizá-lo por hora como o chatgpt plus, enquanto modelos com preços de assinatura mais elevados serão mais responsivos.

até o momento desta publicação, a openai não respondeu a este assunto.

camada por camada, corte os “morangos”

o que o modelo “morango” da openai significa para nós?

na verdade, o antecessor do strawberry model é o “q*”, uma existência misteriosa que causou alvoroço no final do ano passado.

em novembro passado, sam altman foi expulso do conselho de administração sem aviso prévio. ele até foi notificado na reunião, o que chocou toda a empresa e todo o setor.

o motivo apresentado pelo conselho de administração na época foi que ele e a equipe não conseguiram chegar a um acordo sobre segurança e gestão de riscos. e esse risco estava relacionado ao projeto ultrassecreto “q*” da época.

este projeto foi originalmente liderado por ilya sutskever. agora ele deixou a openai para iniciar um negócio, fazendo negócios relacionados à segurança de ia. considerando que musk disse uma vez que este projeto “representa uma ameaça para a humanidade”, é difícil não nos perguntarmos o que está acontecendo aqui.

anteriormente, the information e reuters fizeram o possível para obter informações privilegiadas, mas no final só conseguiram confirmá-las.capacidade de operação matemática é o foco de "q*"

foto de: reuters

o grande modelo é bom em “literatura” e pode lidar com linguagem e texto com habilidade. está basicamente no mesmo nível dos humanos. mas as operações matemáticas nunca foram muito boas. embora “q*” tenha desencadeado uma grande mudança no openai, de acordo com a reuters, seu desempenho naquela época era próximo ao nível de computação de um aluno do ensino fundamental.

as informações mais recentes conhecidas mostram que já existem projetos dentro do openai que podem atingir 90% de precisão em operações matemáticas, o que é uma melhoria surpreendente.

foto de: reuters

deixe-me enfatizar: atualmente é impossível confirmar qual passo o “morango” alcançou.

só se pode dizer que se o "morango" for usado como uma versão atualizada do "q *", há uma grande probabilidade de que seja um projeto que continua buscando avanços na matemática e na computação.

a relação entre “cálculo matemático” e “raciocínio” não pode ser diretamente equacionada, mas revela as ambições da openai.

eu sempre falo sobre raciocínio, do que exatamente você está falando?

então, o que exatamente é “raciocínio”?

estas duas palavras obviamente têm uma definição muito ampla na realidade. no início deste ano, uma equipa liderada pela universidade chinesa de hong kong conduziu uma revisão abrangente das capacidades de raciocínio baseado em modelos. a definição mais fundamental de “raciocínio” é tripla:

raciocínio cognitivo: a capacidade de tirar conclusões significativas a partir de conhecimentos incompletos e inconsistentes

a forma mais comum desse tipo de raciocínio é montar um quebra-cabeça. cada peça pequena é um canto de uma imagem enorme. se você pegar duas peças aleatoriamente, elas definitivamente não combinarão.

você só pode segurar esses pequenos fragmentos e juntá-los para formar lentamente uma imagem completa. nesse processo, não há instruções ou diagramas de etapas, e muitas vezes você precisa confiar no sentimento e na intuição.

raciocínio lógico: tirar conclusões de maneira ordenada com base nas premissas e na relação entre essas premissas, e a conclusão tem uma relação implícita ou é logicamente estabelecida

a resolução de problemas de matemática é um raciocínio lógico típico. existem condições conhecidas e perguntas a serem feitas. com base nelas, você pode calcular os resultados passo a passo. o raciocínio lógico é atualmente o “osso mais duro” no desenvolvimento de grandes modelos.

raciocínio em linguagem natural: este é um processo de integração de múltiplos tipos de conhecimento, que pode ser conhecimento explícito ou implícito, para tirar novas conclusões sobre o mundo.

amigos que gostam de ler histórias policiais e romances de mistério acharão isso fácil de entender. esse tipo de raciocínio é como encontrar uma história de assassinato. há algumas dicas vagas e algumas informações pouco claras no livro. você deve combinar várias pistas para deduzir quem é o assassino e qual foi o processo do crime.

se você apenas olhar os documentos internos da openai obtidos pela reuters, o objetivo do "strawberry" é planejar, acessar a internet e realizar pesquisas aprofundadas.

estes se parecem mais com o último tipo de raciocínio em linguagem natural, que nada mais é do que fortalecê-lo. é difícil dizer se pode ser considerado uma melhoria na capacidade de raciocínio.

mas,openai não é tão rígido quanto ao “raciocínio”, mas tem uma visão mais ampla

há dois meses, john schulman, um dos fundadores da openai, disse no podcast dwarkensh que o progresso do gpt-4 se deve em grande parte à tecnologia pós-treinamento.

“é muito complicado criar um modelo que possa ter as funções que interessam às pessoas através da pós-formação”, disse john schulman. “isto requer muito investimento e a acumulação de muito trabalho de i&d, o que cria barreiras para um desenvolvimento sustentável. certa medida ".

a definição de “raciocínio” de john schulman é esta:

“raciocínio significa que alguns cálculos são necessários ou algumas deduções são necessárias. a partir desta definição, é necessário ser capaz de realizar cálculos e cálculos passo a passo durante o processamento da tarefa.”

pode-se observar que, em sua definição, o raciocínio e o comportamento computacional estão altamente vinculados, e espera-se que o raciocínio da máquina possa ser realizado em tempo real - assim como os humanos, eles podem analisar e interpretar enquanto recebem informações.

porém, mesmo que uma pessoa não seja boa em matemática, isso não a impede de pensar logicamente nas coisas e ainda pode completar vários tipos de raciocínio. por que a habilidade matemática das máquinas é tão importante?

pode ser entendido assim:a matemática nunca se trata apenas de fazer operações, é também uma forma de expressar informações.

a matemática é uma linguagem que depende mais da forma simbólica e da precisão do significado, onde 1 é 1 e 0 é 0. ao usar símbolos e equações computacionais para apresentar informações, elas são, na verdade, de dimensão inferior à da linguagem natural.

em outras palavras, a razão pela qual os grandes modelos são “alfabetizados” é que eles se baseiam no “cálculo” e convertem a linguagem natural em linguagem de computador.

a base para isso foi lançada já no século xix por george boole, um dos matemáticos mais importantes da história (o mesmo boole que criou a variável booleana).

george boole

boole era um homem profundamente religioso que queria até explicar a existência de deus através do raciocínio matemático.

independentemente de qual tenha sido sua conclusão final, a riqueza que ele deixou para o mundo, que é o livro “investigação sobre as leis do pensamento”, explica seu grande objetivo inicial: usar a linguagem simbólica do cálculo para expressar o conceito de raciocínio. uma lei básica da atividade pensante.

isto também explica por que, quando se trata do desempenho da ia ​​em operações matemáticas, as expectativas das pessoas são um pouco mais nervosas:

depois de avançar na linguagem matemática, você pode estar realmente perto de avançar nas atividades de pensamento.

veteranos da tecnologia openai renunciaram novamente

há um fenômeno muito estranho: parece que todas as grandes notícias sobre os especialistas em tecnologia da openai são sempre acompanhadas por mudanças drásticas de pessoal.

coincidentemente, vários funcionários internos da openai também anunciaram oficialmente sua demissão hoje.

por exemplo, alexis conneau, ex-diretor de pesquisa da openai audio agi, anunciou que está saindo para iniciar um negócio. em sua outra função, ele é um importante membro técnico da equipe de pesquisa do gpt-4o.

antes do lançamento do gpt-4o, ele previu com entusiasmo que poderia inaugurar uma nova era de interação humano-computador.

ele ingressou na openai em abril de 2023, após ter ampla experiência de trabalho em grandes empresas como google e meta. em suas palavras, a principal tarefa é dotar o modelo gpt de uma “boca falante”.

prafulla dhariwal, chefe da equipe de pesquisa por trás do gpt-4o, certa vez elogiou conneau:

alexis conneau apresentou a visão para ela antes de qualquer pessoa na openai e trabalhou incansavelmente para colocá-la em prática!

ou arvind neelakantan, que trabalhou na openai por quatro anos e meio, também mudou hoje para a equipe de pesquisa meta ai do "campo inimigo".

participou do desenvolvimento de diversos projetos importantes de openai, incluindo embeddings, gpt-3 e gpt-4, api e chatgpt, etc.

neelakantan disse que trabalhar na openai foi o ponto alto de sua carreira. na meta ai, ele se concentrará no desenvolvimento do modelo llama de próxima geração.

a esse respeito, o ex-diretor de relações com desenvolvedores da openai, logan kilpatrick, também enviou suas bênçãos de demissão.

desde o início deste ano, a openai desencadeou uma onda de demissões, e sua equipe fundadora até “se separou”.

o ex-cientista-chefe ilya sutskever acaba de anunciar sua retirada do openai, e jan leike, um dos inventores do rlhf, também seguiu seus passos e saiu.

os motivos da saída são basicamente diferentes. exceto pelas consequências do “palace fight” do ano passado, também pode ser devido ao planejamento de carreira pessoal.

é improvável que as mudanças drásticas de pessoal da openai tenham impacto no cenário competitivo da ia ​​no curto prazo. ao mesmo tempo, em meio à recessão, a indústria imatura de ia não pode mais tolerar uma janela de um ano.

com a exposição contínua de novidades sobre modelos, esperamos ver novamente uma era magnífica de navegação por ia no segundo semestre do ano.

não importa o quão ruim seja, será pelo menos mais interessante do que as novas e enfadonhas tecnologias de ia do primeiro semestre do ano.

é previsível que o progresso do modelo subjacente da tecnologia de ia possa ser como uma poderosa força motriz, impulsionando a explosão de todo o lado da aplicação, assim como o surgimento do gpt-4 naquela época, trazendo-nos surpresas há muito perdidas.

até então, nós, como usuários, seremos sempre os maiores beneficiários.