notícias

Não está tornando o GPT-5 público? OpenAI muda formato de conferência

2024-08-06

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Notícias de 6 de agosto do ano passado,IAIniciantesIA abertaA primeira conferência de desenvolvedores foi realizada em São Francisco com grande alarde e lançada incluindo o malsucedidoGPT Store (semelhante à Apple App Store) e muitos novos produtos e ferramentas.

No entanto, o evento deste ano será relativamente discreto. Na segunda-feira, a OpenAI anunciou que transformará sua conferência de desenvolvedores DevDay em uma série de conferências participativas com foco em desenvolvedores. A empresa também confirmou que não lançará o modelo principal da próxima geração durante o DevDay, concentrando-se em atualizações em sua API e serviços de desenvolvedor.

Um porta-voz da OpenAI revelou: “Não planejamos anunciar nosso próximo modelo na conferência de desenvolvedores. Vamos nos concentrar mais em apresentar os recursos existentes aos desenvolvedores e em mostrar as histórias da comunidade de desenvolvimento”.

Os eventos OpenAI DevDay deste ano serão realizados em São Francisco em 1º de outubro, Londres em 30 de outubro e Cingapura em 1º de novembro. Todos os eventos serão realizados na forma de workshops, sessões de discussão, demonstrações ao vivo das equipes de produto e engenharia da OpenAI e sessões de desenvolvedores. A taxa de inscrição é de US$ 450 e o prazo para inscrição é 15 de agosto.

Nos últimos meses, a OpenAI adotou uma estratégia de iteração mais robusta no campo da inteligência artificial generativa, em vez de buscar avanços revolucionários. A empresa optou por aperfeiçoar e aperfeiçoar suas ferramentas enquanto treinava os sucessores de seus atuais modelos líderes, o GPT-4 e o GPT-4 mini. A empresa melhorou os seus métodos para melhorar o desempenho geral do modelo e minimizar a frequência com que os modelos se desviam do curso, mas de acordo com alguns benchmarks, a OpenAI parece ter perdido a liderança tecnológica na corrida para gerar inteligência artificial.

Uma razão pode ser que dados de treinamento de alta qualidade sejam cada vez mais difíceis de encontrar.

Como a maioria dos modelos generativos de IA, os modelos da OpenAI são treinados em grandes quantidades de dados da web – e muitos criadores optam por bloquear seus dados porque temem que seus dados sejam plagiados ou que não recebam o reconhecimento ou recompensa que merecem. . De acordo com dados da Originality.AI, uma ferramenta de inteligência artificial para detecção de conteúdo e detecção de plágio, mais de 35% dos 1.000 principais sites do mundo agora bloqueiam os rastreadores da Web da OpenAI. Uma pesquisa da Iniciativa de Proveniência de Dados do MIT também descobriu que cerca de 25% dos dados de “alta qualidade” foram excluídos dos principais conjuntos de dados usados ​​para treinar modelos de IA.

A empresa de pesquisa Epoch AI prevê que, se a tendência atual de bloqueio do acesso aos dados continuar, os desenvolvedores ficarão sem dados que possam ser usados ​​para treinar e gerar modelos de inteligência artificial entre 2026 e 2032. Isto, combinado com o medo de ações judiciais de direitos autorais, forçou a OpenAI a celebrar dispendiosos acordos de licenciamento com editores e vários corretores de dados.

Diz-se que a OpenAI desenvolveu uma tecnologia de inferência que pode melhorar a capacidade de resposta dos seus modelos em determinados problemas, particularmente matemáticos. Mira Murati, diretora de tecnologia da empresa, prometeu que os futuros modelos OpenAI terão inteligência de “nível de doutorado”. Embora esta perspectiva seja promissora, também enfrenta pressões significativas. É relatado que a OpenAI gasta bilhões de dólares treinando seus modelos e contratando pesquisadores bem pagos.

O tempo dirá se a OpenAI conseguirá atingir os seus objetivos ambiciosos ao mesmo tempo que lida com inúmeras controvérsias. Independentemente disso, desacelerar o ciclo do produto pode ajudar a contrariar as alegações de que a OpenAI negligenciou os esforços de segurança da IA ​​na sua busca por tecnologias de IA generativas mais poderosas. (pequeno)