notícias

Motor de busca Google totalmente revelado! Quase uma centena de documentos vazaram e os blogueiros passaram semanas fazendo engenharia reversa deles.

2024-08-23

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Novo Relatório de Sabedoria

Editor: Departamento Editorial

[Introdução à Nova Sabedoria]Após o vazamento do documento em maio, o mecanismo de busca do Google virou de cabeça para baixo novamente. A DeepMind não apenas publicou um artigo explicando o mecanismo do sistema Vizier, mas o blogueiro Mario Fischer também conduziu uma pesquisa e análise minuciosas de quase uma centena de documentos para restaurar a imagem completa deste gigante da Internet.

Os artigos publicados pelo Google começaram a revelar novamente os segredos de sua própria tecnologia.

Em um artigo recente publicado pelo cientista pesquisador sênior da DeepMind, Xingyou (Richard) Song e outros, eles explicaram os segredos do algoritmo por trás do serviço Vizier do Google.

Como um otimizador de caixa preta que foi executado milhões de vezes, o Vizier ajudou o Google a otimizar muitos estudos e sistemas internos ao mesmo tempo, o Google Cloud e a Vertex também lançaram serviços Vizier para ajudar pesquisadores e desenvolvedores a realizar ajustes de hiperparâmetros ou otimização de caixa preta; .

Song disse que, em comparação com outras linhas de base da indústria, como Ax/BoTorch, HEBO, Optuna, HyperOpt, SkOpt, etc., o Vizier tem desempenho mais robusto em muitos cenários de usuário, como dimensões altas, consultas em lote, problemas multiobjetivos, etc.

Aproveitando o lançamento do artigo, o veterano do Google, Jeff Dean, também tuitou para elogiar o sistema Vizier.

A versão de código aberto do Vizier que ele mencionou está hospedada no repositório GitHub, possui documentação muito detalhada e tem sido continuamente mantida e atualizada recentemente.

Endereço do armazém: https://github.com/google/vizier

Sistema cliente-servidor distribuído do OSS Vizier

Embora o Google Research tenha publicado um artigo discutindo todo o sistema Vizier já em 2017, o conteúdo é muito menos detalhado do que o artigo mais recente.

Este relatório técnico contém os resultados de uma grande quantidade de trabalho de pesquisa e feedback do usuário. Ao mesmo tempo que descreve os detalhes de implementação e as opções de design do algoritmo Vizier de código aberto, ele usa experimentos em benchmarks padronizados para demonstrar a robustez e versatilidade do Vizier em uma variedade de. modos práticos.

Entre eles, as experiências e lições aprendidas com o processo iterativo do sistema Vizier também são apresentadas uma a uma, o que tem grande importância de referência para a academia e a indústria e vale a pena assistir.

Componentes principais do algoritmo bayesiano usado pelo sistema Vizier

As principais contribuições do artigo são as seguintes:

- Confirmação formal do algoritmo padrão para a versão atual do Vizier e explicação de sua funcionalidade, opções de design e lições aprendidas ao longo do processo de iteração

- Fornece implementação de estrutura Python e JAX de código aberto com base na implementação C++ original

- Testado usando benchmarks comuns do setor, demonstrando a robustez do Vizier nos modos de otimização de alta dimensão, classificação, lote e multiobjetivo

- Experimentos de ablação na escolha do design não convencional do otimizador de aquisição evolutiva de ordem zero são realizados e as principais vantagens são demonstradas e discutidas.

Os dois primeiros na lista de autores do artigo são dois Richards——

Xingyou (Richard) Song trabalhou como pesquisador em generalização de aprendizagem por reforço na OpenAI. Ele ingressou no Google Brain como cientista pesquisador sênior em 2019 e atuará como cientista pesquisador sênior na DeepMind a partir de 2023, trabalhando no GenAI.

Qiuyi (Richard) Zhang atualmente trabalha na equipe DeepMind Vizier e também é o co-criador da versão de código aberto do Vizier. Sua pesquisa se concentra principalmente na otimização de hiperparâmetros, calibração bayesiana e orientações teóricas de aprendizado de máquina. no alinhamento da IA, o sexo contrafactual/justo e outros aspectos também estão envolvidos.

Zhang recebeu seu diploma de bacharel summa cum laude pela Universidade de Princeton em 2014 e, em seguida, recebeu seu doutorado em matemática aplicada e ciência da computação pela Universidade da Califórnia, Berkeley.

O mecanismo do mecanismo de pesquisa começa de baixo

Como um gigante absoluto da indústria, muitas das principais tecnologias não divulgadas do Google há muito tempo deixam o mundo exterior curioso, como os motores de busca.

Com uma quota de mercado superior a 90% há mais de dez anos, a pesquisa do Google tornou-se talvez o sistema mais influente de toda a Internet. Determina a vida ou a morte dos websites e a apresentação de conteúdos online.

Mas os detalhes específicos de como o Google classifica os sites sempre foram uma “caixa preta”.

Ao contrário de produtos como o Vizier, os motores de busca são tanto o código de riqueza como a tecnologia de gestão doméstica do Google, e é impossível divulgá-los em documentos oficiais.

Embora alguns meios de comunicação, pesquisadores e pessoas envolvidas na otimização de mecanismos de busca tenham feito várias especulações, eles são apenas pessoas cegas tentando descobrir o elefante.

O prolongado processo antitruste do Google anunciou recentemente seu veredicto. Os promotores dos EUA em todos os níveis coletaram cerca de 5 milhões de páginas de documentos e os transformaram em provas públicas.

No entanto, vazamentos de documentos internos do Google e registros públicos de audiências antitruste, entre outros, não nos dizem exatamente como funcionam as classificações.

Além disso, devido ao uso de aprendizado de máquina, a estrutura dos resultados da pesquisa orgânica é tão complexa que os funcionários do Google envolvidos no desenvolvimento do algoritmo de classificação também disseram:Eles não entendem completamente a interação dos muitos pesos de sinal para explicar por que um determinado resultado fica em primeiro ou segundo lugar.

Em 27 de maio, uma fonte anônima (mais tarde confirmada como Erfan Azimi, um profissional veterano na indústria de otimização de mecanismos de pesquisa) forneceu um documento de vazamento da API de pesquisa do Google de 2.500 páginas ao CEO da SparkToro, Rand Fishkin, revelando os detalhes do mecanismo de pesquisa do Google do interno algoritmo de classificação.

Mas isso não é tudo.

Search Engine Land, um site de notícias especializado em reportagens sobre a indústria de mecanismos de busca, publicou recentemente um blog que fez engenharia reversa de milhares de documentos judiciais vazados do Google para revelar pela primeira vez os princípios técnicos básicos das classificações de busca online do Google.

Esta postagem do blog nasceu depois que o autor original revisou, analisou, estruturou, descartou e reorganizou quase 100 documentos muitas vezes em várias semanas de trabalho. Embora não seja necessariamente estritamente preciso ou abrangente, pode-se dizer que é uma compreensão do Google. Informações abrangentes e detalhadas como nenhum outro mecanismo de pesquisa.

O diagrama de estrutura da versão para economia de fluxo do autor é o seguinte:

Não há dúvida de que o mecanismo de busca Google é um projeto grande e complexo. Desde o sistema crawler, repositório Alexandria, Mustang de classificação aproximada, até o sistema de filtragem e classificação fina Superroot e GWS responsável pela renderização final da página, eles afetarão a apresentação final e exposição da página do site.

Novo arquivo: aguardando acesso do Googlebot

Quando um novo site é publicado, ele não será indexado pelo Google imediatamente. Como o Google coleta e atualiza as informações da página da web?

A primeira etapa é o rastreamento e a coleta de dados. O Google primeiro precisa saber a existência do URL do site. Atualizar o mapa do site ou colocar um link de URL permite que o Google rastreie o novo site.

Além disso, links para páginas visitadas com frequência podem atrair a atenção do Google mais rapidamente.

O sistema rastreador rastreia novos conteúdos e registros quando URLs são revisitados para verificar atualizações do site. Isso é gerenciado por um componente chamado agendador.

O servidor de armazenamento decide então se encaminha o URL ou o coloca em uma sandbox.

O Google negou anteriormente a existência de sandboxes, mas vazamentos recentes indicam que spam (suspeito) e sites de baixo valor também são colocados na sandbox, e o Google aparentemente encaminhará alguns sites de spam, possivelmente para análise adicional de conteúdo e algoritmo de treinamento.

O link da imagem é então transferido para o ImageBot para chamadas de pesquisa subsequentes, às vezes com atrasos. O ImageBot possui um recurso de classificação que coloca imagens idênticas ou semelhantes em um contêiner de imagens.

O sistema rastreador parece usar seu próprio PageRank para ajustar a frequência de rastreamento de informações. Se um site tiver maior tráfego, essa frequência de rastreamento aumentará (ClientTrafficFraction).

Alexandria: sistema de indexação do Google

O sistema de indexação do Google, chamado Alexandria, atribui um DocID exclusivo ao conteúdo de cada página da web. No caso de conteúdo duplicado, um novo ID não será criado, mas a URL será vinculada a um DocID existente.

O Google faz uma distinção clara entre URLs e documentos: um documento pode consistir em vários URLs contendo conteúdo semelhante, incluindo versões em idiomas diferentes, todos chamados pelo mesmo DocID.

Se você encontrar conteúdo duplicado de nomes de domínio diferentes, o Google optará por exibir a versão canônica nas classificações de pesquisa. Isso também explica por que outros URLs às vezes podem ter classificação semelhante. Além disso, a chamada versão “canônica” do URL não é um acordo único, mas mudará com o tempo.

URL do documento da coleção Alexandria

Existe apenas uma versão on-line do documento do autor, portanto, o sistema fornece seu próprio DocID.

Com o DocID, cada parte do documento será pesquisada por palavras-chave e resumida no índice de pesquisa. A “lista de ocorrências” resume palavras-chave que aparecem várias vezes em cada página e serão enviadas primeiro para o índice direto.

Tomemos como exemplo a página do autor. Como a palavra “lápis” aparece muitas vezes nela, o DocID está listado na entrada “lápis” no índice de palavras.

O algoritmo calcula a pontuação IR (Recuperação de Informações) da palavra “lápis” no documento com base em diversas características do texto e a atribui ao DocID, que posteriormente é utilizado na Lista de Postagens.

Por exemplo, a palavra "lápis" no documento está em negrito e incluída no cabeçalho de primeiro nível (armazenado em AvrTermWeight). Esses sinais aumentarão a pontuação do IR.

O Google moverá documentos importantes para o HiveMind, o sistema de memória principal, usando SSDs rápidos e HDDs tradicionais (chamados TeraGoogle) para armazenamento de longo prazo de informações que não precisam ser acessadas rapidamente.

Notavelmente, os especialistas estimam que antes do recente boom da IA, o Google controlava cerca de metade dos servidores web do mundo.

Uma enorme rede de clusters interconectados pode permitir que milhões de unidades de memória principal trabalhem juntas. Um engenheiro do Google certa vez apontou em uma conferência que, em teoria, a memória principal do Google poderia armazenar toda a rede.

Curiosamente, os links para documentos importantes armazenados no HiveMind, bem como os backlinks, parecem ter um peso maior, enquanto os links de URL no HDD (TeraGoogle) podem ter um peso menor e podem nem ser considerados.

Informações e sinais adicionais para cada DocID são armazenados dinamicamente no PerDocData, um repositório que contém as 20 versões mais recentes de cada documento (via CrawlerChangerateURLHistory), que muitos sistemas acessam ao ajustar a relevância.

E o Google tem a capacidade de avaliar diferentes versões ao longo do tempo. Se você quiser alterar completamente o conteúdo ou tema de um documento, teoricamente precisará criar 20 versões de transição para substituir completamente a versão antiga.

É por isso que restaurar um domínio expirado (um que já esteve ativo, mas foi posteriormente abandonado ou vendido devido a falência ou outros motivos) não manterá a vantagem de classificação do domínio original.

Se o Admin-C de um domínio e seu conteúdo de assunto mudarem ao mesmo tempo, as máquinas poderão identificar isso facilmente.

Neste momento, o Google definirá todos os sinais como zero, e o antigo nome de domínio que antes tinha valor de tráfego não oferecerá mais nenhuma vantagem. Não é diferente de um nome de domínio recém-registrado. sobre o tráfego e classificações originais.

Além dos vazamentos, documentos comprobatórios de audiências judiciais e julgamentos contra o Google nos EUA são uma fonte útil de pesquisa, incluindo até mesmo e-mails internos

QBST: Alguém está procurando por “lápis”

Quando alguém insere o termo de pesquisa “lápis” no Google, o QBST (Query Based Salient Terms) começa a funcionar.

O QBST é responsável por analisar os termos de pesquisa inseridos pelo usuário, atribuindo pesos diferentes a cada palavra nele contida com base na importância e relevância, e realizando consultas DocID relevantes respectivamente.

O processo de ponderação de vocabulário é bastante complexo e envolve sistemas como RankBrain, DeepRank (anteriormente BERT) e RankEmbeddedBERT.

QBST é importante para SEO porque afeta a forma como o Google classifica os resultados de pesquisa e, portanto, quanto tráfego e visibilidade um site pode receber.

O QBST classificará um site em uma posição mais elevada se ele contiver os termos mais comumente usados ​​que correspondam às consultas do usuário.

Após o QBST, palavras relacionadas como "lápis" serão passadas ao Ascorer para processamento posterior.

Artilheiro: Crie um “anel verde”

O Ascorer extrai os 1.000 principais DocIDs na entrada "lápis" do índice invertido (ou seja, índice lexical) e os classifica por pontuação de IR.

Segundo documentos internos, essa lista é chamada de “anel verde”. Na indústria, isso é chamado de lista de postagem.

No nosso exemplo do “lápis”, o documento correspondente está classificado em 132º lugar na lista publicada. Sem a intervenção de outros sistemas, esta seria a sua posição final.

Superroot: "Dez de mil milhas"

Superroot é responsável por reclassificar as 1.000 páginas candidatas recém-selecionadas pelo Mustang, reduzindo o “anel verde” de 1.000 DocIDs para o “anel azul” de 10 resultados.

Esta tarefa é executada especificamente por Twiddlers e NavBoost. Outros sistemas também podem estar envolvidos, mas os detalhes específicos não são claros devido a informações imprecisas.

Mustang gera 1.000 resultados potenciais, Superroot os filtra até 10

Twiddlers: camadas de filtragem

Vários documentos indicam que o Google usa centenas de sistemas Twiddler, que podemos considerar semelhantes aos filtros dos plug-ins do WordPress.

Cada Twiddler tem seus próprios objetivos de filtragem específicos e pode ajustar a pontuação de IR ou a posição no ranking.

Ele foi projetado desta forma porque o Twiddler é relativamente fácil de criar e não requer modificação do complexo algoritmo de classificação no Ascorer.

A modificação dos algoritmos de classificação é muito desafiadora devido aos potenciais efeitos colaterais envolvidos e requer planejamento e programação extensivos. Em contraste, vários Twiddlers operam em paralelo ou sequencialmente e não têm conhecimento das atividades de outros Twiddlers.

Os Twiddlers podem ser basicamente divididos em dois tipos:

-PreDoc Twiddlers podem lidar com coleções de centenas de DocIDs porque requerem pouca informação adicional;

-Pelo contrário, o Twiddler do tipo “Preguiçoso” requer mais informações, como informações do banco de dados PerDocData, o que requer um tempo relativamente maior e um processo mais complicado.

Portanto, o PreDocs primeiro recebe a lista de publicações e reduz as entradas da página da web e, em seguida, usa um filtro do tipo "Preguiçoso" mais lento. A combinação dos dois economiza muito tempo e poder de computação.

Dois tipos de mais de 100 Twiddlers são responsáveis ​​por reduzir o número de possíveis resultados de pesquisa e reordená-los

Após o teste, o Twiddler tem vários usos. Os desenvolvedores podem experimentar novos filtros, multiplicadores ou restrições de posição específicas e até mesmo obter uma manipulação muito precisa para classificar um resultado de pesquisa específico antes ou atrás de outro resultado.

Um documento interno do Google vazado revela que certos recursos do Twiddler só devem ser usados ​​por especialistas em consulta com a equipe principal de pesquisa.

Se você acha que sabe como o Twidder funciona, confie em nós: você não sabe. Não temos certeza se entendemos

Existem também Twiddlers apenas para criar anotações e adicionar essas anotações ao DocID.

Durante o COIVD, por que o departamento de saúde do seu país está sempre no topo da lista de pesquisas sobre COVID-19?

Isso ocorre porque o Twiddler usa queriesForWhichOfficial para facilitar a distribuição precisa de recursos oficiais com base no idioma e na região.

Embora os desenvolvedores não tenham controle sobre os resultados da reclassificação do Twiddler, compreender sua mecânica pode explicar melhor as flutuações de classificação e aquelas “classificações inexplicáveis”.

Avaliador de Qualidade e RankLab

Existem milhares de avaliadores de qualidade em todo o mundo que avaliam os resultados de pesquisa do Google e testam novos algoritmos ou filtros antes de serem publicados.

O Google afirma que suas classificações são apenas para referência e não afetam diretamente as classificações.

Isto é essencialmente verdade, mas as suas classificações e bilhetes de licitação têm um enorme impacto indireto nas classificações.

Os avaliadores normalmente realizam avaliações em um dispositivo móvel, recebendo um URL ou frase de pesquisa do sistema e respondendo a perguntas predefinidas.

Por exemplo, será perguntado a eles: “O autor e a prática criativa deste conteúdo são claros? O autor tem experiência no assunto?”

Essas respostas são armazenadas e usadas para treinar algoritmos de aprendizado de máquina para identificar melhor páginas confiáveis ​​e de alta qualidade e páginas menos confiáveis.

Em outras palavras, os resultados fornecidos por avaliadores humanos tornam-se critérios importantes para algoritmos de aprendizagem profunda, e os critérios de classificação criados pela equipe de busca do Google não são tão importantes.

Imagine que tipo de páginas da web seriam consideradas confiáveis ​​por avaliadores humanos?

Uma página geralmente parecerá convincente se contiver a foto do autor, o nome completo e o link do LinkedIn. Por outro lado, as páginas da web que não possuem essas características são consideradas menos confiáveis.

A rede neural identificará então esse recurso como um fator-chave e, após pelo menos 30 dias de execuções de testes ativos, o modelo poderá começar a usar automaticamente esse recurso como critério de classificação.

Portanto, páginas com foto do autor, nome completo e link do LinkedIn podem receber um aumento de classificação por meio do mecanismo Twiddler, enquanto páginas sem essas características sofrerão uma diminuição de classificação.

Além disso, de acordo com as informações vazadas pelo Google, por meio do atributo isAuthor e do atributo AuthorVectors (semelhante à "identificação da impressão digital do autor"), o sistema pode identificar e distinguir as palavras e expressões exclusivas do autor (ou seja, características de linguagem pessoal).

As classificações dos avaliadores são agregadas em uma pontuação de “satisfação com a informação” (IS). Embora muitos avaliadores participem, a pontuação de IS se aplica apenas a um pequeno número de URLs.

O Google ressalta que muitos documentos que não são clicados também podem ser importantes. Quando o sistema não consegue fazer uma inferência, o documento é enviado automaticamente ao avaliador e uma pontuação é gerada.

O termo “ouro” é mencionado nos termos relacionados ao avaliador, o que sugere que certos documentos podem ter um “padrão ouro” e atender às expectativas dos avaliadores humanos pode ajudar o documento a atingir o padrão “ouro”.

Além disso, um ou mais sistemas Twiddler podem promover DocIDs que atendam ao "padrão ouro" entre os dez primeiros.

Os revisores de qualidade normalmente não são funcionários em tempo integral do Google, mas são afiliados a empresas terceirizadas.

Em contraste, os próprios especialistas do Google trabalham no RankLab, conduzindo experimentos, desenvolvendo novos Twiddlers e avaliando-os e melhorando-os para ver se o Twiddler melhora a qualidade dos resultados ou simplesmente filtra spam.

O comprovado e eficaz Twiddler foi então integrado ao sistema Mustang usando algoritmos complexos, interconectados e computacionalmente intensivos.

NavBoost: Do que os usuários gostam?

No Superroot, outro sistema central, o NavBoost, também desempenha um papel importante na classificação dos resultados da pesquisa.

O Navboost é usado principalmente para coletar dados sobre a interação dos usuários com os resultados da pesquisa, especialmente seus cliques em diferentes resultados da consulta.

Embora o Google negue oficialmente o uso de dados de cliques de usuários para classificações, um e-mail interno divulgado pela Federal Trade Commission (FTC) instrui que a forma como os dados de cliques são tratados deve ser mantida confidencial.

O Google nega isso por dois motivos.

Em primeiro lugar, do ponto de vista do utilizador, o Google, como plataforma de pesquisa, monitoriza constantemente as atividades online dos utilizadores, o que causará indignação nos meios de comunicação sobre questões de privacidade.

Mas, do ponto de vista do Google, o objetivo do uso de dados de cliques é obter métricas de dados estatisticamente significativas, e não monitorar usuários individuais.

O documento da FTC confirmou que os dados de cliques afetarão as classificações e mencionou frequentemente o sistema NavBoost (54 vezes durante a audiência em 18 de abril de 2023), o que também foi confirmado por uma audiência oficial em 2012.

Desde agosto de 2012, as autoridades deixaram claro que os dados de cliques afetarão as classificações

Vários comportamentos do usuário na página de resultados de pesquisa, incluindo pesquisas, cliques, pesquisas repetidas e cliques repetidos, bem como o tráfego para o site ou página da web, afetam as classificações.

As preocupações com a privacidade do usuário são apenas um dos motivos. Outra preocupação é que a avaliação por meio de dados de cliques e tráfego pode encorajar spammers e golpistas a usar sistemas de bot para falsificar o tráfego e manipular classificações.

O Google também possui métodos para combater essa situação, como distinguir cliques de usuários em cliques ruins e cliques bons por meio de avaliações múltiplas.

As métricas utilizadas incluem o tempo gasto na página de destino, o período de tempo durante o qual a página foi visualizada, a página inicial da pesquisa, o registro de "clique bom" mais recente no histórico de pesquisa do usuário, etc.

Para cada classificação nas páginas de resultados de pesquisa (SERPs), há uma taxa de cliques (CTR) média esperada como base.

Por exemplo, de acordo com uma análise de Johannes Beus na conferência CAMPIXX deste ano em Berlim, a primeira posição nos resultados de pesquisa natural recebeu uma média de 26,2% dos cliques e a segunda posição recebeu 15,5% dos cliques.

Se uma CTR for significativamente inferior à taxa esperada, o sistema NavBoost detectará esta lacuna e ajustará a classificação do DocID de acordo.

Se "expected_CRT" se desviar significativamente do valor real, a classificação será ajustada de acordo

Os cliques dos usuários representam basicamente a opinião do usuário sobre a relevância dos resultados, incluindo título, descrição e nome de domínio.

De acordo com relatórios de especialistas em SEO e analistas de dados, ao monitorar de forma abrangente as taxas de cliques, eles notaram os seguintes fenômenos:

Se um documento entrar no top 10 para uma consulta de pesquisa e o CTR for significativamente menor do que o esperado, pode-se observar que a classificação cairá em poucos dias (dependendo do volume de pesquisa).

Pelo contrário, se o CTR for muito mais elevado em relação à classificação, a classificação normalmente aumentará. Se a CTR for baixa, o site precisa ajustar e otimizar o título e a descrição do conteúdo em um curto período de tempo para obter mais cliques.

Calcular e atualizar o PageRank é demorado e computacionalmente intenso, e é por isso que a métrica PageRank_NS é usada. NS significa “semente mais próxima”, um grupo de páginas relacionadas compartilha um valor PageRank, que é aplicado a novas páginas temporária ou permanentemente.

O Google deu um bom exemplo em uma audiência sobre como fornecer informações atualizadas. Por exemplo, quando um usuário pesquisa “Stanley Cup”, os resultados da pesquisa geralmente mostram um copo d'água.

No entanto, quando um jogo de hóquei da Stanley Cup está em andamento, o NavBoost ajusta os resultados para priorizar informações em tempo real sobre o jogo.

De acordo com as últimas descobertas, as métricas de cliques do documento cobrem 13 meses de dados, com uma sobreposição de um mês para permitir a comparação com o ano anterior.

Surpreendentemente, o Google não oferece resultados de pesquisa muito personalizados. Os resultados dos testes mostraram que modelar e ajustar o comportamento do usuário pode levar a melhores resultados do que avaliar as preferências pessoais de usuários individuais.

No entanto, as preferências pessoais, como preferências de pesquisa e conteúdo de vídeo, ainda estão incluídas nos resultados personalizados.

GWS: o fim e o início da pesquisa

O Google Web Server (GWS) é responsável por renderizar a página de resultados de pesquisa (SERP), que inclui 10 “links azuis”, além de anúncios, imagens, visualizações do Google Maps, “As pessoas também perguntam” e outros elementos.

Esses componentes, como FreshnessNode, InstantGlue (reage em 24 horas, com um atraso de cerca de 10 minutos) e InstantNavBoost, podem ajustar as classificações no último momento antes de a página ser exibida.

FreshnessNode pode monitorar mudanças no comportamento de pesquisa do usuário em tempo real e ajustar as classificações com base nessas mudanças para garantir que os resultados da pesquisa correspondam às intenções de pesquisa mais recentes.

InstantNavBoost e InstantGlue fazem ajustes finais nas classificações antes da renderização final dos resultados da pesquisa, como ajustar as classificações com base nas últimas notícias e tópicos importantes.

portanto,Para alcançar classificações elevadas, um excelente conteúdo de documento deve ser aliado a medidas corretas de SEO.

As classificações podem ser afetadas por vários fatores, incluindo mudanças no comportamento de pesquisa, presença de documentos adicionais e atualizações de informações em tempo real. Portanto, é importante perceber que ter conteúdo de alta qualidade e fazer um bom SEO são apenas parte do cenário de classificação dinâmica.

John Mueller, do Google, enfatizou que uma queda nas classificações geralmente não significa que o conteúdo seja de baixa qualidade e que mudanças no comportamento do usuário ou outros fatores podem alterar o desempenho dos resultados.

Por exemplo, se os usuários começarem a preferir textos mais curtos, o NavBoost ajustará automaticamente as classificações de acordo. No entanto, a pontuação IR no sistema Alexandria ou Ascorer permanece inalterada.

O que isto nos diz é que o SEO deve ser entendido num sentido mais amplo. A simples otimização do título ou conteúdo será ineficaz se o conteúdo do documento for inconsistente com a intenção de pesquisa do usuário.