noticias

¡El motor de búsqueda de Google completamente revelado! Se filtraron casi cien documentos y los blogueros pasaron semanas realizando ingeniería inversa en ellos.

2024-08-23

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Nuevo informe de sabiduría

Editor: Departamento Editorial

[Introducción a la Nueva Sabiduría]Tras la filtración de documentos en mayo, el motor de búsqueda de Google volvió a dar un vuelco. DeepMind no sólo publicó un artículo explicando el mecanismo del sistema Vizier, sino que el blogger Mario Fischer también llevó a cabo una investigación y un análisis exhaustivos de casi cien documentos para restaurar la imagen completa de este gigante de Internet.

Los artículos publicados por Google han comenzado a revelar nuevamente los secretos de su propia tecnología.

En un artículo reciente publicado por el científico investigador senior de DeepMind, Xingyou (Richard) Song y otros, explicaron los secretos del algoritmo detrás del servicio Vizier de Google.

Como optimizador de caja negra que se ha ejecutado millones de veces, Vizier ha ayudado a Google a optimizar muchos estudios y sistemas internos. Al mismo tiempo, Google Cloud y Vertex también han lanzado servicios Vizier para ayudar a investigadores y desarrolladores a realizar ajustes de hiperparámetros u optimización de caja negra; .

Song dijo que, en comparación con otras líneas de base de la industria como Ax/BoTorch, HEBO, Optuna, HyperOpt, SkOpt, etc., Vizier tiene un rendimiento más sólido en muchos escenarios de usuario, como dimensiones altas, consultas por lotes, problemas multiobjetivo, etc.

Aprovechando la publicación del artículo, el veterano de Google, Jeff Dean, también tuiteó para elogiar el sistema Vizier.

La versión de código abierto de Vizier que mencionó se ha alojado en el repositorio de GitHub, tiene documentación muy detallada y se ha mantenido y actualizado continuamente recientemente.

Dirección del almacén: https://github.com/google/vizier

El sistema cliente-servidor distribuido de OSS Vizier

Aunque Google Research publicó un artículo sobre todo el sistema Vizier ya en 2017, el contenido es mucho menos detallado que el último artículo.

Este informe técnico contiene los resultados de una gran cantidad de trabajo de investigación y comentarios de los usuarios. Al tiempo que describe los detalles de implementación y las opciones de diseño del algoritmo Vizier de código abierto, utiliza experimentos en puntos de referencia estandarizados para demostrar la solidez y versatilidad de Vizier en una variedad de. modos prácticos.

Entre ellos, también se muestran una por una las experiencias y lecciones aprendidas del proceso iterativo del sistema Vizier, lo que tiene una gran importancia de referencia para la academia y la industria y vale la pena verlo.

Componentes centrales del algoritmo bayesiano utilizado por el sistema Vizier

Las principales aportaciones del artículo son las siguientes:

- Confirmación formal del algoritmo predeterminado para la versión actual de Vizier y explicación de su funcionalidad, opciones de diseño y lecciones aprendidas durante el proceso de iteración.

- Proporciona una implementación del marco Python y JAX de código abierto basada en la implementación original de C++.

- Probado utilizando puntos de referencia comunes de la industria, lo que demuestra la solidez de Vizier en modos de optimización de alta dimensión, clasificación, lotes y múltiples objetivos.

- Se realizan experimentos de ablación sobre la elección de diseño no convencional del optimizador de adquisición evolutiva de orden cero y se demuestran y discuten las ventajas clave.

Los dos primeros en la lista de autores del artículo son dos Richards——

Xingyou (Richard) Song trabajó como investigador sobre generalización del aprendizaje por refuerzo en OpenAI. Se unió a Google Brain como científico investigador senior en 2019 y se desempeñará como científico investigador senior en DeepMind a partir de 2023, trabajando en GenAI.

Qiuyi (Richard) Zhang trabaja actualmente en el equipo de DeepMind Vizier y también es cocreador de la versión de código abierto de Vizier. Su investigación se centra principalmente en la optimización de hiperparámetros, la calibración bayesiana y las direcciones teóricas del aprendizaje automático. en la alineación de la IA, el sexo contrafáctico/justo y otros aspectos también están involucrados.

Zhang recibió su licenciatura summa cum laude de la Universidad de Princeton en 2014 y luego recibió su doctorado en matemáticas aplicadas e informática de la Universidad de California, Berkeley.

El mecanismo del motor de búsqueda comienza desde abajo.

Como gigante absoluto de la industria, muchas de las tecnologías centrales no reveladas de Google han despertado la curiosidad del mundo exterior durante mucho tiempo, como los motores de búsqueda.

Con una cuota de mercado de más del 90% desde hace más de diez años, la búsqueda de Google se ha convertido quizás en el sistema más influyente de todo Internet. Determina la vida y la muerte de los sitios web y la presentación de los contenidos online.

Pero los detalles específicos de cómo Google clasifica los sitios web siempre han sido una "caja negra".

A diferencia de productos como Vizier, los motores de búsqueda son a la vez el código de riqueza y la tecnología interna de Google, y es imposible revelarlos en los documentos oficiales.

Aunque algunos medios de comunicación, investigadores y personas dedicadas a la optimización de motores de búsqueda han hecho diversas especulaciones, no son más que personas ciegas que intentan descifrar al elefante.

La prolongada demanda antimonopolio de Google anunció recientemente su veredicto. Los fiscales estadounidenses de todos los niveles recopilaron alrededor de 5 millones de páginas de documentos y los convirtieron en evidencia pública.

Sin embargo, las filtraciones de documentos internos de Google y las presentaciones públicas de audiencias antimonopolio, entre otras, no nos dicen exactamente cómo funcionan las clasificaciones.

Además, debido al uso del aprendizaje automático, la estructura de los resultados de búsqueda orgánicos es tan compleja que los empleados de Google involucrados en el desarrollo del algoritmo de clasificación también dijeron:No comprenden completamente la interacción de los distintos pesos de las señales para explicar por qué un determinado resultado ocupa el primer o segundo lugar.

El 27 de mayo, una fuente anónima (que más tarde se confirmó que era Erfan Azimi, un profesional veterano en la industria de optimización de motores de búsqueda) proporcionó un documento de 2.500 páginas sobre la filtración de la API de búsqueda de Google al director ejecutivo de SparkToro, Rand Fishkin, que revelaba los detalles internos del motor de búsqueda de Google. algoritmo de clasificación.

Pero eso no es todo.

Search Engine Land, un sitio web de noticias que se especializa en informar sobre la industria de los motores de búsqueda, publicó recientemente un blog que realizó ingeniería inversa en miles de documentos judiciales de Google filtrados para revelar por primera vez los principios técnicos básicos de las clasificaciones de búsqueda en línea de Google.

Esta publicación de blog nació después de que el autor original revisara, analizara, estructurara, descartara y reorganizara casi 100 documentos muchas veces en varias semanas de trabajo. Aunque no es necesariamente estrictamente preciso o completo, se puede decir que es una comprensión de Google. Información completa y detallada como ningún otro buscador.

El diagrama de estructura de la versión de ahorro de flujo del autor es el siguiente:

No hay duda de que el buscador de Google es un proyecto grande y complejo. Desde el sistema de rastreo, el repositorio Alexandria, la clasificación aproximada Mustang, hasta el sistema de filtrado y clasificación fina Superroot y GWS responsables de la representación final de la página, estos afectarán la presentación final y la exposición de la página del sitio web.

Nuevo archivo: esperando el acceso del robot de Google

Cuando se publica un nuevo sitio web, Google no lo indexará inmediatamente. ¿Cómo recopila y actualiza Google la información de la página web?

El primer paso es el rastreo y la recopilación de datos. Google primero necesita conocer la existencia de la URL del sitio web. Actualizar el mapa del sitio o colocar un enlace URL le permite rastrear el nuevo sitio web.

Además, los enlaces a páginas visitadas con frecuencia pueden atraer la atención de Google más rápidamente.

El sistema de rastreo rastrea contenido nuevo y registra cuando se vuelven a visitar las URL para buscar actualizaciones del sitio web. Esto es administrado por un componente llamado programador.

Luego, el servidor de almacenamiento decide si reenviar la URL o colocarla en un entorno limitado.

Google ha negado anteriormente la existencia de sandboxes, pero filtraciones recientes indican que (sospechosos) spam y sitios web de bajo valor también se colocan en el sandbox, y aparentemente Google reenviará algunos sitios web de spam, posiblemente para un mayor análisis del contenido y entrenamiento del algoritmo.

Luego, el enlace de la imagen se transfiere a ImageBot para llamadas de búsqueda posteriores, a veces con retrasos. ImageBot tiene una función de clasificación que coloca imágenes idénticas o similares en un contenedor de imágenes.

El sistema de rastreo parece utilizar su propio PageRank para ajustar la frecuencia de rastreo de información. Si un sitio web tiene mayor tráfico, esta frecuencia de rastreo aumentará (ClientTrafficFraction).

Alejandría: sistema de indexación de Google

El sistema de indexación de Google, llamado Alexandria, asigna un DocID único al contenido de cada página web. En caso de contenido duplicado, no se creará una nueva identificación, pero la URL se vinculará a una DocID existente.

Google hace una distinción clara entre URL y documentos: un documento puede constar de varias URL que contienen contenido similar, incluidas versiones en diferentes idiomas, todas ellas llamadas con el mismo DocID.

Si encuentra contenido duplicado de diferentes nombres de dominio, Google optará por mostrar la versión canónica en las clasificaciones de búsqueda. Esto también explica por qué otras URL a veces pueden tener una clasificación similar. Además, la llamada versión "canónica" de la URL no es un trato único, sino que cambiará con el tiempo.

URL del documento de la colección de Alejandría

Solo hay una versión del documento del autor en línea, por lo que el sistema le asigna su propio DocID.

Con DocID, se buscarán palabras clave en cada parte del documento y se resumirán en el índice de búsqueda. La "lista de resultados" resume las palabras clave que aparecen varias veces en cada página y se enviarán primero al índice directo.

Tome la página web del autor como ejemplo. Dado que la palabra "lápiz" aparece muchas veces en ella, el DocID aparece debajo de la entrada "lápiz" en el índice de palabras.

El algoritmo calcula la puntuación IR (Recuperación de información) de la palabra "lápiz" en el documento en función de varias características del texto y la asigna a DocID, que luego se utiliza en la Lista de publicaciones.

Por ejemplo, la palabra "lápiz" en el documento está en negrita y se incluye en el título de primer nivel (almacenado en AvrTermWeight). Dichas señales aumentarán la puntuación IR.

Google trasladará documentos importantes a HiveMind, el sistema de memoria principal, utilizando SSD rápidos y HDD tradicionales (llamados TeraGoogle) para el almacenamiento a largo plazo de información a la que no es necesario acceder rápidamente.

En particular, los expertos estiman que antes del reciente auge de la IA, Google controlaba aproximadamente la mitad de los servidores web del mundo.

Una enorme red de clústeres interconectados puede permitir que millones de unidades de memoria principal trabajen juntas. Un ingeniero de Google señaló una vez en una conferencia que, en teoría, la memoria principal de Google podría almacenar toda la red.

Curiosamente, los enlaces a documentos importantes almacenados en HiveMind, así como los vínculos de retroceso, parecen tener un peso mayor, mientras que los enlaces URL en HDD (TeraGoogle) pueden tener un peso menor y es posible que ni siquiera se tengan en cuenta.

La información y las señales adicionales para cada DocID se almacenan dinámicamente en PerDocData, un repositorio que contiene las 20 versiones más recientes de cada documento (a través de CrawlerChangerateURLHistory), al que muchos sistemas acceden al ajustar la relevancia.

Y Google tiene la capacidad de evaluar diferentes versiones a lo largo del tiempo. Si desea cambiar completamente el contenido o el tema de un documento, en teoría necesitaría crear 20 versiones de transición para sobrescribir completamente la versión anterior.

Esta es la razón por la que restaurar un dominio caducado (uno que alguna vez estuvo activo pero luego fue abandonado o vendido debido a quiebra u otras razones) no conservará la ventaja de clasificación del dominio original.

Si el Admin-C de un dominio y el contenido del asunto cambian al mismo tiempo, las máquinas pueden identificarlo fácilmente.

En este momento, Google pondrá todas las señales a cero y el nombre de dominio anterior que alguna vez tuvo valor de tráfico ya no brindará ninguna ventaja. No es diferente de un nombre de dominio recién registrado. sobre el tráfico y las clasificaciones originales.

Además de las filtraciones, los documentos probatorios de audiencias y juicios judiciales estadounidenses contra Google son una fuente útil de investigación, incluidos incluso correos electrónicos internos.

QBST: Alguien está buscando "lápiz"

Cuando alguien ingresa el término de búsqueda "lápiz" en Google, QBST (Términos destacados basados ​​en consultas) comienza a funcionar.

QBST es responsable de analizar los términos de búsqueda ingresados ​​por el usuario, asignando diferentes pesos a cada palabra contenida en ellos según su importancia y relevancia, y realizando consultas DocID relevantes, respectivamente.

El proceso de ponderación de vocabulario es bastante complejo e involucra sistemas como RankBrain, DeepRank (anteriormente BERT) y RankEmbeddedBERT.

QBST es importante para SEO porque afecta la forma en que Google clasifica los resultados de búsqueda y, por lo tanto, la cantidad de tráfico y visibilidad que puede recibir un sitio web.

QBST clasificará un sitio web más alto si contiene los términos más utilizados que coincidan con las consultas de los usuarios.

Después de QBST, las palabras relacionadas, como "lápiz", se pasarán a Ascorer para su posterior procesamiento.

Ascorer: Crea un “anillo verde”

Ascorer extrae los 1000 DocID principales bajo la entrada "lápiz" del índice invertido (es decir, índice léxico) y los clasifica según su puntuación IR.

Según documentos internos, esta lista se denomina "anillo verde". En la industria, esto se llama lista de publicaciones.

En nuestro ejemplo de "lápiz", el documento correspondiente ocupa el puesto 132 en la lista publicada. Si no interviene ningún otro sistema, esta será su posición final.

Superroot: "Diez de mil millas"

Superroot es responsable de reclasificar las 1.000 páginas web candidatas que acaba de examinar Mustang, reduciendo el "anillo verde" de 1.000 DocID al "anillo azul" de 10 resultados.

Esta tarea la realizan específicamente Twiddlers y NavBoost. También pueden estar involucrados otros sistemas, pero los detalles específicos no están claros debido a información inexacta.

Mustang genera 1000 resultados potenciales, Superroot los filtra a 10

Twiddlers: capas de filtrado

Varios documentos indican que Google utiliza cientos de sistemas Twiddler, que podemos considerar similares a los filtros de los complementos de WordPress.

Cada Twiddler tiene sus propios objetivos de filtrado específicos y puede ajustar la puntuación IR o la posición en la clasificación.

Está diseñado de esta manera porque Twiddler es relativamente fácil de crear y no requiere modificación del complejo algoritmo de clasificación en Ascorer.

La modificación de los algoritmos de clasificación es un gran desafío debido a los posibles efectos secundarios involucrados y requiere una planificación y programación exhaustivas. Por el contrario, varios Twiddlers operan en paralelo o secuencialmente y desconocen las actividades de otros Twiddlers.

Los Twiddlers se pueden dividir básicamente en dos tipos:

-PreDoc Twiddlers puede manejar colecciones de cientos de DocID porque requieren poca información adicional;

-Por el contrario, el Twiddler tipo "Lazy" requiere más información, como información de la base de datos PerDocData, lo que requiere un tiempo relativamente mayor y un proceso más complicado.

Por lo tanto, PreDocs primero recibe la lista de publicaciones y reduce las entradas de la página web, y luego utiliza un filtro de tipo "Lazy" más lento. La combinación de los dos ahorra mucho tiempo y potencia de cálculo.

Dos tipos de más de 100 Twiddlers se encargan de reducir el número de posibles resultados de búsqueda y reordenarlos.

Después de las pruebas, Twiddler tiene una variedad de usos. Los desarrolladores pueden probar nuevos filtros, multiplicadores o restricciones de posición específicas, e incluso lograr una manipulación muy precisa para clasificar un resultado de búsqueda específico antes o detrás de otro resultado.

Un documento interno de Google filtrado revela que ciertas funciones de Twiddler sólo deben ser utilizadas por expertos en consulta con el equipo principal de búsqueda.

Si crees que sabes cómo funciona Twidder, confía en nosotros: no es así. No estamos seguros de entender

También hay Twiddlers solo para crear anotaciones y agregarlas al DocID.

Durante COIVD, ¿por qué el departamento de salud de su país siempre encabeza la lista de búsquedas de COVID-19?

Esto se debe a que Twiddler utiliza queriesForWhichOfficial para facilitar la distribución precisa de recursos oficiales según el idioma y la región.

Si bien los desarrolladores no tienen control sobre los resultados de la reclasificación de Twiddler, comprender su mecánica puede explicar mejor las fluctuaciones de clasificación y esas "clasificaciones inexplicables".

Asesor de Calidad y RankLab

Miles de evaluadores de calidad en todo el mundo evalúan los resultados de búsqueda de Google y prueban nuevos algoritmos o filtros antes de publicarlos.

Google dice que sus calificaciones son sólo como referencia y no afectan directamente las clasificaciones.

Esto es esencialmente cierto, pero sus calificaciones y tickets de oferta tienen un enorme impacto indirecto en las clasificaciones.

Los evaluadores suelen realizar evaluaciones en un dispositivo móvil, reciben una URL o una frase de búsqueda del sistema y responden preguntas preestablecidas.

Por ejemplo, se les preguntará: "¿Están claros el autor y la práctica creativa de este contenido? ¿Tiene el autor experiencia en el tema?"

Estas respuestas se almacenan y se utilizan para entrenar algoritmos de aprendizaje automático para identificar mejor las páginas confiables y de alta calidad y las páginas menos confiables.

En otras palabras, los resultados proporcionados por los evaluadores humanos se convierten en criterios importantes para los algoritmos de aprendizaje profundo, y los criterios de clasificación creados por el equipo de búsqueda de Google no son tan importantes.

Imagínese qué tipo de páginas web serían consideradas confiables por los evaluadores humanos.

Por lo general, una página parecerá convincente si contiene la foto del autor, el nombre completo y el enlace de LinkedIn. Por el contrario, las páginas web que carecen de estas características se consideran menos fiables.

Luego, la red neuronal identificará esta característica como un factor clave y, después de al menos 30 días de ejecuciones de prueba activas, el modelo puede comenzar a usar automáticamente esta característica como criterio de clasificación.

Por lo tanto, las páginas con una foto del autor, nombre completo y enlace de LinkedIn pueden recibir un aumento en la clasificación a través del mecanismo Twiddler, mientras que las páginas que carecen de estas características experimentarán una disminución en la clasificación.

Además, según la información filtrada por Google, a través del atributo isAuthor y el atributo AuthorVectors (similar a la "identificación de huellas dactilares del autor"), el sistema puede identificar y distinguir las palabras y expresiones únicas del autor (es decir, características del lenguaje personal).

Las calificaciones de los evaluadores se agregan en una puntuación de "satisfacción con la información" (IS). Aunque participan muchos evaluadores, la puntuación IS solo se aplica a una pequeña cantidad de URL.

Google señala que muchos documentos en los que no se hace clic también pueden ser importantes. Cuando el sistema no puede hacer una inferencia, el documento se envía automáticamente al evaluador y se genera una puntuación.

El término "oro" se menciona en los términos relacionados con el evaluador, lo que sugiere que ciertos documentos pueden tener un "estándar de oro" y cumplir con las expectativas de los evaluadores humanos puede ayudar a que el documento alcance el estándar "oro".

Además, uno o más sistemas Twiddler pueden promocionar DocID que cumplan con el "estándar de oro" entre los diez primeros.

Los revisores de calidad no suelen ser empleados de tiempo completo de Google, sino que están afiliados a empresas de subcontratación.

Por el contrario, los propios expertos de Google trabajan en RankLab, realizando experimentos, desarrollando nuevos Twiddlers y evaluándolos y mejorándolos para ver si Twiddler mejora la calidad de los resultados o simplemente filtra el spam.

Luego, el probado y efectivo Twiddler se integró en el sistema Mustang utilizando algoritmos complejos, interconectados y computacionalmente intensivos.

NavBoost: ¿Qué les gusta a los usuarios?

En Superroot, otro sistema central, NavBoost, también juega un papel importante en la clasificación de los resultados de búsqueda.

Navboost se utiliza principalmente para recopilar datos sobre la interacción de los usuarios con los resultados de búsqueda, especialmente sus clics en diferentes resultados de consultas.

Aunque Google niega oficialmente el uso de datos de clics de los usuarios para las clasificaciones, un correo electrónico interno divulgado por la Comisión Federal de Comercio (FTC) indica que el manejo de los datos de clics debe mantenerse confidencial.

Google lo niega por dos razones.

En primer lugar, desde la perspectiva del usuario, Google, como plataforma de búsqueda, monitorea las actividades en línea de los usuarios todo el tiempo, lo que causará indignación en los medios por cuestiones de privacidad.

Pero desde la perspectiva de Google, el propósito de utilizar datos de clics es obtener métricas de datos estadísticamente significativas, no monitorear a usuarios individuales.

El documento de la FTC confirmó que los datos de clics afectarán las clasificaciones y mencionó con frecuencia el sistema NavBoost (54 veces durante la audiencia del 18 de abril de 2023), lo que también fue confirmado por una audiencia oficial en 2012.

Desde agosto de 2012, los funcionarios han dejado claro que los datos de clics afectarán las clasificaciones.

Varios comportamientos del usuario en la página de resultados de búsqueda, incluidas búsquedas, clics, búsquedas repetidas y clics repetidos, así como el tráfico al sitio web o página web, afectan las clasificaciones.

Las preocupaciones sobre la privacidad del usuario son sólo una de las razones. Otra preocupación es que la evaluación a través de los datos de clics y el tráfico podría alentar a los spammers y estafadores a utilizar sistemas de bots para falsificar el tráfico y manipular las clasificaciones.

Google también tiene métodos para contrarrestar esta situación, como distinguir los clics de los usuarios en clics malos y buenos mediante múltiples evaluaciones.

Las métricas utilizadas incluyen el tiempo transcurrido en la página de destino, el período de tiempo durante el cual se vio la página, la página de inicio de la búsqueda, el registro de "buen clic" más reciente en el historial de búsqueda del usuario, etc.

Para cada clasificación en las páginas de resultados de búsqueda (SERP), existe una tasa de clics (CTR) promedio esperada como base.

Por ejemplo, según un análisis realizado por Johannes Beus en la conferencia CAMPIXX de este año en Berlín, la primera posición en los resultados de búsqueda naturales recibió una media del 26,2% de los clics, y la segunda posición recibió un 15,5% de los clics.

Si un CTR es significativamente menor que la tasa esperada, el sistema NavBoost notará la brecha y ajustará la clasificación de DocID en consecuencia.

Si "expected_CRT" se desvía significativamente del valor real, la clasificación se ajustará en consecuencia

Los clics de los usuarios representan básicamente la opinión del usuario sobre la relevancia de los resultados, incluido el título, la descripción y el nombre de dominio.

Según informes de expertos en SEO y analistas de datos, al monitorear exhaustivamente las tasas de clics, notaron los siguientes fenómenos:

Si un documento entra entre los 10 primeros para una consulta de búsqueda y el CTR es significativamente más bajo de lo esperado, se puede observar que la clasificación caerá en unos pocos días (dependiendo del volumen de búsqueda).

Por el contrario, si el CTR es mucho mayor en relación con el ranking, el ranking normalmente aumentará. Si el CTR es deficiente, el sitio web necesita ajustar y optimizar el título y la descripción del contenido en un corto período de tiempo para obtener más clics.

Calcular y actualizar PageRank requiere mucho tiempo y requiere mucho cálculo, por lo que se utiliza la métrica PageRank_NS. NS significa "semilla más cercana", un grupo de páginas relacionadas comparten un valor de PageRank, que se aplica a páginas nuevas de forma temporal o permanente.

Google dio un buen ejemplo en una audiencia sobre cómo proporcionar información actualizada. Por ejemplo, cuando un usuario busca "Copa Stanley", los resultados de la búsqueda suelen mostrar un vaso de agua.

Sin embargo, cuando se desarrolla un partido de hockey de la Copa Stanley, NavBoost ajusta los resultados para priorizar la información en tiempo real sobre el juego.

Según los últimos hallazgos, las métricas de clics del documento cubren 13 meses de datos, con una superposición de un mes para permitir la comparación con el año anterior.

Sorprendentemente, Google en realidad no ofrece resultados de búsqueda muy personalizados. Los resultados de las pruebas han demostrado que modelar y ajustar el comportamiento del usuario puede conducir a mejores resultados que evaluar las preferencias personales de usuarios individuales.

Sin embargo, las preferencias personales, como las preferencias de búsqueda y contenido de vídeo, todavía se incluyen en los resultados personalizados.

GWS: El fin y el comienzo de la búsqueda

Google Web Server (GWS) es responsable de representar la página de resultados de búsqueda (SERP), que incluye 10 "enlaces azules", así como anuncios, imágenes, vistas de Google Maps, "La gente también pregunta" y otros elementos.

Estos componentes, como FreshnessNode, InstantGlue (reacciona en 24 horas, con un retraso de aproximadamente 10 minutos) e InstantNavBoost, pueden ajustar las clasificaciones en el último momento antes de que se muestre la página.

FreshnessNode puede monitorear los cambios en el comportamiento de búsqueda de los usuarios en tiempo real y ajustar las clasificaciones en función de estos cambios para garantizar que los resultados de búsqueda coincidan con las últimas intenciones de búsqueda.

InstantNavBoost e InstantGlue realizan ajustes finales a las clasificaciones antes de la presentación final de los resultados de búsqueda, como ajustar las clasificaciones en función de las últimas noticias y temas de actualidad.

por lo tanto,Para lograr una clasificación alta, el contenido de un documento excelente debe ir acompañado de medidas SEO correctas.

Las clasificaciones pueden verse afectadas por una variedad de factores, incluidos cambios en el comportamiento de búsqueda, la presencia de documentos adicionales y actualizaciones de información en tiempo real. Por lo tanto, es importante darse cuenta de que tener contenido de alta calidad y hacer un buen SEO son sólo una parte del panorama del ranking dinámico.

John Mueller, de Google, destacó que una caída en las clasificaciones generalmente no significa que el contenido sea de mala calidad y que los cambios en el comportamiento del usuario u otros factores podrían alterar el rendimiento de los resultados.

Por ejemplo, si los usuarios empiezan a preferir textos más cortos, NavBoost ajustará automáticamente las clasificaciones en consecuencia. Sin embargo, la puntuación IR en el sistema Alexandria o Ascorer permanece sin cambios.

Lo que esto nos dice es que el SEO debe entenderse en un sentido más amplio.. La simple optimización del título o el contenido no es efectiva si el contenido del documento no coincide con la intención de búsqueda del usuario.