новости

Поисковая система Google раскрыта полностью! В сеть попало около сотни документов, и блоггеры потратили недели на их обратный инжиниринг.

2024-08-23

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Новый отчет мудрости

Редактор: Редакционный отдел

[Введение в новую мудрость]После утечки документа в мае поисковая система Google снова перевернулась с ног на голову. Мало того, что DeepMind опубликовал статью, объясняющую механизм работы системы Vizier, блоггер Марио Фишер также провел тщательное исследование и анализ почти сотни документов, чтобы восстановить полную картину этого интернет-гиганта.

Статьи, опубликованные Google, вновь начали раскрывать секреты собственной технологии.

В недавней статье, опубликованной старшим научным сотрудником DeepMind Синью (Ричардом) Сонгом и другими, они объяснили секреты алгоритма сервиса Google Vizier.

В качестве оптимизатора «черного ящика», который запускался миллионы раз, Vizier помог Google оптимизировать многие внутренние исследования и системы. В то же время Google Cloud и Vertex также запустили сервисы Vizier, которые помогают исследователям и разработчикам выполнять настройку гиперпараметров или оптимизацию «черного ящика»; .

Сонг сказал, что по сравнению с другими базовыми отраслевыми моделями, такими как Ax/BoTorch, HEBO, Optuna, HyperOpt, SkOpt и т. д., Vizier обеспечивает более высокую производительность во многих пользовательских сценариях, таких как большие размерности, пакетные запросы, многокритериальные задачи и т. д.

Воспользовавшись публикацией статьи, ветеран Google Джефф Дин также написал в Твиттере, чтобы похвалить систему Vizier.

Упомянутая им версия Vizier с открытым исходным кодом размещена в репозитории GitHub, имеет очень подробную документацию и в последнее время постоянно поддерживается и обновляется.

Адрес склада: https://github.com/google/vizier

Распределенная клиент-серверная система OSS Vizier

Хотя Google Research опубликовала статью, в которой обсуждалась вся система Vizier, еще в 2017 году, ее содержание гораздо менее подробно, чем в последней статье.

Этот технический отчет содержит результаты большого объема исследовательской работы и отзывы пользователей. Описывая детали реализации и варианты проектирования алгоритма Vizier с открытым исходным кодом, он использует эксперименты со стандартизированными тестами, чтобы продемонстрировать надежность и универсальность Vizier в различных областях. практические режимы.

Среди них один за другим отображаются опыт и уроки, извлеченные из итеративного процесса системы Vizier, что имеет большое справочное значение для научных кругов и промышленности и заслуживает внимания.

Основные компоненты байесовского алгоритма, используемые системой Vizier

Основные положения статьи заключаются в следующем:

- Официальное подтверждение алгоритма по умолчанию для текущей версии Vizier и объяснение его функциональности, вариантов дизайна и уроков, извлеченных в ходе итерационного процесса.

- Обеспечивает реализацию платформы Python и JAX с открытым исходным кодом на основе исходной реализации C++.

- Протестировано с использованием общих отраслевых тестов, демонстрируя надежность Vizier в режимах многомерной, классификационной, пакетной и многокритериальной оптимизации.

- Проведены абляционные эксперименты по выбору нетрадиционной конструкции эволюционного оптимизатора сбора данных нулевого порядка, продемонстрированы и обсуждены его ключевые преимущества.

Двумя ведущими в списке авторов статьи являются два Ричардса——

Синю (Ричард) Сонг работал исследователем по обобщению обучения с подкреплением в OpenAI. Он присоединился к Google Brain в качестве старшего научного сотрудника в 2019 году, а с 2023 года будет работать старшим научным сотрудником в DeepMind, работая над GenAI.

Цюи (Ричард) Чжан в настоящее время работает в команде DeepMind Vizier, а также является соавтором версии Vizier с открытым исходным кодом. Его исследования в основном сосредоточены на оптимизации гиперпараметров, байесовской калибровке и теоретическом машинном обучении. в согласовании ИИ также задействованы контрфактичность/справедливость. Секс и другие аспекты.

Чжан получил степень бакалавра с отличием в Принстонском университете в 2014 году, а затем получил докторскую степень в области прикладной математики и информатики в Калифорнийском университете в Беркли.

Механизм поисковой системы начинается снизу

Являясь абсолютным гигантом отрасли, Google многие из нераскрытых основных технологий уже давно вызывают интерес у внешнего мира, например, у поисковых систем.

Имея долю рынка более 90% на протяжении более десяти лет, поиск Google стал, пожалуй, самой влиятельной системой во всем Интернете. Он определяет жизнь и смерть веб-сайтов и представление онлайн-контента.

Но конкретные детали того, как Google ранжирует веб-сайты, всегда были «черным ящиком».

В отличие от таких продуктов, как Vizier, поисковые системы являются одновременно кодом богатства Google и технологией ведения домашнего хозяйства, и их невозможно раскрыть в официальных документах.

Хотя некоторые средства массовой информации, исследователи и люди, занимающиеся поисковой оптимизацией, выдвигают различные предположения, они всего лишь слепцы, пытающиеся вычислить слона.

Затянувшийся антимонопольный иск Google недавно объявил о своем вердикте. Прокуроры США всех уровней собрали около 5 миллионов страниц документов и превратили их в публичные доказательства.

Однако утечки внутренних документов Google и публичные материалы антимонопольных слушаний, среди прочего, на самом деле не говорят нам, как именно работают рейтинги.

Более того, из-за использования машинного обучения структура результатов органического поиска настолько сложна, что сотрудники Google, участвовавшие в разработке алгоритма ранжирования, также заявили:Они не до конца понимают взаимодействие многих весов сигналов, чтобы объяснить, почему определенный результат занимает первое или второе место.

27 мая анонимный источник (позже подтвердилось, что это Эрфан Азими, опытный практикующий специалист в области поисковой оптимизации) предоставил 2500-страничный документ об утечке Google Search API генеральному директору SparkToro Рэну Фишкину, раскрыв подробности внутренней структуры поисковой системы Google. алгоритм ранжирования.

Но это еще не все.

Search Engine Land, новостной веб-сайт, специализирующийся на репортажах об индустрии поисковых систем, недавно опубликовал блог, в котором был проведен обратный инжиниринг тысяч утекших в сеть судебных документов Google, чтобы впервые раскрыть основные технические принципы онлайн-рейтинга Google в поисковых системах.

Этот пост в блоге родился после того, как первоначальный автор просмотрел, проанализировал, структурировал, отбросил и реорганизовал около 100 документов много раз за несколько недель работы. Хотя он не обязательно является строго точным или всеобъемлющим, его можно назвать пониманием Google. Исчерпывающая и подробная информация, как ни в одной другой поисковой системе.

Схема структуры потокосберегающей версии автора выглядит следующим образом:

Нет сомнений в том, что поисковая система Google – это большой и сложный проект. От системы сканирования, репозитория Alexandria, грубого ранжирования Mustang до системы фильтрации и точного ранжирования Superroot и GWS, отвечающих за окончательный рендеринг страницы, — все это будет влиять на окончательное представление и экспонирование страницы веб-сайта.

Новый файл: ожидание доступа Googlebot

Когда публикуется новый веб-сайт, он не сразу индексируется Google. Как Google собирает и обновляет информацию о веб-страницах?

Первым шагом является сканирование и сбор данных. Сначала Google необходимо узнать о существовании URL-адреса веб-сайта. Обновление карты сайта или размещение URL-ссылки позволяет Google сканировать новый веб-сайт.

Более того, ссылки на часто посещаемые страницы могут быстрее привлечь внимание Google.

Система сканирования сканирует новый контент и записывает повторные посещения URL-адресов для проверки обновлений веб-сайта. Этим управляет компонент, называемый планировщиком.

Затем сервер хранения решает, пересылать ли URL-адрес или помещать его в песочницу.

Google ранее отрицал существование песочниц, но недавние утечки показывают, что (предположительно) спам и малоценные веб-сайты также помещаются в песочницу, и Google, очевидно, будет пересылать некоторые спам-сайты, возможно, для дальнейшего анализа контента и обучения алгоритма.

Ссылка на изображение затем передается в ImageBot для последующих вызовов поиска, иногда с задержками. ImageBot имеет функцию сортировки, которая помещает идентичные или похожие изображения в контейнер изображений.

Похоже, что система сканирования использует свой собственный PageRank для регулировки частоты сканирования информации. Если веб-сайт имеет больший трафик, эта частота сканирования увеличивается (ClientTrafficFraction).

Александрия: система индексирования Google

Система индексирования Google под названием Alexandria присваивает уникальный DocID содержимому каждой веб-страницы. В случае дублирования контента новый идентификатор не будет создан, но URL-адрес будет связан с существующим DocID.

Google проводит четкое различие между URL-адресами и документами: документ может состоять из нескольких URL-адресов, содержащих схожий контент, включая версии на разных языках, и все они вызываются одним и тем же DocID.

Если вы обнаружите дублированный контент с разных доменных имен, Google выберет отображение канонической версии в поисковых рейтингах. Это также объясняет, почему другие URL-адреса иногда могут иметь аналогичный рейтинг. Более того, так называемая «каноническая» версия URL-адреса не является разовым явлением, а будет меняться со временем.

URL документа коллекции Александрии

В сети существует только одна версия авторского документа, поэтому система присваивает ему собственный DocID.

С помощью DocID каждая часть документа будет искаться по ключевым словам и суммироваться в поисковом индексе. «Список совпадений» суммирует ключевые слова, которые встречаются несколько раз на каждой странице и сначала отправляются в прямой индекс.

В качестве примера возьмем веб-страницу автора. Поскольку слово «карандаш» встречается на ней много раз, DocID указан под записью «карандаш» в индексе слов.

Алгоритм вычисляет оценку IR (поиск информации) слова «карандаш» в документе на основе различных особенностей текста и присваивает ее DocID, который позже используется в списке проводок.

Например, слово «карандаш» в документе выделено жирным шрифтом и включено в заголовок первого уровня (хранится в AvrTermWeight). Такие сигналы увеличивают оценку IR.

Google переместит важные документы в HiveMind, основную систему памяти, используя как быстрые твердотельные накопители, так и традиционные жесткие диски (называемые TeraGoogle) для долгосрочного хранения информации, к которой не требуется быстрый доступ.

Примечательно, что, по оценкам экспертов, до недавнего бума искусственного интеллекта Google контролировала около половины мировых веб-серверов.

Огромная сеть взаимосвязанных кластеров может позволить миллионам единиц основной памяти работать вместе. Инженер Google однажды отметил на конференции, что теоретически основная память Google может хранить всю сеть.

Интересно, что ссылки на важные документы, хранящиеся в HiveMind, а также обратные ссылки имеют более высокий вес, тогда как URL-ссылки на HDD (TeraGoogle) могут иметь меньший вес и могут даже не учитываться.

Дополнительная информация и сигналы для каждого DocID динамически сохраняются в PerDocData, репозитории, в котором хранятся последние 20 версий каждого документа (через CrawlerChangerateURLHistory), к которому обращаются многие системы при настройке релевантности.

Кроме того, у Google есть возможность оценивать различные версии с течением времени. Если вы хотите полностью изменить содержание или тему документа, теоретически вам потребуется создать 20 переходных версий, чтобы полностью перезаписать старую версию.

Вот почему восстановление домена с истекшим сроком действия (того, который когда-то был активным, но позже был заброшен или продан из-за банкротства или по другим причинам) не сохранит рейтинговое преимущество исходного домена.

Если Admin-C домена и его предметное содержимое изменяются одновременно, машины могут легко это определить.

В настоящее время Google установит все сигналы на ноль, и старое доменное имя, которое когда-то имело значение трафика, больше не будет предоставлять никаких преимуществ. Оно ничем не отличается от вновь зарегистрированного доменного имени, не означает захвата. над исходным трафиком и рейтингом.

Помимо утечек, полезным источником исследований являются доказательные документы с судебных слушаний и процессов в США против Google, в том числе внутренние электронные письма.

QBST: Кто-то ищет «карандаш».

Когда кто-то вводит поисковый запрос «карандаш» в Google, начинает работать QBST (ключевые термины на основе запросов).

QBST отвечает за анализ поисковых запросов, введенных пользователем, присвоение различного веса каждому содержащемуся в нем слову в зависимости от важности и релевантности и выполнение соответствующих запросов DocID соответственно.

Процесс взвешивания словаря довольно сложен и включает в себя такие системы, как RankBrain, DeepRank (ранее BERT) и RankEmbeddedBERT.

QBST важен для SEO, поскольку он влияет на то, как Google ранжирует результаты поиска и, следовательно, на объем трафика и видимость, который может получить веб-сайт.

QBST повысит рейтинг веб-сайта, если он содержит наиболее часто используемые термины, соответствующие запросам пользователей.

После QBST связанные слова, такие как «карандаш», будут переданы в Ascorer для дальнейшей обработки.

Ascorer: создайте «зеленое кольцо»

Ascorer извлекает 1000 самых популярных DocID в записи «карандашом» из инвертированного индекса (т. е. лексического индекса) и ранжирует их по баллу IR.

Согласно внутренним документам этот список называется «зеленым кольцом». В отрасли это называется списком сообщений.

В нашем «карандашном» примере соответствующий документ занимает 132-е место в опубликованном списке. Без вмешательства других систем это было бы его окончательное положение.

Superroot: «Десять из тысячи миль»

Superroot отвечает за изменение рейтинга 1000 веб-страниц-кандидатов, только что просмотренных Mustang, сократив «зеленое кольцо» из 1000 DocID до «синего кольца» из 10 результатов.

Эту задачу специально выполняют Twiddlers и NavBoost. Могут быть задействованы и другие системы, но конкретные детали неясны из-за неточной информации.

Mustang генерирует 1000 потенциальных результатов, Superroot фильтрует их до 10.

Твиддлеры: уровни фильтрации

Различные документы указывают на то, что Google использует сотни систем Twiddler, которые мы можем считать похожими на фильтры в плагинах WordPress.

Каждый Twiddler имеет свои собственные цели фильтрации и может регулировать показатель IR или позицию в рейтинге.

Он разработан таким образом, потому что Twiddler относительно легко создать и не требует модификации сложного алгоритма ранжирования в Ascorer.

Модификация алгоритмов ранжирования является очень сложной задачей из-за потенциальных побочных эффектов и требует тщательного планирования и программирования. Напротив, несколько твиддлеров действуют параллельно или последовательно и не знают о деятельности других твиддлеров.

Твиддлеры условно можно разделить на два типа:

-PreDoc Twiddlers может обрабатывать коллекции из сотен DocID, поскольку для них требуется мало дополнительной информации;

-Напротив, Twiddler типа «Ленивый» требует больше информации, например, информации из базы данных PerDocData, что требует относительно большего времени и более сложного процесса.

Таким образом, PreDocs сначала получает список публикаций и сокращает количество записей на веб-страницах, а затем использует более медленный фильтр типа «Ленивый». Сочетание этих двух методов значительно экономит вычислительную мощность и время.

Два типа из более чем 100 твиддлеров отвечают за сокращение количества потенциальных результатов поиска и их изменение порядка.

После тестирования Twiddler может использоваться в различных целях. Разработчики могут опробовать новые фильтры, множители или определенные ограничения позиций и даже добиться очень точных манипуляций, чтобы ранжировать определенный результат поиска до или после другого результата.

Утечка внутреннего документа Google показывает, что некоторые функции Twiddler должны использоваться только экспертами после консультации с основной поисковой командой.

Если вы думаете, что знаете, как работает Twidder, поверьте нам: это не так. Мы не уверены, что понимаем

Существуют также Twiddlers только для создания аннотаций и добавления этих аннотаций в DocID.

Почему во время COIVD департамент здравоохранения вашей страны всегда находится на первом месте в списке поисковых запросов о COVID-19?

Это связано с тем, что Twiddler использует запросыForWhichOfficial для точного распределения официальных ресурсов в зависимости от языка и региона.

Хотя разработчики не могут контролировать результаты изменения рейтинга Twiddler, понимание его механики может лучше объяснить колебания рейтинга и эти «необъяснимые рейтинги».

Эксперт по оценке качества и RankLab

По всему миру существуют тысячи оценщиков качества, которые оценивают результаты поиска Google и тестируют новые алгоритмы или фильтры, прежде чем они будут опубликованы.

Google заявляет, что их рейтинги предназначены только для справки и не влияют напрямую на рейтинг.

По сути, это правда, но их рейтинги и заявки на участие действительно оказывают огромное косвенное влияние на рейтинг.

Эксперты по оценке обычно проводят оценку на мобильном устройстве, получая от системы URL-адрес или поисковую фразу и отвечая на заранее заданные вопросы.

Например, их спросят: «Ясен ли автор и творческая практика этого контента. Есть ли у автора экспертиза в теме?»

Эти ответы сохраняются и используются для обучения алгоритмов машинного обучения, чтобы лучше идентифицировать высококачественные, заслуживающие доверия и менее заслуживающие доверия страницы.

Другими словами, результаты, предоставляемые людьми-оценщиками, становятся важными критериями для алгоритмов глубокого обучения, а критерии ранжирования, созданные поисковой командой Google, не так важны.

Представьте себе, какие веб-страницы люди-оценщики сочтут заслуживающими доверия?

Страница обычно выглядит убедительно, если она содержит фотографию автора, полное имя и ссылку на LinkedIn. И наоборот, веб-страницы, лишенные этих характеристик, считаются менее заслуживающими доверия.

Затем нейронная сеть определит эту особенность как ключевой фактор, и после как минимум 30 дней активных тестовых запусков модель может начать автоматически использовать эту особенность в качестве критерия ранжирования.

Таким образом, страницы с фотографией автора, полным именем и ссылкой на LinkedIn могут получить повышение рейтинга с помощью механизма Twiddler, в то время как страницы, не имеющие этих характеристик, будут испытывать снижение рейтинга.

Кроме того, согласно информации, утекшей в Google, через атрибут isAuthor и атрибут AuthorVectors (аналог «идентификации по отпечатку пальца автора») система может идентифицировать и различать уникальные слова и выражения автора (то есть личные языковые характеристики).

Рейтинги оценщиков суммируются в балл «информационной удовлетворенности» (IS). Хотя в этом участвует множество оценщиков, оценка IS применяется только к небольшому количеству URL-адресов.

Google отмечает, что многие документы, на которые не нажимают, также могут быть важными. Если система не может сделать вывод, документ автоматически отправляется оценщику и выставляется оценка.

Термин «золотой» упоминается в терминах, относящихся к оценщикам, что предполагает, что некоторые документы могут иметь «золотой стандарт», и соответствие ожиданиям оценщиков может помочь документу достичь «золотого» стандарта.

Кроме того, одна или несколько систем Twiddler могут продвигать DocID, соответствующие «золотому стандарту», ​​в первую десятку.

Рецензенты качества обычно не являются штатными сотрудниками Google, а связаны с аутсорсинговыми компаниями.

Напротив, в RankLab работают собственные эксперты Google, проводящие эксперименты, разрабатывающие новые Twiddlers, а также оценивающие и улучшающие их, чтобы увидеть, улучшает ли Twiddler качество результатов или просто фильтрует спам.

Затем проверенный и эффективный Twiddler был интегрирован в систему Mustang с использованием сложных, взаимосвязанных и ресурсоемких алгоритмов.

NavBoost: Что нравится пользователям?

В Superroot другая базовая система NavBoost также играет важную роль в ранжировании результатов поиска.

Navboost в основном используется для сбора данных о взаимодействии пользователей с результатами поиска, особенно о их кликах по различным результатам запроса.

Хотя Google официально отрицает использование данных о кликах пользователей для ранжирования, во внутреннем электронном письме, раскрытом Федеральной торговой комиссией (FTC), указывается, что способ обработки данных о кликах должен оставаться конфиденциальным.

Google отрицает это по двум причинам.

Прежде всего, с точки зрения пользователя, Google, как поисковая платформа, постоянно отслеживает онлайн-активность пользователей, что вызовет возмущение средств массовой информации по поводу вопросов конфиденциальности.

Но с точки зрения Google, цель использования данных о кликах состоит в получении статистически значимых показателей данных, а не в мониторинге отдельных пользователей.

В документе FTC подтверждено, что данные о кликах будут влиять на рейтинг, и часто упоминается система NavBoost (54 раза во время слушаний 18 апреля 2023 года), что также было подтверждено официальным слушанием в 2012 году.

С августа 2012 года чиновники ясно дали понять, что данные о кликах будут влиять на рейтинг.

Различное поведение пользователей на странице результатов поиска, включая поиск, клики, повторные поиски и повторные клики, а также трафик на веб-сайт или веб-страницу, влияют на рейтинг.

Обеспокоенность по поводу конфиденциальности пользователей — лишь одна из причин. Другая проблема заключается в том, что оценка данных о кликах и трафике может побудить спамеров и мошенников использовать бот-системы для подделки трафика и манипулирования рейтингом.

У Google также есть методы противодействия этой ситуации, такие как разделение кликов пользователей на плохие и хорошие клики посредством множественных оценок.

Используемые метрики включают время, проведенное на целевой странице, период времени, в течение которого страница была просмотрена, начальную страницу поиска, самую последнюю запись «хорошего клика» в истории поиска пользователя и т. д.

Для каждого рейтинга на страницах результатов поиска (SERP) в качестве базового показателя используется средний ожидаемый рейтинг кликов (CTR).

Например, согласно анализу, проведенному Йоханнесом Беусом на конференции CAMPIXX в этом году в Берлине, первая позиция в результатах естественного поиска получила в среднем 26,2% кликов, а вторая позиция получила 15,5% кликов.

Если CTR значительно ниже ожидаемого, система NavBoost заметит этот разрыв и соответствующим образом скорректирует рейтинг DocID.

Если «expected_CRT» значительно отклоняется от фактического значения, рейтинг будет соответствующим образом скорректирован.

Клики пользователей в основном отражают мнение пользователя о релевантности результатов, включая заголовок, описание и имя домена.

Согласно отчетам SEO-экспертов и аналитиков данных, при комплексном мониторинге кликабельности они заметили следующие явления:

Если документ входит в топ-10 по поисковому запросу, а CTR значительно ниже ожидаемого, можно наблюдать, что рейтинг снизится в течение нескольких дней (в зависимости от объема поиска).

Напротив, если CTR намного выше рейтинга, рейтинг обычно повышается. Если CTR низкий, веб-сайту необходимо в короткие сроки скорректировать и оптимизировать заголовок и описание контента, чтобы получить больше кликов.

Расчет и обновление PageRank занимает много времени и требует больших вычислительных ресурсов, поэтому используется метрика PageRank_NS. NS означает «ближайшее начальное число», группа связанных страниц имеет общее значение PageRank, которое применяется к новым страницам временно или постоянно.

Google подала хороший пример на слушаниях о том, как предоставлять актуальную информацию. Например, когда пользователь ищет «Кубок Стэнли», в результатах поиска обычно отображается стакан с водой.

Однако, когда идет хоккейный матч Кубка Стэнли, NavBoost корректирует результаты, чтобы расставить приоритеты в информации об игре в режиме реального времени.

Согласно последним данным, показатели кликов в документе охватывают данные за 13 месяцев с перекрытием в один месяц, чтобы можно было сравнить их с предыдущим годом.

Удивительно, но Google на самом деле не предлагает особо персонализированных результатов поиска. Результаты испытаний показали, что моделирование и корректировка поведения пользователей могут привести к лучшим результатам, чем оценка личных предпочтений отдельных пользователей.

Однако личные предпочтения, такие как предпочтения поиска и видеоконтента, по-прежнему включаются в персонализированные результаты.

GWS: Конец и начало поиска

Веб-сервер Google (GWS) отвечает за отображение страницы результатов поиска (SERP), которая включает в себя 10 «синих ссылок», а также рекламу, изображения, представления Google Maps, «Люди также спрашивают» и другие элементы.

Эти компоненты, такие как FreshnessNode, InstantGlue (реагирует в течение 24 часов, с задержкой около 10 минут) и InstantNavBoost, могут корректировать рейтинги в последний момент перед отображением страницы.

FreshnessNode может отслеживать изменения в поисковом поведении пользователей в режиме реального времени и корректировать рейтинги на основе этих изменений, чтобы гарантировать, что результаты поиска соответствуют последним поисковым намерениям.

InstantNavBoost и InstantGlue вносят окончательные корректировки рейтингов перед окончательным отображением результатов поиска, например корректируют рейтинги на основе последних новостей и горячих тем.

поэтому,Для достижения высоких рейтингов отличное содержание документа должно сочетаться с правильными мерами SEO.

На рейтинги могут влиять различные факторы, включая изменения в поисковом поведении, наличие дополнительных документов и обновления информации в режиме реального времени. Поэтому важно понимать, что наличие высококачественного контента и хорошее SEO — это лишь часть динамического рейтинга.

Джон Мюллер из Google подчеркнул, что падение рейтинга обычно не означает, что контент низкого качества, и что изменения в поведении пользователей или других факторах могут повлиять на эффективность результатов.

Например, если пользователи начинают предпочитать более короткий текст, NavBoost автоматически соответствующим образом скорректирует рейтинг. Однако показатель IR в Александрийской системе или Ascorer остается неизменным.

Это говорит нам о том, что SEO следует понимать в более широком смысле.. Простая оптимизация заголовка или содержимого неэффективна, если содержимое документа не соответствует целям поиска пользователя.