notizia

Il motore di ricerca di Google è stato completamente rivelato! Sono trapelati quasi un centinaio di documenti e i blogger hanno impiegato settimane a decodificarli.

2024-08-23

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Nuovo rapporto sulla saggezza

Redattore: Dipartimento editoriale

[Introduzione alla Nuova Saggezza]Dopo la fuga di documenti di maggio il motore di ricerca di Google è stato nuovamente messo sottosopra. DeepMind non solo ha pubblicato un articolo in cui spiega il meccanismo del sistema Visir, ma il blogger Mario Fischer ha anche condotto una ricerca e un'analisi approfondite di quasi un centinaio di documenti per ricostruire il quadro completo di questo colosso di Internet.

I documenti pubblicati da Google hanno ricominciato a svelare i segreti della propria tecnologia.

In un recente articolo pubblicato dal ricercatore senior di DeepMind Xingyou (Richard) Song e altri, hanno spiegato i segreti dell’algoritmo dietro il servizio Visir di Google.

In quanto ottimizzatore a scatola nera eseguito milioni di volte, Vizier ha aiutato Google a ottimizzare molti studi e sistemi interni. Allo stesso tempo, Google Cloud e Vertex hanno anche lanciato i servizi Vizier per aiutare ricercatori e sviluppatori a eseguire la regolazione degli iperparametri o l'ottimizzazione della scatola nera; .

Song ha affermato che rispetto ad altri riferimenti del settore come Ax/BoTorch, HEBO, Optuna, HyperOpt, SkOpt, ecc., Vizier offre prestazioni più robuste in molti scenari utente, come dimensioni elevate, query batch, problemi multi-obiettivo, ecc.

Approfittando della pubblicazione del documento, anche il veterano di Google Jeff Dean ha twittato per elogiare il sistema Visir.

La versione open source di Visir da lui menzionata è stata ospitata nel repository GitHub, ha una documentazione molto dettagliata ed è stata continuamente mantenuta e aggiornata di recente.

Indirizzo del magazzino: https://github.com/google/vizier

Il sistema client-server distribuito di OSS Vizier

Sebbene Google Research abbia pubblicato un articolo in cui si discute dell'intero sistema Visir già nel 2017, il contenuto è molto meno dettagliato rispetto all'ultimo articolo.

Questo rapporto tecnico contiene i risultati di una grande quantità di lavoro di ricerca e feedback degli utenti. Nel descrivere i dettagli di implementazione e le scelte di progettazione dell'algoritmo open source Vizier, utilizza esperimenti su benchmark standardizzati per dimostrare la robustezza e la versatilità di Vizier in una varietà di ambiti. modalità pratiche.

Tra questi, vengono mostrate una per una anche le esperienze e le lezioni apprese dal processo iterativo del sistema Visir, che ha un grande significato di riferimento per il mondo accademico e industriale e vale la pena guardare.

Componenti principali dell'algoritmo bayesiano utilizzato dal sistema Visir

I principali contributi dell’articolo sono i seguenti:

- Conferma formale dell'algoritmo predefinito per la versione corrente di Vizier e spiegazione delle sue funzionalità, scelte progettuali e lezioni apprese durante il processo di iterazione

- Fornisce l'implementazione del framework Python e JAX open source basata sull'implementazione C++ originale

- Testato utilizzando benchmark comuni del settore, dimostrando la robustezza di Vizier nelle modalità di ottimizzazione ad alta dimensione, classificazione, batch e multi-obiettivo

- Vengono eseguiti esperimenti di ablazione sulla scelta progettuale non convenzionale dell'ottimizzatore di acquisizione evolutivo di ordine zero e i principali vantaggi vengono dimostrati e discussi.

I primi due nell'elenco degli autori dell'articolo sono due Richards——

Xingyou (Richard) Song ha lavorato come ricercatore sulla generalizzazione dell'apprendimento per rinforzo presso OpenAI. È entrato a far parte di Google Brain come ricercatore senior nel 2019 e servirà come ricercatore senior presso DeepMind dal 2023, lavorando su GenAI.

Qiuyi (Richard) Zhang attualmente lavora nel team DeepMind Vizier ed è anche il co-creatore della versione open source di Vizier. La sua ricerca si concentra principalmente sull'ottimizzazione degli iperparametri, sulla calibrazione bayesiana e sulle indicazioni teoriche sull'apprendimento automatico nell'allineamento dell'IA sono coinvolti anche il controfattuale/equità, il sesso e altri aspetti.

Zhang ha conseguito la laurea summa cum laude presso l'Università di Princeton nel 2014, e poi ha conseguito il dottorato di ricerca in matematica applicata e informatica presso l'Università della California, Berkeley.

Il meccanismo del motore di ricerca inizia dal basso

In qualità di gigante assoluto del settore, molte delle tecnologie fondamentali di Google non divulgate hanno incuriosito il mondo esterno per molto tempo, come i motori di ricerca.

Con una quota di mercato superiore al 90% da oltre dieci anni, la ricerca di Google è diventata forse il sistema più influente dell'intera Internet. Determina la vita e la morte dei siti web e la presentazione dei contenuti online.

Ma i dettagli specifici su come Google classifica i siti web sono sempre stati una “scatola nera”.

A differenza di prodotti come Visir, i motori di ricerca sono sia il codice patrimoniale di Google che la tecnologia di gestione, ed è impossibile divulgarli nei documenti ufficiali.

Sebbene alcuni media, ricercatori e persone impegnate nell'ottimizzazione dei motori di ricerca abbiano fatto varie speculazioni, sono solo ciechi che cercano di capire l'elefante.

La lunga causa antitrust di Google ha recentemente annunciato il suo verdetto. I pubblici ministeri statunitensi a tutti i livelli hanno raccolto circa 5 milioni di pagine di documenti e li hanno trasformati in prove pubbliche.

Tuttavia, le fughe di documenti interni di Google e gli archivi pubblici delle udienze antitrust, tra gli altri, non ci dicono esattamente come funzionano le classifiche.

Inoltre, a causa dell'uso dell'apprendimento automatico, la struttura dei risultati di ricerca organici è così complessa che anche i dipendenti di Google coinvolti nello sviluppo dell'algoritmo di classificazione hanno affermato:Non comprendono appieno l'interazione dei numerosi pesi del segnale per spiegare perché un determinato risultato si colloca al primo o al secondo posto.

Il 27 maggio, una fonte anonima (successivamente confermata essere Erfan Azimi, un professionista veterano nel settore dell'ottimizzazione dei motori di ricerca) ha fornito un documento di fuga dell'API di Google Search di 2.500 pagine al CEO di SparkToro Rand Fishkin, rivelando i dettagli del motore di ricerca interno algoritmo di classificazione.

Ma non è tutto.

Search Engine Land, un sito di notizie specializzato nel reporting sull'industria dei motori di ricerca, ha recentemente pubblicato un blog che ha decodificato migliaia di atti giudiziari di Google trapelati per rivelare per la prima volta i principi tecnici fondamentali del posizionamento di ricerca online di Google.

Questo post sul blog è nato dopo che l'autore originale ha rivisto, analizzato, strutturato, scartato e riorganizzato quasi 100 documenti molte volte in diverse settimane di lavoro. Sebbene non sia necessariamente strettamente accurato o completo, si può dire che comprenda Google. Informazioni complete e dettagliate come nessun altro motore di ricerca.

Il diagramma della struttura della versione con risparmio di flusso dell'autore è il seguente:

Non c’è dubbio che il motore di ricerca Google sia un progetto ampio e complesso. Dal sistema crawler, repository Alexandria, ranking approssimativo Mustang, al sistema di filtraggio e posizionamento fine Superroot e GWS responsabile del rendering finale della pagina, questi influenzeranno la presentazione finale e l'esposizione della pagina del sito web.

Nuovo file: in attesa dell'accesso di Googlebot

Quando un nuovo sito web viene pubblicato, non verrà immediatamente indicizzato da Google. Come fa Google a raccogliere e aggiornare le informazioni sulle pagine web?

Il primo passaggio è la scansione e la raccolta dei dati. Google deve prima conoscere l'esistenza dell'URL del sito web. L'aggiornamento della mappa del sito o l'inserimento di un collegamento URL consente a Google di eseguire la scansione del nuovo sito web.

Inoltre, i collegamenti alle pagine visitate di frequente possono attirare più rapidamente l’attenzione di Google.

Il sistema crawler esegue la scansione dei nuovi contenuti e registra quando gli URL vengono rivisitati per verificare la presenza di aggiornamenti del sito Web. Questo è gestito da un componente chiamato scheduler.

Il server di archiviazione decide quindi se inoltrare l'URL o inserirlo in una sandbox.

Google ha precedentemente negato l'esistenza di sandbox, ma recenti fughe di notizie indicano che nella sandbox vengono inseriti anche (sospetti) spam e siti Web di basso valore e Google apparentemente inoltrerà alcuni siti Web di spam, possibilmente per ulteriori analisi del contenuto e dell'algoritmo di formazione.

Il collegamento dell'immagine viene quindi trasferito a ImageBot per le successive chiamate di ricerca, a volte con ritardi. ImageBot dispone di una funzionalità di ordinamento che inserisce immagini identiche o simili in un contenitore di immagini.

Il sistema crawler sembra utilizzare il proprio PageRank per regolare la frequenza di scansione delle informazioni. Se un sito web ha un traffico maggiore, questa frequenza di scansione aumenterà (ClientTrafficFraction).

Alessandria: sistema di indicizzazione di Google

Il sistema di indicizzazione di Google, chiamato Alexandria, assegna un DocID univoco al contenuto di ogni pagina web. In caso di contenuti duplicati non verrà creato un nuovo ID, ma l'URL verrà collegato ad un DocID esistente.

Google fa una chiara distinzione tra URL e documenti: un documento può essere costituito da più URL con contenuti simili, incluse versioni in lingue diverse, tutte chiamate dallo stesso DocID.

Se incontri contenuti duplicati da nomi di dominio diversi, Google sceglierà di visualizzare la versione canonica nelle classifiche di ricerca. Questo spiega anche perché altri URL a volte possono classificarsi in modo simile. Inoltre, la cosiddetta versione "canonica" dell'URL non è un accordo una tantum, ma cambierà nel tempo.

URL del documento della raccolta di Alessandria

Esiste una sola versione del documento dell'autore online, quindi il sistema gli assegna un proprio DocID.

Con DocID ogni parte del documento verrà cercata per parole chiave e riepilogata nell'indice di ricerca. La "lista dei risultati" riassume le parole chiave che compaiono più volte su ogni pagina e verranno prima inviate all'indice diretto.

Prendiamo come esempio la pagina web dell'autore poiché la parola "matita" appare molte volte al suo interno, il DocID è elencato sotto la voce "matita" nell'indice delle parole.

L'algoritmo calcola il punteggio IR (Information Retrieval) della parola "matita" nel documento in base a varie caratteristiche del testo e lo assegna a DocID, che viene successivamente utilizzato nella Posting List.

Ad esempio, la parola "matita" nel documento è in grassetto e inclusa nell'intestazione di primo livello (memorizzata in AvrTermWeight). Tali segnali aumenteranno il punteggio IR.

Google sposterà i documenti importanti su HiveMind, il sistema di memoria principale, utilizzando sia SSD veloci che HDD tradizionali (chiamati TeraGoogle) per l'archiviazione a lungo termine di informazioni a cui non è necessario accedere rapidamente.

In particolare, gli esperti stimano che prima del recente boom dell’intelligenza artificiale, Google controllasse circa la metà dei server web del mondo.

Un'enorme rete di cluster interconnessi può consentire a milioni di unità di memoria principali di lavorare insieme. Un ingegnere di Google una volta ha sottolineato in una conferenza che, in teoria, la memoria principale di Google potrebbe immagazzinare l'intera rete.

È interessante notare che i collegamenti a documenti importanti archiviati in HiveMind e i backlink sembrano avere un peso maggiore, mentre i collegamenti URL nell’HDD (TeraGoogle) potrebbero avere un peso inferiore e potrebbero non essere nemmeno presi in considerazione.

Ulteriori informazioni e segnali per ciascun DocID vengono archiviati dinamicamente in PerDocData, un repository che contiene le 20 versioni più recenti di ciascun documento (tramite CrawlerChangerateURLHistory), a cui molti sistemi accedono quando regolano la pertinenza.

Inoltre, Google ha la capacità di valutare diverse versioni nel tempo. Se desideri modificare completamente il contenuto o il tema di un documento, in teoria dovresti creare 20 versioni transitorie per sovrascrivere completamente la vecchia versione.

Questo è il motivo per cui il ripristino di un dominio scaduto (uno che una volta era attivo ma è stato successivamente abbandonato o venduto per bancarotta o per altri motivi) non manterrà il vantaggio in classifica del dominio originale.

Se l'Admin-C di un dominio e il contenuto dell'oggetto cambiano contemporaneamente, le macchine possono facilmente identificarlo.

A questo punto Google azzererà tutti i segnali e il vecchio nome di dominio che una volta aveva valore di traffico non offrirà più alcun vantaggio. Non è diverso da un nome di dominio appena registrato rispetto al traffico e alle classifiche originali.

Oltre alle fughe di notizie, i documenti probatori delle udienze giudiziarie e dei processi statunitensi contro Google sono un'utile fonte di ricerca, comprese anche le e-mail interne

QBST: qualcuno sta cercando "matita"

Quando qualcuno inserisce il termine di ricerca "matita" in Google, QBST (Query Based SalientTerms) inizia a funzionare.

QBST è responsabile dell'analisi dei termini di ricerca immessi dall'utente, assegnando pesi diversi a ciascuna parola in esso contenuta in base all'importanza e alla pertinenza e conducendo rispettivamente query DocID pertinenti.

Il processo di ponderazione del vocabolario è piuttosto complesso e coinvolge sistemi come RankBrain, DeepRank (ex BERT) e RankEmbeddedBERT.

QBST è importante per la SEO perché influisce sul modo in cui Google classifica i risultati di ricerca e quindi sulla quantità di traffico e visibilità che un sito Web può ricevere.

QBST classificherà un sito Web più in alto se contiene i termini più comunemente utilizzati che corrispondono alle query degli utenti.

Dopo QBST, parole correlate come "matita" verranno passate al Ascorer per un'ulteriore elaborazione.

Marcatore: Crea un “anello verde”

Ascorer estrae i primi 1000 DocID sotto la voce "matita" dall'indice invertito (cioè indice lessicale) e li classifica in base al punteggio IR.

Secondo i documenti interni, questo elenco è chiamato "anello verde". Nel settore, questo è chiamato elenco di registrazione.

Nel nostro esempio "matita", il documento corrispondente è classificato 132 nell'elenco pubblicato. Se nessun altro sistema interviene, questa sarà la sua posizione definitiva.

Superroot: "Dieci da mille miglia"

Superroot è responsabile della riclassificazione delle 1.000 pagine web candidate appena vagliate da Mustang, riducendo l'"anello verde" di 1.000 DocID all'"anello blu" di 10 risultati.

Questa attività viene eseguita specificamente da Twiddlers e NavBoost. Potrebbero essere coinvolti anche altri sistemi, ma i dettagli specifici non sono chiari a causa di informazioni imprecise.

Mustang genera 1000 potenziali risultati, Superroot li filtra fino a 10

Twiddlers: strati di filtraggio

Diversi documenti indicano che Google utilizza centinaia di sistemi Twiddler, che possiamo considerare simili ai filtri dei plugin di WordPress.

Ogni Twiddler ha i propri obiettivi di filtraggio specifici e può regolare il punteggio IR o la posizione in classifica.

È progettato in questo modo perché Twiddler è relativamente facile da creare e non richiede la modifica del complesso algoritmo di classificazione in Ascorer.

La modifica degli algoritmi di classificazione è molto impegnativa a causa dei potenziali effetti collaterali coinvolti e richiede un’ampia pianificazione e programmazione. Al contrario, più Twiddler operano in parallelo o in sequenza e non sono a conoscenza delle attività degli altri Twiddler.

I Twiddler possono essere sostanzialmente divisi in due tipologie:

-PreDoc Twiddler può gestire raccolte di centinaia di DocID perché richiedono poche informazioni aggiuntive;

-Al contrario, il Twiddler di tipo "Lazy" richiede più informazioni, come ad esempio le informazioni dal database PerDocData, che richiede un tempo relativamente più lungo e un processo più complicato.

Pertanto, PreDocs prima riceve l'elenco delle pubblicazioni e riduce le voci delle pagine Web, quindi utilizza un filtro di tipo "Lazy" più lento. La combinazione dei due consente di risparmiare notevolmente potenza di calcolo e tempo.

Due tipi di oltre 100 Twiddler sono responsabili della riduzione del numero di potenziali risultati di ricerca e del loro riordino

Dopo il test, Twiddler può essere utilizzato in vari modi. Gli sviluppatori possono provare nuovi filtri, moltiplicatori o restrizioni di posizione specifiche e persino ottenere una manipolazione molto precisa per classificare un risultato di ricerca specifico prima o dietro un altro risultato.

Un documento interno di Google trapelato rivela che alcune funzionalità di Twiddler dovrebbero essere utilizzate solo da esperti in consultazione con il team di ricerca principale.

Se pensi di sapere come funziona Twidder, fidati di noi: non è così. Non siamo sicuri di aver capito

Esistono anche Twiddler solo per creare annotazioni e aggiungerle al DocID.

Durante il COIVD, perché il dipartimento sanitario del tuo Paese è sempre in cima alla lista delle ricerche relative al COVID-19?

Questo perché Twiddler utilizza queryForWhichOfficial per facilitare la distribuzione precisa delle risorse ufficiali in base alla lingua e alla regione.

Sebbene gli sviluppatori non abbiano alcun controllo sui risultati del riclassificazione di Twiddler, comprenderne i meccanismi può spiegare meglio le fluttuazioni del ranking e quelle "classificazioni inspiegabili".

Valutatore della Qualità e RankLab

Migliaia di valutatori di qualità in tutto il mondo valutano i risultati di ricerca di Google e testano nuovi algoritmi o filtri prima che vengano pubblicati.

Google afferma che le loro valutazioni sono solo di riferimento e non influiscono direttamente sulle classifiche.

Questo è essenzialmente vero, ma le loro valutazioni e le loro offerte hanno un enorme impatto indiretto sulle classifiche.

I valutatori in genere conducono valutazioni su un dispositivo mobile, ricevendo un URL o una frase di ricerca dal sistema e rispondendo a domande preimpostate.

Ad esempio, verrà chiesto: "L'autore e la pratica creativa di questo contenuto sono chiari? L'autore ha esperienza nell'argomento?"

Queste risposte vengono archiviate e utilizzate per addestrare gli algoritmi di apprendimento automatico a identificare meglio le pagine affidabili e di alta qualità e le pagine meno affidabili.

In altre parole, i risultati forniti dai valutatori umani diventano criteri importanti per gli algoritmi di deep learning, mentre i criteri di ranking creati dal team di ricerca di Google non sono così importanti.

Immagina che tipo di pagine web sarebbero considerate affidabili dai valutatori umani?

Di solito una pagina apparirà convincente se contiene la foto dell'autore, il nome completo e il collegamento LinkedIn. Al contrario, le pagine web prive di queste caratteristiche sono giudicate meno affidabili.

La rete neurale identificherà quindi questa funzionalità come fattore chiave e, dopo almeno 30 giorni di test attivi, il modello potrebbe iniziare a utilizzare automaticamente questa funzionalità come criterio di classificazione.

Pertanto, le pagine con foto dell'autore, nome completo e collegamento LinkedIn potrebbero ricevere un aumento di posizionamento attraverso il meccanismo Twiddler, mentre le pagine prive di queste caratteristiche subiranno una diminuzione di posizionamento.

Inoltre, secondo le informazioni trapelate da Google, attraverso l'attributo isAuthor e l'attributo AuthorVectors (simile all'"identificazione dell'impronta digitale dell'autore"), il sistema è in grado di identificare e distinguere le parole e le espressioni uniche dell'autore (ovvero le caratteristiche linguistiche personali).

Le valutazioni dei valutatori vengono aggregate in un punteggio di "soddisfazione delle informazioni" (IS). Sebbene partecipino molti valutatori, il punteggio IS si applica solo a un numero limitato di URL.

Google sottolinea che anche molti documenti su cui non si clicca possono essere importanti. Quando il sistema non è in grado di fare un'inferenza, il documento viene automaticamente inviato al valutatore e viene generato un punteggio.

Il termine "gold" è menzionato nei termini relativi al valutatore, il che suggerisce che alcuni documenti potrebbero avere un "gold standard" e soddisfare le aspettative dei valutatori umani può aiutare il documento a raggiungere lo standard "gold".

Inoltre, uno o più sistemi Twiddler possono promuovere DocID che soddisfano il "gold standard" tra i primi dieci.

I revisori della qualità in genere non sono dipendenti a tempo pieno di Google ma sono affiliati a società di outsourcing.

Al contrario, gli esperti di Google lavorano in RankLab, conducendo esperimenti, sviluppando nuovi Twiddler, valutandoli e migliorandoli per vedere se Twiddler migliora la qualità dei risultati o semplicemente filtra lo spam.

Il comprovato ed efficace Twiddler è stato quindi integrato nel sistema Mustang utilizzando algoritmi complessi, interconnessi e ad alta intensità di calcolo.

NavBoost: cosa piace agli utenti?

In Superroot, anche un altro sistema centrale, NavBoost, svolge un ruolo importante nel classificare i risultati della ricerca.

Navboost viene utilizzato principalmente per raccogliere dati sull'interazione degli utenti con i risultati di ricerca, in particolare sui clic su diversi risultati di query.

Sebbene Google neghi ufficialmente di utilizzare i dati sui clic degli utenti per le classifiche, un'e-mail interna divulgata dalla Federal Trade Commission (FTC) indica che la gestione dei dati sui clic deve essere mantenuta riservata.

Google lo nega per due motivi.

Prima di tutto, dal punto di vista dell'utente, Google, come piattaforma di ricerca, monitora continuamente le attività online degli utenti, il che causerà indignazione da parte dei media per questioni di privacy.

Ma dal punto di vista di Google, lo scopo dell'utilizzo dei dati sui clic è ottenere metriche di dati statisticamente significative, non monitorare i singoli utenti.

Il documento della FTC ha confermato che i dati sui clic influenzeranno le classifiche e ha menzionato spesso il sistema NavBoost (54 volte durante l'udienza del 18 aprile 2023), cosa confermata anche da un'audizione ufficiale nel 2012.

Dall'agosto 2012, i funzionari hanno chiarito che i dati sui clic influenzeranno le classifiche

Vari comportamenti degli utenti nella pagina dei risultati di ricerca, tra cui ricerche, clic, ricerche ripetute e clic ripetuti, nonché il traffico al sito Web o alla pagina Web, influiscono tutti sul posizionamento.

Le preoccupazioni sulla privacy degli utenti sono solo uno dei motivi. Un'altra preoccupazione è che la valutazione attraverso i dati sui clic e il traffico potrebbe incoraggiare spammer e truffatori a utilizzare sistemi bot per falsificare il traffico e manipolare le classifiche.

Google dispone anche di metodi per contrastare questa situazione, come distinguere i clic degli utenti in clic errati e clic validi attraverso più valutazioni.

Le metriche utilizzate includono il tempo trascorso sulla pagina di destinazione, il periodo di tempo durante il quale la pagina è stata visualizzata, la pagina iniziale della ricerca, il record di "clic positivo" più recente nella cronologia delle ricerche dell'utente, ecc.

Per ogni posizionamento nelle pagine dei risultati di ricerca (SERP), esiste una percentuale di clic media prevista (CTR) come base.

Ad esempio, secondo un'analisi di Johannes Beus alla conferenza CAMPIXX di quest'anno a Berlino, la prima posizione nei risultati della ricerca naturale ha ricevuto in media il 26,2% dei clic, mentre la seconda posizione ha ricevuto il 15,5% dei clic.

Se un CTR è significativamente inferiore al tasso previsto, il sistema NavBoost noterà il divario e adeguerà di conseguenza la classifica di DocID.

Se "expected_CRT" si discosta in modo significativo dal valore effettivo, la classifica verrà adeguata di conseguenza

I clic dell'utente rappresentano sostanzialmente l'opinione dell'utente sulla pertinenza dei risultati, inclusi titolo, descrizione e nome di dominio.

Secondo i rapporti degli esperti SEO e degli analisti di dati, durante il monitoraggio completo delle percentuali di clic, hanno notato i seguenti fenomeni:

Se un documento entra nella top 10 per una query di ricerca e il CTR è significativamente inferiore al previsto, si può osservare che la classifica scenderà entro pochi giorni (a seconda del volume di ricerca).

Al contrario, se il CTR è molto più alto rispetto al ranking, solitamente il ranking aumenterà. Se il CTR è scarso, il sito web deve adattare e ottimizzare il titolo e la descrizione del contenuto in un breve periodo di tempo per ottenere più clic.

Il calcolo e l'aggiornamento del PageRank richiedono molto tempo e risorse computazionali, motivo per cui viene utilizzata la metrica PageRank_NS. NS sta per "seed più vicino", un gruppo di pagine correlate condividono un valore PageRank, che viene applicato alle nuove pagine temporaneamente o permanentemente.

Google ha dato il buon esempio durante un'udienza su come fornire informazioni aggiornate. Ad esempio, quando un utente cerca "Stanley Cup", i risultati della ricerca mostrano in genere un bicchiere d'acqua.

Tuttavia, quando è in corso una partita di hockey della Stanley Cup, NavBoost regola i risultati per dare priorità alle informazioni in tempo reale sulla partita.

Secondo gli ultimi risultati, le metriche sui clic del documento coprono 13 mesi di dati, con una sovrapposizione di un mese per consentire il confronto con l'anno precedente.

Sorprendentemente, Google in realtà non offre risultati di ricerca molto personalizzati. I risultati dei test hanno dimostrato che modellare e adattare il comportamento degli utenti può portare a risultati migliori rispetto alla valutazione delle preferenze personali dei singoli utenti.

Tuttavia, le preferenze personali, come le preferenze per la ricerca e i contenuti video, sono comunque incluse nei risultati personalizzati.

GWS: La fine e l'inizio della ricerca

Google Web Server (GWS) è responsabile del rendering della pagina dei risultati di ricerca (SERP), che include 10 "link blu", nonché annunci, immagini, visualizzazioni di Google Maps, "Le persone chiedono anche" e altri elementi.

Questi componenti, come FreshnessNode, InstantGlue (reagisce entro 24 ore, con un ritardo di circa 10 minuti) e InstantNavBoost, possono modificare le classifiche all'ultimo momento prima che la pagina venga visualizzata.

FreshnessNode può monitorare i cambiamenti nel comportamento di ricerca degli utenti in tempo reale e adattare le classifiche in base a questi cambiamenti per garantire che i risultati di ricerca corrispondano alle ultime intenzioni di ricerca.

InstantNavBoost e InstantGlue apportano le modifiche finali alle classifiche prima del rendering finale dei risultati di ricerca, ad esempio la regolazione delle classifiche in base alle ultime notizie e agli argomenti caldi.

Perciò,Per ottenere un posizionamento elevato, un eccellente contenuto del documento deve essere abbinato a corrette misure SEO.

Le classifiche possono essere influenzate da una serie di fattori, tra cui cambiamenti nel comportamento di ricerca, la presenza di documenti aggiuntivi e aggiornamenti alle informazioni in tempo reale. Pertanto, è importante rendersi conto che avere contenuti di alta qualità e fare un buon SEO sono solo una parte del panorama del ranking dinamico.

John Mueller di Google ha sottolineato che un calo nel ranking di solito non significa che il contenuto sia di scarsa qualità e che cambiamenti nel comportamento degli utenti o altri fattori potrebbero alterare la performance dei risultati.

Ad esempio, se gli utenti iniziano a preferire un testo più breve, NavBoost adeguerà automaticamente le classifiche di conseguenza. Tuttavia, il punteggio IR nel sistema Alexandria o Ascorer rimane invariato.

Ciò che questo ci dice è che la SEO deve essere intesa in un senso più ampio. La semplice ottimizzazione del titolo o del contenuto è inefficace se il contenuto del documento non è coerente con l'intento di ricerca dell'utente.