Skip to main content

Come funzionano i motori di ricerca

Come viene deciso il posizionamento di un sito web sui motori di ricerca?

  April 05, 2018    

Il funzionamento dei motori di ricerca - sem-seo.it

Ti sei mai chiesto quante volte al giorno usi Google o un altro motore di ricerca?

5 volte, 10 volte o a volte anche di più? Sai che Google, da solo, gestisce 2 bilioni di ricerche all’anno?

I numeri parlano chiaro, i motori di ricerca sono diventati parte integrante della nostra quotidianità. Li usiamo per istruirci, per fare shopping, per divertirci ma anche per lavoro. Dipendiamo quasi per ogni nostra attività.



La ragione è molto semplice: sappiamo che i motori di ricerca, e soprattutto Google, hanno la risposta a quasi tutti i nostri dubbi.

Ma cosa succede quando scrivi una query e clicchiamo cerca?

Come funzionano i motori di ricerca e come fanno a decidere quali risultati mostrare e in quale ordine?

È importante che tu sappia come funzionano, perché se li conosci sai come creare dei siti web ottimizzati. È il primo passo per avventurarsi nel SEO (Ottimizzazione di un sito per i motori di ricerca) o nel SEM (Search Engine Marketing).



Qual è il motore di ricerca più usato in Italia?

Statistica aggiornata al 2018, fonte gs.statcounter.com

Ecco le statistiche dell'utilizzo dei motori di ricerca in Italia - sem-seo.it

Come funzionano i motori di ricerca?

I motori di ricerca sono complessi programmi computer. Per mostrarti una SERP devono fare molte operazioni, alcune delle quali svolte ancora prima che tu compia una ricerca e ripetute periodicamente.

In che cosa consiste questo lavoro di preparazione? Si divide in due fasi. La prima fase è il processo di ricerca delle informazioni, la seconda fase consiste nell’organizzare le informazioni trovate così da renderle utilizzabili successivamente nella ricerca. Questo processo è noto, nel mondo dell’internet, come Crawling e Indicizzazione.



Il funzionamento dei motori di ricerca riassunto in tre passaggi

Crawling

I motori di ricerca hanno dei programmi computer chiamati crawlers, che hanno la responsabilità di trovare le informazioni pubbliche sul web.

Per semplificare un processo in realtà molto complicato, il lavoro dei crawlers (conosciuti anche come spider) è quello di scansionare il web e trovare i server (o webserver) che ospitano i siti internet.

Creano una lista di webserver da ispezionare, il numero di siti web ospitati da ognuno di questi e iniziano a lavorare. Visitano ogni sito usando tecniche differenti, scoprono quante pagine hanno, se il contenuto è formato da immagini, testi o video (o qualunque altro format come css, html, javascript…).

Quando visitano un sito, oltre a prendere nota del numero di pagine, seguono ogni link (che punti a pagine o a siti esterni) e così scoprono sempre più pagine e contenuti. Fanno questo costantemente e tengono anche traccia dei cambiamenti in un sito, così sanno quali pagine sono state cancellate e quali aggiunte, quali links sono aggiornati, etc…

Se si considera l’incredibile numero di pagine esistente sul web oggi e di quante pagine sono giornalmente pubblicate si può notare che è tantissimo lavoro.


Web Crawler, nome che viene dal verbo in inglese crawl, che non ha un'esatta traduzione italiana ma che può essere tradotto come strisciare o gattonare, o il moviemnto che fanno gli insetti con molte zampe quando si muovono - sem-seo.it
Perché è importante conoscere questo processo?

La tua prima preoccupazione, nell’ottimizzare un sito per i motori di ricerca, è essere sicuro che possa essere visto correttamente da crawlers, perché se non riescono a “leggere” il tuo sito non avrai molto in termini di posizione o traffico di visitatori.

Ci sono alcune misure per assicurarsi che i crawlers riescano ad accedere al tuo sito nel modo più veloce e meno problematico:

  • Usare un file Robots.txt per specificare quali pagine del tuo sito web non vuoi che vedano. Per esempio la tua pagina Admin e altre pagine che non devono essere pubbliche sul web.
  • Grandi motori di ricerca, come Google, hanno degli strumenti che puoi usare per dargli più informazioni sul tuo sito, così non devono andare a cercarle.
  • Usa una xml sitemap per elencare tutte le pagine importanti del tuo sito così gli spider sapranno quali pagine monitorare per cambiamenti e quali ignorare.



Indicizzazione

Per costruire un motore di ricerca serve anche una seconda fase, chiamata indicizzazione. Le informazioni raccolte devono infatti essere organizzate, ordinate per categoria e immagazzinate così da essere processate dagli algoritmi dei motori di ricerca, prima di essere messe a disposizione dell’utente finale.

I motori di ricerca non immagazzinano tutte le informazioni nel loro indice, ma tengono queste: quando è stato creato/aggiornato, titolo e descrizione della pagina, tipo di contenuto, keyword associate, link che vanno e vengono e tutti i parametri che servono gli algoritmi.


Perché è importante conoscere questo processo?

È molto semplice, se il tuo sito internet non è nell’indice, allora non apparirà per nessuna ricerca. Questo significa anche che più pagine hai nell’indice, più sono le probabilità che tu appaia quando qualcuno cerca specifiche parole connesse ai titoli e contenuti delle tue pagine. Ovviamente non è detto che appaia subito in prima posizione, ne nella prima pagina.

Per riuscire ad apparire tra le prime cinque posizioni serve ottimizzare il sito internet per i motori di ricerca, tramite il SEO.


Gli algoritmi dei Motori di Ricerca

Il terzo e ultimo step nel processo è quello per “scegliere” quali pagine mostrare nei risultati di ricerca e in quale ordine. Questo è fatto tramite degli algoritmi , che sono frazioni di software che hanno un numero di regole tramite le quali analizzano quello che l’utilizzatore chiede e cosa proporgli in risposta.


Come funzionano questi algoritmi?

Durante gli anni gli algoritmi dei motori di ricerca si sono evoluti e sono diventati molto complessi. All’inizio era molto facile, bastava far combaciare la ricerca con il titolo della pagina, ma ora non è più così. Ad esempio Google si avvale di un algoritmo che prende in considerazione 255 regole, prima di fare una scelta, e nessuno sa con certezza quali sono queste regole.

Ovviamente i cambiamenti importanti che riguardano queste regole vengono resi noti, ed è dovere di ogni web developer e SEO specialisti tenersi aggiornati, ma sicuramente nessuno conosce ogni singolo parametro preso in considerazione.


I fattori che l'algoritmo di Google prende in considerazione per posizionare un sito web

Ecco un esempio, molto semplificato, del processo di funzionamento di questi algoritmi:

1) Il primo step è capire che tipo di informazione l’utente sta cercando, oggi questo è fatto spezzettando la ricerca dell’utente in tante keyword. Ad esempio: se io digito “Come scegliere le scarpe da corsa” comprendono dalla parola “come” che sto cercando delle istruzioni sulla scelta di un paio di scarpe da corsa, e mi mostreranno risultati pertinenti. Se io cerco però “Comprare scarpe da corsa” mi verranno mostrati gli e-commerce, dato che c’è la parola “comprare”.

2) Il secondo step è trovare, nel loro indice, pagine che corrispondono a quello che l’utente ha cercato. Questo è lo stato che una buona tecnica SEO può influenzare, questi sono i fattori più importanti in questa scelta: la rilevanza del titolo e del contenuto, il tipo di contenuto (se cerco immagini mi verranno mostrate immagini), la qualità del contenuto, qualità del sito, data di pubblicazione, popolarità della pagina, localizzazione e linguaggio della pagina.


Come funzionano questi algoritmi?

Per riuscire a ottenere un buon traffico dai motori di ricerca il tuo sito deve apparire nelle prime 5 posizioni della pagina. Apparire in seconda o terza pagina non ti porterà nessun traffico. Sapere come funzionano i motori di ricerca ti aiuterà ad avere, tramite un Progetto SEO, un buon posizionamento, e quindi ad avere più clienti.



Gli updates di Google e come hanno influito sulla ricerca

Ci sono stati 4 maggiori aggiornamenti di Google, che come abbiamo detto è il motore di ricerca più utilizzato: Panda, Penguin, Hummingbird e l’Index Mobile First.


GOOGLE PANDA

Aggiornamento Panda per colpire i siti internet con contenuti di bassa qualità

Panda è un’aggiornamento dell’algoritmo di Google che mira a migliorare il posizionamento delle pagine che hanno dei contenuti di qualità. è stato introdotto in Italia nel 2012 e nel 2016 è stato integrato nel “Core Ranking Algorithm” ovvero nell’algoritmo principale di Google.

Vengono quindi premiati i siti con contenuti originali, informativi e recenti. Vengono invece penalizzati tutti i siti che hanno contenuti duplicati o creati con i generatori automatici che, dato un articolo di partenza, riorganizzano le parole in modo da renderlo lievemente differente dall’articolo di partenza.

Vengono inoltre penalizzati i siti che:

  • Sono poco affidabili
  • Hanno molti annunci pubblicitari e poco contenuto originale
  • Contenuti che non sono coerenti con le query di ricerca per cui cercano di posizionarsi, ad esempio pagine che hanno come titolo “Coupon per supermercati” e che quando clicchi all’interno non hanno nessun coupon ma solo pubblicità.
  • Hanno dei contenuti nascosti (Cloacking)

Come riprendersi da Panda? Una penalizzazione Panda è molto forte e può essere difficile riprendersi. Dato che Panda colpisce i siti che hanno contenuti di scarsa qualità, per riprendersi si deve lavorare sulla qualità del sito. Ecco un piccolo elenco di azioni da compiere:

  • Controllare i contenuti del sito ed eliminare quelli troppo brevi o di scarsa qualità, salvare tutti i contenuti che possono essere utili e riorganizzarli.
  • Diminuire il numero di annunci presenti sulle pagine del sito, eliminando soprattutto i pop-up e gli annunci che bloccano il contenuto.
  • Rimuovere tutti i contenuti duplicati.



GOOGLE PENGUIN

Aggiornamento Penguin che colpisce i siti che hanno profili backlink artificiali - sem-seo.it

Penguin è un’aggiornamento dell’algoritmo che mira, sulla scia di Panda, a migliorare il posizionamento dei siti internet di qualità, penalizzando o peggiorando il posizionamento dei siti che fanno schemi di link e keyword stuffing. Agli inizi del 2017 è stato reso parte dell’algoritmo principale di Google.

Schemi di link: è la creazione o l’acquisto di backlinks da siti web di bassa qualità, in modo da creare artificialmente una sembianza di popolarità e cercare quindi di manipolare Google per farsi posizionare meglio.

Keyword Stuffing: è riempire una pagina web con tante ripetizioni di una stessa parola chiave (o più parole chiave ripetute spesso) per posizionarsi meglio per quella determinata query. La ripetizione costante delle parole chiave però rende il testo difficile da leggere e innaturale agli occhi degli utenti.

Come riprendersi da Penguin? Per riprendersi da Penguin è necessario non solo modificare i contenuti pieni di keyword per renderli piacevoli e di facile lettura, ma anche rimuovere tutti i link innaturali.



GOOGLE HUMMINGBIRD

Aggiornamento Hummingbird per migliorare l'interpretazione delle query di ricerca dell'utente - sem-seo.it

Al contrario di Panda e Penguin, che erano aggiunte all’algoritmo di Google, Hummingbird è stato definito una “rivoluzione” dell’algoritmo di ricerca. Hummingbird non è stato creato per penalizzare i siti web che cercavano di manipolare Google, ma per rendere la ricerca più intelligente.

Che cosa significa? Google ha sviluppato, per facilitare la ricerca, una sidebar che compare a destra dei risultati di ricerca, possiamo vederlo cercando la query “biscotti”. Di lato vengono mostrati i valori nutrizionali, una definizione e alcune ricerche correlate.


Risultato della ricerca per la keyword

Ma come riesce un motore di ricerca a comprendere l’intento dell’utente e mostrare i risultati rilevanti, anche quando l’intento della ricerca non è esplicito?

Con la Ricerca Semantica. La ricerca semantica infatti cerca di mostrare SERP appropriate alla ricerca degli utenti andando oltre il significato si ogni singola parola chiave.

Infatti nella ricerca “biscotti” vengono mostrati risultati che riguardano mangiare o cucinare dei biscotti invece che mostrarmi semplicemente delle immagini di biscotti. Questo perché Google capisce l’intenzione della mia ricerca.

Hummingbird può far penalizzare il mio sito? No, è un aggiornamento che crea opportunità, non da penalizzazioni. Infatti permette ai siti web di posizionarsi non solo per le keyword che hanno nel sito, ma anche per parole chiave diverse.



Mobile First Index

Aggiornamento Hummingbird per migliorare l'interpretazione delle query di ricerca dell'utente - sem-seo.it

Questo aggiornamento, di cui si è parlato per tutto l’anno scorso, e che è finalmente pronto a diffondersi su scala mondiale, è un’aggiornamento che interessa il modo in cui Google indicizza le pagine web.

I web crawler di Google, infatti, hanno sempre guardato prima l’aspetto e l’usabilità del sito desktop e poi il sito smartphone. Da adesso sarà il contrario: verrà prima visto il sito mobile, poi si la versione desktop.

Perché? La maggior parte dei siti internet ormai sono visti da smartphone, quindi Google che da sempre cerca di fornire la miglior user experience possibile ai suoi utenti, si è adattato a questo trend e ha deciso di privilegiare la ricerca mobile.

Questo aggiornamento può farmi sparire dai motori di ricerca? No: questo aggiornamento privilegia i siti per smartphone, ma non rimuove dalle ricerche i siti desktop: se non hai un sito responsive o un m-site, i crawler visiteranno il tuo sito desktop e lo indicizzeranno, ma in questo caso è molto probabile che il tuo sito perda delle posizioni, perché i tuoi competitor con un sito responsive saranno avvantaggiati.



Conclusione

I motori di ricerca sono diventati programmi molto complicati, e la quantità di dati che gestiscono è enorme.

L’unico intervento umano è quello di creare le regole usate dagli algoritmi, ma anche questo step sta piano piano di ventando automatizzato, con l’aiuto dell’intelligenza artificiale.

Avere anche solo una piccola porzione dell’enorme traffico dei motori di ricerca è sufficiente a creare un business online duraturo.

Per farlo puoi affidarti ai nostri consulenti, che ti accompagneranno in tutto il processo, fornendoti risultati duraturi nel tempo.



La tua Web Agency a Brescia

Vuoi ottimizzare il tuo sito web per posizionarti sui motori di rcierca?. Inviaci una mail per fare una chiacchierata.



Invia una email

 

Scroll