Questo articolo apparteneva al vecchio blog (blog.danilopetrozzi.it), per cui le informazioni potrebbero non essere più aggiornate ed attendibili.

Domande e risposte: Google Webmaster Central hangout #1

A differenza di Matt Cutts, che pubblicava video molto brevi, John Mueller ha iniziato a condurre numerosi hangout di un’ora in modo da rispondere a una notevole quantità di domande.

In questa serie, pubblicherò le migliori domande e risposte che sono state sottoposte a John,

Dato che gli hangout di John Mueller sono iniziati parecchio tempo fa, mi sbrigherò a pubblicare questi post, in modo da “sfoltire la coda” 🙂

Domande e risposte – Hangout del 25 aprile 2014

Se una sitemap.xml viene creata automaticamente e include pagine che presentano un meta noindex, potrebbero esserci problemi con il ranking?

Il fatto che alcune pagine presenti nella sitemap.xml siano noindex non incide sul posizionamento delle altre.

 

Qual’è la differenza tra risultati di ricerca per desktop e smartphone?

Noi cerchiamo di usare gli stessi risultati ma a volte li modifichiamo leggermente, per esempio se una determinata pagina non è ottimizzata per mobile potrebbe avere un punteggio inferiore.

 

Uno sviluppatore ha inserito erroneamente un robots.txt che bloccava l’accesso a tutte le pagine. Il problema è stato risolto 4 giorni dopo, ma dopo 2 settimane di attesa, il traffico da Google è droppato pesantemente. Cosa possiamo fare?

Questo genere di problemi dovrebbe risolversi da solo quando Google crawla nuovamente le pagine. Quattro giorni sono effettivamente un periodo lungo, ma non così grave da aver inciso sul sito. (un consiglio è quello di fetchare singoli URL per vedere se è tutto effettivamente ok in termini di indicizzabilità)

 

Non ho capito il funzionamento dei tag rel=”next” e rel=”prev” e per questo li ho implementati in modo errati. Questo può aver causato delle perdite nei posizionamenti?

Se interpretati in modo scorretto, quei due tag potrebbero causare dei problemi, ma nella maggior parte dei casi questo non dovrebbe accadere. Questi due tag ci danno solo una piccola informazioni aggiuntiva riguardo le interconessione tra le pagine.

 

Hai dei consigli da darmi nel caso in cui un competitor si “diverta”  a fare spam verso il nostro sito, causandoci una azione manuale che non riusciamo a risolvere?

Il consiglio è sempre quello di utilizzare intensamente il disavow tool e di comunicarci dettagliatamente la situazione in una richiesta di riconsiderazione.

 

Ho ricevuto una segnalazione per azione manuale (thin content) su 11 siti che gestisco in WMT. C’è un problema particolare?

Se l’azione manuale è legata al contenuto “sottile”, la cosa migliore da fare è quella di costruire un singolo sito con contenuti di qualità, piuttosto che 11 siti che non offrono valore aggiunto.

 

In WMT viene indicato sia il numero di pagine inviate con la sitemap sia il numero di pagine indicizzate. E’ possibile sapere quali pagine non sono state indicizzate? Cosa possiamo fare per migliorare la velocità di indicizzazione?

Al momeno non c’è una funzionalità in WMT che permetta di capire quali siano le pagine non indicizzate. Io consiglio di dividere la sitemap in sezioni logiche, per vedere se ci sono delle sezioni particolari che soffrono maggiormente rispetto a altre in termini di indicizzabilità. Se il problema persiste potrebbe esserci un problema di duplicati (es. un URL nella sitemap, ma il sito ne linka un altro duplicato)

 

Come vengono interpretati da googlebot due link interni verso la stessa pagina?

Prendiamo in considerazione entrambi i link. La differenza tra i due (nel caso di anchor diversi, follow/dofollow) è talmente minima che non dovrebbe essere fonte di preoccupazione/strategia.

 

È possibile aumentare la dimensione massima del file per disavow oltre i 2 MB? Abbiamo bloccati interi domini ma siamo comunque arrivati al limite

Mi segno questa informazioni e ne parlerò con il team incaricato.

 

Il mio sito ha una velocità di caricamento media di 5 secondi perché tutte le pagine impiegano 1 secondo, ma una sola, una volta al mese, necessità di un caricamento di 50 secondi. Questo fatto può influire sul ranking?

Non mi preoccuperei più di tanto. La velocità di rendering è un fattore che teniamo in considerazione, ma diventa determinane solo quando è eccessivamente lenta. Se googlebot si accorge che in un determinato giorno il tuo sito è più lento del solito, potrebbe diminuire la velocità di scansione temporaneamente, per aumentarla nei giorni successivi.

 

Il prezzo dei prodotti è considerato un fattore di ranking?

In termini di ricerca tradizionale, no. Il prezzo è comunque un fattore interessante in termini di rich snippet.

 

URL short vs URL lunghi?

Semplificare gli URL è sempre un fattore positivo. Se ci sono più URL che puntano allo stesso contenuto, preferiamo sempre la versione più corta ma solo perché è più utile agli utenti. Comunque non ci sono benefici in termini di ranking tra una versione e l’altra.

Il video

Danilo petrozzi

Ciao! Io sono Danilo Petrozzi, il fondatore di Eternal Curiosity. Oltre a essere un senior SEO Specialist e un Web Developer, è dall'età di 9 anni che mi appassiono a qualsiasi cosa ruoti intorno al web e all'informatica in generale.

Lascia un commento