AVVISO IMPORTANTE: Dato l'elevato numero di richieste, Eternal Curiosity non può accettare nuovi clienti, sia che si tratti di consulenze scritte che di ottimizzazione SEO diretta. Valutiamo solo casi eccezionali e ad alto budget. Per informazioni, vi invitiamo a scriverci a [email protected]

Questo articolo apparteneva al vecchio blog (blog.danilopetrozzi.it), per cui le informazioni potrebbero non essere più aggiornate ed attendibili.

Google: penalizzazioni e refresh degli algoritmi anti-spam

Era il lontano 4 ottobre 2013 quando l’ultimo Penguin, la versione 2.1, veniva rilasciata:

Sono passati 11 mesi e la situazione non è cambiata.

Non è più uscito alcun refresh di Penguin e questo sta facendo innervosire sempre più persone, dato che Google aveva confermato in passato la necessità di attendere un nuovo aggiornamento Penguin per uscire dal precedente.

Ma è davvero così che funzionano le penalizzazioni?

In risposta a una domanda posta sul Google Webmaster Central Forum, John Mueller ha articolato la sua risposta in questo modo:

Let me try a longer answer 🙂

 
In theory: If a site is affected by any specific algorithm or its data, and it fixes the issue that led to that situation, then the algorithm and/or its data must be refreshed in order to see those changes. Sometimes those changes aren’t immediately visible even after a refresh, that’s normal too. 
 
In practice, a site is never in a void alone with just a single algorithm. We use over 200 factors in crawling, indexing, and ranking. While there are some cases where a site is strongly affected by a single algorithm, that doesn’t mean that it won’t see any changes until that algorithm or its data is refreshed. For example, if a site is strongly affected by a web-spam algorithm, and you resolve all of those web-spam issues and work to make your site fantastic, you’re likely to see changes in search even before that algorithm or its data is refreshed. Some of those effects might be directly related to the changes you made (other algorithms finding that your site is really much better), some of them might be more indirect (users loving your updated site and recommending it to others). 
 
So yes, in a theoretical void of just your site and a single algorithm (and of course such a void doesn’t really exist!), you’d need to wait for the algorithm and/or its data to refresh to see any changes based on the new situation. In practice, however, things are much more involved, and improvements that you make (especially significant ones) are likely to have visible effects even outside of that single algorithm. One part that helps to keep in mind here is that you shouldn’t be focusing on individual factors of individual algorithms, it makes much more sense to focus on your site overall — cleaning up individual issues, but not assuming that these are the only aspects worth working on. 
 
All that said, we do realize that it would be great if we could speed the refresh-cycle of some of these algorithms up a bit, and I know the team is working on that. I know it can be frustrating to not see changes after spending a lot of time to improve things. In the meantime, I’d really recommend – as above – not focusing on any specific aspect of an algorithm, and instead making sure that your site is (or becomes) the absolute best of its kind by far. 
 
Cheers
John

Tanto materiale! 🙂 Andiamo per ordine.

La teoria

In teoria, ci spiega John, il meccanismo funziona così: se un determinato algoritmo ha causato una perdita di ranking al sito, dopo aver modificato il sito e risolto le criticità, c’è bisogno che quell’algoritmo venga refreshato per osservare i miglioramenti sperati.

La pratica

La pratica, però, è leggermente differente.

Un sito, per forza di cose, non è affetto da “un singolo algoritmo” che ne determina la crescita o decrescita del posizionamento. Essendo i fattori di ranking più di 200, come dice Mueller, tutte queste variabili entrano in gioco in ogni momento.

Se anche il sito fosse penalizzato fortemente a causa di un solo algoritmo specifico, questo non significa che la sua situazione generale non possa migliorare a seguito di altre azioni, che incidono sugli altri fattori di ranking.

Questa frase è molto importante: “For example, if a site is strongly affected by a web-spam algorithm, and you resolve all of those web-spam issues and work to make your site fantastic, you’re likely to see changes in search even before that algorithm or its data is refreshed

Ossia: se un sito è affetto in modo pesante da un algoritmo anti-spam (es. Penguin), e tu successivamente rendi il tuo sito “fantastico” e risolvi tutti i problemi legati allo spam, allora molto probabilmente noterai dei cambiamenti in SERP ancor prima che l’algoritmo anti-spam venga effettivamente refreshato.

Ti sei preso Penguin? Ca**i tuoi! 🙂

Scusate il titolo informale, ma è la realtà dei fatti!

John, secondo me, è consapevole del fatto che questa spiegazione si applica alla maggior parte dei casi, ma non a tutti.

Se parliamo specificatamente di Penguin, il drop nei posizionamenti è talmente drastico, che il suo ragionamento non può essere applicato.

Nel caso di “penalizzazioni algoritmiche dovute a fattori tradizionali”, es. meta tag, è ovvio che la situazione può tamponata e bilanciata con il miglioramento di altri fattori di ranking, es. i backlink in entrata. Ma se il mio sito è affetto da Penguin, allora è impossibile risollevare la situazione puntando sul miglioramento dei tradizionali ranking factor.

John sa bene che questo concetto è vero, tant’è che è costretto a ammettere: “All that said, we do realize that it would be great if we could speed the refresh-cycle of some of these algorithms up a bit, and I know the team is working on that.

Tanti SEO, più o meno white-hat, stanno aspettando 11 mesi. Chi è abituato a spammare, invece, può semplicemente comprare nuovi domini appena i vecchi vengono penalizzati da Penguin.

Capiamo che sarebbe bello velocizzare il ciclo di refresh di alcuni algoritmi, dice Mueller. Ovviamente si riferisce a Penguin, dato che ci sono centinaia (migliaia?) di webmaster/SEO che si lamentano quotidianamente nei forum, e anche durante i suoi hangout in diretta, perché i loro siti continuano a essere introvabili su Google a causa di Penguin.

Tanti di questi SEO, infatti, hanno sistemato la situazione dei loro siti pochi giorni dopo Penguin 2.1, ma sono ancora in attesa del nuovo refresh per vedere i risultati.

Probabilmente, se fossero stati a conoscenza di questo enorme lasso di tempo, avrebbero spostato i siti su nuovi domini senza fare 301, sui quali avrebbero iniziato attività SEO completamente da zero (in certi casi, almeno, avrebbero ottenuto qualche risultato. Sempre meglio del deserto assoluto causato da Penguin)

Per carità, io sono favorevole a algoritmi tipo Penguin, ma il fatto di dover aspettare il refresh per “tornare puliti” è un ragionamento assurdo. Tutte le altre azioni manuali possono essere risolte in pochissime settimane grazie alle richieste di riconsiderazione

In conclusione

Gli spammer più cattivi non sono minimamente colpiti da Penguin, dato che sono abituati per natura a comprare domini uno dopo l’altro e a fare backlink spam di massa. (la tecnica in gergo è chiamata SEO churn & burn)

Se un loro sito viene beccato da Penguin, semplicemente lo abbandonano (o lo vendono ai creduloni nei siti di domini in scadenza) e ne comprano di nuovi.

Chi, invece, ha un sito legittimo sul quale magari ha fatto link-building di bassa qualità, o sul quale ha ricevuto negative SEO, deve sostanzialmente attaccarsi al tram… :

Danilo petrozzi

Ciao! Io sono Danilo Petrozzi, il fondatore di Eternal Curiosity. Oltre a essere un senior SEO Specialist e un Web Developer, è dall'età di 9 anni che mi appassiono a qualsiasi cosa ruoti intorno al web e all'informatica in generale.

Lascia un commento