AVVISO IMPORTANTE: Dato l'elevato numero di richieste, Eternal Curiosity non può accettare nuovi clienti, sia che si tratti di consulenze scritte che di ottimizzazione SEO diretta. Valutiamo solo casi eccezionali e ad alto budget. Per informazioni, vi invitiamo a scriverci a info@eternalcuriosity.it

Questo articolo apparteneva al vecchio blog (blog.danilopetrozzi.it), per cui le informazioni potrebbero non essere più aggiornate ed attendibili.

La più grande analisi on-page degli operatori SEO italiani

Me ne frego dell’introduzione noiosa. Portami subito alle statistiche!

Prima ancora di parlare del report che ho sviluppato, voglio chiarire un concetto molto importante. In statistica, la correlazione e la causalità sono due concetti separati che non vanno confusi.

Esempio: il fatto che chi si trova in prima posizione ha mediamente un maggior numero di like su Facebook non significa che questo sia un fattore di ranking. Il maggior numero di mi piace è probabilmente una conseguenza del posizionamento raggiunto, e non la causa.

Riuscire a distinguere i casi di correlazione statistica dalla causalità statistica è una delle abilità più importanti che deve sviluppare un professionista che si occupa di SEO.

Se questa introduzione non ti è sufficiente, sappi che in passato ho scritto un articolo molto corposo su EspertoSEO.it che parlava proprio dell’accuratezza delle statistiche in ambito SEO, dove me la presi con SearchMetrics per l’evidente scarsa qualità con cui svilupparono e presentarono i loro Ranking Factors 2013 (che ranking factors proprio non erano, considerato che il primo fattore in assoluto, secondo loro, era la quantità di share su Facebook!).

Eccoci, siamo pronti per iniziare! Siamo a ridosso di Ferragosto, ma poco mi importa: almeno avrete qualcosa di interessante da leggere in spiaggia 😛

Scopo dell’analisi

Il fine di questa analisi è quello di definire, con affidabilità statistica, le scelte tecniche, le abitudini, le mancanze, e le strategie messe in pratica dagli operatori SEO in Italia.

Data la gran mole di dati che ho vagliato, l’analisi può essere utile anche al fine di determinare eventuali casi di correlazione/causalità in relazione alla posizione nella prima pagina di Google.

Oggetto dell’analisi

I dati grezzi per l’analisi sono stati ottenuti seguendo uno schema semplicissimo. Ho estrapolato i primi 10 risultati di Google.it per numerose keyword legate all’ottimizzazione per i motori di ricerca.

La lista definitiva di keyword utilizzate per l’analisi è stata composta in questo modo:

+ Tutte le keyword “seo nome provincia (esempi: seo roma, seo milano, seo brescia, e così via per tutte le province d’Italia)

+ Tutti i suggerimenti forniti dallo strumento per le parole chiave di AdWords in relazione alla keyword “seo” con target Italia/italiano (esempi: ottimizzazione seo, consulente seo, search engine marketing, posizionamento sito web, e così via)

– Alcune keyword typo (errori ortografici e similari)

– Tutte le keyword “brand” (c’erano alcune ricerche, suggerite da AdSense, che presentavano nomi di agenzie SEO che ho preferito eliminare dato che avrebbe alterato l’affidabilità della statistica)

= Lista finale

Gli URL unici totali soggetti a analisi (al netto di quelli che non erano raggiungibili) sono 2047

Modalità di presentazione

A parte alcuni casi particolari, verrà presentato quasi sempre un grafico in cui è possibile trovare il risultato di una determinata misurazione divisa in questo modo: la media, del valore in esame, relativa ai siti in ogni specifica posizione di Google(dal 1° al 10° risultato). Questo ci permette di capire come si comporta mediamente il 1° posto, il 2° posto e così via.

Se ad esempio parliamo della presenza o meno del meta keywords, troverai un grafico composto da:

– media in % della presenza di questo meta in tutte le pagine che occupano attualmente la 1° posizione di Google (per una qualsiasi delle keyword analizzate)

– media in % […] la 2° posizione […]

– media in % […] la 3° posizione […]

[ …. ]

– media in % […] la 10° posizione […]

Insieme al grafico, viene sempre fornita la tavola con i dati grezzi

Il report

URL con più occorrenze

Dopo aver estrapolato tutti gli URL presenti nella prima pagina delle keyword che ho esaminato, la prima verifica che ho voluto fare è quella legata al numero di occorrenze di singoli URL all’interno di questa mole enorme di risultati.

Di seguito trovate la lista in ordine decrescente dei 20 URL con più occorrenze nelle prime pagine di Google.it:

  • 1) http://www.seoutility.com/ (36 occorrenze)
  • 2) http://www.google.com/intl/it/webmasters/docs/search-engine-optimization-starter-guide-it.pdf (30 occorrenze)
  • 3) http://www.neoseo.it/guida-seomoz/ (29 occorrenze)
  • 4) http://www.studiosamo.it/seo/ (28 occorrenze)
  • 5) http://www.seoutility.com/it/tools/google/posizionamento_su_google.aspx (27 occorrenze)
  • 6) http://seoblog.giorgiotave.it/seo (24 occorrenze)
  • 7) https://www.primisuimotori.it/ (21 occorrenze)
  • 8) http://www.altdesign.it/blog/35-consigli-posizionare-sito-motori-ricerca/ (21 occorrenze)
  • 9) http://www.motoricerca.info/guida.phtml (20 occorrenze)
  • 10) http://aranzulla.tecnologia.virgilio.it/come-indicizzare-un-sito-27237.html (19 occorrenze)
  • 11) http://www.html.it/guide/guida-posizionamento-nei-motori-di-ricerca/ (15 occorrenze)
  • 12) http://www.viasetti.it/articoli/posizionamento-siti-web/indicizzare-siti.htm (15 occorrenze)
  • 13) http://www.gabrielewebdesigner.it/indicizzare-siti-web.php (15 occorrenze)
  • 14) http://endivia.it/corsi-web-marketing-endivia-academy/corso-seo-e-sem-adwords-2-giorni-milano (14 occorrenze)
  • 15) http://www.tuttowebmaster.it/cat/Indicizzazione/ (14 occorrenze)
  • 16) http://www.joomla.it/articoli-community-16-e-17-tab/5417-il-posizionamento-sui-motori-di-ricerca-di-un-sito-in-joomla.html (14 occorrenze)
  • 17) http://www.trebiano.it/definizione-e-differenze-tra-SEO-e-SEM/ (14 occorrenze)
  • 18) http://it.wikipedia.org/wiki/Search_engine_marketing (13 occorrenze)
  • 19) http://www.yourinspirationweb.com/2009/10/12/come-indicizzare-un-sito-senza-essere-degli-esperti-seo-parte-1/ (13 occorrenze)
  • 20) http://www.tuttowebmaster.eu/ (11 occorrenze)

( complimenti a tutti! 🙂 )


Meta: title

grafico della lunghezza media dle title

  1 2 3 4 5 6 7 8 9 10
title 59,35 59,77 62,54 60,51 61,75 63,09 63,76 62,69 58,36 60,41

Il title è il meta per eccellenza, il più conosciuto, usato e studiato. È uno dei fattori di posizionamento on-page più incisivi ed è anche un veicolo straordinario per incrementare il CTR, dato che è sicuramente la prima “descrizione” che l’utente legge del nostro sito/pagina.

L’analisi, suddivisa per posizione in SERP, non ci rivela grosse sorprese. Il dato generale è che la media di tutti i title si attesta intorno ai 60 caratteri (avrei creduto qualcosa di più). Probabilmente il fatto che molte keyword esaminate restituissero un gran numero di domini, e non di sottopagine, ha “ridotto” statisticamente i title, dato che generalmente le home page hanno title più brevi delle pagine interne (spesso c’è solo il brand mentre nelle sottopagine viene usato titolo + brand).


Meta: description

grafico lunghezza media del meta description

  1 2 3 4 5 6 7 8 9 10
description 93,42 101,72 131,84 106,80 107,60 125,46 122,48 128,88 117,39 126,05

Dopo il title non si può che parlare del meta description. Il description, secondo quanto dichiarato più volte, non è un vero e proprio fattore di ranking, ma è sicuramente un’altro parametro che può sconvolgere il CTR.

In questo caso, a differenza del title, incominciamo a vedere una tendenza. Più in alto si sale nelle SERP, e più corto diventa il meta description, tant’è che la media di caratteri nella 1° posizione è l’unica sotto 100 (93.42).

Secondo voi a cosa è attribuibile questo trend?


Meta: keywords

presenza del meta keywords

  1 2 3 4 5 6 7 8 9 10
keywords 43,59% 50,33% 49,52% 50,00% 50,77% 50,45% 56,80% 51,95% 47,27% 53,03%

Se i primi due parametri erano i più usati, questo è sicuramente il più discusso.

Intorno al meta keywords sono circolati miti, leggende, narrazioni medioevali: Matt Cutts ha detto ufficalmente che il keyword è inutile, ma poi vediamo circa 1 sito su 2, tra quelli esaminati, presenta un meta keywords.

Per carità, il meta keywords viene comunque utilizzato da altri strumenti di analisi e tool vari, ma è possibile che il 50% di tutti noi usi il keywords per questo scopo? Mi sembra irrealistico. Probabilmente il keywords è qualcosa a cui ci siamo abituati e che mettiamo “tanto per”, giusto per stare tranquilli.

La tendenza interessante, è che la posizione in SERP in cui c’è la minore presenza di meta keywords, è il primo posto.


Meta: viewport

presenza meta viewport

  1 2 3 4 5 6 7 8 9 10
meta viewport 39,42% 34,97% 38,66% 39,44% 35,08% 41,09% 44,11% 44,44% 35,15% 42,73%

Il meta viewport viene usato nella stragrande maggioranza dei casi per permettere il funzionamento di siti responsive.

I temi responsive sono quei temi che spostano/ridimensionano elementi della pagina in relazione alle dimensioni dello schermo dell’utente. I layout responsive sono ottimi per presentare siti leggibili e usabili anche su device come smartphone, tablet, e così via.

La presenza del meta viewport, quindi, ci da un’idea di massima di quale sia la percentuale media di presenza del responsive (anche se, come ho già detto, avere il meta viewport non significa automaticamente che la pagina sia responsive, anche se è molto probabile). La percentuale media si attesta intorno al 39%, circa 2 siti su 5. Sotto il profilo delle tendenze, mi sembra che non ci siano grandi differenze in base al posizionamento in SERP.


Mancanza dell’head

grafico mancanza tabg head

  1 2 3 4 5 6 7 8 9 10
no head 0,07% 0,32% 0,31% 0,41% 0,19% 0,26% 0,47% 0,38% 0,37% 0,35%

Questa è un’analisi fuori dagli schemi, ma dato che ho notato a colpo d’occhio una possibile tendenza, ho deciso di lasciarla. I dati mostrano la percentuale di siti in cui non è presente il tag di apertura head (o magari c’è ma è stato scritto con errori di ortografia o di sintassi HTML).

Prima che il sapientone di turno ci scagli addosso tutta sua minuzuosa conoscenza degli standard HTML: sì, sono cosciente del fatto che l’emento head è definito opzionale da mamma W3C. Ma la mia domanda è: quel 0,3% di media che non ha l’head nelle pagine, secondo voi, sono persone che hanno incasinato il codice oppure persone che sono andate a spulciarsi W3c per sapere che l’head è opzionale e che poi hanno implementato questa cosa (folle) solo perché speravano in (improbabili) boost nei posizionamenti? Io propendo per la prima 😀

Tralaltro come ci è successo in precedenza, notiamo una tendenza forte: la prima posizione di Google è quella in cui sono presenti meno siti senza head.


Presenza di rel=”author” e rel=”publisher”

L’authorship, come ben sappiamo, è un metodo tramite il quale Google ha dato la possibilità di attribuire la paternità di un contenuto a una determinata persona (profilo Google+). Grazie al rel=”author” è possibile indicare l’url dell’autore al quale deve essere collegato il contenuto. (fino a poco tempo fa l’authorship permetteva di ottenenere la faccina in SERP, ma poi è stato tolto. Io mi ero accorto da più di un anno che quella dell’authorship era solo una trovata commerciale, tant’è che scrissi un articolo sul blog Tagliaerbe a riguardo, che vi invito a leggere)

Il rel=”publisher” ha uno scopo simile all’author, ma è legato al brand e quindi alle pagine Google+.

Come molti di voi sapranno, oltre al rel=”author”, esistono altri metodi (molto meno utilizzati) per implementare le due cose, ma la validità statistica è comunque ottimale. Ma ora veniamo al grafico:

Grafico presenza author e publisher

  1 2 3 4 5 6 7 8 9 10
author 28,85% 27,12% 28,75% 32,61% 28,62% 29,31% 29,31% 28,83% 27,27% 29,70%
publisher 29,49% 26,47% 31,31% 33,85% 28,00% 28,70% 33,84% 24,62% 31,82% 28,79%

Il grafico ci dice che mediamente il 28-29% delle pagine presenta enrambi i markup. Non si evince alcuna tendenza particolare in base al posizionamento in SERP.

Onestamente, il dato dell’author me lo aspettavo (anzi, avrei ipotizzato una percentuale addirittura maggiore), ma quello che mi stupisce di più è il publisher. A differenza del “fratello”, il publisher non ha avuto la stessa visibilità e lo stesso sex-appeal che ruotava intorno all’author.

Il publisher non ha mai garantito la faccina in SERP e altre cose di questo tipo, per questo io pensavo che fosse un tag “di nicchia”. Se avessi dovuto tirare a indovinare, probabilmente avrei ipotizzato la metà dei publisher che risultano dal report. E voi? Ci avete preso?


Presenza dei meta fb:admins e twitter:site / twitter:account_id

analisi meta di verifica twitter e facebook

  1 2 3 4 5 6 7 8 9 10
twitter 1,60% 1,31% 2,56% 4,04% 1,54% 3,63% 3,02% 5,11% 2,42% 3,94%
facebook 11,86% 15,03% 13,74% 18,94% 15,38% 14,50% 15,41% 13,21% 14,85% 17,88%

Dopo aver analizzato i markup by Google, ho deciso di lanciare qualche scansione anche per Twitter e Facebook. I due parametri che mi sono venuti in mente sono fb:admins, per Facebook, e twitter:site  twitter:account_id (dato che ci sono molti siti che ne usano uno solo).

Il dato è mooolto interessante! La percentuale legata a Facebook è più alta delle mie aspettative anche se è mediamente la metà rispetto all’author/publisher di Google. La tendenza che vediamo è che il primo posto in SERP è quello con la minore quantità di fb:admins.

Parlando di Twitter, sono sconvolto ancora più di Facebook. Il dato è estremamente basso! Considerando che per Twitter ho usato un OR (anche se c’era uno solo tra i due markup in esame, il sito veniva considerato), il dato rmane comunque sotto le mie aspettative. Il picco massimo arriva a 5,11% mentre la tendenza ci porta inevitabilmente a salire nelle SERP, dove al primo posto troviamo una percentuale pari solo a 1,60%

Il dato è ancora più strano se pensate al fatto che i siti esaminati sono spesso legati a agenzie SEO, freelance, blogger, ecc, che quindi sono sicuramente coinvolti nel mondo dei social network!


Open Graph – og:title

analisi open graph

  1 2 3 4 5 6 7 8 9 10
presenza og:title 40,38% 34,31% 37,38% 37,27% 33,85% 32,63% 41,39% 43,54% 38,79% 42,73%

In questo caso ho analizzato la presenza dei meta OpenGraph.

La presenza dell’og:title è decisamente alta, ma questo è dovuto (probabilmente) all’aiuto offerto dai vari CMS che permettono di automatizzare il processo di generazione degli OG. Penso questo dato che, dopo aver effettuato ulteriori analisi che poi non ho pubblicato, mi sono accorto che le percentuali di presenza dell’og:title sono identiche alla presenza di og:image!

Questo mi fa presuppore che tutti gli utilizzatori degli OG si siano affidati a risorse esterne (vedi WordPress SEO by Yoast) che generano automaticamente tutti i meta e che, anche se nel post non ci sono immagini principali, riempiono comunque l’og:image mettendoci magari il logo del sito, o cose di questo tipo.


Presenza del rel=”alternate” per feed RSS

presenza rel alternate per rss

  1 2 3 4 5 6 7 8 9 10
alternate per feedrss 40,71% 36,27% 44,41% 45,65% 40,62% 40,18% 39,27% 44,44% 44,24% 44,55%

Un grafico molto straightforward: ho cercato la presenza del rel=”alternate” specifico per l’indicazione dell’URL del feed RSS. (quindi non stiamo analizzando qual’è la presenza dei feed RSS, ma la presenza del rel=”” che ne “pubblicizza” l’esistenza ai motori di ricerca).

Le percentuali, secondo me, sono molto alte, ma come sempre dobbiamo considerare il fattore CMS (che più avanti approfondiremo). Quando si ha disposizione WordPress, per esempio, al feed, l’alternate, e così via, pensa tutto lui.

Non ci sono grandi tendenze all’interno delle SERP, per cui proseguiamo.


Presenza di Google Analytics

analisi tracciamento analytics

  1 2 3 4 5 6 7 8 9 10
analytics 56,09% 49,02% 58,47% 58,39% 59,69% 62,24% 62,24% 59,16% 57,58% 58,18%

E qui mi è cascata la mascella 😀

In questo grafico analizziamo la presenza del codice di tracciamento di Google Analytics all’interno della pagina. Prima di aprire la tabella con i risultati grezzi stavo pensando: mmhh, sarà 90%? Oppure si riesce a superare i 95%?

Poi apro i dati, e mi accorgo che quasi mai viene superato il 60%!

Mediamente, più di 2 siti su 5 che occupano la prima posizione di Google non usano Analytics. Ovviamente c’è una piccola fetta di persone che preferiscono altri strumenti per il tracciamento, ma non credo siano così tanti. Questo ci fa pensare che tantissimi siti non abbiamo proprio alcun tipo di tracciamento, il che deve farci riflettere parecchio.


Velocità di caricamento e lunghezza del codice sorgente

velocita di caricamento e quantita di caratteri

  1 2 3 4 5 6 7 8 9 10
caratteri 47842,07 45040,82 47364,85 53378,56 49803,17 49261,96 47214,53 53520,93 58100,55 61372,30
velocità 385986,13 364844,98 370149,16 394900,20 407153,40 391445,03 411162,17 423303,86 409262,62 417231,35

In questo caso ho deciso di unificare due analisi che prima erano separate, dato che ho trovato una tendenza interessante. Prima di tutto, servono due precisazioni:

1) Questa analisi è soggetta a errore statistico di almeno 5% dato che è impossibile misurare la velocità di risposta con metodi statisticamente validi al 100% (le fluttuazioni della mia connessione, per esempio, potevano incidere parecchio)

2) Il numero di caratteri e la velocità di caricamento, in realtà, non sono grande correlate, ma anzi: se io ho un codice molto corto, potrei aver incluso 100 JavaScript esterni, mentre un’altro sito con un codice più lungo, potrebbe essere semplicemente composto da molto CSS inline

Detto questo, il trend è lampante: agli ultimi posti della SERP vengono “relegati” sono con un codice molto lungo ( più di 50mila caratteri) e che hanno tempi di risposta elevati (400+ millisecondi). Viceversa, nella zona alta della SERP troviamo siti che sono “corti” e molto rapidi nel caricamento.

E’ un caso o secondo voi c’è una correlazione vera?


Presenza di jQuery

presenza jquery

  1 2 3 4 5 6 7 8 9 10
jquery 72,12% 64,71% 72,84% 70,19% 72,31% 69,49% 74,32% 72,07% 67,88% 72,12%

Anche in questo caso, il grafico è di facile lettura: ho analizzato la presenza del componente jQuery all’interno della pagina. Il risultato è stranamente molto alto! Siamo alle soglie del 75%, e quindi quasi a 3 pagine su 4 con jQuery.

Se pensiamo al fatto che c’è molto più jQuery in giro rispetto a Analytics, mi viene molto da pensare.


Quantità dei file .JS e .CSS caricati esternamente

quantità di js e css

  1 2 3 4 5 6 7 8 9 10
.js 13,03 13,12 13,92 13,24 13,98 13,52 13,27 13,44 13,32 13,15
.css 6,58 7,02 7,02 6,99 6,88 6,80 7,27 6,51 6,69 6,62

Una analisi molto semplice che calcola il numero totale di .JS e .CSS caricati esternamente nella pagina.

La prima cosa curiosa che noto è che i risultati sono molto “piatti”. Molto probabilmente questo è dovuto alla presenza notevole dei CMS, che inseriscono .javascript e .css in quantità più o meno fissa, e questo porta a alterare un pò la statistica.

Nonostante il “piattume”, da notare il fatto che la posizione in SERP con il minore numero di .JS caricati, è la prima. Lo stesso discorso vale (quasi) anche per i .CSS (anche se l’8° di posizione ha di poco battuto la 1°)


Presenza degli headings (h1,h2,ecc)

analisi headings

  1 2 3 4 5 6 7 8 9 10
h1 86,86% 88,89% 89,46% 86,65% 88,62% 87,01% 87,61% 87,99% 90,91% 88,79%
h2 84,29% 75,49% 82,11% 85,09% 75,69% 77,64% 79,76% 79,58% 80,30% 80,61%
h3 65,71% 69,28% 71,88% 72,67% 66,15% 67,37% 67,37% 68,77% 64,55% 69,39%
h4 36,22% 29,08% 37,06% 36,02% 36,92% 32,33% 38,07% 40,24% 38,48% 32,12%
h5 17,31% 13,73% 18,21% 12,42% 13,85% 16,31% 16,92% 12,61% 14,85% 15,76%
h6 5,13% 5,56% 4,79% 8,39% 8,00% 6,65% 7,85% 6,91% 5,45% 3,33%

Eccoci agli evergreen!

Gli headings sono probabilmente i fattori di ranking più sopravvalutati della storia: ci sono persone a cui manca il fiato se non c’è la keyword nell’h1 o se gli h1 sono troppi. E piantiamola, su! 😀

Nel grafico possiamo notare la presenza, o meno, dei singoli h1,h2,h3,h4,h5,h6 all’interno delle pagine. Come possiamo vedere, l’h1 è stra-utilizzato: la media è sopra l’87%. Un dato interessante è la suddivisione netta tra il primo gruppo di headings (h1,h2,h3) e il secondo (h4,h5,h6). Probabilmente viene attribuita una valenza SEO solo ai primi tre headings, mentre gli altri vengono preferiti per altri scopi.


Presenza di almeno un’immagine senza ALT

immagini senza alt

  1 2 3 4 5 6 7 8 9 10
no alt 75,00% 75,16% 77,32% 80,43% 77,54% 78,85% 75,83% 75,98% 77,27% 77,27%

Proprio come per l’head, in questo caso misuro una “mancanza” più che una “presenza”.

Ho voluto controllare quale fosse la percentuale di siti che hanno almeno un’immagine sprovvista di attributo ALT. Come sappiamo, oltre all’ovvia utilità per l’utente, l’ALT è un ottimo parametro SEO, di cui spesso ci si dimentica (e si vede!)

Anche in questo caso sono rimasto sopreso: in prima posizione su Google, mediamente solo 1 sito su 4 ha tutte le immagini in regola, mentre 3 su 4 si sono scordati l’ALT!

Per carità, la mia scansione potrebbe aver individuato, magari, la piccola iconcina 4×4 pixel che hai messo in un punto nascosto, o l’antipixel messo da chissà quale script: però c’è da dire che esistono una marea di tool SEO semplicissimi che ti avvisano della mancanza degli ALT (es. SEO Doctor per Firefox).


Presenza di immagini codificate in base64

analisi immagini base 64

  1 2 3 4 5 6 7 8 9 10
immagini in base64 1,92% 0,98% 1,28% 2,17% 1,85% 2,72% 2,11% 2,40% 1,52% 2,42%

Già che stavo analizzando le immagini, ho deciso di provare una cosa di cui si parla pochissimo. Onestamente mi aspettavo risultati prossimi allo 0% e invece ho visto che non è così!

Per chi non lo sapesse, presentare un’immagine in base64 significa, appunto, trasformare l’immagine da file a stringa base64. In PHP si può fare così:

L’utilità di questo metodo risiede sopratutto nella velocità di caricamento. Se ho bisogno di caricare la stessa immagine con frequenza (es. uno sfondo, una sprite CSS, e così via), può essere utile codificarla in base64. Anche se il mero peso in KB è più elevato nel caso della stringa codificata, il fatto di inviarla a un browser come stringa fa in modo che ci sia una richiesta HTTP in meno. Se 100 immagini separate sono trasformate in base64, significa che ci saranno 100 richieste HTTP in meno.

Spesso le immagini base64 sono generate grazie all’aiuto dei CMS come WordPress, che in alcuni template le prevedono di default. Se c’è qualcuno che, invece, si è messo a manipolare le immagini in base64 di proposito, beh, complimenti!


Presenza del favicon

analisi favicon

  1 2 3 4 5 6 7 8 9 10
favicon 54,81% 54,25% 59,11% 56,52% 58,77% 58,91% 60,42% 56,16% 49,39% 62,42%

Per chiudere la ricerca legata alle immagini, ho cercato quella più sottovalutata: il favicon.

Il dato mi stupisce dato che io ne avrei ipotizzato uno molto più elevato. La media complessiva è intorno al 56% con picchi negativi sotto il 50%. Il favicon, probabilmente, non è un fattore di ranking e non è un fattore che amplifica il CTR. Ma nel lungo periodo è uno strumento di brandin e fidelizzazione che non dovrebbe essere sottovalutato.


I due CMS più utilizzati

analisi cms joomla wordpress

  1 2 3 4 5 6 7 8 9 10
wordpress 41,03% 38,89% 41,53% 42,24% 39,08% 40,48% 38,37% 40,24% 38,18% 39,09%
joomla 4,81% 1,96% 3,51% 3,73% 2,77% 1,81% 2,42% 4,20% 3,94% 5,15%

Che dire: WordPress ownage!

Il 40% dei siti è mediamente fatto con WordPress, caspita! Sapevo che WordPress è stra utilizzato e che ha un forte sex-appeal per i SEO, ma vedere nero su bianco che 2 siti su 5 sono fatti con questo CMS  è tutta un’altra cosa.

Il pregio principale di WordPress, secondo me, è la versatilità: per quanto sotto il profilo tecnico può essere decisamente migliorato, permette una così ampia scelta di plugin/temi che lo rendono uno dei CMS migliori in assoluto.

Subito dietro WordPress, c’è Joomla, che ho deciso di includere nel grafico. Onestamente avrei immaginato percentuali un pò più elevate per Joomla, e voi?


Presenza di almeno un microdato o RDFa

microdati rdfa

  1 2 3 4 5 6 7 8 9 10
microdati o RDFa 20,83% 19,93% 25,88% 27,95% 26,46% 26,59% 32,33% 29,73% 27,88% 29,09%

Dopo tutto il martellamento quotidiano che abbiamo subito da Google, blog SEO e così via.. la media dell’utilizzo dei microdati è così bassa? Siete proprio degli scansafatiche 😀

Per ragioni tecniche ho potuto scansionare solo la presenza di almeno un microdato oppure un dato RDFa (niente microformati, purtroppo). Considerando il fatto che molti temi di WordPress inseriscono automaticamente dei microdati basilare (quelli con il titolo pagina, descrizione, ecc), il dato è ancora più inaspettato.

In questo caso vediamo una netta tendenza, abbastanza inspiegabile, per cui le posizioni con la minore presenza di microdati sono rispettivamente la 2° e la 1°


Presenza di almeno un tag section (HTML5)

analii html5

  1 2 3 4 5 6 7 8 9 10
Section – html5 26,92% 21,90% 26,20% 25,47% 20,00% 25,08% 25,98% 21,92% 22,12% 24,85%

Dopo aver analizzato i microdati, ho provato con qualcosa di ancora più generico, i markup basilari di un layout in HTML5. Anche qui, piccola delusione: c’è un tag section solo nel 25% dei siti circa, 1 su 4.

La documentazione riguardo l’HTMl5 è ormai di pubblico dominio da parecchi mesi: c’è stato tutto il tempo per i CMS, i template, e così via, di aggiorarsi, eppure l’HTML5 basilare è ancora poco utilizzato.

Non vediamo grossi trend, per cui proseguiamo.


Link presenti nella pagina

link presenti nella pagina

  1 2 3 4 5 6 7 8 9 10
link nella pagina 71,48 73,18 84,84 95,67 81,03 85,12 83,21 90,12 79,70 93,11

Anche in questo caso ho visto un buon trend, per questo ho deciso di lasciare il grafico.

In questa analisi documentiamo il numero medio di link presenti una pagina. Ho deciso volontariamente di non fare distinzione tra link interni o esterni.

A parte le medie assolute in sé, che mi sembrano abbastanza equilibrate (dato che ci sono i link interni, immaginate a quanti link mettete nei menu, sidebar, footer, ecc), il dato da tenere a mente è la correlazione con le posizioni.

Il 1° risultato in SERP è quello che mediamente ha meno link nel codice, seguito a ruota dal secondo posto.

Che dite, è una vera e propria correlazione?


Presenza dell’attributo lang dell’html

lingua html

  1 2 3 4 5 6 7 8 9 10
lang IT 54,17% 48,37% 47,60% 52,17% 49,85% 47,73% 55,29% 51,95% 52,42% 55,45%
lang non IT 3,21% 6,21% 7,67% 9,94% 7,38% 11,18% 10,27% 10,51% 10,00% 11,21%

Chiudiamo il report in bellezza: ho trovato questa netta correlazione che voglio farvi vedere.

Ho analizzato la presenza dell’attributo lang=”” posizionamento nell’apertura dell’HTML. In pratica, è l’attributo con cui indichiamo la lingua della pagina. Una volta individuato il parametro, ho effettuato una seconda scansione per stabilire se il country code fosse effettivamente italiano oppure no (tranquilli, ho cercato “it”, “it-IT” e così via)

Il risultato è interessantissimo. Intanto c’è da dire che mediamente il 50% dei siti presenta l’attributo lang ed è anche correttamente impostato su Italia.

Quello su cui voglio farvi soffermare, è un’altra cosa: se guardate il grafico rosso potete notare che ci sono moltissimi siti che inseriscono il lang, ma quello sbagliato. Mediamente il 9-10% dei siti inseriscono il lang sbagliato e a quanto pare questo genera una correlazione molto interessante.

Nella prima posizione di Google c’è una presenza 3 volte inferiore di lang=”non italiano” rispetto agli ultimi posti della SERP. Come è lecito aspettarsi, probabilmente il motore di ricerca è restio a posizionare pagine che, anche se italiane, si autoproclamano come NON-italiane!


Licenza

La licenza che regola questo report è la Attribution – Non commercial – Share alike.


Note finali

Spero che i dati che abbiamo snocciolato siano stati non solo interessanti, ma anche utili.

Alcuni risultati onestamente mi hanno sorpreso, voi che ne pensate? Non sto facendo link baiting (anche perché altrimenti non avrei pubblicato tutto questo nel periodo di Ferragosto :D) quindi la cosa che mi interessa di più sono le vostre opinioni (ma se volete linkare o condividere, ben venga, sia chiaro).

Spero nasca qualche discussione interessante dato che c’è molta carne al fuoco 😉

Danilo petrozzi

Ciao! Io sono Danilo Petrozzi, il fondatore di Eternal Curiosity. Oltre a essere un senior SEO Specialist e un Web Developer, è dall'età di 9 anni che mi appassiono a qualsiasi cosa ruoti intorno al web e all'informatica in generale.

Lascia un commento