Pubblicato il

Posizionamenti instabili su Google: capire le oscillazioni dei risultati

Se stiamo seguendo l’andamento di una pagina in termini di posizionamento nelle SERP di Google, potrà capitare un fenomeno di “oscillazione” dei risultati; in queste situazioni, in altri termini, si verifica una variazione molto consistente nei risultati che impedisce, in molti casi, di valutare correttamente la qualità della nostra SEO. Utilizzando il software SEOPanel ad esempio (su trovalost.it trovate la mia guida per installarlo), che è un prodotto open source in PHP che non fa altro che fare delle ricerche mediante cron-job, effettuare il parsing HTML dei risultati e conteggiare la posizione di ogni chiave, è piuttosto frequente accorgersi di situazioni del genere.

Uno scenario tipico, in particolare di miglioramento dei risultati, si può registrare ad esempio in questi termini.

Screen 2015-08-03 alle 09.42.30

In questo caso si era partita dalla posizione  50° di Google, e dopo circa un mese di lavoro è stato possibile risalire alla posizione 15°, arrivando quindi in prossimità della prima pagina. Per misurare la qualità del nostro lavoro, di fatto, possiamo prendere il primo e l’ultimo valore di ranking e fare la differenza (togliendo di mezzo, nel farlo, le eventuali oscillazioni), o possiamo essere più precisi facendo una media dei valori.

Possono pero’ capitare casi più difficili da inquadrare, come quelli che mostrerò di seguito.

Screen 2015-08-03 alle 09.39.39

In questo caso (relativo all’ultimo mese di rilevazioni) si è verificato un posizionamento su Google decisamente instabile, che rende impossibile fare qualsiasi tipo di valutazione sulla “bontà” dell’andamento stesso (da 58 a 21, chiaramente migliorato). Il fenomeno non riguarda affatto soltanto Google, ovviamente.

Anche Bing, ad esempio, da tempo sta mostrando risultati incostanti su una chiave molto competitiva; come vedremo, la chiave per capire fenomeni del genere è legata parecchio alla frequenza di scansione delle SERP.

Screen 2015-08-03 alle 09.45.24

Di fatto, quello che conta sono sempre i risultati più recenti, che andrebbero raffrontati con quelli ottenuti 30-40 giorni prima, a seconda dei casi. In questo caso il ranking della chiave in questione è rimasto approsimativamente sempre uguale (da 45 a 39).

Dall’analisi effettuata si dovrebbero considerare almeno due punti fondamentali:

  1. la frequenza di esecuzione dei cron-job può essere determinante, ed andandola a modificare dal pannello di SEOPanel sarà facile accorgersi che può diventare più o meno precisa;
  2. l’orario in cui si effettua la ricerca è anch’esso rilevante, in quando eseguendo la stessa ricerca ad orari diversi Google potrebber restituire SERP diverse, specialmente nei casi più instabili e/o competitivi.

In questo secondo caso, quindi, si può provare a ridurre la frequenza delle scansioni delle parole chiave riducendo la frequenza dei cron-job: la cosa essenziale è trovare il numero giusto.

Da Pannello Admin di SEOPanel, è possibile trovare il cron-job da impostare cliccando su “Comando azione pianificata“: qui troveremo il cron job e potremo modificare la frequenza, ad esempio come mostrato di seguito.

Ogni quindici minuti:

*/15 * * * * php /home/.../seopanel/cron.php

Ogni ora:

0 */1 * * * php /home/.../seopanel/cron.php

Ogni due ore:

0 */2 * * * php /home/.../seopanel/cron.php

Due volte al giorno (alle 3 ed alle 15):

0 3,15 * * * php /home/.../seopanel/cron.php

Originally posted 2015-08-03 07:58:11.

Pubblicato il

Se il traffico del tuo sito è in calo, piangi (oppure fai queste verifiche)

Se le visite sono in calo e provengono da una fonte come un motore di ricerca (tipicamente Google), c’è da dire che le cause possono essere varie, e quelle presentate di seguito potrebbero anche presentarsi contemporaneamente.

La prima possibile causa che bisogna considerare se avete un calo di visite, è verificare che non ci siano stati cambiamenti drastici nel nostro sito, a livello di struttura (menù, organizzazione interna) e di contenuti (post, pagine, video, sezioni interattive). Per quanto sembri banale, è spesso ciò su cui si lavora concretamente. Analizzando Google Analytics, ad esempio, è possibile ad esempio concentrare l’attenzione sulle pagine più visitate, e verificare che non ci siano variazioni importanti proprio su quei post. In molti casi, sarà possibile individuare la fonte di traffico che è interessata al calo più fattivamente, e prendere provvedimenti in funzione di ciò. Al di là di questo, bisogna verificare che tutto il sito sia stato perfettamente scansionato da Google, verificando htaccess e robots.txt, e facendo dei test con i crawler della Search Console. Certo è che, di fatto, non sempre questi strumenti riescono a darci le risposte che ci aspetteremmo, specie se usati con scarse conoscenze tecniche.

Una seconda analisi dovrebbe riguardare l’andazzo generale del mercato di riferimento del sito: come è cambiato rispetto a Google? È possibile che alcuni cambiamenti negli snippets abbiano portato ad una diminuzione dei CTR (verificabili via Search Console)? Domande a cui troveremo risposta dopo un po’ di confronti e/o mediante un’analisi puntuale e quattro chiacchiere con il nostro referente, di solito.

In terzo luogo,  è necessario considerare ciò che stanno facendo i concorrenti del settore (eventualmente nulla): ovviamente ci riferiamo alla parte “misurabile” del discorso, visto che potrebbero esserci moltissime zone oscure che sono impossibili o molto difficili da indagare (ad esempio: hanno cambiato SEO e ne hanno preso uno meno incompetente 🙂 ).

L’ultima cosa da considerare è che non siano in corso cambiamenti algoritmici all’interno di Google: ma qui si ragioni per ipotesi (spesso poco o per nulla “scientifiche”), per cui mi sembra inopportuno spendere troppo tempo a lambiccarsi su possibilità del genere. Senza contare che, ad esempio, l’annuncio di un cambiamento algoritmo è raramente in “tempo reale” rispetto all’Italia, per cui il rischio è quello di imbattersi in correlazioni inesistenti o del tutto casuali. In molti casi, infatti, basta intervenire sulla struttura del sito o analizzare meglio i punti precedenti.

Recuperare il traffico perso non è facile, ma un buon SEO può e deve saperlo fare per essere considerato davvero tale.

Originally posted 2015-07-30 14:05:06.

Pubblicato il

Lascia perdere la keyword density

Keyword density, che passione: non fosse per lei l’argomento SEO avrebbe perso certamente molto del suo fascino. Si tratta di un’argomento dibattuto (inutilmente) per troppi anni, che si limita a misurare il numero di occorrenze di una parola chiave all’interno di un testo. Questo porta a considerazioni fuorvianti come, per intenderci, il fatto che per ottimizzare un testo sia necessario includerlo un numero ottimale di volte – di solito, la mitologia sull’argomento raccomanda, forse per darsi un tono di autorità, fino al 4%.

L’articolo forse più serio di cui sono a conoscenza sull’argomento risale al lontano 2005, anno in cui avremmo dovuto definitivamente dismettere l’argomento: scritto da Enrico Altavilla, è un significativo excursus che spiega perchè si tratti di una semplice misura di Information Retrieval, che non riesce a fornire nessun valore aggiunto alla SEO. Il motivo principale per cui la keyword density non dice nulla di significato in una consulenza SEO è legato al fatto che non tiene conto del contesto, aspetto fondamentale visto che ogni consulente deve conoscere il contesto in cui opera il sito per poterlo ottimizzare. Un altro articolo che ne ridimensiona i meriti è pubblicato sul sito di Studio Samo, che ribadisce i concetti precedenti ed invita a non basarsi su questa misura per “ottimizzare i testi“: spesso l’unico risultato che si riesce ad ottenere è quello di pubblicare testi che fanno semplicemente schifo!

Centinaia, migliaia di articoli descrivono “tecniche” per ottenere la migliore keyword density sul proprio sito: misura, per una volta, calcolabile sì con precisione, ma che (proprio alla luce della sua semplicità) ci porta fuori bersaglio! In genere qualsiasi tecnica SEO troppo semplice e troppo ovvia dovrebbe suscitare sospetto: non esiste alcuna tecnica per ottimizzare qualsiasi sito “in astratto”, e la KW è sostanzialmente una di queste (o almeno, pretende di esserlo ancora oggi in articoli del 2016).

Calcolare la keyword density è, peraltro, l’anticamera alla generazione di testi automatici mediante script: cosa che, sia detto per inciso, dicono funzioni pure. A questo punto uno potrebbe andare in crisi e non capire quale sia la strada corretta da seguire, ma niente paura: quello che funziona in un caso non va imitato perchè raramente il successo di una campagna SEO si basa sull’emulazione altrui. Più in generale, ci sta evidenziare i limiti di Google (che sono ancora pesantissimi in troppi settori), ma quello che facciamo per un cliente che ci paga il lavoro non può essere equivalente a – ed aggiungo, è vergognoso che lo sia –  smanettare con una cosa del genere.

E ricordiamo una cosa ulteriore: il fatto di credere di aver identificato la causa di un fenomeno (del tipo “questo sito è in prima pagina perchè ha la keyword density al 4%“) non significa affatto, come ingenuamente molti pensano, che la causa sia effettivamente quella. E le correlazioni spurie, in effetti, sono lì a dimostrarcelo. Se devo scrivere un buon testo da posizionare su un motore di ricerca, devo fare dei “calcoli” (in senso figurato) sul contesto, sul budget, sulla qualità e l’opportunità dei contenuti, non certo sul numero di volte in cui debba ripetere una parola chiave. Fosse così semplice, riusciremmo un po’ tutti a posizionarci a turno per chiavi di ricerca molto competitive e non staremmo qui a discuterne affatto.

Ma il punto è anche un altro: questo genere di calcoli sui contenuti di un sito sono profondamente fuorvianti, perchè non avrebbe senso (in ogni caso) mantenere un sito in prima pagina senza che sia “a misura” per gli utenti. Il mito della keyword density al 4% deriva da osservazioni molto superficiali e dalla sempiterna idea (sbagliata) che la correlazione implichi causalità. In giro nella rete troverete molti “studi” (le virgolette sono tutt’altro che casuali: pubblicare infografiche con statistiche è una delle più diffuse tattiche di link building) che giustificano, o provano a giustificare, calcoli in tal senso. Ma per quanto credibili si tratta di correlazioni spurie, le stesse mostrate su Tylervigen (tra le migliori: esiste una correlazione al 99% – quindi altissima – tra le spese USA per scienza, spazio e tecnologia e numero di suicidi per impiccagione, strangolamento e soffocamento). Del resto, anche se la considerassimo una tecnica furba, dovremmo convenire sul fatto che sia molto facilmente rilevabile da un “controllo” di Google: e se le telecamere mi stanno inquadrando durante un furto, è chiaro che non posso più percorrere quel tunnel pensando di non essere visto.

I calcoli sulla keyword density mandano fuori strada, e dovremmo solo smetterla di parlarne.

Originally posted 2015-07-29 19:01:03.

Pubblicato il

12 strategie per portare traffico fresco al tuo sito

Gli articoli che trattano l’argomento “aumentare le visite” sul proprio sito, di norma, di solito si concentrano sull’aspetto “contenutistico” puro: saper essere leggibili, scrivere di getto, dare del tu, lavorare bene sui titoli, pubblicare ricerche originali e personali, spulciare eventuali case histories, pubblicare immagini che colgano nel segno e così via. Ma questi accorgimenti di copywriting non sono, in effetti, l’unica cosa che si può fare: per rendere accattivante un sito, ed aumentare le prestazioni delle tue metriche analytics, ci sono molte altre cose meno scontate che puoi fare.

Come incrementare le visite sulle pagine del nostro sito? Per provare a rispondere vediamo 10 punti basilari per qualsiasi strategia di link earning e link building, che sono il mezzo attraverso cui le visite arrivano.

  1. Una prima strategia è senza dubbio quella di prendere nota di quello che fanno i competitor per farsi arrivare traffico: una ricerca mirata su Google, oppure strumenti free come Ahrefs, possono aiutarci allo scopo. Questo pero’ deve essere uno stimolo a migliorarsi, non un limite o un vincolo (“facciamo come hanno fatto loro”).
  2. Una tattica molto utilizzata, per quanto da maneggiare con cautela, è quella di sfruttare i forum al fine di evidenziare il proprio sito. Questo vale solo per alcune nicchie di mercato, e bisogna sempre fare attenzione a rispettare le regole e a non infastidire gli amministratori nel farlo (mediante firme o citazioni, di solito): evitare tassativamente eccessivi “tatticismi” come le anchor text corrispondenti alle chiavi di ricerca.
  3. Cercare partnership e farsi linkare il sito è una tecnica attuabile, ed incredibilmente ancora poco sfruttata, per tutti i siti di natura commerciale.
  4. Segnalare il proprio sito ai blog pertinenti (non per forza directory) se fatto nel modo giusto più portare a vantaggi spesso inattesi.
  5. Sfruttare lo scrolling infinito – Sempre più siti sfruttano il meccanismo di infinite scrolling, cioè l’accorgimenti che mostra continuamente nuovi contenuti scorrendo in fondo la pagina, tipicamente gli elenchi di post per categorie o, per avere un esempio più familiare, i post dei nostri contatti Facebook. È chiaro che un accorgimento del genere suscita la curiosità del lettore, è ottimo per spezzare i post più lunghi e tende a diminuire la percentuale di rimbalzo. Sicuramente è una buona strategia su cui investire, o almeno provarci, se avete molti articoli di lunghezza considerevole e desiderate tenere incollati i vostri visitatori al sito web.
  6. Un modo facile per aumentare le visite al sito in modo istantaneo può essere quello di utilizzare i vari social bookmark come OkNotizie e ZicZac, senza ragionare sul PageRank o sui vantaggi indiretti che potranno portare bensì, più intelligentemente, valutando che se postiamo notizie che interessano il bacino di lettori di quei siti. Le visite arriveranno rapidamente e spesso in grande numero, soprattutto arriveranno in modo sensato e da visitori “tematici” ed affini a voi. Su questi siti, di norma, il pubblico sembrerebbe più interessato alle notizie generaliste che a quelle di nicchia o specialistiche, ma il tentativo ovviamente si può fare per capire cosa succede.
  7. Creare un video ad hoc e caricarlo su Youtube, allegando il link al proprio sito nella descrizione, è un esempio di ottimo link in ingresso (nofollow) capace di portare visite tematiche.
  8. Taglio corto sulla tecnica del comment marketing: commentare blog tematici firmandosi col proprio sito non è un modo molto produttivo di impegnare il proprio tempo. Ci sono pero’ delle eccezioni alla regola ed alle netiquette, che potrete scoprire solo con l’esperienza.
  9. Molto produttivi, specie nei settori diffusi solo su internet (consulenze online, ad esempio) scrivere ed intervenire spesso nei forum di settore: aiuta ad aumentare la propria visibilità in modo considerevole e soprattutto in modo naturale.
  10. A volte si pensa male alla link building: perchè inventarsi i modi più strani per ricevere traffico? Spesso le soluzioni più ovvie sono anche le migliori per il nostro sito.
  11. Se fate link building da soli, i link saranno spesso nofollow o saranno rimossi: non sottovalutate, comunque,  l’opportunità di farvi  vedere da altri visitatori o dai proprietari dei siti.
  12. Se ci sono margini di intervento, ad esempio in termini di content marketing, non dovrebbe essere difficile individuare termini di ricerca interessanti con contenuti carenti, vecchi o lacunosi. In questo caso conviene scrivere dei nuovi post sul blog, tipicamente, al fine di colmare queste lacune e calamitare traffico tematico. Costruire buoni contenuti è necessario per attuare bene le strategie viste, e soprattutto per guadagnare link spontanei (soprattutto nel medio-lungo periodo).

Originally posted 2015-07-29 07:55:44.

Pubblicato il

Per fare SEO è utile rimuovere il suffisso .html dagli URL?

Se abbiamo URL del tipo miosito.com/miapagina.html, è meglio rimuovere l’estensione .html e lasciare solo miosito.com/miapagina? In generale, possono valere diversi tipi di considerazioni: come regola pratica, nel mio lavoro quotidiano ad esempio tendo sempre a creare URL più corti possibile, per un fatto di sintesi e perchè minimizza le possibilità di andare incontro ad errori imprevisti in futuro.

In genere, c’è da premettere, la questione del suffisso sembra essere più una questione di usabilità che di SEO vera e propria: di fatto aumenta la lunghezza dell’URL, e gli URL troppo lunghi sono difficili da manipolare per gli utenti, i quali potrebbero riscontrare difficoltà a copiarli o incollarli (e quindi, indirettamente, a fornirci link naturali). In tal senso tendo sempre ad accorciare gli URL, anche se (in certi casi) trovo adeguato il suffisso .html anche per un fatto di pulizia e per dare l’idea di una “pagina” web (per esempio una pagina statica di contatti).

Valgono poi le seguenti considerazioni generali:

  1. la rimozione del suffisso HTML, come come di quello .php, .asp o qualsiasi altro, è in genere un compito non semplice da eseguire (serve un professionista per completarlo in modo adeguato);
  2. su WordPress i permalink si settano facilmente solo in parte, (facendo eventualmente aggiungere o rimuovere l’estensione indesiderata) dai post e dai tipi customizzati, ma sulle pagine di default è disabilitata sempre;
  3. in genere se si decide di accorciare i propri URL dipende molto dal CMS usato (alcuni impediscono di fare questa modifica per motivi di sicurezza) e questo può compromettere l’indicizzazione del sito; in generale, infatti, le vecchie pagina vanno redirezionate via redirect 301 alle nuove, in modo che sia utenti che motori di ricerca sappiano della modifica (altrimenti perdereste tutti i ranking ed i vantaggi raggiunti fino a quel momento).

Riassumendo, quindi:

  • il suffisso .html, come qualsiasi altro, è indifferente lato SEO;
  • certamente può essere rimosso per un fatto di usabilità e per evitare problemi in prospettiva, ma è una skill da esperti che richiede opportuna configurazione del CMS ed opportuni redirect 301 (a volte automatizzati, ma il più delle volte manuali)
  • in genere non è una reale priorità farlo, specie per gli utenti meno esperti tecnicamente

Di seguito viene riportato il video ufficiale con la posizione di Google in merito, che sostanzialmente ricalca quanto da me scritto.

Originally posted 2018-04-16 12:03:06.

Pubblicato il

Quanto può essere lungo, al massimo, un URL per una corretta indicizzazione sui motori?

In genere la lunghezza massima ammissibile per un URL su internet non è predefinita, ma dipende da una varietà di fattori:

  • il browser usato dall’utente;
  • il server su cui è installato il sito

Lo standard RFC 2616 (parliamo del protocollo HTTP/1.1) afferma che (la traduzione è stata fatta da me):

Il protocollo HTTP non detta un limite a priori sulla lunghezza degli URI […] e dovrebbe restituire un errore 414 (Request-URI Too Long) se il client non fosse in grado di gestire la richiesta [ … ]

In teoria non c’è un vero e proprio limite, perchè dipende dal browser. Sulla base di varie considerazioni quantitative e di alcuni test sui più diffusi browser, comunque, una buona norma pratica sembra quella di mantenere gli URL al di sotto dei 2000 caratteri, in quanto ciò permette di garantire compatibilità con tutte le combinazioni di configurazioni più diffuse (fonte).

Originally posted 2018-04-16 11:51:54.

Pubblicato il

Come arrivare primi su Google

Vantaggi dall’essere primi su Google

Google raccoglie gran parte del traffico web di ogni ordine e grado: dovrebbe essere ovvio che apparire nelle prime pagine di ricerca sia un vantaggio enorme per le realtà commerciali che possiedono un sito, così come per chi volesse vendere servizi, consulenze o farsi conoscere per quello che è, o per ciò che sa fare. I vantaggi al comparire nelle prime pagine dei risultati di ricerca si possono elencare in una serie di vantaggi:

  • Aumento del numero di visite al sito;
  • Aumento del numero di iscrizione al sito;
  • Aumento della visibilità del brand;
  • Aumento del numero di vendite di prodotti o conversioni;
  • Aumento dei guadagni derivanti da banner pubblicitari;
  • Incremento del potenziale the commerciabilità di una pagina Web – ad esempio per quanto riguarda la vendita di banner o di link.

A questo si aggiunga il prestigio di comparire su Google per una certa ricerca, anche agli occhi del proprio pubblico, dei potenziali clienti o della concorrenza: non è poco. Contrariamente a quello che potete aver letto su questo argomento, pero’, è bene far presente che:

  1. Essere in prima pagina su Google purtroppo non è per tutti; è inutile, penso, illudersi o banalizzare la questione. Non sempre c’è spazio per noi nelle ricerche che ci piacerebbero.
  2. Le tecniche utilizzabili per migliorare il posizionamento sui motori non sono banali, e richiedono di conoscere come funzioni il Web, almeno per certi aspetti;
  3. Non esistono ricette predefinite e sicure per finire prima pagina;
  4. Non esiste la certezza assoluta di finire in prima pagina;
  5. Anche se non riuscite a posizionarvi per la ricerca che vorreste, potete comunque riuscire a soddisfare quasi tutti i punti precedenti facendo ricerca di nuove parole chiave (keyword research);
  6. Se ripropongono di finire in prima pagina garantita a pochi euro, quasi certamente si riferiscono a risultati a pagamento (per saperne di più leggi l’articolo Google Adwords non è SEO)

Requisiti per essere primi su Google

Per essere primi su Google e comparire per un buon numero di ricerche è necessario, anche se può sembrare banale, disporre di un sito web che sia ben realizzato: Google negli ultimi anni, infatti, ha iniziato a badare molto all’aspetto tecnologico e funzionale delle pagine Web, invitando i webmaster a seguire una serie di procedure specifiche e di buone pratiche al fine di rendere il sito fruibile per il target di riferimento. Se non avessi presente questo termine, ti basti sapere che il target di riferimento e il gruppo di potenziali clienti e visitatori del tuo sito che potrebbero essere interessati ai contenuti dello stesso: ci sono vari modi per definire un target, ed è indispensabile farlo prima (e durante) le attività SEO.

Ma cosa vuol dire sito web “ben realizzato“? In quest’ottica, le indicazioni riportate dalle istruzioni per i webmaster sono molto utili, e basterebbe rispettare i requisiti riportati su quella pagina per avere un sito già di medio livello, quasi pronto a entrare nelle prime pagine di Google. Se molti requisiti sono di natura intuitiva (per esempio Fai in modo che il tuo sito web si distingua dagli altri nel tuo campo), molti altri sono di natura più tecnica, e possono richiedere l’intervento di personale o consulenti specializzati, soprattutto se avete avuto problemi di spam ho con contenuti autogenerati. Diversamente lo spirito generale per fare in modo che un sito arrivi nelle prime pagine di Google è riassumibile in una lista di requisiti:

Prestazioni del sito

A questi possiamo aggiungere l’utilizzo di servizi di hosting efficienti (in particolare in termini di TTFB e SRT, quest’ultimo ad esempio dovrebbe essere al massimo di 200 ms) per caricare le pagine del sito Web più velocemente possibile, e l’uso generalizzato di SSL sulle pagine Web – e vale anche per i semplici blog. Del resto è noto da diversi studi come i visitatori nella metà dei casi (53%) tendano ad abbandonare subito i siti Web che impieghino più di 3 secondi a caricare la pagina.

Per misurare le prestazioni del sito è consigliabile fare uso di tool che misurino I tempi di caricamento della pagina e possono aiutare ad individuare eventuali colli di bottiglia, ovvero criticità che possono essere eliminate o snellite al fine di velocizzare il caricamento delle pagine.

Alcuni di questi tool sono elencati di seguito: in linea di massima, possono dare risultati diversi sulla base di criteri diversi, per cui cercate di ottimizzare il vostro sito almeno per un paio di essi.

Non tutti gli strumenti sono affidabili allo stesso modo per qualsiasi sito, per cui si consiglia di testarne Massimo un paio alla volta e di cercare di dare priorità alle notifiche realmente significative.

Diminuire i tempi di caricamento delle pagine Web

Snellire le pagine Web è tipicamente un lavoro per professionisti, e passa per una fase di test del sito di analisi delle componenti coinvolte, dell’eliminazione di eventuali componenti software che non funzionino o siano obsoleti, del cambio del servizio di hosting se necessario della rimozione di plugin e dell’integrazione nel sito di funzioni specifiche per velocizzare il caricamento delle pagine. Purtroppo non esistono ricette valide in tutti casi, bisognerà procedere per esperienza e per tentativi, ovviamente senza stravolgere il sito attuale e senza modificarne troppo l’assetto (se possibile).

La principale complicazione di questa attività è dettata dall’esigenza di non stravolgere l’assetto del sito, ma anche dal fatto che le ottimizzazioni possono produrre esiti diversi su pagine diverse: quindi, ad esempio, potreste riuscire a ottimizzare bene la home page, e poi dover ripetere il lavoro per le singole pagine degli articoli, per quell’archivio, per le pagine autore, per i risultati di ricerca e così via. In genere le ottimizzazioni locali, cioè quelle specifiche per la pagina Web in questione, sono quelle che funzionano meglio; a livello di ottimizzazioni globali, più facile ma spesso meno efficaci, È possibile intervenire sugli indici del database sul potenziamento del server che fa girare il sito, sull’aumento della RAM dello stesso, sul potenziamento della vCPU e così via.

A livello di server, può essere utile implementare una politica di cache sia lato client che lato server (ci sono varie opzioni disponibili, e sono praticamente impossibili da riassumere in un singolo articolo), sfruttare dei moduli di caricamento per le pagine che vadano ad alleggerire il carico di lavoro (per esempio moduli di Apache o NGINX), evitare l’uso di hosting condivisi – su cui potreste non avere a disposizione il massimo della potenza computazionale che vi serve.

Un criterio molto “alla buona” per alleggerire i tempi di caricamento di una pagina è determinato dalla rimozione dei widget inutili all’interno delle pagine Web, che tipicamente occupano risorse computazionali e non sempre vengono usati dagli utenti finali (per cui appesantiscono il sito senza fornire valore aggiunto). In genere, infine, si riescono a ridurre i tempi di caricamento delle pagine riducendo al minimo il plugin installati, specialmente nel caso di WordPress che viene spesso “appesantito” da un numero di plugin superiore a una decina.

Verificare la coerenza dei contenuti

Questo è un altro punto fondamentale, che dovrebbe far parte di una qualsiasi politica SEO: la coerenza dei contenuti è un fattore difficile da misurare in numeri, ma di fatto è determinante rispetto agli utenti finali. Tutto dipende dal sito: mi è capitato ad esempio di occuparmi di un paio di blog di ricette, per il quale era fondamentale non proporre le solite cose presenti da anni su svariati siti Web, ma puntare a contenuti originali (ad esempio ricette tipiche, non scopiazzate dal web) e cercare – al tempo stesso – di spaziare al massimo con gli argomenti pertinenti alla cucina. Ho fatto lo stesso per un blog che si occupa di carte di credito: visto che il target del sito sono potenziali clienti di servizi finanziari, è importante utilizzare i giusti termini tecnici, massimizzare il rapporto tra visualizzazioni e conversioni sulle pagine e saper rispondere alle domande più frequenti, ad esempio mediante articoli approfonditi e di confronto tra le offerte. Per quanto riguarda il mio sito di comparazione offerte Trovalost.it, ancora, sono partito dal presupposto che dicono contenuti davvero coerenti dovessero andare aldilà dei soliti tutorial, per cui ha lavorato per creare dei plugin personalizzati che permettessero di confrontare agevolmente le offerte, una cosa che raramente si sarebbe vista su siti concorrenti, che – da quello che avevo visto – lavorano esclusivamente di copywriting.

Il problema è capire che criterio utilizzare: cosa è più importante per il nostro sito? Si parte dal presupposto che gli utenti debbano trarre beneficio, o almeno essere interessati ai contenuti delle nostre pagine Web. Altrimenti nostro lavoro rischia di diventare inutile, purtroppo non è neanche facile far passare quest’idea ai clienti, che la considerano spesso troppo dispendiosa e si intestardiscono nel fare di testa loro.

Creare delle aree per attrarre visite

Questa è un’altra tecnica che vedo immensamente sottovalutata dai webmaster e dai blogger: creare delle pagine Web come ad esempio landing page con le migliori offerte del momento, ho comunque raggruppamenti di dati che offrono una qualche utilità all’utente finale (per il motivo più banale: perché li ricercano spesso) è una tecnica eccellente per aumentare le visite al sito, e per finire in modo naturale tra i primi risultati di ricerca. Quello che è importante capire è quando valga la pena di farlo, visto che la maggior parte di queste aree tematiche sono già occupate da molti anni dai nostri concorrenti, che ci hanno pensato prima e meglio di noi. Ecco perché, ancora una volta, il tocco di personalità all’interno del sito è fondamentale: se ci limitiamo a imitare le cose fatte da altri, è difficile che Google e gli utenti si accorgano di noi.

Un modo per attirare visite può essere quello di scrivere articoli incentrati su ricerche effettuate molto di frequente, ovviamente che abbiano un qualche legame con l’argomento principale del sito: in questo ci può aiutare molto consultare Google Trends.

Adottare una politica di link/anchor text contestuali

Molto spesso per quanto riguarda questo aspetto ci facciamo ingannare dalle tecniche di link building, che la maggior parte delle persone:

  1. non capiscono per nulla
  2. capiscono a modo proprio (e spesso sono peggiori dei primi)
  3. tendono a declinare linkando a caso e in abbondanza
  4. imponendosi regole assurde e astratte per farlo
  5. seguendo passivamente gli inutili suggerimenti del primo blog SEO che trovano per strada.

Il processo di link interni ad un sito, invece, deve essere naturale: il link serve infatti a fornire approndimenti, materiale supporto di quello che si scrive, fonti autorevoli, simpatie per un brand o una persona e così via. Non esistono regole matematiche nè intuitive per linkare bene le sezioni del sito: ricordatevi che il menù del sito crea già da solo dei link interni, e che è sempre opportuno variare le anchor text (le parole linkate) che vengono utilizzate all’ interno del sito.

Evitate inoltre di utilizzare chiavi di ricerca esatte all’interno dei link: nella lingua italiana questa tecnica è piuttosto orribile da vedere, vi espone a rischi enormi di penalizzazioni da parte di Google e, a confronto, linkare parole chiave della coda lunga alternate con ancore anonime È una tecnica molto più naturale efficiente lato SEO e redditizia.

Il problema, a questo punto, è che molti di voi non vogliono crederci 🙂

Ottimizzazione on-site

In questa parte di lavoro rientrano varie attività che vanno dalla revisione dei testi all’uso di plugin SEO, passando per la scrittura / riscrittura almeno di title e meta description delle pagine, per la creazione di rich snippets, per la verifica di sitemap e robots.txt, per un controllo di scansionabilità del sito e così via. L’ottimizzazione di questo tipo non è soggetta regole troppo stringenti, per quanto valgano delle regole basilari ed il principio del buon senso.

In generale abbiamo che:

  • il metatag <title> Deve contenere una descrizione sintetica del contenuto della pagina, in certi casi può corrispondere almeno in parte con la ricerca che stiamo ottimizzando,e soprattutto le parole che usiamo al suo interno devono trovare riscontro effettivo all’interno della pagina. È opportuno che ognuno di questi campi sia unico rispetto tutte le altre pagine Web.
  • il metatag description deve contenere una descrizione estesa del contenuto della pagina, in certi casi può corrispondere in parte con la ricerca che stiamo ottimizzando, e soprattutto le parole che usiamo al suo interno devono trovare riscontro effettivo all’interno della pagina. È opportuno che ognuno di questi campi sia unico rispetto tutte le altre pagine Web.
  • La sitemap Deve essere XML ben formato, non deve contenere errori Deve includere tutti gli URL che desideriamo indicizzare su Google;
  • I robots.txt devono essere utilizzati in modo corretto, che servono sia ad indicare le parti scaricabili del sito (e quelle eventualmente non scaricabili).

In molti casi per lavorare sull’onsite si adotta una strategia try & test, della serie:

  1. Fissiamo una metrica, ad esempio la posizione della pagina, il CTR o il numero di clic rilevati dal webmaster tools Giorno 1;
  2. Proviamo ad effettuare una modifica all’interno di uno dei campi elencati in precedenza;
  3. Andiamo a verificare il valore di quella metrica successivamente alla modifica, ad esempio Giorno 15;
  4. Se non è cambiato nulla torniamo al punto 2, proviamo ad effettuare altre modifiche.
  5. Se non è possibile effettuare il punto 4, si torna a quello 1 e si verifica se non sia il caso di adottare un’altra metrica di riferimento.

I linea di massima si possono utilizzare metriche di qualsiasi genere (ad es. numero di visite sulla pagina), anche generate da software esterni, se è necessario: la cosa essenziale è che queste metriche ci siano, diversamente il nostro lavoro non sarà misurabile nè in positivo, né in negativo.

Farsi linkare dall’esterno – Ottimizzazione off-site

Su questo bisogna fare un discorso parte, distinguendo tra i link guadagnati in modo spontaneo (ad esempio farci citare come fonti da Wikipedia, cosiddetta link earning) e quelli procurati in modo forzoso, a pagamento oppure mediante richieste. Sono anni che non distinguo più le due pratiche: per me quello che conta che ci sia qualcuno nell’ecosistema del Web che si sia accorto di me, e mi conceda un link. Ovviamente bisogna fare una serie di discorsi preliminari e mettersi – anche qui – nella giusta ottica: per ulteriori informazioni vi rimando al posto specifico sulla link building.

In linea di massima, in questa sede, non abusate link nei commenti, fate attenzione ai link che inserite sui forum (specialmente se sono forum poco curati o abbandonati), preferite sempre i link esterni singoli, che provengano dall’interno di altri articoli, e non da widget o link in aree strane (es. footer).

Aggiornare le pagine periodicamente

Di solito i siti che si posizionano meglio su Google riescono a mantenere questo privilegio nel tempo anche perché vengono aggiornati periodicamente: Google infatti si accorge di questi cambiamenti, e tende a mantenere le informazioni aggiornate “a galla” tra i risultati di ricerca. Questa caratteristica, nota dal 2010 come Google Caffeine, è una modifica strutturale al trattamento dei risultati di ricerca, e si può sfruttare nella pratica aggiornando le nostre pagine Web periodicamente, ad esempio aggiungendo dettagli ad un tutorial, correggendo le pagine 404 linkate, rimuovendo porzione di testo obsolete e cercando di mantenere la massima pertinenza tra ricerca che porta alla pagina (“come fare SEO“, ad esempio) e contenuto della stessa (ad esempio, l’articolo di questa pagina).

Segnalare il proprio sito a Google

Su questo argomento vi suggerisco di leggere la guida apposita:

Come indicizzare un sito

Si consideri che il sito potrebbe essere stato già rilevato in automatico.

Organizzare i topic (argomenti) del sito

Questo argomento è particolarmente ostico per i principianti, può essere affrontato in modo più razionale da chi abbia presente anche per sentito dire delle tecniche di clustering: i cluster infatti non sono altro che raggruppamenti omogenei di dati che rispondono ad un determinato criterio.

Esempio classico che si fa in questi casi, per capirci, è quello di una cesta in cui siano presenti palline colorate. Se proponessimo ad una persona di sceglierne una molto probabilmente finiremmo per metterlo in difficoltà, perché non saprebbe quale scegliere ed avrebbe difficoltà non solo a scegliere, ma anche a focalizzare le scelte di cui dispone, visto che – ad esempio – la sua pallina preferita potrebbe essere in fondo alla cesta. Gli algoritmi di clustering cercano di mettere ordine a questo disordine, separando le palline per colore e creando delle piccole montagne ordinate, in modo che ognuno a prima vista possa riconoscere ed individuare subito ciò che vuole.

Esempio di palline suddivise per colore, quando inizialmente erano alla rinfusa – By Chire [CC BY-SA 3.0 (https://creativecommons.org/licenses/by-sa/3.0)], from Wikimedia Commons
Riportando il discorso del Web, organizzare gli argomenti o topic del sito è come raggruppare le palline per colore diverso: ci sono varie tecniche che si possono utilizzare, così come ci sono molti concetti di “colore” che si possono sfruttare. Ad esempio, i colori potrebbero essere le categorie del sito, anche essere i tag (anche se è un po’ una forzatura), potrebbero essere aree tematiche e così via. È chiaro che, qualunque sia la scelta del criterio, i cluster che decidiamo di mettere all’interno del nostro sito – ad esempio sfruttando l’ottima tecnica del SEO siloing – devono essere un numero ragionevole, perché altrimenti abbiamo solo spostato il problema, senza risolverlo.

Di solito la classificazione dei contenuti del sito riflette quella del menu dello stesso, anche se – meglio specificare – mi sono capitati siti molto complessi per i quali questa regola non era applicabile, le voci del menu diventavano troppe (anche facendo siloing) e si doveva ricorrere a criteri diversi: ad esempio attivare i suggerimenti per la ricerca interna nel sito. La semplicità, in ogni caso, è un criterio che dovrebbe guidare qualsiasi sito web, così come la riduzione al minimo delle parti con cui si interagisce con lo stesso – soprattutto per evitare confusione nell’interfaccia.

L’analisi dei tempi di reazione dell’utente alla visualizzazione della pagina, e la facilitazione del compito nel fargli trovare subito quello che gli serve, va oltre la SEO e si colloca in quella più generale della User eXperience (UX).

Filtra, seleziona, targetizza i title

La tendenza generale che ho registrato leggendo libri, tutorial, ascoltando colleghi e clienti, è che a volte sembra che fare SEO implichi dover ottimizzare tutti i title del sito indistintamente. Se si legge su un blog (magari autorevole) che le parole chiave vanno messe sempre a sinistra nel title, o comunque prima possibile, c’è il rischio che siate tentati a fare cose senza senso, e vi illudiate di aver ottimizzato il sito applicando la regoletta pure alla pagina Chi siamo. Falso!

In altri termini:

  • Filtra: non tutti i title vanno ottimizzati indistintamente, perchè non tutti hanno la stessa importanza. Se desideri massimizzare i contatti, ottimizza la pagina Contattaci, ma fallo sempre in modo funzionale al contesto. Meglio una pagina alla volta, manualmente.
  • Seleziona: punta le pagine web che, ad esempio, ti portano più traffico o più guadagni. Se fai sempre le stesse cose su qualsiasi pagina il sito ne risulterà appiattito, globalmente peggiorato.
  • Targetizza: non fare mai siti web alla “di tutto un po’“, danno un’idea di dilettantismo e piacciono poco a Google. Specializza il tuo sito su argomenti specifici e pubblica molte pagine originali su quegli argomenti, settori commerciali o categorie che siano.

È anche questione di ottimizzare le risorse, velocizzare il lavoro e renderlo efficente.

Ottimizzazione degli URL

Stesso discorso di prima: sembra che fare SEO implichi dover ottimizzare tutti gli URL del sito indistintamente. Giustamente se uno legge su un blog (magari autorevole) che è opportuno inserire sempre una parola chiave negli URL, c’è il rischio che uno crei URL anche senza senso:

miosito.it/hosting-PHP (che è ok, contiene la chiave “hosting PHP”)

miosito.it/chi-siamo-hosting-PHP (che ha molto meno senso, contiene la chiave “hosting PHP” ma la pagina non parla di quello)

In altri termini:

  • Filtra: non tutti gli URL vanno ottimizzati indistintamente, perchè non tutti valgono lo stesso. Se vuoi massimizzare i contatti, ottimizza la pagina Contattaci, ma fallo sempre in modo funzionale al contesto. Meglio una pagina alla volta, manualmente.
  • Seleziona: punta le pagine web che, ad esempio, ti portano più traffico o più guadagni. Se fai sempre le stesse cose su qualsiasi pagina il sito ne risulterà appiattito, globalmente peggiorato.
  • Targetizza: non fare mai siti web alla “di tutto un po’“, danno un’idea di dilettantismo e piacciono poco a Google. Specializza il tuo sito su argomenti specifici e pubblica molte pagine originali su quegli argomenti, settori commerciali o categorie che siano.

È questione, ancora una volta, di ottimizzare le risorse, velocizzare il lavoro e renderlo efficente.

Ottimizzazione della meta description

Stesso discorso di prima: sembra che fare SEO implichi dover ottimizzare tutte le meta description del sito indistintamente. In genere è opportuno che le meta description siano riscritte da zero e non contengano cose già presenti nel testo della pagina, o che al limite le contengano ma senza tag di alcun genere (sono campi di testo puro, ricordo).

In altri termini:

  • Filtra: non tutte le meta description vanno ottimizzate, perchè non tutte valgono allo stesso modo. Se desideri massimizzare i contatti, ottimizza la pagina Contattaci, ma fallo sempre in modo funzionale al contesto. Meglio una pagina alla volta, manualmente.
  • Seleziona: punta le pagine web che, ad esempio, ti portano più traffico o più guadagni. Se fai sempre le stesse cose su qualsiasi pagina il sito ne risulterà appiattito, globalmente peggiorato.
  • Targetizza: non creare mai ottimizzazioni alla “di tutto un po’“, giusto per acchiappare traffico: danno un’idea di dilettantismo al lettore, e piacciono poco a Google. Specializza il tuo sito su argomenti specifici e pubblica molte pagine originali su quegli argomenti, settori commerciali o categorie che siano.

È questione, ancora una volta, di ottimizzare le risorse, velocizzare il lavoro e renderlo efficente.

Ottimizzazione dei testi

Ripeti sempre all’interno del sito le parole chiave che vorresti ottimizzare, ripetile fino allo sfinimento anche se il testo non ha senso, se riuscirai a farlo finirà in prima posizione. E invece no, stavo scherzando! Per ottimizzare i testi devi chiedere l’aiuto di un copy professionista, non c’è altro modo.

E poi: la corretta formata italiana ha sempre la precedenza su qualsiasi “calcolo” SEO ti posso venire in mente; i veri professionisti, in questo, riescono a scrivere buoni testi SEO senza stravolgere la forma italiana.

Ottimizzazione delle immagini

Da quando faccio questo mestiere (2009) ho da sempre l’impressione che l’ottimizzazione di immagini sia sopravvalutata: ci hanno sempre insegnato a riempire l’attributo alt del tag img, ma sono sempre stato molto scettico sull’utilità effettiva di questa pratica. Certo, nessuno ci vieta di inserire parole chiave anche qui, ma a livello di rientro concreto che cosa otterremo?

Se abbiamo un sito di fotografia posso comprendere il privilegio, ma per tutti gli altri portali la mia impressione è che, a volte, non convenga affatto ottimizzare le immagini, ma sia molto meglio ottimizzare le pagine web. Il nostro scopo, ovviamente, può essere anche quello di regalare belle immagini ai nostri visitatori, ma se poi non visiteranno il sito – cosa che avviene di frequente: chi cerca immagini poi difficilmente va ad aprire il sito, anche se Google per desktop (da qualche tempo) impedisce di scaricare le pagine direttamente ed obbliga ad andarci – questo lavoro sarà stato inutile. Ecco perché sono scettico su questa pratica, ma poi ovviamente bisognerebbe vedere nel concreto.

Una cosa che ho notato e posso affermare con una discreta certezza è che caricare nel proprio sito immagini originali non presenti in precedenza sul Web è – in genere – più funzionale ad un buon posizionamento di quanto non sia riciclarle da altri siti. Motivo per cui chiedo sempre nei clienti di darmi foto e materiale promozionale che siano inediti sul Web, perché in questo modo è relativamente più facile emergere.

Ottimizzazione dei contenuti multimediali

In genere sui contenuti multimediali come i video si tende a lavorare su title e meta description, che possono essere manipolati in modo diverso a seconda dei casi. Tutto dipende da quello che ci mettono a disposizione, fermo restando che ci sono piattaforme per la pubblicazione di contenuti che non sono molto SEO oriented, E quindi non permettono di ottimizzare.

Ad esempio per ottimizzare i video su YouTube sono disponibili il titolo del video – che corrisponde con il title – e la descrizione dello stesso – che, in genere, corrisponde con la meta description.

HTTPS: la navigazione sicura

Sull’uso di SSL devo premettere una cosa: era molto scettico sull’adozione di HTTPS su tutte le pagine indistintamente, e questo soprattutto per un fatto di praticità.  Nello specifico mi sembra assurdo costringere tutti i blogger tutti webmaster, anche quelli meno esperti tecnicamente, a doversi configurare da soli un sito Web, senza contare che si trattava di un tipo di consulenza che tuttora svolgo. Per fortuna arrivo di certificati gratuiti come Let’s Encrypt hanno permesso di far passare i siti in HTTPS in modo molto più facile, ma ancora questa idea non è passata in modo universale come avrebbe dovuto.

Molti webmaster pensano che sia soltanto una questione di ranking, sostengono che sia una complicazione di troppo (quando in realtà non lo è, o almeno non lo è più) – quando in realtà è anche un fatto di ranking, ma è soprattutto una questione di sicurezza per il proprio sito: ed è in quest’ottica che il problema andrebbe inquadrato. Ad oggi HTTPS non è più una cosa opzionale, ma deve obbligatoriamente essere utilizzato dei siti Web: garantirà la sicurezza delle transazioni e la consultazione del sito in ogni sua pagina. Con qualche piccola accortezza tecnica, poi, si può anche migliorare grazie a SSL la velocità del caricamento delle pagine, sfruttando lo standard HTTP/2.

In sintesi: HTTPS permette di aumentare la sicurezza del vostro sito e di evitare che le connessioni tra il vostro sito e i vostri visitatori siano intercettabili. Oltre a questo, HTTP S può migliorare la velocità di caricamento della pagina (a determinate condizioni tecnologiche), ed è anche ufficialmente un fattore di posizionamento (vedi HTTPS as a ranking signal).

Qualità dei link esterni

Quando abbiamo iniziato a fare SEO periodicamente, dopo un po’ di tempo, ci saranno un po’ di siti che sperabilmente ci hanno citato o linkato: stabilire se valgo meno la pena di far mantenere questi back link o meno è uno dei compiti più importanti per poter mantenere il posizionamento su Google. L’effetto dei link solitamente è globale, quindi non è possibile identificare uno specifico backlink che ci faccia salire sui motori per una certa ricerca: la cosa essenziale è che il proprio profilo di link, cioè l’insieme di tutti backlink che ci siamo guadagnati, siano costanti nel tempo, siano uniformi e di qualità.

Se riusciamo a individuare backlink di spam niente panico: basta che li segnaliamo in disavow, il posizionamento del nostro sito potrà beneficiare anche di molto, per cui è opportuno effettuare questo controllo e l’aggiornamento del file del disavow periodicamente (ad esempio tre o quattro volte all’anno).

Strumenti utili per la SEO

Più o meno ho detto tutto quello che mi serviva sapere per far crescere il vostro sito si motori di ricerca. All’interno del blog potete trovare molti altri approfondimenti a partire dai link suggeriti che trovate qui in basso. Gli strumenti utili per monitorare le prestazioni del vostro sito sono quelli di Google, ovvero la search consolle Google analytics: per settori molto competitivi potete pensare di sfruttare software a pagamento di vario genere (SEOZoom, ad esempi). Sono software abbastanza costosi, c’è da dire, ma in genere valgono il prezzo che hanno, anche perché vi permettono di disporre di informazioni che diversamente sarebbero difficili o impossibili da reperire.

Su questo argomento vi suggerisco di leggere la guida:

Risorse e strumenti utili per la SEO

Grazie della lettura, e buona SEO a voi 🙂 .

Originally posted 2018-09-20 05:20:51.

Pubblicato il

Perchè gli indici SEO non servono a niente (se non hai una strategia)

Se qualche volta vi è capitato di leggere sui blog SEO argomenti un po’ più avanzati, oppure avete fatto qualche trattativa per la compravendita di link vi sarà capitato di imbattervi nei cosiddetti indici. In generale, infatti, trovate molti tipi di indice che vengono associati ai domini come alle singole pagine Web, e che rappresentano in qualche modo la qualità del dominio o del link stesso.

Analisi della Page-Authority di MOZ

Se di base avevamo solo il PageRank, successivamente sono usciti fuori il PA, il PD, l’AlexaRank e molti altri (ne abbiamo parlato ampiamente qui). La page-authority (PA) di Moz, ad esempio, è uno degli esempi più celebri (e altrettanto sopravvalutati); potrebbe sembrare strano questo mio ridimensionamento del fattore in questione, ma di fatto poiché viene utilizzato per valorizzare i link (E quindi attribuire un valore commerciale agli stessi) mi sembra importante razionalizzare il discorso, così come evitare di farsi prendere la mano, o peggio ipervalutare le risorse solo per via di un numero.

La cosa che ho fatto è stata andare a leggere la sua (molto sintetica) documentazione: ci sono alcuni passaggi interessanti, che possono chiarire il perché di questo mio punto di vista. Leggiamo anzitutto che si tratta di un punteggio da zero a 100 che misura la ability to rank (“capacità di posizionamento”), dove più alto è il suo valore, in pratica, maggiori saranno le potenzialità del dominio sui motori di ricerca, ovvero le sue potenzialità SEO. Si legge inoltre che, da un punto di vista matematico, il punteggio è su scala logaritmica: questo ha un’implicazione precisa, poiché l’indice si comporta come la misura del Decibel (procede per ordini di grandezza: a 10 corrisponde 10, a 20 corrisponde 100, a 50 corrisponde 100000, …), in modo tale che non sia banale arrivare a valori grossi (e quindi sia complicato manipolare l’indice stesso, almeno in teoria).

Per raggiungere un punteggio di 100 (dB), dovremmo avere ben 10 miliardi come input, e se immaginiamo che l’input siano i ranking factor coinvolti capiamo bene come solo in pochi riusciranno ad ottenere valori eccellenti. Tant’è che scrivono: it’s significantly easier to grow your score from 20 to 30 than it is to grow from 70 to 80, ovvero è molto più facile far aumentare il punteggio da 20 che a 30 di quanto non lo sia farlo da 70 a 80, e questo garantisce che i punteggi alti siano riservati a pochi, ma buoni domini. Si scrive inoltre che “a differenza di altri indici SEO, è difficile manipolarlo maliziosamente” (e questo è un bene, ovviamente), e che si tratta di un indice aggregato (aggregate of metrics, probabilmente una media pesata di più fattori) che produce uno score su scala logaritmica tra 0 e 100.

PA contrappone una complessità ad un’altra complessità

Arrivo al punto critico: nonostante il suo concept sia coerente ed “ingegneristico”, se vogliamo, rimane il grosso problema di fondo che il PA tenta di emulare la complessità di Google introducendo una propria, arbitraria, complessità: il che equivale a voler emulare il comportamento di un motore cercando di mettere assieme “ad occhio” pistoni, albero e ruote senza alcuna conoscenza di meccanica, o ricostruire in laboratorio il Big Bang senza alcuna conoscenza di cosmologia. È chiaro, quindi, che si tratta di un’approssimazione su una complessità che prova ad inventarsene un’altra, il che – da un punto di vista di rigore – potrebbe, addirittura, non avere alcun senso.

Quello che ho scritto vale tecnicamente per qualsiasi indice SEO, soprattutto nel caso in cui si contrapponga alla complessità X degli algoritmi di Google introducendo una propria complessità Y su cui non sappiamo comunque nulla (almeno finché gli algoritmi non saranno open source). Il discorso vale per qualsiasi indice artificiale, ma diventa vagamente più accettabile se lo utilizziamo per effettuare dei confronti: quindi, ad esempio, se confrontiamo PA e ZA (SEOZoom) dello stesso sito. Se invece viene utilizzato come indice in assoluto, della serie 10 = il sito non vale niente, 90 il sito è il top, rischiamo fortemente di effettuare valutazioni errate sui domini.

Diverso sarebbe il discorso, per inciso, se si riuscisse a inventare un indice SEO che vada a contrapporre alla complessità di Google un algoritmo semplice e chiaro, che ovviamente disponga dei corretti ed accettabili requisiti (ad esempio: sappia “comportarsi come Google” al 90%).

Il problema, quindi non è legato all’uso degli indici SEO in sè, che è spesso utile come metrica comparativa con i competitor, ad esempio; il problema è legato a come gli utenti tendono ad interpretare, sopravvalutare e rivalutare questi indici.

Conclusioni

Il ragionamento che ho riportato è applicabile a qualsiasi altro indice “alternativo” sviluppato da aziende private: si tratta di analizzatori software esterni a Google, che non possono usare i dati di Google (perchè l’azienda lo vieta) per cui si costruiscono indici interni e li usano anche per determinare liste di ranking factor. Si può benissimo dare credito a questi studi – ed ognuno è libero di fare e credere ciò che vuole, ci mancherebbe – ma resta il fatto che dovrebbe essere chiaro che sto cercando di misurare la “qualità” di un sito utilizzando criteri esterni a quelli che davvero contano, e basandomi sulla buonafede di chi produce quelle informazioni (che, per inciso, a volte potrebbe manipolare i dati per convincerci a comprare le loro consulenze).

Originally posted 2015-07-28 22:02:33.

Pubblicato il

Correlazione & SEO, un equivoco che confonde anche i guru

In mancanza d’altro, si effettuano (e si analizzano) spesso in ambito SEO studi di natura statistica che tendono a legare “cause” (backlink acquisiti, variazioni nel title del sito, ecc.) ad “effetti” (miglior posizionamento di una pagina per il termine X): le virgolette sono d’obbligo, in questo caso, altrimenti sarei già partito col piede sbagliato. Non è raro che escano fuori studi che, ad esempio, mettono in correlazione il tipo di title utilizzato con il posizionamento. Uno dei modus operandi più diffuso era quello di inserire la parola chiave all’inizio del titolo, il che dovrebbe produrre effetti benefici al posizionamento.

Al di là delle obiezioni sul metodo, c’è da chiedersi se il metodo funzioni o meno: la vera domanda, pero’, è chiedersi se c’è modo di accertarsi che quel metodo sia effettivo. Siccome i fattori SEO non sono quantificabili se non “a spanne”, è praticamente impossibile fissare l’attenzione su un singolo aspetto che governi tutto il resto. Quindi, detta brutalmente, tutti gli studi che evidenziano fattori di correlazione tra eventi sono puro intrattenimento per il lettore, non suggeriscono alcuna “regola” da applicare e sono scritti, spesso, come pura tecnica di link baiting in cui, puntualmente, cascano tutti.

Molti obiettano che queste tecniche siano innocue, tutto sommato suggeriscono solo dei trend e non tutti sono obbligati a seguirli: ho sembra risposto a queste persone che questo genere di approccio alla SEO è fuorviante e sostanzialmente cattivo, nonostante tutto. Questo perchè sbaglia metodo dall’inizio, e perchè inganna sulla falsariga del noto “correlation does not imply causation“. Due eventi possono insomma essere correlati e non avere nulla a che vedere tra loro, come affermato dal celebre esempio della religione parodica dei pastafariani. Per quanto dispiaccia ammetterlo, bisogna dedurne che buona parte del modus operandi di alcuni SEO è basato su una fallacia di presupposizione, cioè un equivoco dato per buono fin dall’inizio.

Dicono che le correlazioni corrispondono spesso a buone pratiche SEO, e quindi non ci sarebbe nulla di sbagliato nel seguire il trend; ma posso comunque seguire buone pratiche senza farmi deviare dalle correlazioni, che potrebbero spingermi a spingere esclusivamente alcuni fattori ignorando il resto. Per quanto credibili possano essere, si tratta pur sempre di correlazioni spurie, le stesse mostrate su Tylervigen (tra le migliori: esiste una correlazione di oltre il 99% – quindi altissima – tra le spese americana per scienza, spazio e tecnologia e numero di suicidi per impiccagione, strangolamento e soffocamento; significa per caso che se gli USA decideranno di spendere di meno nella ricerca diminuiranno i suicidi?).

Originally posted 2015-07-28 21:56:30.