Come arrivare primi su Google

Vantaggi dall’essere primi su Google

Google raccoglie gran parte del traffico web di ogni ordine e grado: dovrebbe essere ovvio che apparire nelle prime pagine di ricerca sia un vantaggio enorme per le realtà commerciali che possiedono un sito, così come per chi volesse vendere servizi, consulenze o farsi conoscere per quello che è, o per ciò che sa fare. I vantaggi al comparire nelle prime pagine dei risultati di ricerca si possono elencare in una serie di vantaggi:

  • Aumento del numero di visite al sito;
  • Aumento del numero di iscrizione al sito;
  • Aumento della visibilità del brand;
  • Aumento del numero di vendite di prodotti o conversioni;
  • Aumento dei guadagni derivanti da banner pubblicitari;
  • Incremento del potenziale the commerciabilità di una pagina Web – ad esempio per quanto riguarda la vendita di banner o di link.

A questo si aggiunga il prestigio di comparire su Google per una certa ricerca, anche agli occhi del proprio pubblico, dei potenziali clienti o della concorrenza: non è poco. Contrariamente a quello che potete aver letto su questo argomento, pero’, è bene far presente che:

  1. Essere in prima pagina su Google purtroppo non è per tutti; è inutile, penso, illudersi o banalizzare la questione. Non sempre c’è spazio per noi nelle ricerche che ci piacerebbero.
  2. Le tecniche utilizzabili per migliorare il posizionamento sui motori non sono banali, e richiedono di conoscere come funzioni il Web, almeno per certi aspetti;
  3. Non esistono ricette predefinite e sicure per finire prima pagina;
  4. Non esiste la certezza assoluta di finire in prima pagina;
  5. Anche se non riuscite a posizionarvi per la ricerca che vorreste, potete comunque riuscire a soddisfare quasi tutti i punti precedenti facendo ricerca di nuove parole chiave (keyword research);
  6. Se ripropongono di finire in prima pagina garantita a pochi euro, quasi certamente si riferiscono a risultati a pagamento (per saperne di più leggi l’articolo Google Adwords non è SEO)

Requisiti per essere primi su Google

Per essere primi su Google e comparire per un buon numero di ricerche è necessario, anche se può sembrare banale, disporre di un sito web che sia ben realizzato: Google negli ultimi anni, infatti, ha iniziato a badare molto all’aspetto tecnologico e funzionale delle pagine Web, invitando i webmaster a seguire una serie di procedure specifiche e di buone pratiche al fine di rendere il sito fruibile per il target di riferimento. Se non avessi presente questo termine, ti basti sapere che il target di riferimento e il gruppo di potenziali clienti e visitatori del tuo sito che potrebbero essere interessati ai contenuti dello stesso: ci sono vari modi per definire un target, ed è indispensabile farlo prima (e durante) le attività SEO.

Ma cosa vuol dire sito web “ben realizzato“? In quest’ottica, le indicazioni riportate dalle istruzioni per i webmaster sono molto utili, e basterebbe rispettare i requisiti riportati su quella pagina per avere un sito già di medio livello, quasi pronto a entrare nelle prime pagine di Google. Se molti requisiti sono di natura intuitiva (per esempio Fai in modo che il tuo sito web si distingua dagli altri nel tuo campo), molti altri sono di natura più tecnica, e possono richiedere l’intervento di personale o consulenti specializzati, soprattutto se avete avuto problemi di spam ho con contenuti autogenerati. Diversamente lo spirito generale per fare in modo che un sito arrivi nelle prime pagine di Google è riassumibile in una lista di requisiti:

Prestazioni del sito

A questi possiamo aggiungere l’utilizzo di servizi di hosting efficienti (in particolare in termini di TTFB e SRT, quest’ultimo ad esempio dovrebbe essere al massimo di 200 ms) per caricare le pagine del sito Web più velocemente possibile, e l’uso generalizzato di SSL sulle pagine Web – e vale anche per i semplici blog. Del resto è noto da diversi studi come i visitatori nella metà dei casi (53%) tendano ad abbandonare subito i siti Web che impieghino più di 3 secondi a caricare la pagina.

Per misurare le prestazioni del sito è consigliabile fare uso di tool che misurino I tempi di caricamento della pagina e possono aiutare ad individuare eventuali colli di bottiglia, ovvero criticità che possono essere eliminate o snellite al fine di velocizzare il caricamento delle pagine.

Alcuni di questi tool sono elencati di seguito: in linea di massima, possono dare risultati diversi sulla base di criteri diversi, per cui cercate di ottimizzare il vostro sito almeno per un paio di essi.

Non tutti gli strumenti sono affidabili allo stesso modo per qualsiasi sito, per cui si consiglia di testarne Massimo un paio alla volta e di cercare di dare priorità alle notifiche realmente significative.

Diminuire i tempi di caricamento delle pagine Web

Snellire le pagine Web è tipicamente un lavoro per professionisti, e passa per una fase di test del sito di analisi delle componenti coinvolte, dell’eliminazione di eventuali componenti software che non funzionino o siano obsoleti, del cambio del servizio di hosting se necessario della rimozione di plugin e dell’integrazione nel sito di funzioni specifiche per velocizzare il caricamento delle pagine. Purtroppo non esistono ricette valide in tutti casi, bisognerà procedere per esperienza e per tentativi, ovviamente senza stravolgere il sito attuale e senza modificarne troppo l’assetto (se possibile).

La principale complicazione di questa attività è dettata dall’esigenza di non stravolgere l’assetto del sito, ma anche dal fatto che le ottimizzazioni possono produrre esiti diversi su pagine diverse: quindi, ad esempio, potreste riuscire a ottimizzare bene la home page, e poi dover ripetere il lavoro per le singole pagine degli articoli, per quell’archivio, per le pagine autore, per i risultati di ricerca e così via. In genere le ottimizzazioni locali, cioè quelle specifiche per la pagina Web in questione, sono quelle che funzionano meglio; a livello di ottimizzazioni globali, più facile ma spesso meno efficaci, È possibile intervenire sugli indici del database sul potenziamento del server che fa girare il sito, sull’aumento della RAM dello stesso, sul potenziamento della vCPU e così via.

A livello di server, può essere utile implementare una politica di cache sia lato client che lato server (ci sono varie opzioni disponibili, e sono praticamente impossibili da riassumere in un singolo articolo), sfruttare dei moduli di caricamento per le pagine che vadano ad alleggerire il carico di lavoro (per esempio moduli di Apache o NGINX), evitare l’uso di hosting condivisi – su cui potreste non avere a disposizione il massimo della potenza computazionale che vi serve.

Un criterio molto “alla buona” per alleggerire i tempi di caricamento di una pagina è determinato dalla rimozione dei widget inutili all’interno delle pagine Web, che tipicamente occupano risorse computazionali e non sempre vengono usati dagli utenti finali (per cui appesantiscono il sito senza fornire valore aggiunto). In genere, infine, si riescono a ridurre i tempi di caricamento delle pagine riducendo al minimo il plugin installati, specialmente nel caso di WordPress che viene spesso “appesantito” da un numero di plugin superiore a una decina.

Verificare la coerenza dei contenuti

Questo è un altro punto fondamentale, che dovrebbe far parte di una qualsiasi politica SEO: la coerenza dei contenuti è un fattore difficile da misurare in numeri, ma di fatto è determinante rispetto agli utenti finali. Tutto dipende dal sito: mi è capitato ad esempio di occuparmi di un paio di blog di ricette, per il quale era fondamentale non proporre le solite cose presenti da anni su svariati siti Web, ma puntare a contenuti originali (ad esempio ricette tipiche, non scopiazzate dal web) e cercare – al tempo stesso – di spaziare al massimo con gli argomenti pertinenti alla cucina. Ho fatto lo stesso per un blog che si occupa di carte di credito: visto che il target del sito sono potenziali clienti di servizi finanziari, è importante utilizzare i giusti termini tecnici, massimizzare il rapporto tra visualizzazioni e conversioni sulle pagine e saper rispondere alle domande più frequenti, ad esempio mediante articoli approfonditi e di confronto tra le offerte. Per quanto riguarda il mio sito di comparazione offerte Trovalost.it, ancora, sono partito dal presupposto che dicono contenuti davvero coerenti dovessero andare aldilà dei soliti tutorial, per cui ha lavorato per creare dei plugin personalizzati che permettessero di confrontare agevolmente le offerte, una cosa che raramente si sarebbe vista su siti concorrenti, che – da quello che avevo visto – lavorano esclusivamente sul copywriting (o imparando a farlo con un corso ad hoc).

Il problema è capire che criterio utilizzare: cosa è più importante per il nostro sito? Si parte dal presupposto che gli utenti debbano trarre beneficio, o almeno essere interessati ai contenuti delle nostre pagine Web. Altrimenti nostro lavoro rischia di diventare inutile, purtroppo non è neanche facile far passare quest’idea ai clienti, che la considerano spesso troppo dispendiosa e si intestardiscono nel fare di testa loro.

Creare delle aree per attrarre visite

Questa è un’altra tecnica che vedo immensamente sottovalutata dai webmaster e dai blogger: creare delle pagine Web come ad esempio landing page con le migliori offerte del momento, ho comunque raggruppamenti di dati che offrono una qualche utilità all’utente finale (per il motivo più banale: perché li ricercano spesso) è una tecnica eccellente per aumentare le visite al sito, e per finire in modo naturale tra i primi risultati di ricerca. Quello che è importante capire è quando valga la pena di farlo, visto che la maggior parte di queste aree tematiche sono già occupate da molti anni dai nostri concorrenti, che ci hanno pensato prima e meglio di noi. Ecco perché, ancora una volta, il tocco di personalità all’interno del sito è fondamentale: se ci limitiamo a imitare le cose fatte da altri, è difficile che Google e gli utenti si accorgano di noi.

Un modo per attirare visite può essere quello di scrivere articoli incentrati su ricerche effettuate molto di frequente, ovviamente che abbiano un qualche legame con l’argomento principale del sito: in questo ci può aiutare molto consultare Google Trends.

Adottare una politica di link/anchor text contestuali

Molto spesso per quanto riguarda questo aspetto ci facciamo ingannare dalle tecniche di link building, che la maggior parte delle persone:

  1. non capiscono per nulla
  2. capiscono a modo proprio (e spesso sono peggiori dei primi)
  3. tendono a declinare linkando a caso e in abbondanza
  4. imponendosi regole assurde e astratte per farlo
  5. seguendo passivamente gli inutili suggerimenti del primo blog SEO che trovano per strada.

Il processo di link interni ad un sito, invece, deve essere naturale: il link serve infatti a fornire approndimenti, materiale supporto di quello che si scrive, fonti autorevoli, simpatie per un brand o una persona e così via. Non esistono regole matematiche nè intuitive per linkare bene le sezioni del sito: ricordatevi che il menù del sito crea già da solo dei link interni, e che è sempre opportuno variare le anchor text (le parole linkate) che vengono utilizzate all’ interno del sito.

Evitate inoltre di utilizzare chiavi di ricerca esatte all’interno dei link: nella lingua italiana questa tecnica è piuttosto orribile da vedere, vi espone a rischi enormi di penalizzazioni da parte di Google e, a confronto, linkare parole chiave della coda lunga alternate con ancore anonime È una tecnica molto più naturale efficiente lato SEO e redditizia.

Il problema, a questo punto, è che molti di voi non vogliono crederci 🙂

Ottimizzazione on-site

In questa parte di lavoro rientrano varie attività che vanno dalla revisione dei testi all’uso di plugin SEO, passando per la scrittura / riscrittura almeno di title e meta description delle pagine, per la creazione di rich snippets, per la verifica di sitemap e robots.txt, per un controllo di scansionabilità del sito e così via. L’ottimizzazione di questo tipo non è soggetta regole troppo stringenti, per quanto valgano delle regole basilari ed il principio del buon senso.

In generale abbiamo che:

  • il metatag <title> Deve contenere una descrizione sintetica del contenuto della pagina, in certi casi può corrispondere almeno in parte con la ricerca che stiamo ottimizzando,e soprattutto le parole che usiamo al suo interno devono trovare riscontro effettivo all’interno della pagina. È opportuno che ognuno di questi campi sia unico rispetto tutte le altre pagine Web.
  • il metatag description deve contenere una descrizione estesa del contenuto della pagina, in certi casi può corrispondere in parte con la ricerca che stiamo ottimizzando, e soprattutto le parole che usiamo al suo interno devono trovare riscontro effettivo all’interno della pagina. È opportuno che ognuno di questi campi sia unico rispetto tutte le altre pagine Web.
  • La sitemap Deve essere XML ben formato, non deve contenere errori Deve includere tutti gli URL che desideriamo indicizzare su Google;
  • I robots.txt devono essere utilizzati in modo corretto, che servono sia ad indicare le parti scaricabili del sito (e quelle eventualmente non scaricabili).

In molti casi per lavorare sull’onsite si adotta una strategia try & test, della serie:

  1. Fissiamo una metrica, ad esempio la posizione della pagina, il CTR o il numero di clic rilevati dal webmaster tools Giorno 1;
  2. Proviamo ad effettuare una modifica all’interno di uno dei campi elencati in precedenza;
  3. Andiamo a verificare il valore di quella metrica successivamente alla modifica, ad esempio Giorno 15;
  4. Se non è cambiato nulla torniamo al punto 2, proviamo ad effettuare altre modifiche.
  5. Se non è possibile effettuare il punto 4, si torna a quello 1 e si verifica se non sia il caso di adottare un’altra metrica di riferimento.

I linea di massima si possono utilizzare metriche di qualsiasi genere (ad es. numero di visite sulla pagina), anche generate da software esterni, se è necessario: la cosa essenziale è che queste metriche ci siano, diversamente il nostro lavoro non sarà misurabile nè in positivo, né in negativo.

Farsi linkare dall’esterno – Ottimizzazione off-site

Su questo bisogna fare un discorso parte, distinguendo tra i link guadagnati in modo spontaneo (ad esempio farci citare come fonti da Wikipedia, cosiddetta link earning) e quelli procurati in modo forzoso, a pagamento oppure mediante richieste. Sono anni che non distinguo più le due pratiche: per me quello che conta che ci sia qualcuno nell’ecosistema del Web che si sia accorto di me, e mi conceda un link. Ovviamente bisogna fare una serie di discorsi preliminari e mettersi – anche qui – nella giusta ottica: per ulteriori informazioni vi rimando al posto specifico sulla link building.

In linea di massima, in questa sede, non abusate link nei commenti, fate attenzione ai link che inserite sui forum (specialmente se sono forum poco curati o abbandonati), preferite sempre i link esterni singoli, che provengano dall’interno di altri articoli, e non da widget o link in aree strane (es. footer).

Aggiornare le pagine periodicamente

Di solito i siti che si posizionano meglio su Google riescono a mantenere questo privilegio nel tempo anche perché vengono aggiornati periodicamente: Google infatti si accorge di questi cambiamenti, e tende a mantenere le informazioni aggiornate “a galla” tra i risultati di ricerca. Questa caratteristica, nota dal 2010 come Google Caffeine, è una modifica strutturale al trattamento dei risultati di ricerca, e si può sfruttare nella pratica aggiornando le nostre pagine Web periodicamente, ad esempio aggiungendo dettagli ad un tutorial, correggendo le pagine 404 linkate, rimuovendo porzione di testo obsolete e cercando di mantenere la massima pertinenza tra ricerca che porta alla pagina (“come fare SEO“, ad esempio) e contenuto della stessa (ad esempio, l’articolo di questa pagina).

Segnalare il proprio sito a Google

Su questo argomento vi suggerisco di leggere la guida apposita:

Come indicizzare un sito

Si consideri che il sito potrebbe essere stato già rilevato in automatico.

Organizzare i topic (argomenti) del sito

Questo argomento è particolarmente ostico per i principianti, può essere affrontato in modo più razionale da chi abbia presente anche per sentito dire delle tecniche di clustering: i cluster infatti non sono altro che raggruppamenti omogenei di dati che rispondono ad un determinato criterio.

Esempio classico che si fa in questi casi, per capirci, è quello di una cesta in cui siano presenti palline colorate. Se proponessimo ad una persona di sceglierne una molto probabilmente finiremmo per metterlo in difficoltà, perché non saprebbe quale scegliere ed avrebbe difficoltà non solo a scegliere, ma anche a focalizzare le scelte di cui dispone, visto che – ad esempio – la sua pallina preferita potrebbe essere in fondo alla cesta. Gli algoritmi di clustering cercano di mettere ordine a questo disordine, separando le palline per colore e creando delle piccole montagne ordinate, in modo che ognuno a prima vista possa riconoscere ed individuare subito ciò che vuole.

Esempio di palline suddivise per colore, quando inizialmente erano alla rinfusa – By Chire [CC BY-SA 3.0 (https://creativecommons.org/licenses/by-sa/3.0)], from Wikimedia Commons

Riportando il discorso del Web, organizzare gli argomenti o topic del sito è come raggruppare le palline per colore diverso: ci sono varie tecniche che si possono utilizzare, così come ci sono molti concetti di “colore” che si possono sfruttare. Ad esempio, i colori potrebbero essere le categorie del sito, anche essere i tag (anche se è un po’ una forzatura), potrebbero essere aree tematiche e così via. È chiaro che, qualunque sia la scelta del criterio, i cluster che decidiamo di mettere all’interno del nostro sito – ad esempio sfruttando l’ottima tecnica del SEO siloing – devono essere un numero ragionevole, perché altrimenti abbiamo solo spostato il problema, senza risolverlo.

Di solito la classificazione dei contenuti del sito riflette quella del menu dello stesso, anche se – meglio specificare – mi sono capitati siti molto complessi per i quali questa regola non era applicabile, le voci del menu diventavano troppe (anche facendo siloing) e si doveva ricorrere a criteri diversi: ad esempio attivare i suggerimenti per la ricerca interna nel sito. La semplicità, in ogni caso, è un criterio che dovrebbe guidare qualsiasi sito web, così come la riduzione al minimo delle parti con cui si interagisce con lo stesso – soprattutto per evitare confusione nell’interfaccia.

L’analisi dei tempi di reazione dell’utente alla visualizzazione della pagina, e la facilitazione del compito nel fargli trovare subito quello che gli serve, va oltre la SEO e si colloca in quella più generale della User eXperience (UX).

Filtra, seleziona, targetizza i title

La tendenza generale che ho registrato leggendo libri, tutorial, ascoltando colleghi e clienti, è che a volte sembra che fare SEO implichi dover ottimizzare tutti i title del sito indistintamente. Se si legge su un blog (magari autorevole) che le parole chiave vanno messe sempre a sinistra nel title, o comunque prima possibile, c’è il rischio che siate tentati a fare cose senza senso, e vi illudiate di aver ottimizzato il sito applicando la regoletta pure alla pagina Chi siamo. Falso!

In altri termini:

  • Filtra: non tutti i title vanno ottimizzati indistintamente, perchè non tutti hanno la stessa importanza. Se desideri massimizzare i contatti, ottimizza la pagina Contattaci, ma fallo sempre in modo funzionale al contesto. Meglio una pagina alla volta, manualmente.
  • Seleziona: punta le pagine web che, ad esempio, ti portano più traffico o più guadagni. Se fai sempre le stesse cose su qualsiasi pagina il sito ne risulterà appiattito, globalmente peggiorato.
  • Targetizza: non fare mai siti web alla “di tutto un po’“, danno un’idea di dilettantismo e piacciono poco a Google. Specializza il tuo sito su argomenti specifici e pubblica molte pagine originali su quegli argomenti, settori commerciali o categorie che siano.

È anche questione di ottimizzare le risorse, velocizzare il lavoro e renderlo efficente.

Ottimizzazione degli URL

Stesso discorso di prima: sembra che fare SEO implichi dover ottimizzare tutti gli URL del sito indistintamente. Giustamente se uno legge su un blog (magari autorevole) che è opportuno inserire sempre una parola chiave negli URL, c’è il rischio che uno crei URL anche senza senso:

miosito.it/hosting-PHP (che è ok, contiene la chiave “hosting PHP”)

miosito.it/chi-siamo-hosting-PHP (che ha molto meno senso, contiene la chiave “hosting PHP” ma la pagina non parla di quello)

In altri termini:

  • Filtra: non tutti gli URL vanno ottimizzati indistintamente, perchè non tutti valgono lo stesso. Se vuoi massimizzare i contatti, ottimizza la pagina Contattaci, ma fallo sempre in modo funzionale al contesto. Meglio una pagina alla volta, manualmente.
  • Seleziona: punta le pagine web che, ad esempio, ti portano più traffico o più guadagni. Se fai sempre le stesse cose su qualsiasi pagina il sito ne risulterà appiattito, globalmente peggiorato.
  • Targetizza: non fare mai siti web alla “di tutto un po’“, danno un’idea di dilettantismo e piacciono poco a Google. Specializza il tuo sito su argomenti specifici e pubblica molte pagine originali su quegli argomenti, settori commerciali o categorie che siano.

È questione, ancora una volta, di ottimizzare le risorse, velocizzare il lavoro e renderlo efficente.

Ottimizzazione della meta description

Stesso discorso di prima: sembra che fare SEO implichi dover ottimizzare tutte le meta description del sito indistintamente. In genere è opportuno che le meta description siano riscritte da zero e non contengano cose già presenti nel testo della pagina, o che al limite le contengano ma senza tag di alcun genere (sono campi di testo puro, ricordo).

In altri termini:

  • Filtra: non tutte le meta description vanno ottimizzate, perchè non tutte valgono allo stesso modo. Se desideri massimizzare i contatti, ottimizza la pagina Contattaci, ma fallo sempre in modo funzionale al contesto. Meglio una pagina alla volta, manualmente.
  • Seleziona: punta le pagine web che, ad esempio, ti portano più traffico o più guadagni. Se fai sempre le stesse cose su qualsiasi pagina il sito ne risulterà appiattito, globalmente peggiorato.
  • Targetizza: non creare mai ottimizzazioni alla “di tutto un po’“, giusto per acchiappare traffico: danno un’idea di dilettantismo al lettore, e piacciono poco a Google. Specializza il tuo sito su argomenti specifici e pubblica molte pagine originali su quegli argomenti, settori commerciali o categorie che siano.

È questione, ancora una volta, di ottimizzare le risorse, velocizzare il lavoro e renderlo efficente.

Ottimizzazione dei testi

Ripeti sempre all’interno del sito le parole chiave che vorresti ottimizzare, ripetile fino allo sfinimento anche se il testo non ha senso, se riuscirai a farlo finirà in prima posizione. E invece no, stavo scherzando! Per ottimizzare i testi devi chiedere l’aiuto di un copy professionista, non c’è altro modo.

E poi: la corretta formata italiana ha sempre la precedenza su qualsiasi “calcolo” SEO ti posso venire in mente; i veri professionisti, in questo, riescono a scrivere buoni testi SEO senza stravolgere la forma italiana.

Ottimizzazione delle immagini

Da quando faccio questo mestiere (2009) ho da sempre l’impressione che l’ottimizzazione di immagini sia sopravvalutata: ci hanno sempre insegnato a riempire l’attributo alt del tag img, ma sono sempre stato molto scettico sull’utilità effettiva di questa pratica. Certo, nessuno ci vieta di inserire parole chiave anche qui, ma a livello di rientro concreto che cosa otterremo?

Se abbiamo un sito di fotografia posso comprendere il privilegio, ma per tutti gli altri portali la mia impressione è che, a volte, non convenga affatto ottimizzare le immagini, ma sia molto meglio ottimizzare le pagine web. Il nostro scopo, ovviamente, può essere anche quello di regalare belle immagini ai nostri visitatori, ma se poi non visiteranno il sito – cosa che avviene di frequente: chi cerca immagini poi difficilmente va ad aprire il sito, anche se Google per desktop (da qualche tempo) impedisce di scaricare le pagine direttamente ed obbliga ad andarci – questo lavoro sarà stato inutile. Ecco perché sono scettico su questa pratica, ma poi ovviamente bisognerebbe vedere nel concreto.

Una cosa che ho notato e posso affermare con una discreta certezza è che caricare nel proprio sito immagini originali non presenti in precedenza sul Web è – in genere – più funzionale ad un buon posizionamento di quanto non sia riciclarle da altri siti. Motivo per cui chiedo sempre nei clienti di darmi foto e materiale promozionale che siano inediti sul Web, perché in questo modo è relativamente più facile emergere.

Ottimizzazione dei contenuti multimediali

In genere sui contenuti multimediali come i video si tende a lavorare su title e meta description, che possono essere manipolati in modo diverso a seconda dei casi. Tutto dipende da quello che ci mettono a disposizione, fermo restando che ci sono piattaforme per la pubblicazione di contenuti che non sono molto SEO oriented, E quindi non permettono di ottimizzare.

Ad esempio per ottimizzare i video su YouTube sono disponibili il titolo del video – che corrisponde con il title – e la descrizione dello stesso – che, in genere, corrisponde con la meta description.

HTTPS: la navigazione sicura

Sull’uso di SSL devo premettere una cosa: era molto scettico sull’adozione di HTTPS su tutte le pagine indistintamente, e questo soprattutto per un fatto di praticità.  Nello specifico mi sembra assurdo costringere tutti i blogger tutti webmaster, anche quelli meno esperti tecnicamente, a doversi configurare da soli un sito Web, senza contare che si trattava di un tipo di consulenza che tuttora svolgo. Per fortuna arrivo di certificati gratuiti come Let’s Encrypt hanno permesso di far passare i siti in HTTPS in modo molto più facile, ma ancora questa idea non è passata in modo universale come avrebbe dovuto.

Molti webmaster pensano che sia soltanto una questione di ranking, sostengono che sia una complicazione di troppo (quando in realtà non lo è, o almeno non lo è più) – quando in realtà è anche un fatto di ranking, ma è soprattutto una questione di sicurezza per il proprio sito: ed è in quest’ottica che il problema andrebbe inquadrato. Ad oggi HTTPS non è più una cosa opzionale, ma deve obbligatoriamente essere utilizzato dei siti Web: garantirà la sicurezza delle transazioni e la consultazione del sito in ogni sua pagina. Con qualche piccola accortezza tecnica, poi, si può anche migliorare grazie a SSL la velocità del caricamento delle pagine, sfruttando lo standard HTTP/2.

In sintesi: HTTPS permette di aumentare la sicurezza del vostro sito e di evitare che le connessioni tra il vostro sito e i vostri visitatori siano intercettabili. Oltre a questo, HTTP S può migliorare la velocità di caricamento della pagina (a determinate condizioni tecnologiche), ed è anche ufficialmente un fattore di posizionamento (vedi HTTPS as a ranking signal).

Qualità dei link esterni

Quando abbiamo iniziato a fare SEO periodicamente, dopo un po’ di tempo, ci saranno un po’ di siti che sperabilmente ci hanno citato o linkato: stabilire se valgo meno la pena di far mantenere questi back link o meno è uno dei compiti più importanti per poter mantenere il posizionamento su Google. L’effetto dei link solitamente è globale, quindi non è possibile identificare uno specifico backlink che ci faccia salire sui motori per una certa ricerca: la cosa essenziale è che il proprio profilo di link, cioè l’insieme di tutti backlink che ci siamo guadagnati, siano costanti nel tempo, siano uniformi e di qualità.

Se riusciamo a individuare backlink di spam niente panico: basta che li segnaliamo in disavow, il posizionamento del nostro sito potrà beneficiare anche di molto, per cui è opportuno effettuare questo controllo e l’aggiornamento del file del disavow periodicamente (ad esempio tre o quattro volte all’anno).

Strumenti utili per la SEO

Più o meno ho detto tutto quello che mi serviva sapere per far crescere il vostro sito si motori di ricerca. All’interno del blog potete trovare molti altri approfondimenti a partire dai link suggeriti che trovate qui in basso. Gli strumenti utili per monitorare le prestazioni del vostro sito sono quelli di Google, ovvero la search consolle Google analytics: per settori molto competitivi potete pensare di sfruttare software a pagamento di vario genere (SEOZoom, ad esempi). Sono software abbastanza costosi, c’è da dire, ma in genere valgono il prezzo che hanno, anche perché vi permettono di disporre di informazioni che diversamente sarebbero difficili o impossibili da reperire.

Su questo argomento vi suggerisco di leggere la guida:

Risorse e strumenti utili per la SEO

Grazie della lettura, e buona SEO a voi 🙂 .

SERP Google: come funzionano le pagine dei risultati di ricerca

Le SERP sono le pagine dei risultati di ricerca di Google, cioè la lista dei siti che escono fuori quando facciamo una ricerca. Chiarito che non si tratta di SERPenti velenosi o di quella SERPe di mia suocera, cerchiamo di scoprire meglio a cosa servano e perchè sia così importante ottimizzarle in ambito SEO:

Tutto quello che bisogna conoscere sulle SERP di Google

I risultati di ricerca di Google sono da sempre oggetto di affascinanti teorie e di studi effettuati per carpirne i segreti: del resto è comprensibile, questa cosa interessa tutti, in fondo. Il massimo sarebbe riuscire a comprendere criteri usati da Google per costruire le SERP (cioè le pagine dei risultati di ricerca, Search Engine Results Pages), ma come vedremo in realtà non serve spingersi così a fondo, e – anzi – rischia di diventare uno sforzo inutile.

Tutto quello che c’è da sapere sui risultati di ricerca di Google è legato ad un’analisi coerente e puntuale di ciò che cercano gli utenti, di cosa si aspettano di trovare nelle pagine Web, e delle idee più innovative per risolvere i loro problemi,

Keyword research: la ricerca di parole chiave utili

Le pagine di ricerca di Google (SERP, cioè la lista di risultati che vengono mostrati per una certa ricerca) possono cambiare in base al tipo di ricerca che facciamo, e mostrarci cose diverse come pagine web, luoghi da visitare, offerte da comprare e così via. Per rispondere alla domanda “quali ricerche ottimizzare”, usualmente si effettua una keyword research.

In ambito SEO anche se non esiste una classificazione universalmente accettata, le principali classi di ricerche sono le seguenti. Si fa riferimento al termine query di ricerca per indicare la stringa di parole usate fare materialmente la ricerca.

  • Transazionali – sono le ricerche più interessanti, perché spesso riescono a finalizzare un acquisto. Per cui l’ideale in molti casi è creare delle pagine Web in grado di far vendere un prodotto un servizio da parte di chi stava cercando proprio quello. Esempio: migliori VPN
  • Informazionali – sono le ricerche tipiche di chi sta cercando informazione, ovvero si tratta delle serve piegate ai tutorial alle guide E a tutte le azioni relative a prodotti servizi passioni attività. Esempio: come installare WordPress
  • Di brand – si tratta delle ricerche più fatte per ottimizzare perché legate ad un brand. Il più delle volte Google tende a portarci, in queste ricerche, sui siti ufficiali dei marchi che si cercano. Esempio di ricerca di questo tipo: Facebook

Cosa comporta il fatto che un risultato sia in prima pagina?

Quando un risultato si trova in prima pagina significa che, dal “punto di vista” Google, quella pagina web o quella risorsa è massimamente coerente o pertinente rispetto alla ricerca, all’utente, al contesto, alle precedenti ricerche, alla posizione dell’utente (cioè se fa la ricerca da Roma, Cosenza o Milano) e così via. In genere i primi risultati di ricerca sono considerati ovviamente di maggior pregio dei successivi, e molti utenti tendono istintivamente a fidarsi degli stessi come se fossero sinonimo di qualità (in realtà non è così per forza, ndr). Esiste anche un caso particolare: la cosidddetta posizione zero, che avviene soltanto per alcune ricerche e per siti impostati adeguatamente.

Per saperne di più sul posizionamento su Google leggi questo articolo.

Che criteri usa Google per determinare il ranking?

In giro troverete varie risposte: backlink, ottimizzazione interna, rich snippets, snippet in primo piano, addirittura numero di condivisioni sui social, secondo alcuni. La verità è che nessuno di noi ne sa nulla, a riguardo, e che Google è da sempre (giustamente) molto “abbottonato” sull’argomento. Di conseguenza il meglio che si può fare è avere come riferimento una lista di fattori di posizionamento (ranking factor) con l’accortezza di prenderli sempre col beneficio del dubbio.

Non ci sono metodi sicuri al 100% per portare il tuo sito in prima pagina su Google – leggi anche la FAQ SEO, a riguardo.

Modi di dire: allevare una SERP in seno

Modo di dire per indicare chi faccia della SEO a chi può rappresentare un potenziale pericolo, ad esempio un nostro competitor diretto (scherzo, eh: è che ste guide SEO sono tutte uguali e sono davvero una palla, a volte)

Fondamenti sulle SERP

Da un punto di vista puramente legato all’apparenza I motori di ricerca funzionano così:

  1. Un utente apre la pagina del motore ad esempio Google.it;
  2. Effettua una ricerca nella casella adibita allo scopo;
  3. Gli vengono mostrati dei risultati di ricerca;
  4. Clicca sul risultato che ritiene più consono, e soddisfa il proprio obiettivo (ricerca, acquisto, ecc.);
  5. Diversamente, prova a fare una ricerca diversa e torna al punto 2.

Formalmente questa sequenza non è sbagliata, ovviamente, ma di per sè non considera alcuni aspetti cruciali.

Su questo è necessario fare una serie di precisazioni: tanto per cominciare, infatti, la ricerca dell’utente raramente è “secca”, nel senso che è improbabile (ho comunque non è scontato) che che l’utente non solo riesca a trovare quello che vuole al primo colpo, ma anche che riesca anche solo a scriverlo in modo corretto.Non è quindi discorso esclusivamente di quali siti vengono inseriti nelle SERP, ma anche del modo in cui gli utenti effettuano le ricerche: processo, quest’ultimo, formalizzato il più delle volte attraverso una opportuna keyword research.

Il fatto che l’utente possa non cercare nel modo corretto quello che vuole È una probabilità tutt’altro che remota: questo ovviamente non perché il nostro amato sia un incapace, ma perché il processo di ricerca sui motori risponde ad un meccanismo complesso (ed ignorato, assurdamente, da molti SEO) noto come sessione di ricerca. Una sessione di ricerca è in genere una sequenza di ricerche di termini e di click sui risultati reputati più interessanti, E fa quindi riferimento ad una sessione un po’ più ampia in cui lo schema a cinque punti visto qui sopra può essere alterato, ripetuto e formalizzato in modi leggermente diversi.

Quello che fa la differenza in SERP il più delle volte E il numero di clic e vengono effettuati sul nostro risultato di ricerca: in questi termini abbiamo che spesso conta di più quanti clic facciamo sul risultato E non tanto il numero (1, 2, 3, … su Google) in cui riusciamo a posizionarci. Il criterio di scelta del risultato migliore da parte dell’utente, del resto, non è necessariamente il primo della lista, come una forma di SEO piuttosto ossessivo-compulsiva tende a farci credere: semmai, più realisticamente, è quello ritenuto più pertinente per l’utente, in modo del tutto soggettivo.

Per convincersi di questa cosa basta considerare una ricerca informazionale molto comune come a esempio hotel a Milano, che restituisce se e risultati diversi in base al periodo dell’anno, alla posizione geografica, alle ricerche precedenti, alle aspettative dell’utente che farà clic sui risultati Sulla base di preconcetti cultura personale aspettative e molti altri aspetti decisamente poco prevedibili.

Le SERP vengono aggiornate periodicamente da Google

In genere i risultati di ricerca di Google vengono aggiornati con periodicità, sulla base di più fattori: Google tende a “pingare” i siti web per verificare che non ci siano aggiornamenti sulle pagine, e nel caso in cui ne rilevi vengono assimilati e “digeriti” dal motore. In certi settori, quindi, come quelli dei tutorial e delle guide, è un bene aggiornare molto spesso le proprie pagine, sfruttando l’update di Google noto come Caffeine che vede di buon occhio le modifiche e gli aggiornamenti migliorativi. In altri settore come l’ecommerce invece potrebbe non essere necessariamente così, anche perchè magari uno non ha necessità nè modo di aggiornare le pagine o arricchirle.

Tutto questo processo, ovviamente, possiede inoltre un’influenza diretta in termini di posizionamento, e cambia dinamicamente le SERP nel tempo: ciò può avvenire con frequenza molto rapida su parole chiave molto competitive, anche se tendenzialmente i risultati migliori tendono a stabilizzarsi col tempo.

Le SERP possono migliorare o peggiorare

Per quanto possa sembrare una banalità, i risultati di ricerca dal punto di vista del sito che stiamo usando possono migliorare o peggiorare. Tale comportamento non è prevedibile a priori, e alla meglio si possono fare delle stime approssimate a riguardo.

In genere la valutazione delle SERP viene effettuata su base giornaliera; non ha senso considerare intervalli di tempo più piccoli (ed è anche molto dispendioso come lavoro), in casi critici e/o molto competitivi può avere senso considerare il ranking su base settimanale.

Le SERP possono migliorare se… lavori bene lato SEO

Anche qui rischia di scivolare una banalità ma resta come fatto direi quasi scientifico il fatto che se si lavora bene lato SEO ed in modo coerente con la natura del sito da ottimizzare, seguendo una linea editoriale che sia valida per quel particolare sito I risultati di ricerca possono migliorare sensibilmente soprattutto nel medio-lungo periodo. Non è detto che tutte le modifiche siano migliorative, E molte delle stesse possono sembrare del tutto irrilevanti.

Non tutte le modifiche che si fanno si notano in tempo reale, ma alcune legate all’esempio all’uso dei rich-snippet possono mostrare eccellenti risultati in modo quasi istantaneo rispetto alla data in cui sono stati introdotti.

Le SERP sono influenzate dai… ranking factor (ma anche no)

I ranking factor sono i fattori SEO che tendono ad influenzare l’aspetto delle sarà ed il loro comportamento. Bisognerà distinguere tra fattori quantitativi (legati al tipo ed al numero di backlink esterni, all’utilizzo della tecnologia di schema HTML schema.org, cosiddetti rich snippets) e fattori qualitativi (come ad esempio il tipo di <title>, il contenuto della meta description, …). In genere trovo questa visione tanto intuitiva quanto sostanzialmente ingannevole per i principianti: se ci si lega a questo schematismo dei fattori di ranking come “manopole” SEO, infatti, si rischia di compiere meccanicamente attività senza alcun senso, come esempio inserire per forza parole chiave all’ interno del <title>, anche qualora la natura della pagina Web non lo richieda affatto.

In genere gli unici ranking factor che siano degni di attenzione sono quelli coerenti con la natura del sito: esistono quindi fattori utili per gli e-commerce (ad esempio essere citati da un quotidiano nazionale, oppure da una rivista di settore, oppure ancora fare uso di rich snippet per i prodotti), fattori utili per i blog (essere linkati da altri blogger, ecc.) e così via.

Le SERP possono peggiorare se… lavori male

Questa è un’altra verità che emerge chiaramente dopo anni di lavoro del settore: se lavori male Google ti ignora o ti castiga. Ecco perché le attività SEO non dovrebbero mai essere affidate a presunti professionisti O pseudo esperti del settore. Chiunque e in grado di affibbiarsi l’etichetta di SEO specialist, ma sono davvero pochi quelli in grado di dare un miglioramento concreto alla SERP di interesse per la tua azienda.

Il mio sito non appare su Googleit: piangi (oppure leggi qui)

Se il tuo sito non viene indicizzato o non è visibile su Google, leggi quello che segue e potrai chiarirti le idee. Uno dei comportamenti più difficili da affrontare in ambito SEO, infatti,  riguarda il caso in cui il nostro sito non appare per nulla o viene ignorato dai motori di ricerca. Proviamo a capire anzitutto se si tratta di un problema di indicizzazione oppure di posizionamento.

Problema di indicizzazione. Nel primo caso, la pagina non sarà visibile per nulla, cioè se la pagina che non è indicizzata fosse ad esempio

https://salvatorecapolupo.it/pagina-che-non-se-trova.html

cercando su Google l’URL tra virgolette non troveremo nulla:

In questo caso bisogna attendere che il crawler di Google faccia il proprio lavoro oppure, al limite, forzare l’indicizzazione della pagina.

Problema di posizionamento. Nel secondo caso, invece, il test precedente restituisce una pagina – per cui siamo presenti nell’indice di Google – ma il problema è il ranking che è scarso o non all’altezza delle aspettative. Qui è invece necessario un lavoro specializzato SEO e, con buona probabilità, anche di link building – vedi anche Come diventare primi su Google.

In questi casi, comunque, è difficile capire con certezza da cosa dipenda, ma le casistiche più comuni sono in effetti le seguenti:

  1. il sito non appare per alcune ricerche per cui si sta ottimizzando;
  2. il sito non appare su Google per nessuna ricerca (esempio: cercando il nome della home page)

Non è agevole determinare con certezza cosa possa causare un determinato comportamento, specialmente se non avete notifiche da parte di Google, per cui il responso sul vostro sito andrebbe emesso sulla base di un mix di esperienza ed analisi mirata.

Se avete problemi di visibilità su Google, comunque, non si tratta necessariamente di una penalizzazione, per quanto gli indizi possano convergere, a seconda delle circostanze, in questa direzione.

Ammettiamo che la chiave di ricerca sia X, tanto per fare un esempio, e che il sito sia ABC.it: il primo check da fare è verificare che compaia qualcosa nella ricerca locale del sito, quindi cerchiamo su Google ad esempio

X site:ABC.it

Se esce almeno un risultato, il primo di questi è solitamente quello “candidato” ad arrivare nella SERP per la ricerca di X. Se non esce nulla, invece, è probabile che:

  1. il sito non sia indicizzato perchè molto giovane (leggi: come indicizzare un sito);
  2. il sito non sia visibile su Google perchè ci sono competitor molto forti (in questo caso siamo solo surclassati dagli altri, ma non siamo penalizzati);
  3. il sito sia stato penalizzato a seguito di comportamenti scorretti, o non in linea con le indicazioni per webmaster di Google.

Analizzare il passato del nostro sito, quindi, diventa indispensabile per capire come comportarsi. Ci sono situazioni in cui la soluzione è più semplice di quello che si possa pensare, del tipo: se non apparite per la ricerca di X nel sito ABC.it, è opportuno verificare che nel sito ABC.it sia presente da qualche parte… la stringa X :-).

Nel secondo caso, la situazione è più “drammatica”: il nostro sito non compare su nessuna ricerca, neanche cercando il nome del sito:

ABC.it

Se da una ricerca del genere non esce fuori nulla, è molto probabile che il sito non sia stato indicizzato (ad esempio per un sito giovane, in presenza di attributi NOINDEX, NOFOLLOW scorretti) oppure che, come nel caso precedente, sia stato indicizzato. Ci sono casi che ho affrontato in cui, ad esempio, il dominio pagava lo scotto di penalizzazioni precedenti (precedenti SEO senza scrupoli, o webmaster non troppo esperti), di cui spesso il proprietario attuale non poteva sapere nulla, come ho raccontato quando ho comprato un dominio con molti backlink ed una certa anzianità (ne parlo nel post Domini che generano traffico “da soli”, una prova che smentisce parecchia mitologia).

Ci sono molti altri casi intermedi che possono capitare su un sito, e non è agevole discuterne in maniera approfondita in un post. Ad ogni modo, prima di arrivare a conclusioni affrettate, è bene controllare che non ci siano notifiche di penalizzazioni manuali su Google (se ci sono, le trovate nella Search Console), ed eventualmente analizzare tutti i backlink in ingresso e valutare se non sia il caso di effettuare un disavow dei link sospetti.

Come togliere una penalizzazione di Googleit ad un sito

La rimozione delle penalizzazioni di Google è forse uno degli aspetti che preoccupano maggiormente i webmaster, specialmente quelli meno orientati alle problematiche di ottimizzazione.

Di fatto, è bene tenere presente che la rimozione di una penalizzazione – e parlo di quelle notificate esplicitamente da Google, non di quelle presunte più o meno ragionevolmente – passa per una serie di fasi consecutive facilmente inquadrabili in questi termini. Scrivo questo perchè, molto francamente, mi da’ molto fastidio quando un cliente entra nel merito del prezzo che gli ho proposto, magari dicendo in modo subdolo che starei addirittura pagando troppo, ovvero (detta in termini eleganti) svilendo il mio lavoro stesso. Magari con questo articolo, per una volta privo di considerazioni tecnico-strategiche, riusciamo a mettere (almeno un po’) le cose a posto.

Cosa sono le penalizzazioni di Google

In genere si tratta di situazioni in cui Google declassa dai risultati di ricerca una o più pagine web di un sito, perchè sta ravvisando delle scorrettezze – tecniche di spam, ad esempio, ma anche siti web poco sicuri o violati da malware. In questo Google è un giudice abbastanza difficile da mettere in discussione, per cui c’è poco da fare: bisogna adattarsi alle sue regole. Le penalizzazioni possono essere sia manuali (cioè fatte miratamente sul vostro sito, e che vengono notificate nella Search Console se il vostro sito è registrato: esistono circa una decina di penalizzazioni manuali, ad oggi) che algoritmiche (che invece sono provvedimenti generali ad evitare che più di un sito contenga pagine di bassa qualità e finisca in prima pagina. Esistono varie penalizzazioni algoritmiche, di cui Panda e Penguin sono le più note, soprattutto a chi lavora nel content marketing su Google).

I rimedi per le penalizzazioni sono dei più vari, e possono riguardare interventi sul sito, modifiche all’approccio su contenuti, layout, tema e coinvolgimenti degli utenti.

Tipi di penalizzazioni

Noto una certa confusione sul modo di esprimersi da parte dei SEO meno tecnici, per cui mi pare opportuno partire da questo fatto. Sento webmaster parlare di “penalizzazioni” un po’ a casaccio, in molti forum e discussioni live, ma in genere le penalità di Google sono un fatto estramamemente circoscritto, anche se a volte difficile da individuare. è comunque opportuno non partire mai dal presupposto di aver ricevuto una penalizzazione in mancanza di prove concrete dalla Search Console: si rischia di sviare dal problema, senza contare che a volte neanche rispondo alle mail che partono da questo presupposto senza aver ricevuto una notifica ufficiale da Google.

Quando si parla di penalizzazioni, infatti, si possono in genere fare due distinzioni fondamentali:

  1. le penalizzazioni manuali, che sono notificate esplicitamente nella Search Console di Google, e che ricadono solitamente nelle seguenti casistiche tipiche: Sito compromesso, spam generato dagli utenti, host gratuiti contenenti spam, markup contenente spam, Link non naturali che rimandano al tuo sito (link in ingresso penalizzanti), Contenuti scarni o con nessun valore aggiunto, Cloaking, Link non naturali dal tuo sito (link che state dando voi a qualcun altro), Puro spam, Immagini compromesse, Testo nascosto e parole chiave in eccesso (keyword stuffing). Google chiama solitamente queste penalizzazioni “azioni manuali” (fonte).
  2. le penalizzazioni algoritmiche, che invece non vengono notificate in modo esplicito, e per le quali solitamente si sfruttano strumenti esterni che possono aiutare a capire se sia il caso (la certezza non c’è, comunque). Tipici casi di penalizzazioni algoritmiche possono essere, ad esempio:
    1. Google Penguin, che penalizza i siti web che facciano uso di schemi di link vietati;
    2. Google Panda, che penalizza i siti web che contengano thin content, cioè contenuti brevi o scopiazzati (ad esempio al solo scopo di inserire link affiliati o annunci)

Le penalità manuali sono più difficili da evitare a priori, ma sono relativamente più agevoli da risolvere. Quelle algoritmiche sono abbastanza complicate o impossibili da checkare, e generalmente fanno riferimento a bad practices generalizzate sui siti web.

Attenzione al tipo di penalità che ricevete

Se le penalizzazioni di primo tipo sono banali da rilevare (basta verificare nella propria Search Console di non avere avvisi del genere, o di non avere mai ricevuto email), quelle di secondo tipo sono molto più subdole e, in genere, difficili o impossibili da rilevare. Vedo software rilevare penalità come per magia, e colleghi legare con eccessiva sicurezza a Penguin, Panda o altri fenomeni analoghi soprattutto i cali di traffico dei siti, quando in realtà nel caso di penalità algoritmiche non c’è modo di ricondurre con certezza il problema ad una causa specifica.

Ci sarebbe tanto da dire in questo contesto, ma in questa sede basti sapere che:

  1. le penalità algoritmiche da Google Penguin tendono a penalizzare gli schemi di link, che poi nella pratica spesso si riconducano a link building piuttosto grezze, a volte rilevabili ad occhio nudo (se uno ha “l’occhio” allenato, ovviamente 🙂 ); per la cronaca, Penguin colpisce ciclicamente i risultati di ricerca dal 2012 in poi (si contano più o meno 7 aggiornamenti certi ad oggi). Si tratta di una delle penalità più popolari in assoluto, che se da un lato conferma che inserire tanti link in ingresso al proprio sito sia un fattore determinante per il ranking, dall’altro invita indirettamente a fare un po’ di attenzione nel farlo.
  2. le penalità algoritmiche da Google Panda riguardano il fenomeno delle content farm, cioè i siti che riproducono / scopiazzano (spesso via software) contenuti altrui allo scopo ad esempio di trarne vantaggio in termini di inserzioni pubblicitarie; la qualità di questi siti è bassa, l’utilità per gli utenti è spesso prossima allo zero. Il problema principale di questi siti copia è che a volte riescono a posizionarsi meglio degli originali, per quanto il fenomeno mi sembri piuttosto in calo negli ultimi tempi. AI tempi, Google pubblicò un celebre articolo (Indicazioni per la realizzazione di siti di qualità) in cui indicava indirettamente i criteri perchè un sito desse “fiducia” in tal senso: articoli scritti in modo attendibile, scritti da esperti o appassionati del settore, nessuna presenza di duplicati approssimati ( articoli pubblicati in gran numero e con piccole variazioni del testo), affidabilità dei sistemi di pagamento, assenza di errori ortografici grossolani, più altre metriche più difficili da misurare come autorevolezza del sito, affidabilità, invasività degli annunci ed altro ancora.

In genere, poi, ricordatevi che le penalità algoritmiche riguardano ufficialmente percentuali di query molto basse, spesso inferiori all’1% di quelle globali (ovvero non solo di quelle italiane!): questo mi suggerisce, da sempre e fino a prova esplicita contraria, che sia necessaria una enorme cautela nell’addurre cause a fenomeni. Del resto, anche se tutti i siti di un campione sono evidentemente stati colpiti da uno dei suddetti, non è affatto detto che la cosa riguardi anche il nostro sito (anche se, ovviamente, è importante sapere dell’esistenza di questi rischi).

Si noti, per inciso, che la recente casistica delle notifiche ai siti senza HTTPS non sembri ricadere in questo contesto, almeno non ad oggi: per cui non si tratta, in quel caso, di una penalità nel senso qui spiegato.

Come risolvere una penalità algoritmica da Google

Non voglio dire che le penalità algoritmiche siano fuffa, ovviamente, certo è che sono l’aspetto meno misurabile (e per questo, secondo me, meno interessante) in ambito SEO. Nella mia logica SEO mi pare che si debba lavorare di più sugli aspetti obiettivamente imprescindibili di un sito, come usabilità, utilità, originalità del sito e poi di conseguenza si possa evitare di incappare in penalizzazioni algoritmiche. Possono volerci anche anni di duro lavoro, purtroppo, e non c’è modo di evitarlo.

Come risolvere una penalità manuale da Google

Quando si riceve una penalizzazione esplicita da Google (azione manuale) c’è il lavoro più concreto da fare, ovvero:

  1. è necessario anzitutto accedere alla Search Console del sito, per cui dovrete fornire al vostro consulente (o fare voi stessi, in caso) l’accesso alla piattaforma, e prendere nota della notifica esatta che avete ricevuto per il sito critico;
  2. è necessario esportare la lista di link in ingresso al sito, che viene tipicamente importata come file Excel;
  3. a questo punto ci sono due sotto-casi fondamentali: il primo riguarda le penalità da link in ingresso (Link non naturali che rimandano al tuo sito), il secondo quelle da link in uscita (Link non naturali dal tuo sito).
  4. Se avete una penalità a livello di backlink in ingresso significa che è stata fatta una link building troppo spinta, oppure che qualcuno possa avervi fatto penalizzare apposta: difficile dirlo, ma l’aspetto davvero spinoso è legato alla procedura necessaria per uscire dal problema. Si tratta infatti di analizzare uno per uno i backlink in ingresso riportati dalla Search Console, al fine di individuare quelli sospetti o malevoli; la valutazione non è automatizzata, richiede un criterio di massima da seguire ed un certo senso critico. Si crea una bella lista (file di testo o Excel) di backlink sospetti, e poi si può decidere di A) contattare i webmaster e chiedere di rimuovere i link (ed in più metà dei casi non funzionerà, purtroppo) B) inviare un file formattato per il disavow di Google, e “prendere le distanze” da quei link in modo ufficiale (consigliato). Una procedura, quest’ultima, che è anche un po’ di imbarazzante (per alcuni) “ammissione di colpa” – del resto spesso capita di ereditare situazioni critiche su cui non avete responsabilità dirette – ma che mi pare l’unico modo per uscirne indenni. Si dovrà, dopo aver concluso la raccola link sospetti (il che può richiedere, a seconda del volume di dati, da diversi giorni ad un paio di settimane di lavoro), passare a fare una richiesta di riconsiderazione del sito web sempre mediante Search Console (ex Webmaster Tools di Google). Essa andrà formulata in modo opportuno evidenziando, soprattutto, il lavoro che è stato eseguito e la situazione eventualmente ereditata: tanto vale essere molto sinceri nella lettera di accompagnamento, aggiungo sempre. Se la richiesta viene accettata, il lavoro si conclude qui; in caso contrario è necessario ripetere le fasi 3 e 4 finchè non vanno a buon fine. La guida per l’uso dello strumento del disavow tool è questa, comunque.
  5. In caso di penalizzazioni da link in uscita, la procedura è leggermente più agevole: si tratta di individuare i link in uscita dal vostro potenzialmente dannosi (Google non vi dirà, neanche qui, “chi” stia penalizzando e a volte neanche “dove” precisamente), e direi che in questi casi il 90% delle responsabilità ricade sui link sitewide, cioè quelli diffusi su tutte le pagine mediante widget o footer. Se sono nei widget, suggerisco di rimuoverli e basta; se invece sono nei footer, si tratta di modificare il theme via HTML / PHP (la cosa non è per forza banale: in WordPress ad esempio è richiesto di creare il theme child, altrimenti le modifiche si perderanno!) Diversamente, una volta mi è capitato di sfruttare un crawler di pagine open source e di lanciarlo sul sito critico per individuare tutte le occorrenze di pagine compromesse. In genere, quello che va fatto è estrarre dal vostro sito (mediante opportuni software, ma anche manualmente alla peggio) tutti – senza eccezioni ! – i link esterni delle vostre pagine, per poi (anche qui) individuare quelli che siano di natura manipolatoria PageRank e simili; è chiaro che questa è la parte più corposa del lavoro, e richiede una certa esperienza al fine di individuare quello che non va, oltre al tempo materiale di analizzare i dati. Se avete venduto dei link a terzi, per inciso, Google vi sta molto probabilmente invitando a rimuoverli. Nella mia esperienza, rimuovendo questi link dannosi ed inviando la richiesta di riconsiderazione a Google, sarà possibile rientrare alla normalità. Per capirci ancora meglio, i dettagli di un lavoro di questo tipo, da me svolto un po’ di tempo fa, si trovano nell’articolo Escape from Google manual penalties (in inglese). Come avete visto, è un lavoro lungo che richiede tempo e competenza.
  6. Una piccola nota ulteriore: in genere le penalità manuali di Google possono riguardare A) tutto il sito (tipico delle segnalazioni di Sito compromesso) B) solo una parte dello stesso (tipo delle penalizzazioni da link in ingresso / uscita). Non sempre è facile orientarsi a capire “cosa” modificare, per cui in caso di difficoltà tanto vale segnalare tutto o quasi (backlink malevoli in ingresso) o al limite cambiare theme o CMS (le penalità da link in uscita si risolvono spesso, anche se non sempre, facendolo).
  7. Molti colleghi mi hanno fatto notare, in passato, come effettivamente non ci sia “prova” concreta del fatto che la penalizzazione venga rimossa. Questo secondo me è vero in parte, anche perchè se le cose si fanno come si deve Google notifica il rientro alla normalità. Per le penalità algoritmiche, invece, il discorso è completamente diverso ed effettivamente, in quei casi, l’obiezione ha più senso. Tra l’altro, aggiungo, una penalità rimossa oggi non è detto che non possa tornare domani!

Conclusioni

In questi casi, in effetti, se ci tenete al vostro posizionamento su Google e non avete tempo, modo e mezzi per fare il lavoro da soli, è consigliabile rivolgersi ad un consulente esterno che faccia questo lavoro per noi; ovviamente sul prezzo ognuno ha le proprie politiche e di questo, se ci fosse bisogno di dirlo, bisognerebbe avere più rispetto.

Faccio giusto un appunto a chi ha scritto, in passato, articoli sul prezzo più giusto da applicare per una consulenza X, e questo (oltre a sembrarmi una cosa in certi casi poco etica, e più che altro “chiacchiere da bar”) è abbastanza fine a se stessa, fuorviante e – detta in modo brutale – credo non sia utile a nessuno.

Come cercare su Google (con esempi)

Come si fa a cercare una cosa specifica su Google? Una guida per fare le ricerche su Google non poteva che trovare spazio, del resto, in un blog SEO; capire come cercano e cosa potrebbero cercare gli utenti è uno dei modi migliori per attuare in seguito le nostre strategie di previsione, pianificazione e ottimizzazione dei motori.

Uso base di Google

Per cercare una parola singola, ma questo dovremmo saperlo un po’ tutti, basta digitarla e cliccare sul tasto Cerca con Google. Se avete una connessione veloce, i risultati appariranno in automatico. Se state cercando qualcosa, in genere è opportuno essere più specifici possibile: le ricerche specifiche (o della cosiddetta “coda lunga”) sono da sempre quelle più efficaci e più probabilmente risponderanno alla vostra richiesta. Google, ad ogni modo, è sempre più in grado di “intuire” le nostre intenzioni, e riuscirà a “capire” (dopo un po’ di ricerche e se rimanete loggati su Gmail, soprattutto) cosa stavate cercando. Sì, anche se cercate genericamente “occhiali” o “auto usate“.

Per cercare una definizione, basta cercare la parola singola e comparirà in automatico come primo risultato (vale solo per alcune parole). Se non funziona, invece di cercare parola cercate define:parola. In pratica, usate l’operatore define: (vedremo tutti gli altri operatori in seguito).

Ricerca esatta

Per cercare una corrispondenza esatta di una frase, scrivete il tutto tra virgolette o doppi apici “, ad esempio:

“nel mezzo del cammin di nostra vita”

ovvero l’incipit della Divina Commedia di Dante Alighieri.

Ricerca approssimata

Al contrario della ricerca precedente, questa vi permette di cercare usando * come carattere jolly; sembra una cosa poco interessante ma è utile, ad esempio, se non ricordate pezzi esatti di frase e ne volete ricordare uno specifico.

“nel mezzo * vita”

Noterete come usciranno, quasi certamente, risultati diversi e non per forza correlati a Dante Alighieri.

Cercare un file

Per cercare solo file pdf, ad esempio, basta scrivere filename:pdf; questo tipo di ricerca da sola non serve a granchè, pero’ può essere utile se la combinate con una qualsiasi delle ricerche precedenti. Un po’ di esempi chiariranno meglio cosa intendo.

  • “nel mezzo del cammin” filename:pdf -> PDF della Divina Commedia
  • filename:doc SEO -> file Office su argomento SEO

Uso degli operatori di ricerca

Il nostro utilizzo di Google può essere ancora migliorato se abbiamo presente i cosiddetti “operatori di ricerca”, che sono molto utili per tirare fuori informazioni inedite dal motore e scoprire a volte autentiche chicche del web. Andiamo, quindi, a vedere di che si tratta all’interno di questa micro-guida non ufficiale agli operatori di Google. Non ho considerato, volutamente, operatori secondari come related: in quanto, secondo me, non sono così utili come potrebbero sembrare e nella mia esperienza, nel mercato italiano, non servono a molto.

La ricerca ordinaria, come saprete, è quella che facciamo elencando uno o più termini oppure una frase:
parola

termine che mi piace


Fin qui nulla di strano; la corrispondenza del termine nella pagina web, poi, può essere anche esatta, specie nel caso in cui si stiano cercando blocchi di testo specifici (ad esempio per tracciare link malevoli):
parola 1 “esattamente questa corrispondenza”
Per quanto possa sembrare strano farne uso, l’operatore – (meno) serve ad escludere un termine da un risultato di ricerca, il più delle volte allo scopo di affinarla meglio:
apple -frutta

Cercare in un sito (ma non solo): l’operatore site:

L’operatore site: permette di visionare tutte le pagine indicizzate del sito passato come argomento. Si cerca con la sintassi:
site:nomesito.it [chiave]
dove il termini di ricerca [chiave] può mancare e corrisponde, in generale, alla ricerca di un eventuale termine all’interno del sito in questione.

Si può usare quindi sia in forma generale:
site:nomesito.it
oppure per una specifica:
site:nomesito.it chiave
oppure, ancora:
site:nomesito.it “chiave di ricerca”
per effettuare la ricerca esatta o anche:
site:nomesito.it trova “questo precisamente” -“ma non questo”
che cercherà nel sito nomesito.it la corrispondenza di trova, “questo precisamente” ad esclusione della frase ma non questo.

L’operatore in questione permette, inoltre, di cercare blog in WordPress hosted:
site:wordpress.com chiave
e ricerche ristrette ad estensioni di dominio (ad esempio solo siti .it):
site:*.it chiave

link:, l’operatore che stai usando in modo sbagliato

Esiste una pessima mitologia su questo operatore, che si ritiene erroneamente fornisca i backlink verso un sito qualsiasi: in realtà questa informazione è nota solo ai proprietari dei siti, fornisce un sottoinsieme casuale di backlink, proprio per evitare che i competitor possano profilare i link in ingresso (e confermandone indirettamente, così facendo, l’importanza in termini di ranking).

Per capirci meglio, l’operatore preleva solo alcuni (eventualmente nessuno!) dei link in ingresso ad un sito, e se ci fate caso vedrete che restituisce risultati diversi in momenti diversi.

In certi casi, infatti, link:nomesito.it può non restituire nulla, ma questo non vuol dire che non ci siano link in ingresso alla pagina: significa che solo chi possieda accesso alla Search Console può vedere questa informazione.

Il seguente video di Matt Cutts chiarisce, come forse saprete, la maggiorparte della mitologia sbagliata in merito.

L’operatore “escludi dai risultati”

Google permette di escludere dai risultati di ricerca ciò che, a priori, desideriamo non visualizzare, filtrando quindi i risultati che non ci interessano.

L’esempio tipico in ambito SEO è il seguente:
“nomesito.it” -site:nomesito.it
che permette di visionare tutti i riferimenti a nomesito.it ad esclusione di quelli presenti all’interno del sito stesso (è un sottoinsieme, per quanto molto ristretto, dei backlink al sito). Si tratta, in sostanza, di una tecnica per visualizzare un sottoinsieme significativo di citazioni del nome del sito esterne al sito stesso, il che corrisponde (con una certa probabilità) ad un sottoinsieme di backlink. Per sbirciare i siti della concorrenza e vedere i backlink “brandizzati”, a volte, non è male

Operatore cache:

Permette di visualizzare la copia cache di una qualsiasi pagina o sito web, quantomeno quella che risulta a Google:
cache:trovalost.it
Personalmente, per effettuare cache di pagine web preferisco servizi come archive.org o archive.is.

Operatori non documentati: inurl, inanchor

Si tratta di operatori su cui Google non fornisce documentazione ufficiale, ed il cui funzionamento è spiegato da fonti non ufficiali (leggasi: da prendere con le pinze). Ad ogni modo possono fornire risultati interessanti specie in fase di ricerca, analisi ed ottimizzazione in ambito SEO, ad esempio:

inurl:qualcosa

restituisce risultati con qualcosa all’interno dell’URL, tipo miosito.it/qualcosa123/pagina.html.

Al tempo stesso:

inanchor:chiave

restituisce risultati di ricerca con anchor text “chiave” che puntino al sito, e si noti come la ricerca di “chiave” offra spesso risultati molto simili a quella di “inanchor:chiave”. Da qui, almeno in parte, deriva la convinzione in ambito SEO che le anchor text con chiave corrispondente al termine di ricerca influenzino il posizionamento delle pagine.

Questi operatori sono diffusi anche nella versione con prefisso all (allinurl, allinanchor), ed in quest’ultimo caso permettono di cercare keyphrase (“casa di legno”) e non termini secchi (“casa”).

Fare dei calcoli

Google può funzionare anche da calcolatrice, per cui basta scrivere l’operazione e troverete subito le risposte che cercate. Ad esempio 2+2.

Convertire valuta

Il convertitore di valuta è un ulteriore strumento economico molto utile promosso gratuitamente dal celebre motore; per convertire una valuta in tempo reale basta, infatti, scrivere prima il valore da convertire (10 euro scriveremo 10) poi la valuta base (eur ad esempio) poi la parola “in” (senza virgolette) e poi la valuta di arrivo.

Per convertire euro in dollari, ad esempio:

1 eur in usd

(fonte: Google)

Come posizionarsi su Google: uno studio che la dice lunga

In questo articolo cercherò quindi di essere aderente alle considerazioni ed alle difficoltà che si riscontrano nelle attività SEO, in particolare quelle di cui mi sto occupando da qualche tempo: quella su blog e siti editoriali, in cui l’interesse primario è quello di portare visitatori interessati agli annunci e che possibilmente non usino AdBlocker, nè siano incentivati a farne uso. L’articolo sarà semplice nella sostanza, pero’ è necessario che ne seguiate i singoli passaggi – a volte ostici, a volte meno – anche a costi di perderci un po’ di tempo extra; vi assicuro che non si tratterà in nessun caso di tempo perso, quantomeno se vi occupa professionalmente di SEO.

Pronti? Si comincia.

Ipotesi iniziali

Le uniche assunzioni che farò, ragionevoli quanto arbitrarie (ci tengo a sottolineare che non sto proponendo la “formula magica” per fare nulla), saranno le seguenti:

  1. Qualsiasi attività SEO sensata e utile deve affrontare il fatto che sia utile e sensata per l’attività e gli scopi / obiettivi del sito; fare cose senza senso (tipo commentare un blog sulla pesca subacquea e farsi linkare un blog sul trekking, oppure mettere HTTPS sulla pagina “Chi siamo“) solo perchè “lo dice X“, con X che varia da Google fino al guru di turno, neanche a dirlo, non ha senso. Non-ha-senso, ripeto: vorrei che fosse chiaro da subito perchè, altrimenti, non ci capiamo alla fine.
  2. Non ha senso, inoltre, tarare le strategie SEO sulla base di questo o quell’altro algoritmo annunciato da Google sul momento (Panda, Penguin ed altre belve feroci); questo, sia perchè non è modo di lavorare corretto nè pratico, sia per le ragioni che ho descritto estesamente qui. Certo, gli aggiornamenti bisogna conoscerli e studiarli, nella misura in cui ci danno preziose indicazioni su cosa non fare o da chi non farsi prendere la mano. Tuttavia, la cosa migliore per fare SEO come si deve resta quella – ed io ne sono fermamente convinto, da quando ci lavoro – di studiare a fondo le linee guida per webmaster, proprio come se fossero il manuale di un software. Il resto, e scuserete la mia brutalità, sono semplicemente chiacchiere da appassionati di oroscopo.
  3. I backlink sono un fattore di posizionamento determinante per Google, specialmente (e questa è un’ipotesi, secondo me, ragionevolissima) se si riesce a superare un numero minimo (che cercheremo di quantificare) di domini unici che ci linkano: quest’ultimo, per me, è un fattore di posizionamento mediamente serio, e comunque più rilevante dell’avere o prendere backlink “grezzi” senza sapere da dove arrivino; insomma, cerchiamo di usare la testa quando lavoriamo su queste cose, sempre.
  4. Gli indici di page e/o domain authority come MOZ sono, e resteranno sempre, di poco conto: questo perchè sono estranei ai motori che usiamo come Google o Bing, pertanto diventano quasi irrilevanti, tanto più se non sappiamo nemmeno come vengono calcolati (e se, ad esempio, alcuni indici possano essere manipolati ad arte, per ragioni faziose e/o commerciali); e pur sapendo come vengono calcolati, del resto, ci possono dare indicazioni perlopiù orientative su altre strategie da attuare (copywriting ecc.)
  5. La misura di pertinenza di una pagina rispetto ad una query può essere più facilmente suggerita dall’esperienza, in molti casi, che dal calcolo di un qualsiasi software. Punto non banale che mi preme sottolineare: se pensate che la pertinenza misuri  come (e quanto) una pagina ottimizzata risponda bene, cioè soddisfi l’utente che cerca (ricerca vista, in questa sede, come “richiesta”, ad esempio “voli low cost”), siete sulla buona strada per capire un po’ meglio la SEO; se invece vi siete fissati che sia tutta una questione di keyword density, lasciate perdere la SEO (consiglio brutale, mi rendo conto, ma spassionato).
  6. Leggiamo spesso che i contenuti lunghi si posizionano meglio di quelli brevi, ricordiamo sempre che 1) non tutto sul web è testo, e che 2) questo discorso può valere per settori informativi come quello dei tutorial (ad esempio), ma che in generale non è un criterio sempre valido e, anzi, sembrerebbe soggetto a continue scremature “al ribasso” (questo perchè la tentazione di infognare di spam le prime pagine dei risultati di ricerca è sempre altissima, in ognuno di noi).
  7. HTTPS per me non sarà mai un fattore di ranking, anche se lo dice Google in quel comunicato vagamente scriteriato, e quantomeno nella misura in cui abbia senso avercelo su un sito web; ha senso nelle pagine di acquisto degli e-commerce o nella fase di login / logout, certo, ma nelle pagine di un blog in sola lettura perchè mai farlo (vedi di nuovo punto 1, a riguardo)?
  8. Qualsiasi articolo che illustri “fattori di ranking SEO” è basato nel 99% dei casi su correlazioni statistiche, e va sempre e comunque presa con le pinze; come a dire, posso trovare 1000 persone che siano solite mangiare 2 volte al giorno, e ci sarà una forte correlazione tra le loro abitudini alimentari. Molte persone potrebbero percepire questa relazione come un qualcosa di intimo che lega questi estranei, ma se consideriamo le singolarità (ogni persona ha il proprio metabolismo, ecc.) ci rendiamo conto immediatamente che è un fattore semplicemente ingannevole. Correlation does not imply causation!
  9. La velocità di un sito non è un fattore di ranking, per il semplice fatto che non è chiaro chi la misuri (con “chi” che varia da Google al guru di turno); semmai, è un requisito di buona qualità di un sito.

Lo studio di Backlinko

Chiariti questi punti, vorrei riportarvi e commentare uno studio presentato dal sito Backlinko, We Analyzed 1 Million Google Search Results. Here’s What We Learned About SEO, un articolo molto discusso e linkato di settembre 2016 che, secondo me, contrariamente dal tono inutilmente sfarzoso di questi articoli offre un paio di spunti davvero interessanti. Chi mi conosce o ha mai seguito un mio corso sa bene quanto sia restìo a linkare statistiche di questo tipo, specialmente qualora propongano metodi “miracolosi” per posizionarsi bene su Google: in questo caso, ho registrato una lodevole eccezione.

Per me è doveroso citarli e, notate bene, di solito non lo faccio mai: so bene che questi “studi” sono tanto accattivanti quanto approssimativi (specie per chi abbia studiato un minimo di statistica, è facile smontarli e rilevarne le contraddizioni, senza contare che pubblicare questi studi è una tecnica di link earning / building a tutti gli effetti: produrre contenuti utili e stimolanti per i SEO perchè poi, guarda caso, i blog SEO ne parlino e ci piazzino un link, come ho appena fatto io. Sarebbe carino che qualcuno, prima o poi, discuta e metta in evidenza questa abusatissima tecnica in qualche evento di web marketing, piuttosto che insistere sui soliti concetti triti e ritriti, per inciso).

Cosa hanno fatto i signori di Backlinko? In due parole: sfruttando i dati messi a disposizione da SEMRush, Ahrefs, MarketMuse e SimilarWeb (4 giganti della raccolta dati sul web, soprattutto i primi due), hanno effettuato presumibilmente lo scraping, cioè l’acquisizione ed analisi mirata, di ben un milione di risultati di ricerca di Google. L’idea era quella di capire quali, tra i fattori noti e stabiliti in precedenza, fosse più influente per posizionarsi in prima pagina. Da questi studi è possibile di solito tirare fuori dei cluster, cioè dei raggruppamenti distinti di link, che possano dare indicazioni che poi questi articoli traducono per motivi pratici in termini puramente discorsivi, del tipo: se volete posizionarvi bene su Google, sfruttate bene – cito a caso – i title delle pagine, i backlink da siti autorevoli, e così via.

Che cosa comporta?

In breve, quello che emerge dallo studio – lacunoso, ricordo, nella misura in cui si tratta solo di correlazioni, non di regole: badate a non considerarle “oro colato” – sono soprattutto due cose:

  1. le anchor text risultano essere ancora, nonostante penalizzazioni ed usi francamente ridicoli che ne sono stati fatti, estremamente importanti;
  2. i siti ben posizionati rientrano quasi tutti in un raggruppamento di siti con almeno 300 domini diversi che li linkano.

Il resto – in tutta franchezza – mi sembra un mix di frasi ad effetto, mezze verità ed assunzioni arbitrarie che, per quanto in buonafede possano sembrare, servono soltanto a fuorviare. Non le riprenderò più anche perchè, per non appensantire la trattazione, ho premesso a tutto il discorso i punti secondo me fallaci del loro approccio, limitandomi a filtrare gli unici due che secondo me valgono a tutti gli effetti in qualsiasi strategia SEO.

Se ci tenete andateveli pure a rileggere, ma qui nel frattempo entro nel clou del discorso.

Fattori di ranking (molto) importanti

Abbiamo detto che dall’analisi in questione emergono due fattori di posizionamento basilari: il primo è legato ai testi ancora, cioè al testo presente sui link che puntano al nostro sito. Il secondo, invece, è legato al numero di siti unici che ci linkano; quest’ultimo è un dato che chiunque usi la Search Console di Google dovrebbe vedere e poter consultare molto facilmente (Traffico di ricerca -> Link che rimandano al tuo sito).

Numero di domini che ci linkano

Si tratta del numero prima di “domini principali che presentano link a pagine sul tuo sito“, in pratica.

Eccovi invece, qui sotto, il grafico di backlinko.com che descrive esattamente questa situazione: i siti in prima posizione avevano tutti, secondo loro, almeno 300 backlink da domini distinti in ingresso, e se questo numero diminuisce peggiora progressivamente il posizionamento (a 150 siamo già in seconda posizione). Possiamo assumere che NUMBER OF REFERRING DOMAINS e domini principali che presentano link a pagine sul tuo sito coincidano, in questa sede, concettualmente.

Ripeto, è solo una correlazione e non dimostra nulla di realmente scientifico, ma pensiamola in modo costruttivo / creativo: quando fate link builing sembrerebbero comunque meglio 10 backlink da 10 domini distinti che 100 da uno singolo. Questo perchè tale varietà in ingresso è un ingrediente che da’ molti benefici, e l’ho constatato soprattutto nel medio-lungo periodo su vari siti che ho curato lato SEO. Se ci fate caso, tra l’altro, 300 è una soglia critica per moltissimi miei siti web; quelli che vanno sui 400/500 domini unici che li linkano, di norma, non sono tantissimi o hanno, in media, uno storico estremanete robusto, una buona organizzazione e raramente – credo – hanno sofferto di veri problemi di posizionamento.

Nel caso che ho riportato in screenshot, si tratta di un sito su cui ho effettuato un’attività di base “leggera”, per cui si posiziona bene solo su ricerche “facili” e senza concorrenti particolarmente agguerriti. Potrei riportarne almeno altri tre in cui quel numero da 27 diventa rispettivamente 120, 190 e 318, e per cui le soddisfazioni in termini SEO sono ad essi proporzionali, in qualche modo.

Distribuzione delle anchor text

Sul secondo punto, è almeno da tempi di Google Penguin che sentiamo demonizzare la link building con anchor text mirate: io stesso, ormai, tendo ad acquisire in maniera pseudo-casuale le ancore, ovviamente tenendo sempre in mente la “zona” concettuale del sito, e mai mettendo sempre in evidenza la stessa parola / frase. Il punto è che, come scrive Backlinko stesso, questa pratica è rischiosa ma (e qui entro nella considerazione personale) per una ragione diversa da quella che si sente in giro: è rischiosa perchè viene fatta in modo quasi sempre – uso un eufemismo – privo di stile (se credete che lo stile non c’entri nulla con la SEO, evidentemente pensate pure che il web sia fatto di bot che cliccano a casaccio su qualsiasi cosa, e non di persone sempre più smaliziate, informate ed “agguerrite”). In certi casi la Link Building si continua a fare via software tarati male, usati peggio e concepiti in maniera astrusa o “meccanica”, per cui – messa così – è ovvio che diventi una pratica sconsigliata: è comunque davvero difficile farla bene senza “farsene accorgere“, ed io stesso sto studiando da anni delle strategie che mi consentano di farlo in questo modo. Dateci dentro sotto questo punto di vista, perchè i risultati buoni – prima o poi – arriveranno anche da qui.

Conclusioni

Proviamo quindi a tirare le somme (i pigri potrebbero anche leggere direttamente qui, ma saltando i vari passaggi, si perderanno un po’ di dettagli importanti):

  1. ottimizzare una pagina web rispetto ad una ricerca significa, anzitutto, saper scegliere la pagina (o le pagine!) che sia la migliore “candidata”; trovatele, e cercate di capire bene il perchè convenga, o meno, ottimizzarla;
  2. il discorso della pertinenza è essenziale (ed ancora ignorato o peggio snobbato da molti) nella SEO, perchè (specie negli ultimi anni) a funzionare meglio sono le pagine che effettivamente rispondono “meglio” (più velocemente, più estesamente ecc.) alla “domanda” fatta a Google;
  3. se assumiamo che le anchor text siano importanti per la SEO, resta comunque essenziale saper linkare il sito dall’esterno: nel dubbio, suggerisco sempre di usare anchor text brandizzate sul nome del sito per limitare i rischi;
  4. infine provate ad aumentare, da oggi al prossimo mese ad esempio, il numero di domini unici che linkano il vostro sito; è un fattore facile da misurare, abbastanza intuitivo e spesso vitale (anche se non sempre: di solito lo è se sussistono idonee pre-condizioni di qualità, cioè se il sito è fatto davvero bene sotto ogni punto di vista). Nella mia esperienza, conosco un buon sito (che ho curato per un anno circa) linkatissimo e molto seguito – non dico quale, soprattutto perchè non avrei modo di chiedere il permesso di pubblicare quei dati – con oltre 500 domini unici linkanti ed un posizionamento invidiabile per molte query di ricerca anche molto competitive. Sarà stato un caso, certo, ma di sicuro era un indice di cose fatte come si deve, e non dovrebbe meravigliare il fatto che oltre la metà di quei link siano stati spontanei (lo so per certo, perchè ci ho lavorato per un bel po’). Certo non giurerei sul fatto che se ci arrivate anche voi ne godiate lo stesso, ma certamente fare link building con più di 500 domini unici distinti che ti linkano resta un obiettivo difficile, ma comunque sano e “salutare”. Provateci: è un bel modo, secondo me, per impattare le difficoltà della SEO.

Ecco perchè ho linkato quell’articolo: non tanto per il suo valore effettivo – che tendo comunque a smorzare al 50% dei toni; il mio ruolo scettico / rompiscatole me lo impone! – quanto perchè pone due spunti importanti e riscontrabili nella mia attività. Ecco perchè, alla fine, ho deciso di parlarne nel blog; e spero davvero che sia stato utile anche a te.

Sì: le penalizzazioni di Google possono arrivare anche più volte di seguito

Un nuovo post pubblicato sul blog per webmaster di Google (Repeated violations of Webmaster Guidelines) richiama l’attenzione dei webmaster vittima di una penalizzazione sul proprio sito, che dopo aver (ad esempio) rimosso i link maliziosi li hanno reinseriti, del tipo “Google mi impone di mettere il nofollow, lo tolgo, la penalizzazione sparisce, ebbè… adesso lo tolgo di nuovo, e sono a posto, yahoo“.

In pratica, abbiamo una nuova categoria di webmaster (e di SEO, di riflesso), quelli recidivi: pagano la “multa”, fingono di fare i “bravi ragazzi”, e poi ci ricascano. Considerando che ti possono aver beccato una volta, possono farlo anche la seconda, la terza e così via: ma questo dovebbe essere ovvio, perchè – se non fosse così – sarebbe una perdita di tempo per tutti. Una cosa raggelante, secondo me, che da’ l’idea di un “parco giochi” in cui, se i termini del discorso sono davvero questi, non mi pare si possano sviluppare progetti, competenze e piani a lungo termine.

Credo anche la circostanza sia ispirata ad almeno un caso reale, per cui dedico un pensiero di conforto alla persona che ha avuto un’idea “geniale” del genere, sia pur del tutto simbolico: non prendetela a male se l’avete fatto anche voi, e la penalizzazione vi è stata notificata una seconda volta, perchè la cosa fa francamente sorridere. È ovvio che si possono aggirare certi controlli che fa Google, ma in un discorso serio (e soprattutto in una consulenza) non è proprio per tutti farlo: almeno, usiamo un po’ di fantasia, e non facciamocene accorgere ripetendo di nuovo… lo stesso comportamento.

Mi da’ parecchio fastidio la circostanza, in effetti, perchè finisce per buttare ulteriori secchiate di fango sul nostro settore, e nel sentire storie del genere, mi rendo conto, molti potenziali clienti potrebbero sentirsi scoraggiati a farsi fare la consulenza se poi, alla prova dei fatti, succedono cose del genere. In effetti non dovrebbe mai sfuggire l’aspetto legato al “perchè” i backlink possono essere malevoli ed è sempre più facile, per Google, accorgersi di quelli che cercano di manipolare il PageRank: non fosse altro che il PR l’hanno inventato e raffinato loro stessi, e che un semplice controllo sui link permette di rilevare, in maniera algoritmica, se ci sono link “malevoli” e questo avviene anche in ripetute sessioni, insomma.

La penalizzazione non è un costo che si paga una volta tanto e via, ma può anche ripetersi, soprattutto nel caso di comportamenti recidivi come quello descritto, e questo comunicato di Google sembra chiarirlo in maniera piuttosto chiara. Attenzione, quindi, a “giocare” con queste cose, mentre cercate di posizionare il vostro sito, e diffidate dai consulenti che vi prospettano cose del genere.

La prima pagina su Google non può essere la tua ossessione

Secondo varie definizioni di SEO che si sentono o leggono in giro, lo scopo delle ottimizzazioni è quello di “migliorare (o mantenere un elevato) posizionamento nelle pagine di risposta alle interrogazioni degli utenti del web” (Wikipedia), oppure (definizione che preferisco) “il processo di ottenere traffico, cioè visitatori, da risultati di ricerca gratuiti, organici, editoriali o naturali” (SEL). Anche Google si è scomodata a dare una definizione, e – per quanto la stessa resti condivisibile – a mio avviso fa passare in secondo piano un aspetto trascurato dai più: la prima pagina.

Questa dolce, inarrestabile ossessione che fa dimenticare a molti la sostanza di quello che si fa. Del resto moltissime guide SEO, anche molto autorevoli purtroppo, insistono su questo aspetto come se la prima posizione su Google fosse quasi un diritto: ciò nel tempo ha finito per creare sfiducia, e la rottura di determinati equilibri.

Molti ancora oggi mi contattano su Skype con un’idea preconcetta (il fatto stesso di voler fare SEO a forza, ad esempio, è spesso una forzatura che semplifica brutalmente molti aspetti), oppure con discorsi tipo “vorrei essere in prima pagina col mio sito” (ed hanno un dominio comprato l’altro ieri con 6 pagine), “voglio arrivare in prima pagina, quanto costa?“. Questa mentalità, dopo anni di esperienza, credo possa essere figlia di un approccio sbagliato alla materia, condizionato in buona parte da letture fuorvianti e semplicistiche di blog SEO. Del resto, la stessa battuta che ho sentito in più occasioni (“la seconda pagina di Google è il luogo più sicuro dove seppellire un cadavere“) mi ha sempre fatto ridere poco , e vi garantisco che non sono una persona a cui manca il senso dell’umorismo.

Chi pronuncia, cita o ride per quella battuta mostra di non dare molta importanza, alla qualità di ciò che fa, oltre ad assumere che gli utenti di Google siano un branco di incapaci che cliccano sul primo risultato e saranno automaticamente soddisfatti di ciò che troveranno. È un po’ come dire, insomma, che abbiamo ridotto le attività SEO al pulsante “Mi sento fortunato“: la SEO diventa una questione di fortuna con le stesse probabilità di indovinare chi vincerà il prossimo campionato.

Questo approccio ranking-oriented denota inoltre una scarsa autostima, in un certo senso, perchè riduce le attività SEO ad azioni meccaniche e, spesso, del tutto fuori contesto.

La fissazione per la prima pagina “in astratto” è una cosa da cui dovremmo diffidare in massa, perchè i risultati delle attività SEO sono misurabili anche in termini diversi dalla posizione che riuscirai ad occupare (CTR, impressioni, visite, conversioni, e via dicendo). Del resto, preferiresti 100.000 visite mensili stando in seconda pagina (vicino a quel cadavere, magari), o 1.000 stando in prima pagina? Stare in prima pagina non è sinonimo di successo, proprio perchè la user experience è decisamente migliorata negli anni, e non è detto che arrivare in prima pagina sia sinonimo di ricevere visite, feedback e conversioni sul proprio sito.

Per queste ragioni affermo con forzae che la “prima pagina di Google” è il modo peggiore per approcciare ad un discorso SEO, e questo perchè la prima pagina non è la priorità delle attività SEO, ma solo una parte del problema. Piuttosto, la prima pagina può arrivare alla fine di un lungo processo, che può durare mesi, addirittura anni: a monte ci sono una serie di condizioni (spesso labili, mutevoli, quasi impossibili da decifrare nella propria interezza) relative alla qualità, all’unicità/utilità dei contenuti, ma anche alla user experience e all’utilità stessa del sito (un aspetto, quest’ultimo, troppo sottovalutato da chi crede di fare SEO semplicemente a colpi di backlink rubacchiati qui e là).

Dipende anche dalla tua sensibilità: se avete l’ossessione per la prima posizione (come ho già scritto) tanto vale usare Adwords ed accantonare qualsiasi altro discorso, dato che questo strumento è pensato esattamente per monetizzare questa manìa.

Google Ads NON c’entra nulla con la SEO

Tempo fa parlavo con un amico del sito web di un villaggio turistico della mia zona, il cui proprietario (parole del mio amico) “ha pagato Google” per stare in prima pagina; la persona in questione aveva evidentemente usato Google Adwords. Quest’ultimo, per chi non lo sapesse, è il servizio online di Google che permette agli inserzionisti (cioè a chi paga) di far comparire i propri annunci a pagamento in forma molto simile ai risultati di ricerca cosiddetti organici.

In altri termini, a fianco del servizio base di indicizzazione dei siti web, si presenta l’ulteriore opportunità di partecipare a vere e proprie “aste virtuali“, le quali creano una classifica degli annunci da mostrare per ogni ricerca, sulla base di quanto gli inserzionisti siano disposti a spendere. Questa opportunità rischia di rendere, agli occhi dei meno informati, le attività SEO come sostanzialmente inutili. Ed è questo il motivo per cui ho scritto, forse in maniera troppo esplicita, “fare danni“.

Prima che a qualche fanboy di Google prenda un colpo, a questo punto, lo scrivo chiaramente: so bene che l’azienda dice che

la pubblicità con Google non produrrà alcun effetto sulla presenza del tuo sito nei nostri risultati di ricerca. Google non accetta mai denaro per includere o posizionare i siti nei suoi risultati di ricerca (fonte)

il che è vero, per carità. Al tempo stesso, pero’, a pochi euro (un prezzo stracciato rispetto alla più sgangherata campagna SEO) permette al peggior sito della storia di posizionarsi, di fatto, in “prima pagina”.

Ovvero: Google non accetta pagamenti per i posizionamenti organici – perchè queste cose non si fanno, al tempo stesso accetta che uno paghi per apparire in annunci pubblicitari che hanno, guarda caso, lo stesso aspetto di quelli organici. In altri termini, se proprio devi pagare qualcuno per stare “in prima pagina” (un concetto rimasto un po’ troppo vago in questi anni), paga sul conto di Google. Se quegli annunci a pagamento fossero meglio differenziati dai risultati di ricerca, quantomeno, non parlerei di contraddizione: ma il fatto che vogliano sembrare risultati di ricerca “come tutti gli altri” pone Google in una posizione da sempre (a mio umile avviso) piuttosto spinosa.

Il problema, in effetti, è anche l’eccessivo spazio che riserva Adwords ai propri inserzionisti per alcune ricerche “top“, come mostrato di seguito. La screenshot seguente mostra la differenza (evidentemente labile, evidenziata da una piccola etichetta gialla) tra risultati organici – che sono quelli su cui operano i SEO – e risultati a pagamento – che invece NON riguardano i SEO.

In questo caso Adwords si è beccata circa l’80% dello spazio above the fold.

Screen 2015-09-01 alle 15.00.31

Dovreste capire perchè, a questo punto, il SEO lavora spesso sulla coda lunga (le ricerche specialistiche: chiave caratteristica piuttosto che chiave-secca): perchè quella “corta”, in molti casi, è occupata militarmente da competitor forti e, non sia mai ci manchi, Google Adwords. È costretto a farlo da questo genere di politiche.
Adwords ha banalizzato l’essere in prima pagina, piazzandolo dietro il paravento del “basta pagare per essere primi“; e a molti clienti non interessa approfondire la questione, purtroppo.
Provo a spiegarmi ancora meglio.

  1. Da un lato, passa l’idea fuorviante che Google si faccia per forza pagare per stare in prima pagina; il che, in un certo senso, è vero, dato che basta avere un budget per entrare nelle aste e, ruotando le giuste “manopole” (gli esperti Adwords perdoneranno questa orribile approssimazione), far comparire il cliente quando e dove desidera. Ebbè, basta pagare! Questo, già di suo, rende l’attività SEO (a confronto) qualcosa di troppo costoso, troppo lungo, troppo difficile, che – non a caso – sono le tipiche obiezioni che fanno i clienti nel visionare i nostri preventivi. Adwords è uno strumento prezioso per fare marketing su piccoli budget e non voglio demonizzarlo, ci mancherebbe, ma deve essere chiaro (al di là della sua forma “appetitosa”) che quando smetti di pagare scompari istantaneamente dalle prime posizioni.
  2. Molte consulenze SEO low-cost (si parla delle classiche 99 euro una tantum) si basano subdolamente sull’impostazione di una campagna Adwords. Ti parlo di SEO, faccio qualche supercazzola, e poi ti dico che a soli X euro ti mando in prima pagina; creo quindi una campagna Adwords, il cliente vede il sito subito in prima pagina, è felice & contento e questo rende inutile agli occhi del medesimo qualsiasi – qualsiasi! – discorso SEO di qualità, di link building, di immagine del sito, reputazione, trust e compagnia cantante. Poi ci lamentiamo che della qualità dei siti non frega niente a nessuno, e questo vale soprattutto in ambito commerciale: del resto “basta pagare“, again & again.
  3. Per una serie di congiunzioni astrali e ragionamenti grossolani basati su questa falsariga, quindi, il costo di una qualsiasi consulenza SEO si è ridotto, da un lato, allo “stare in prima pagina”, svilendo così brutalmente tutto il resto delle nostre attività, facendo sembrare indirettamente poco finalizzata e “troppo cara” qualsiasi attività di ottimizzazione.

Perchè dovrei spendere X mila euro per un SEO, si chiede l’uomo della strada, quando ne posso spendere 100 per una campagna Adwords appena decente? Il perchè è racchiuso nel tuo “cosa intendi per SEO?“: se credi che si tratti solo di farti restare in prima pagina, tanto vale usare Adwords, punto.

Se poi desideri ottimizzare le tue ricerche, ricevere benefici a lungo termine, renderti visibile a più fette di visitatori (o addirittura a vari settori di mercato), migliorare contenuti e/o referenze online, aumentare il traffico ed ottimizzare le tue conversioni (e si può fare anche via risultati organici), la SEO può fare al caso tuo.

“Stare in prima pagina”, oggi, non sembra neanche una priorità: è stato un totem del recente passato, dettato dalla fissazione di molti guru nel presentare cose difficili ad un pubblico di pecore che non ama gli approfondimenti. Oggi, salvo casi circoscritti, la sua condizione di necessità viene fortemente minata da Adwords, che con qualche spicciolo procura l’effetto benefico-mitomane di “farti sentire in prima pagina“. Poco importa che i risultati concreti tardino ad arrivare, perchè nel frattempo hai già pagato.

 

Google Update: ecco perchè non ti serve aggiornarti compulsivamente

È noto che le principali ossessioni dei SEO siano gli update ed i brevetti di Google; può darsi ne esistano anche altre, ovviamente, ma queste sono andate certamente per la maggiore negli ultimi anni. Oggi parlerò giusto degli update, e metterò nero su bianco (come piccola provocazione, lo ammetto) perchè sia lecito ignorare notizie del genere.

Conoscere gli update di Google come Penguin e Panda è certamente importante: suggeriscono di fatto delle linee guide da seguire per la realizzazione, l’aggiornamento e la politica editoriale del nostro sito. Di fatto, è più utile leggere direttamente le risorse ufficiali di Google sull’argomento, e poi pensare a dare il meglio per i nostri potenziali visitatori col nostro sito.

Ecco spiegato il motivo del titolo dell’articolo, volutamente provocatorio.

Su qualsiasi blog SEO si sparla di questo argomento, gli update di Google, tanto che Moz si è presa la briga di catalogarle tutte (link), e continua a farlo oggi non curante – a mio avviso – di un equivoco di fondo. Non considera, infatti, che del reale funzionamento di Google nessuno sa nulla, e che un numero eccessivo di ipotesi “campate in aria” rischia di trasformarsi in un “credo” fuorviante, che contribuisce a perdere il contatto con la realtà. Per quanto sia sgradevole ammetterlo, la realtà del funzionamento degli algoritmi di ranking rimarrà oscura per la stragrande maggioranza degli aspetti, per cui sembra poco logico fidarsi di opinioni altrui, specie se di “terza mano“. Smettere di fare X solo perchè X è stato demonizzato da un comunicato o da un algoritmo di Google è controproducente: semmai, ha più senso provare a farlo per capire fino a che punto possiamo spingerci.

La manìa di indagare e chiacchierare dei Google update è tipicamente americana, e fa riferimento ad un mercato di ricerca (quello anglofono) che in Italia – leggasi: per chi fa SEO sul mercato italiano – ci interessa relativamente (eufemismo per nun ce ne po’ fregà de meno), visto che si tratta di un modo di vivere il web, di cercare informazioni e di comprare prodotti diverso o più “avanti” del nostro, da sempre.

Per cui:

  1. Sapere che oggi è uscito l’aggiornamento Google Pigeon o Google Panda 4.2 ci interessa poco, anche perchè non possiamo sapere se quell’aggiornamento ci riguardi davvero o no. Spesso, infatti, il fattore di influenza di ogni update è di qualche punto percentuale sulle query MONDIALI, per cui la probabilità che tocchi giusto le “nostre” query è piuttosto bassa.
  2. Gli aggiornamenti che ci riguardano sul serio, del resto, li conosciamo bene: sono le penalizzazioni, e ci vengono notificate direttamente da Google.
  3. Seguire ossessivamente la sequela di Google update rischia di diventare un capriccio, un modo per fuorviare l’attenzione da ciò che conta realmente (stabilire ciò che conta davvero, per inciso, realizza la differenza tra un SEO mediocre ed uno bravo). Le ennesime “regole” che gli aggiornamenti impongono (non abusare dei link interni ed esterni, non fare keyword stuffing ecc.) sono quasi sempre espressione di semplici regole generali, che si ripropongono ciclicamente. Tanto vale seguirle comunque, no?
  4. Seguire le indicazioni di articoli non ufficiali sull’argomento spersonalizza il nostro lavoro, e ci rende follower inconsapevoli di quei marketer che – pubblicando illazioni arbitrarie – costruiscono la propria fama sulla nostra “pelle”.
  5. Seguire le indicazioni dei comunicati sui nuovi update per stilare strategie SEO è sconsigliabile addirittura se la fonte è Google: molti Google update, di fatto, sembrano creati ad hoc per rivolgere l’attenzione su un aspetto. Ma solo tu, da consulente SEO, puoi sapere cosa sia meglio per il sito del cliente! Adagiarsi su comunicati aziendali, per quanto autorevoli possano sembrare, serve solo a condizionare il mercato: si vedano, ad esempio, gli effetti devastanti del comunicato di Google sull’uso di HTTPS come fattore di ranking, tanto esasperato che addirittura dei siti di article marketing ne hanno fatto uso (tecnologicamente, in questo caso, non serve a nulla), abbagliati da vantaggi illogici (un conto è modificare un title, mentre HTTPS cosa dovrebbe cambiarmi?), e sull’onda qualunquista del “non si sa mai, io lo faccio“. Chi stabilisce se usare HTTPS dovrebbe essere il sistemista o il webmaster, sulla base di considerazioni di riservatezza e sicurezza del sito, non certo il SEO con cui HTTPS c’entra come i cavoli a merenda. L’unico attore che ci ha guadagnato davvero qualcosa, in quel caso, è stato chi vendeva certificati SSL, che ha goduto dell’enorme pubblicità che Google gli ha fatto.

Per la cronaca le notifiche dei Google update sono pubblicati (anche se non sempre) sul Google Webmaster Blog.