Pubblicato il

Parole chiave sulla sinistra & massimo 60 caratteri nel title? Non proprio

Oggi discuteremo criticamente (e sperimentalmente) una delle affermazioni più ripetute negli eventi di formazione SEO (ed in molte consulenze):

Mettete sempre le parole chiave sulla sinistra del title!

e poi:

Non scrivete <title> troppo lunghi. Google li taglia!

Si tratta di affermazioni generalmente innocue – quanto semplici da seguire, per quanto spesso portino a conseguenze peggiori dei problemi che si vorrebbero evitare. Anzitutto, le parole chiave scritte “prima possibile” sono ok: vanno bene per moltissimi siti editoriali, quelli che vogliono far capire all’utente di cosa tratta la pagina (io l’ho fatto in questo articolo, se ci fate caso).

Ma il mio sito vive sui contenuti, molti altri miei siti lo fanno, ma questo non vuol dire che il criterio di “tenere la sinistra” per le keyword sia valido per tutti i siti. Anche perchè, in genere, questa regola non è detto che vada bene per l’ottimizzazione delle pagine prodotto o delle pagine contatti, o delle landing page in genere. Soprattutto, questa regola presuppone che il tuo sito sia di qualità, cosa tutt’altro che scontata: non è che basti applicare questo criterio per vedere miracoli nel prossimo futuro.

I Monty Python ci ricordano che i segnali “Tenere la sinistra” spesso si organizzano in bande molto aggressive.

Ed i title troppo lunghi? Vero, i <title> non devono essere troppo lunghi: ma attenzione anche qui, quello che sembra un limite … può diventare un’opportunità. Per esteso, come già scrivevo nell’articolo sulle strategie SEO più comuni, potrebbe essere inopportuno scrivere titoli (delle pagine, degli articoli ecc.) troppo lunghi: il motivo fondamentale per non farlo è che i title lunghi vengono troncati nei risultati di ricerca, senza contare che la gente potrebbe non leggerli per intero e non cliccare sul nostro risultato. In genere questo implica l’assunzione che il pubblico, cioè i nostri futuri visitatori, possano non capire appieno il senso del nostro <title>, e che lo stesso perda prestazioni in termini SEO (che sono misurabili dalla Search Console: corrispondono, ad esempio, al CTR della pagina).

Nella foto, Google riflette pacatamente su come accorciare i title dei webmaster.

Troppi SEO, pero’, immaginano Google come un macellaio pronto a fare a fette i nostri title, e spingono a creare irresponsabilmente title con sole parole chiave prive di un senso logico: questo limite è deleterio, in media, purtroppo. Porta a comportamenti sbagliati, in sostanza: porta addirittura a far pensare alle persone che si debba fare SEO infilando parole chiave dove capita o alla meno peggio, e ‘ntu culu alla forma italiana, alle figuracce che si fanno in giro ed al fatto che i title con stuffing di keyword non se li caga più nessuno da anni.

Un po’ come succede per un’altro stereotipo SEO duro a morire, cioè che il luogo migliore per seppellire un cadavere sia la seconda pagina di Google (ah ah ah, l’avete capita? era una battuta, ah ah ah). Un’affermazione che trovo sinceramente fuori da ogni logica perchè:

1) assume che l’utente medio che cerca sia un babbano che clicca sul primo risultato a prescindere (per dire: conosco persone che non cliccano mai gli annunci di Adwords, da sempre in prima pagina, per il banalissimo fatto che sanno che si tratta di pubblicità)

2) non tiene conto della user experience, e del fatto che non sempre gli utenti trovano quello che cercano al primo colpo, ed effettuano spesso una serie di aggiustamenti, di ricerche successive alla prima: in fondo, Google non è un dio che legga davvero nel pensiero – non ancora, almeno.

3) la Search Console di Google permette di misurare la percentuale di clic su ogni risultato in SERP: questa sfumatura sfugge clamorosamente a chi parla di prima pagina ad ogni costo. In generale, su 100 visualizzazioni posso cliccare 1, 2, 3, … fino a 100 volte, e questo è un dato importante che molti, troppi ignorano beatamente. Sono sfumature impossibili da ignorare in un’analisi SEO seria! Momento auto-promozione: se volete saperne di più sulla Search Console, su questo sito trovate slide e video che spiegano un po’ tutto quello che c’è da sapere sull’argomento.

Nella foto, un classico utente di Google che clicca per forza sul primo risultato.

Questo è un articolo scritto su questo blog qualche tempo fa, come esempio pratico di troncamento del <title>, che ha subito un taglio da parte di Google:

Ma siamo sicuri che sia penalizzante, in questo caso? A me pare che, tutto sommato, funzioni lo stesso, perchè l’utente capisce di che si tratta (a meno che non sia proprio un babbo, non nel senso di papà ma di babbano) e rimane incuriosito dalla pagina stessa, che è informativa – e da’ un certo senso di giusta “sospensione” al risultato, quasi fosse click baiting. O no? 🙂

Io direi, come regola generale, che nei title basta utilizzare le parole giuste e più pertinenti, scrivere un contenuto descrittivo e pensare a come “ci vedranno” gli utenti, dando la precedenza alla corretta forma italiana su qualsiasi presunta “tecnica SEO” e cercando di avere il dono della sintesi (un po’ come fate su Twitter, se mi passate il confronto).

Storicamente, il limite accettato da moltissimi sembra risalire al blog di Moz (fonte), per cui la lunghezza ideale di un title si aggirerebbe sui 50-60 caratteri, considerando il numero massimo di lettere che vanno a riempire uno schermo di 512px (al minimo). Ma è un limite ormai superato: in realtà, ad esempio, anche solo “Ottimizzare il tuo sito On-Page in 10 passi: migliora il posizionamento …” è lungo 76 caratteri, e possiamo trovare tanti altri esempi analoghi (lunghezza da 65 e 76 e passa, basta guardare le pagine indicizzate di questo sito).

E se lo misurassimo in parole? Secondo un’analisi di Enrico Altavilla, il reale supporto di Google arriverebbe fino a 12 parole consecutive nel title (fonte), anche se sempre col mio blog ho trovato una piccola eccezione a questa regola, che arriva a 13 parole, “Fare SEO: perchè il tuo sito ha bisogno di traffico qualificato (e dove …“, che sono 13 paroline esatto, per cui ragionate semmai sul limite massimo di 12-13 parole, ovviamente ad esclusione di supercalifragilistichespiralidoso.

Deduco quindi, senza scendere in ulteriori analisi e ragionando un po’ “a spanne”, che il limite reale sui title sia di 13 parole al massimo.

Originally posted 2018-04-08 10:22:17.

Pubblicato il

Come fare SEO senza spendere tanto (ahahahah)

L’attività SEO viene spesso associata ad un lavoro sostanzialmente economico, o addirittura ultra-low cost, quantomeno per come viene percepito (male) da molte persone. In genere si vorrebbe il massimo, come ad esempio il posizionamento in prima pagina per query di ricerca molto competitive, ad un prezzo minimo, o magari a commissione, pagando soltanto a risultato raggiunto. Queste sono assurdità che non andrebbero accettate prima di tutto dai professionisti del settore, e poi anche i clienti dovrebbero capire una volta per sempre che ogni risultato di qualità ha del lavoro dietro, ed il lavoro costa.

Di solito si pensa alla SEO a buon mercato in questi termini:

  • banale ottimizzazione on-page, nel senso che si pensa che basti aggiungere parole chiave all’interno del title e delle meta description per fara qualcosa di concreto. Alla fine, pero’, si scopre quasi sempre che questo non basta.
  • Link building molto economica o addirittura gratuita, ma se i link non sono posizionati in modo strategico si rischia di fare un ennesimo buco nell’acqua.
  • Attività di altro genere che sono quasi sempre incentrate sulla riscrittura dei testi, anche quando effettivamente non servirebbe

Non fatevi illusioni: la SEO non può fare miracoli. E questo vale soprattutto se nel vostro sito manca reale qualità. Forse è sgradevole o sgarbato da riconoscere, ma quando manca qualità di fondo, cioè non ci sono reali motivi per cui il vostro sito web debba portare traffico qualificato, le attività classiche SEO non serviranno a molto. L’astrazione (perchè di questo si tratta) della SEO economica non esiste nella realtà, e questo per cinque sostanziali motivi:

  1. l’attività di ottimizzazione è raramente una tantum, nel senso che un singolo intervento o una serie di interventi localizzati nel breve periodo non possono portare a miglioramenti sostanziali;
  2. anche per questo motivo, non si dovrebbero mai effettuare consulenze basate su parametri numerici come numero di backlink o PageRank dei backlink (“al chilo”); in questi termini, non dovrebbe essere svolta da persone senza esperienza o che credono di aver capito tutto su Google;
  3. l’attività SEO costa (a volte più di quanto si pensa) perchè è frutto di un mix di pianificazione, strategie, interventi tecnici mirati e misurazione degli effetti mediante appositi tool;
  4. alcuni interventi SEO possono richiedere, inoltre, la presenza di un esperto del settore che dovrà collaborare con il SEO; questo vale soprattutto per le chiavi molto competitive;
  5. l’ottimizzazione di un sito web ha senso nella misura in cui il cliente ha la percezione dell’importanza del proprio sito; se lo sta facendo “giusto per”, per emulazione della concorrenza e senza avere tempo e voglia di misurare i risultati, tanto vale che non lo faccia affatto.

Dipende tutto, insomma, da quanto siete disposti ad investire ed in che quantità: sono parametri spesso difficili da valutare, e richiedono impegno, costanza ed apertura mentale da parte di tutti gli attori. Molti che pretendono di stare sul web, ad esempio, ne tendono a sottovalutare l’efficacia, e considerano la SEO un “buono”, un extra non indispensabile per cui non saranno mai disposti a spendere chissà quanto. Se questo è indirettamente vero come visto al punto 5, viene smentito nel caso in cui l’azienda fatturi e proponga servizi esclusivamente via internet.

Eppure, i grossi brand del web investono tantissimo in attività SEO, e solo così (e grazie a campagne di marketing efficaci) riescono a diventare leader sul proprio mercato.

Se non si vuole ricorrere ad una consulenza, l’alternativa può essere un corso con Madri: si impara con degli esperti come promuovere qualsiasi sito web, e poi si effettueranno le operazioni in proprio. Il vantaggio principale del corso di formazione è legato ad una singola spesa una tantum, a fronte di un consulente classico che invece è necessario pagare mese dopo mese.

Videocorso SEO

Originally posted 2015-07-26 18:43:51.

Pubblicato il

Come usare la Search Console per aumentare il traffico sul sito

La Search Console di Google è uno strumento di analisi dei dati molto avanzato, in grado di capitalizzare al massimo i contenuti del nostro sito. Ovviamente in questo processo di valorizzazione molto dipende dalle strategie che abbiamo deciso di sfruttare, e da una serie di requisiti di base che devono essere rispettati a monte.

Requisiti necessari prima di procedere

Per poter sfruttare attivamente queste tecniche, è indispensabile che il nostro sito sia realizzato a regola d’arte e che non ci siano problemi tecnici di alcun genere su di esso; inoltre il sito deve essere scansionabile, indicizzato e (preferibilmente) posizionato su Google per almeno un paio di parole chiave (anche banali o ovvie).

Andando poi a vedere il rapporto Analisi delle ricerche, ad esempio, è opportuno che ci siano almeno una cinquantina di click, o che se non altro (nella peggiore delle ipotesi) siano presenti almeno un po’ di parole chiave nel sito. Se questo requisito non fosse soddisfatto a monte, suggerisco di usare un po’ il sito – ad esempio pubblicando articoli, FAQ o pagine con qualche contenuto utile o inedito – prima di procedere.

Chiariti i requisiti fondamentali, andiamo a vedere le tecniche che potete sfruttare nella pratica per aumentare il traffico sul vostro sito sulla base dei dati sulla Search Console del vostro sito.

Vedi anche: come indicizzare il tuo sito la prima volta

Stato dell’indicizzazione

In questa reportistica dovreste trovare un grafico crescente nel tempo, specie nel caso dei blog, oppure non decrescente o stabile nel caso di altri siti web; in genere non è necessario, ovviamente, che l’indicizzazione aumenti per forza (perchè non tutte le pagine web sono utili a Google allo stesso modo, chiaramente), pero’ è certamente un segnale da valutare bene se il vostro traffico non aumenta.

Se il sito non è ben indicizzato, pertanto, è improbabile che possa ricevere traffico da Google. Da qui ve ne accorgerete facilmente, di solito.

Valorizzare ricerche con potenziale “inesploso”

Aprite il report Analisi delle ricerche visualizzate le colonne Clic, Impression e CTR; se adesso ordinate per Impressions decrescenti (dalle più grandi alle più piccole), date uno sguardo alle ricerche con molte visualizzazioni che presentano pochi o nessun click: si tratta di ricerche per cui Google “riconosce” la vostra potenziale autorevolezza, tant’è che vengono mostrate tra i risultati, tuttavia vengono cliccate poco o nulla.

Esempio tratto da un mio sito: le ricerche interessanti da questo punto di vista sono in particolare alla seconda, terza, quinta e sesta riga (rispettivamente o, 1, 3 e 0 clic).

Ci sono varie strategie che si possono sfruttare per migliorare le prestazioni del CTR di queste ricerche che, ripeto:

  • abbiano il massimo delle impressions e
  • abbiano pochi o nessun clic (oppure equivalentemente CTR inferiore all’1%).

Un modo possibile, ad esempio, può essere quello di riscrivere o aggiornare l’articolo che dovrebbe portare a quella ricerca critica (e qui dovrete regolarvi a spanne oppure con l’operatore site), un altro può essere quello di linkare internamente l’articolo stesso da altre sezioni del sito, in modo da aumentarne la “visibilità” in termini topologici; eventualmente, inoltre, si può pensare di fare qualche redirect 301 strategico oppure, ancora, aggiungere la parola chiave in questione all’interno di qualche title o anchor text per facilitare o chiarificare l’utente nella ricerca.

Si può fare di tutto e di più, insomma, facendosi ispirare dalla Search Console: il problema è capire cosa abbia senso e cosa invece sia una forzatura. In molti casi, per inciso, fare questo distinguo in modo corretto fa la differenza tra un consulente dilettante ed un professionista.

Ottimizzare i CTR esistenti

Aprite il report Analisi delle ricerche e visualizzate la sola colonna CTR; se ordinate per CTR descrenti (dai più grandi ai più piccole), avrete individuato pagine (o ricerche, dipende da qualche report avete aperto) per cui ci sono già buone percentuali di clic. Si tratta insomma di pagine (o ricerche) che tendono a portare traffico dai motori di ricerca: per cui provate a sperimentare un po’ di cose, a seconda del tipo e dell’uso delle pagine.

Ad esempio:

  • cambiate i title per capire se il CTR migliori, nel lungo periodo;
  • cambiate le meta-description per capire se il CTR migliori, nel lungo periodo;
  • aggiungete eventuali rich snippets;
  • allungate o accorciate il corpo del testo dell’articolo, valutando le prestazioni prima o dopo;
  • inserite in modo non invasivo dei link affiliati o dei banner tematici con la ricerca che vi porta traffico: le conversioni nel medio-lungo periodo dovrebbero essere assicurate (o quasi);
  • valutate inoltre che si tratta molto spesso di pagine web, ordinate con questo criterio, per cui è abbastanza facile vendere link.

Link building interna

In questo caso l’idea è quella di selezionare una parte di pagine dal report Analisi delle ricerche, Pagine, e cercare di individuare quelle che siano posizionate meglio; per farlo, selezionate le colonne Impressioni e Posizione.

Ecco un esempio tratto dal mio sito: cercate di trovare le pagine che si posizionano meglio (entro le prime 10 posizioni, ad esempio), scartate quelle con poche impression (su cui c’è scarso margine di miglioramento, di norma, a meno che non si tratti di pagine che convertono o pensate per convertire, come le landing page) e concentrate l’attenzione sulle pagine con posizionamento tra 1 e 10 e impression elevate. La soglia di impression minima cambia da sito a sito, non ci sono regole; dipende da quanto traffico fate, e può essere 1000 come 5000 o 10000, difficile dirlo. Regolatevi a spanne sugli ordini di grandezza (quindi ad esempio da 100 o 1000 in poi), e trovate le pagine con questi requisiti.

Su queste pagine, che definiremo “autorevoli” per il vostro sito, avrete discrete possibilità sia di fare una buona link building interna (linkare pagine con poco traffico da quelle autorevoli, ad esempio), sia di provare a vendere qualche link, se vi capita. In genere ricordate quanto scritto al punto precedente: il problema è ancora una volta capire cosa abbia senso e cosa sia una forzatura da evitare. Molti SEO si sentono molto intelligenti nel linkare qualsiasi cosa in ogni modo possibile, quando in realtà sono semplicemente presuntuosi e dovrebbero rivedere le proprie strategie: ogni cosa che si fa, anche un banale link, deve avere una logica (editoriale, di marketing, ecc., ma deve averla), deve essere pensata per l’utente finale, e le convenzioni SEO in astratto – tipo: mettere la keyword all’inizio del title – non possono mai avere la meglio sul buonsenso. Si fanno figure veramente pessime, diversamente, ed il traffico che ci si procura “alla buona” rischia di essere poco utile.

Fare una lista di parole chiave da riutilizzare nel blog del sito

Aprite il report Analisi delle ricerche e visualizzate la sola colonna CTR; se ordinate per CTR descrenti (dai più grandi ai più piccole), avrete individuato le ricerche più frequenti che portano al vostro sito. Esportatele e create un po’ di articoli a tema con le parole chiave, in modo che pubblicandoli possiate potenziare ed estendere la coda lunga (es. le varianti di una parola chiave principale) nel medio-lungo periodo.

Selezionate sempre – consiglio generale – il 10-20% delle parole chiave partendo dalle più visualizzate (impressions alte), lasciate perdere quelle che non hanno buone prestazioni in termini di impressioni – a meno che, ovviamente, non siano molto competitive o vogliate comunque puntarci.

Sezione Link interni

Sbirciando nella sezione Link interni sottoTraffico di ricerca potrete rendervi conto di quanto sia bilanciata la vostra link building interna, di come siano distribuiti i link sulle varie pagine e così via. Se trovate un profilo molto sbilanciato cercate di non esagerare coi link interni, diversamente le cose andranno benone.

L’analisi di questa sezione permette anche di individuare le pagine più linkate come a maggiore potenziale sfruttabile, e fare delle modifiche su queste ultime potrebbe, a volte, essere utile per aumentare il traffico sul sito.

Manutenzione del profilo di backlink del nostro sito

La sezione Traffico di ricerca -> Link che puntano al mio sito può essere molto utile per verificare che la nostra link building stia funzionando: di solito i backlink vengono “assorbiti” e mostrati dal tool entro un paio di settimane da quando compaiono sul web. Da qui potrete anche verificare di non avere backlink penalizzanti (che potete mandare in  disavow), potrete verificare profili sospetti, link rotti e così via.

Questa sezione è utile anche in termini di classificazione e clusterizzazione dei link: se ordinate in base alle Pagine con link crescenti (dalle più piccole alle più grandi) ci sono discrete possibilità di vedere e verificare i backlink “migliori” – ammesso che siano migliori quelli che riportano un unico link in uscita verso il vostro, rispetto a quelli che lo ripetono su più pagine del loro sito.

Approfondimenti

Se vuoi saperne di più sulla Search Console di Google, consulta il corso online Guida pratica all’uso della Search Console.

Originally posted 2018-09-20 05:20:43.

Pubblicato il

Tool per la SEO: SEMRush, uno sguardo d’insieme

Scheda sintetica del prodotto

  • Disponibile in italiano: sì
  • Permette di vedere i backlink della concorrenza: sì
  • Permette di suggerire strategie: sì
  • Facile da usare: sì
  • Gratuito: in parte

Recensione

Non voglio perdermi in chiacchiere inutili con questa recensione, e vado direttamente al sodo: Semrush è uno dei principali strumenti per le attività SEO più ricorrenti, ed è certamente uno dei tool più noti ed utilizzati. Mi è capitato di usarlo per la valutazione dei domini in ottica competitività e posizionamento, ed in particolare per la compra-vendita di link può rivelarsi uno strumento prezioso. Nella schermata principale che vediamo qui di seguito, ad esempio, sarà possibile inserire il nome di un dominio per ricevere una valutazione. Prima di farlo ricordatevi di selezionare la lingua di riferimento (Italia o Google Mobile Italia, se preferite) e di cliccare su Inizia ora per vedere le valutazioni che vi fornirà. Per buona parte lo strumento è gratuito, tranne per l’analisi approfondita che diventa, come vedremo tra un attimo, a pagamento.

Cosa racconta il report? Un sacco di cose, in realtà:

risultati derivanti dalla ricerca organica e a pagamento;

numero e tipo di backlink;

numero e tipo di inserzioni.

La parte di backlink è abbastanza accurata, e vi permette di sbirciare tra i backlink dei concorrenti; nella versione free solo una parte di backlink sono visibili, ovviamente. Si possono vedere anche le anchor text che sono state linkate, i domini singoli che hanno linkato il sito che state analizzando ed altri dati analoghi che normalmente non vedreste, se non mediante complicate ricerche mediante operatori di Google (abbastanza scomode e spesso al limite dell’impossibile, ad oggi). L’indice non è aggiornatissimo nella versione free, c’è da specificare, ma diventa praticamente real-time in quella a pagamento, che comunque rimane la versione consigliata per un uso professionale.

Con la versione gratuita è possibile effettuare fino a 10 richieste consecutive, invece con quella PRO si possono effettuare più richieste, più precisamente ci daranno

  • 10.000 risultati per report
  • 3.000 report al giorno
  • Tracking: 500 keyword, 5 campagne

. Le sottoscrizioni partono da 99 dollari al mese (circa 85 euro al mese, vedi cambio valuta attuale) ed arrivano a circa 350 euro al mese, cifra per cui è possibile avere il massimo:

  • Report branded
  • Dati storici
  • Limiti estesi
  • Report white-label
  • Accesso API
  • Limiti estesi e opzioni di condivisione

Usando anche solo lo strumento base a 99$/mese – una cifra non da poco certamente, ma se avete già un paio di clienti basici di valore riuscirete ad ammortizzare – è possibile disporre di ben 28 strumenti di web marketing targetizzabili per lingua, ed è ideale per freelance, professionisti che lavorano da soli o piccole aziende con un budget limitato che operino ovviamente in ambito SEO.

Originally posted 2018-06-29 16:12:06.

Pubblicato il

Guida pratica alla nuova Search Console di Google

Come funziona la Search Console di Google

La Search Console di Google sostituisce integralmente il vecchio Webmaster Tools, mediante un cambio di interfaccia piuttosto radicale orientato ad un design molto minimale; da un certo punto di vista questo mi ha sorpreso in negativo, perché sembra che molte funzioni siano state rimosse dalle funzionalità. Tra l’altro a partire dal 12 dicembre 2018 non sarà più possibile accedere al webmaster tools, E sarà obbligatorio passare al nuovo sistema. Mi sembra quindi opportuno abituarsi definitivamente all’idea di farne uso, da ora in poi, per poter monitorare le prestazioni del proprio sito su Google.

Panoramica generale

L’aspetto della nuova interfaccia della Search Console di Google è la seguente: si nota fin da subito che è stata concepita in un modo molto più minimale, e che potrebbe sembrare limitativo rispetto alle vecchie funzionalità. Google in questi anni ci ha abituati a dare e togliere parecchio, in effetti, per cui le prime paura possono sembrare del tutto giustificate almeno prima vista: c’è anche il problema di doversi abituare alla nuova interfaccia, E soprattutto al fatto che alcune funzionalità sono state sostanzialmente dismesse E non si potranno più utilizzare.

Indicizza solo quello che ti serve

L’approccio corretto al problema secondo me parte da una conoscenza adeguata di come funziona Google e di come indicizza il nostro sito: in prima istanza infatti il crawler si occuperà di scansionare periodicamente le pagine alla ricerca di contenuti interessanti, per fare questo È necessario che il sito funzioni correttamente e che tutte le pagine abbiano i meta tag opportuni (INDEX, FOLLOW) oppure al limite nessun metatag robots.

È anche piuttosto importante configurare in modo corretto il file robots.txt, perché mediante questo viene stabilito cosa Google posso scaricare o meno: soprattutto nel caso di modifiche, o la prima volta che sottoponiamo il nostro sito alla console, è essenziale che questo file permetta al crawler di leggere tutti percorsi che ci interessano, senza limitarne nessuno.

Questo si ricollega ad un altro aspetto molto importante per la nuova interfaccia: ovvero superare la mentalità per cui più pagine si indicizzano meglio è, e passare all’idea di consumare le risorse solo strettamente necessaria per i nostri scopi. Questo significa l’esempio porre in noi index tutte le pagine generate automaticamente da WordPress che non utilizziamo, che sono in molti casi le pagine dei dati, quelle dei risultati di ricerca e a volte addirittura quelle delle categoria. Questo è ciò che intendevo quando ho scritto nel titolo di questo paragrafo con indicizza solo quello che ti serve: ovviamente dovrai anche saper valutare a dovere quello di cui ha bisogno il tuo sito.

L’idea alla base di un corretto uso della Search Console passa per saper riconoscere in modo critico quelli che sono i contenuti davvero importanti per Google e quelli che, invece, non lo sono. Se andiamo fa sovraccaricare il crawler di richieste, infatti, ci sono maggiori probabilità di commettere errori in fase di indicizzazione, di ritrovarsi pagine ambigue o duplicate E di peggiorare globalmente le prestazioni del nostro sito.

Chiarito questo, cerchiamo di vedere un po’ per volta le varie sezioni che sono disponibili nella search console di nuova generazione. Ho fatto un piccolo video che prova a spiegare gli aspetti più importanti, e che vi metterà in condizione di utilizzare lo strumento in meno di 15 minuti.

Nuova Search Console in breve

In breve, quindi:

  1. le funzionalità della Search Console di Google sono state riviste, in particolare per quello che riguarda i link: si possono visionare per tutti i siti sui quali abbiamo il controllo sia le anchor text esterne che quelle interne, con tanto di dettaglio alle singole pagine destinazione;
  2. lo strumento è pensato più essenzialmente per testare accuratamente i singoli URL del nostro sito;
  3. il taglio generale dell’interfaccia è decisamente più semplice da usare rispetto al Webmaster Tools;
  4. molte funzioni sono state dismesse definitivamente, ma questo;
  5. altre novità potrebbero essere inserite nel seguito all’interno della console;

 

Pubblicato il

La SEO spiegata a mio zio bravo col computer

Paroloni ovunque: purtroppo chi si occupa di SEO, un po’ per necessità un po’ per darsi un tono, è costretto ad utilizzare termini non sempre chiari e tantomeno utili alla comprensione della materia. Così ho provato ad immaginare come spiegare la SEO a chi proprio non si è mai occupato della materia, pur avendo un minimo di background (anche tecnologico) di fondo.

Come spiegarlo?

In genere le attività SEO (Search Engine Optimization) riguardano il miglioramento del posizionamento di un sito web all’interno dei risultati di ricerca di un motore, ad esempio Google. Detta in modo ancora più semplice, pensate a quando fate una ricerca qualsiasi su un motore: i risultati che usciranno per primi sono quelli più “bravi” secondo Google, oppure che hanno avuto i SEO più in gamba, o – ancora – che possono usufruire di vantaggi (non per forza meritati) nell’apparire lì.

In molti casi, anche se non in tutti, le prime pagine dei risultati di Google sono frutto del lavoro di vari SEO, e di un mix di fattori non sempre controllabili direttamente che riguardano qualità, UX, contenuti, referenze esterne, perizia tecnica e struttura del sito. Fare SEO sul tuo sito web, se eseguito nel modo più adatto, ti permetterà di accrescere le tue opportunità, far conoscere il tuo brand, esporre al meglio i tuoi prodotti e massimizzarne la sua visibilità sui motori.

Mio zio mi guarda perplesso, perchè ancora non ha ben capito: perfetto, mettiamola in modo ancora più semplice. Un SEO che vigila sul tuo sito è un po’ come l’addetto alla qualità di un’industria, il quale non solo controlla che sia tutto ok tecnicamente (e che ad esempio il macchinario non si blocchi) ma possiede anche la possibilità di intervenire nel processo, modificarlo, provare a migliorarlo e a renderlo più efficente.

Ottimizzare un sito rientra in una serie di pratiche di Search Engine Optimization (da cui l’acronimo SEO), che si possono suddividere in vari ambiti:

  • strutturazione corretta dei menu e del sito (UX);
  • verifica della correttezza formale del sito, della raggiungibilità dell’host e della scansionabilità delle pagine;
  • verifica dell’uso corretto dei tag HTML (non chiamatelo “codice HTML“: il codice è altra roba, HTML è essenzialmente un markup), in particolare dei tag title e meta description, dei testi (in parole molto povere: si verifica la corrispondenza tra un termine di ricerca desiderato e la sua presenza nel testo, sia come corrispondenza esatta che come corrispondenza parziale o mediante sinonimi);
  • dei riferimenti esterni del sito (ciò che spesso si chiamano backlink e vengono acquisiti mediante link earning – guadagno spontaneo di link – o link building – forzatura dei link mediante varie tecniche).

A questo il bravo SEO dovrebbe affiancare un po’ di verifiche tecniche sulla scansionabilità del sito, sul fatto che ogni pagina sia linkata da almeno un’altra, sul fatto che non ci siano metatag robots o robots.txt che impediscano al crawler del motore di ricerca di scaricare le pagine, che nel sito sia presenta una sitemap opportuna e che la stessa sia correttamente generata.

La verifica dei requisiti tecnici di “buon sito” passa anche per altri fattori (velocità di caricamento delle pagine, presenza di HTTPS ecc.) che spesso costringono il SEO ad essere multi-disciplinare, e disporre così di un buon bagaglio tecnico unito ad uno prettamente di marketing, umanistico e comunque ben a conoscenza delle dinamiche di funzionamento del web.

Fare SEO è il modo più naturale per aumentare le visite al sito mediante motori di ricerca, e favorire il tuo business.

PS: alla fine mio zio ha capito, ed è entusiasta della SEO: e voi?

Originally posted 2017-05-26 12:31:54.

Pubblicato il

Ha senso inserire un articolo in italia su un guest blog in altra lingua?

L’inserimento di articoli sul web, o article spinning nei casi “industrializzati”, è una pratica molto diffusa in ambito SEO: l’articolo è ovviamente un pretesto per inserire un link tematico all’interno, e godere così dei vantaggi derivanti dalla link building. Tuttavia potrebbe capitare, in alcuni casi, di avere l’occasione di postare liberamente su blog in una lingua diversa da quella propria: si tratta di un’opportunità molto discussa tra gli addetti ai lavori, ma dal valore altamente controverso.

Capita spesso, infatti, di trovare blog che offrano guest post gratuiti o a prezzi stracciati in inglese, e nessuno vieterebbe di postarne uno in italiano. Questo pero’ possiede numerose controindicazioni:

  1. anzitutto, se il sito viene controllato e possiede una politica editoriale degna di questo nome, tenderà a cancellare il vostro articolo perchè non potrà capirlo o lo giudicherà inadeguato: voi pubblichereste un guest post in Giapponese sul vostro blog?
  2. inoltre se il bacino di lettori legge abitualmente nella lingua di quel blog, non trarrà alcun vantaggio da un sito in una lingua che non capisce;
  3. se il sito possiede un buon potenziale in termini di autorevolezza, potremmo essere tentati di inserire lo stesso l’articolo per avere un backlink in più; difficile aspettarsi, in questo caso, che si ottengano dei benefici misurabili in termini di posizionamento.

Pertanto è in genere sconsigliabile postare un articolo in italiano su siti o blog non in italiano.

Da un punto di vista tecnico la lingua del sito viene stabilita mediante attributi hreflang, ed è sempre opportuno attenersi a questo genere di indicazioni.

Originally posted 2017-05-05 11:55:11.

Pubblicato il

I siti privi di HTTPS vengono notificati nella Search Console: meglio aggiungerlo!

Da qualche tempo c’è aria di grosse novità in casa Google: la campagna pro-HTTPS da utilizzare su tutti i siti, almeno a lungo termine, sta iniziando a mostrare risultati concreti. Ho già esplicitato altrove il mio scetticismo di fondo legato a questa iniziativa: questo non tanto per l’utilità tecnologica in sè (che non si discute: HTTPS è uno standard di sicurezza elevato ed utile) quanto per l’uso che tenderanno a farne la maggiorparte delle persone (soprattutto quelle che si baseranno su quello che leggeranno, soprattutto da parte di web hosting interessati a vendere certificati SSL e indirettamente “poco obiettivi” sull’argomento: si veda anche WordPress e SSL in generale).

La morale della favola è sempre la stessa: se non siete skillati in informatica e non vi rivolgete ad un consulente serio, è difficile che possiate configurare a dovere un certificato SSL, anche se ovviamente nessuno vi vieterà di farlo.

Notifiche da parte di Google nella Search Console

Peraltro, ormai da tempo, i siti senza HTTPS vengono da qualche tempo, come mi suggeriva qualche collega giorni fa, notificati nella Search Console via email: ovvero i webmaster vengono avvisati in questi termini che il sito non supporta SSL, e che sarebbe preferibile farne uso.

La prima parte del comunicato mi ha notificato il sito web interessato:

La seconda mi ha fornito una descrizione dettagliata, con un URL di esempio (NB mandano solo un esempio, potrebbero esserci altre pagina analoghe: apparentemente le notifiche degli URL specifici riguardano pagina indicizzate e, nel mio caso, ben posizionate su Google). Viene anche esplicitato che si tratta di una prima fase, e che ne seguiranno altre per cui, presto o tardi che sia, tutti i siti senza HTTPS saranno notificati.

Infine propongono come risolvere il problema:

Mi pare opportuno, a questo punto, fare un paio di approfondimenti per evitare gli inevitabili fraintendimenti sull’argomento.

La notifica non è una penalizzazione!

Le notifiche di questo tipo arrivano alla Gmail su cui avete registrato la vostra Search Console; non si tratta, per quello che ne sappiamo, di notifiche di penalizzazione (in senso manuale tipo per vendita di link, tantomeno algoritmica tipo Penguin, Panda o altri). Quindi, se riceverete una mail del genere da Google, non vuol dire che siete stati penalizzati: significa semplicemente che è stata rilevata una pagina con un form di login che non usa HTTPS (o comunque almeno una sezione che, secondo la traduzione italiana, “pagine che raccolgono password o dati di carte di credito“: “raccolgono”, in questo caso, va inteso come “ricevono”, “utilizzano” password, ovvero form di login ed eventualmente form di pagamento con numero di carta di credito, data di scadenza e codice CVC: vedi anche come funzionano i pagamenti online).

Il fatto che sia stata rilevata almeno una pagina senza HTTPS non significa, a mio modesto avviso, che ci saranno per forza “guai in vista” se non passate ad SSL: certo, è buona cosa farlo (nessuno lo nega), e sarebbe obbligatorio farne uso, ma questo vale soprattutto per coloro i quali hanno implementato form di pagamento, login o registrazione in HTTP.

La notifica non arriva per tutte le pagine

Sui circa 40 siti che controllo via Search Console, per intenderci, solo in un caso mi è arrivata questa notifica, mentre per i blog ed i portali con pagina di login separata dal resto, per quello che si è capito ad oggi, questa notifica dovrebbe arrivare – almeno, meno probabilmente.

Non è corretto, pertanto, sostenere – come molti stanno facendo – che la notifica arrivi indistintamente su tutte le pagine che usino HTTP (come detto, sembra arrivare solo su pagine con determinate caratteristiche): certo, l’idea di fondo resta quella di passare ad HTTPS su tutte le pagine (anche perchè è più facile farlo, visto che il certificato si attiva a livello di dominio, di norma), per un web più bello e per avere l’iconcina carina di colore verde su tutti i browser da Chrome versione 56 in poi.

Tecnicamente parlando, pero’, le pagine più interessate a questo genere di notifica, cioè quelle per cui sarebbe richiesto avere HTTPS obbligatoriamente, sono quelle che contengono dei form (caselline in cui digitare password o numeri di carte di credito) 1) di login 2) di pagamento. Dipende comunque dalla struttura del sito e da come viene implementato il form di login nelle pagine del front-end, ad esempio.

Messa così, non ci voleva Google per accorgersene: è ovviamente corretto che avvisino i webmaster e li invitino a passare quanto prima ad HTTPS, ma è piuttosto improprio (e a mio avviso molto meno corretto) puntare sul terrorismo psicologico per cercare di cavalcare l’onda e vendere certificati.

Il messaggio corretto che dovrebbe passare, in effetti, è che bisogna quanto passare ad HTTPS per tutte le pagine di login e di pagamento dei vari siti, soprattutto quelli che vogliono lavorare bene e ridurre i rischi. Ma qui non è questione di SEO, scusatemi: è questione di web ben realizzato. C’è anche una questione di “immagine”, ovviamente, per cui chi usa HTTPS è un po’ come chi veste firmato, ma il punto non è tanto questo. Anche se questo è un blog sulla SEO, diffido da sempre dall’idea – trapelata fin dall’inizio – che HTTPS sia solo un “fattore di ranking” perchè, soprattutto per come ho visto che si lavora in Italia, messa così il potenziale protettivo della tecnologia SSL rischia di andare in malora.

HTTPS universale (su tutte le pagine dei nostri siti) non sarà una modifica “indolore”

Un paradosso, quello di SSL/TLS universalizzati su tutti i siti, che rischia di diventare di dimensioni epiche: da un lato, infatti, le pagine in HTTP già indicizzate andranno reindicizzate, e questa cosa sarà poco ovvia per molti di noi, e sono pronto a scommettere sui duplicati in SERP (stessa pagina indicizzata in HTTP e in HTTPS) che fioccheranno un po’ ovunque. La cosa che mi turba maggiormente, in questa fase, è pensare a tutti coloro che useranno, o che già hanno usato, HTTPS come fattore di ranking, senza neanche rendersi conto di ciò che comporta fare uso di SSL.

HTTPS non risolverà in automatico tutti i problemi di sicurezza

A parte quest’ultimo aspetto squisitamente SEO, in tanti passeranno a breve ad HTTPS con annessi certificati (spesso abbastanza costosi) non solo con la beata speranza di migliorare il proprio posizionamento su Google (in bocca al lupo: ci sono tuttavia tante altre cose, all’ordine del giorno, per migliorare il proprio ranking): altri ancora sfrutteranno la questione per ribadire una maggiore sicurezza sulle proprie pagine, pensando di aver potenziato la sicurezza del proprio sito ed archiviando definitivamente la pratica: in fondo, se lo dice Chrome che il sito è sicuro, di cosa preoccuparsi?

Parliamo di HTTPS, ma ci sono ancora persone che usano irresponsabilmente la propria data di nascita come password. HTTPS in altri termini, mi permetto di ricordare, non ti protegge dall’uso di “12345” come password: per cui secondo me un problema esiste, ma si sta affrontando in modo poco efficace.

HTTPS non è una tecnologia universalmente sicura

Qualche tempo fa (2014) uscirono fuori almeno tre falle informatiche su HTTPS, e molte di queste non sono ancora state risolte ad oggi (vedi ad esempio: 148 mila siti affetti da Heartbleed). Questo vuole dire che, da un certo punto di vista, è ancora prematuro che Chrome etichetti come “sicuro” un sito perchè usa SSL / TLS: in teoria, anche un sito con HTTPS può essere attaccato come qualsiasi altro, per quanto tale probabilità tenda ovviamente a ridursi in presenza di HTTPS. La notifica di “sito sicuro”, se da un lato aiuterà i visitatori a riconoscere i siti truffa (almeno, quelli che non usano SSL), dall’altro potrebbe finire per deresponsabilizzare ulteriormente i proprietari dei siti sull’aspetto legato alla sicurezza.

A: Il mio sito è sicuro, uso HTTPS!

B: Ma usi l’autenticazione a due fattori?

A: No, e la mia password è “password”.

Possiamo poi ipotizzare che il mercato, in questi casi, tenderà a seguire la “coda lunga”, per cui la maggiorparte dei certificati installati saranno certificati gratuiti (per cui, temo, non troppe garanzie) o saranno di qualità  non sempre eccelsa (esempio: da una delle falle di cui parlavo è emerso che su OpenSSL, una delle implementazioni più popolari di HTTPS, c’erano all’attivo solo 5 programmatori, di cui solo uno stipendiato!). Questo dilagare di tecnologia cheap, peraltro brandizzata ed ampiamente promossa da Google e da Chrome, mi pare che finisca per avere dei tratti vagamente inquietanti.

HTTPS è un problema ancora, ad oggi, complesso, e molti aspetti sono squisitamente destinati agli “addetti ai lavori” (perdonerete il taglio “poco SEO” di questo articolo, ma purtroppo da sempre HTTPS è stata legata a questo genere di discorsi): a me questa mossa di invitare tutti a farne uso sembra piuttosto prematura, anche se riconosco la sua bontà di fondo, ovviamente. Darlo in pasto alle masse come stanno facendo, tuttavia, in questo momento, mi pare comunque una strategia poco azzeccata.

Originally posted 2017-01-31 08:50:39.

Pubblicato il

Come posizionarsi su Google: uno studio che la dice lunga

In questo articolo cercherò quindi di essere aderente alle considerazioni ed alle difficoltà che si riscontrano nelle attività SEO, in particolare quelle di cui mi sto occupando da qualche tempo: quella su blog e siti editoriali, in cui l’interesse primario è quello di portare visitatori interessati agli annunci e che possibilmente non usino AdBlocker, nè siano incentivati a farne uso. L’articolo sarà semplice nella sostanza, pero’ è necessario che ne seguiate i singoli passaggi – a volte ostici, a volte meno – anche a costi di perderci un po’ di tempo extra; vi assicuro che non si tratterà in nessun caso di tempo perso, quantomeno se vi occupa professionalmente di SEO.

Pronti? Si comincia.

Ipotesi iniziali

Le uniche assunzioni che farò, ragionevoli quanto arbitrarie (ci tengo a sottolineare che non sto proponendo la “formula magica” per fare nulla), saranno le seguenti:

  1. Qualsiasi attività SEO sensata e utile deve affrontare il fatto che sia utile e sensata per l’attività e gli scopi / obiettivi del sito; fare cose senza senso (tipo commentare un blog sulla pesca subacquea e farsi linkare un blog sul trekking, oppure mettere HTTPS sulla pagina “Chi siamo“) solo perchè “lo dice X“, con X che varia da Google fino al guru di turno, neanche a dirlo, non ha senso. Non-ha-senso, ripeto: vorrei che fosse chiaro da subito perchè, altrimenti, non ci capiamo alla fine.
  2. Non ha senso, inoltre, tarare le strategie SEO sulla base di questo o quell’altro algoritmo annunciato da Google sul momento (Panda, Penguin ed altre belve feroci); questo, sia perchè non è modo di lavorare corretto nè pratico, sia per le ragioni che ho descritto estesamente qui. Certo, gli aggiornamenti bisogna conoscerli e studiarli, nella misura in cui ci danno preziose indicazioni su cosa non fare o da chi non farsi prendere la mano. Tuttavia, la cosa migliore per fare SEO come si deve resta quella – ed io ne sono fermamente convinto, da quando ci lavoro – di studiare a fondo le linee guida per webmaster, proprio come se fossero il manuale di un software. Il resto, e scuserete la mia brutalità, sono semplicemente chiacchiere da appassionati di oroscopo.
  3. I backlink sono un fattore di posizionamento determinante per Google, specialmente (e questa è un’ipotesi, secondo me, ragionevolissima) se si riesce a superare un numero minimo (che cercheremo di quantificare) di domini unici che ci linkano: quest’ultimo, per me, è un fattore di posizionamento mediamente serio, e comunque più rilevante dell’avere o prendere backlink “grezzi” senza sapere da dove arrivino; insomma, cerchiamo di usare la testa quando lavoriamo su queste cose, sempre.
  4. Gli indici di page e/o domain authority come MOZ sono, e resteranno sempre, di poco conto: questo perchè sono estranei ai motori che usiamo come Google o Bing, pertanto diventano quasi irrilevanti, tanto più se non sappiamo nemmeno come vengono calcolati (e se, ad esempio, alcuni indici possano essere manipolati ad arte, per ragioni faziose e/o commerciali); e pur sapendo come vengono calcolati, del resto, ci possono dare indicazioni perlopiù orientative su altre strategie da attuare (copywriting ecc.)
  5. La misura di pertinenza di una pagina rispetto ad una query può essere più facilmente suggerita dall’esperienza, in molti casi, che dal calcolo di un qualsiasi software. Punto non banale che mi preme sottolineare: se pensate che la pertinenza misuri  come (e quanto) una pagina ottimizzata risponda bene, cioè soddisfi l’utente che cerca (ricerca vista, in questa sede, come “richiesta”, ad esempio “voli low cost”), siete sulla buona strada per capire un po’ meglio la SEO; se invece vi siete fissati che sia tutta una questione di keyword density, lasciate perdere la SEO (consiglio brutale, mi rendo conto, ma spassionato).
  6. Leggiamo spesso che i contenuti lunghi si posizionano meglio di quelli brevi, ricordiamo sempre che 1) non tutto sul web è testo, e che 2) questo discorso può valere per settori informativi come quello dei tutorial (ad esempio), ma che in generale non è un criterio sempre valido e, anzi, sembrerebbe soggetto a continue scremature “al ribasso” (questo perchè la tentazione di infognare di spam le prime pagine dei risultati di ricerca è sempre altissima, in ognuno di noi).
  7. HTTPS per me non sarà mai un fattore di ranking, anche se lo dice Google in quel comunicato vagamente scriteriato, e quantomeno nella misura in cui abbia senso avercelo su un sito web; ha senso nelle pagine di acquisto degli e-commerce o nella fase di login / logout, certo, ma nelle pagine di un blog in sola lettura perchè mai farlo (vedi di nuovo punto 1, a riguardo)?
  8. Qualsiasi articolo che illustri “fattori di ranking SEO” è basato nel 99% dei casi su correlazioni statistiche, e va sempre e comunque presa con le pinze; come a dire, posso trovare 1000 persone che siano solite mangiare 2 volte al giorno, e ci sarà una forte correlazione tra le loro abitudini alimentari. Molte persone potrebbero percepire questa relazione come un qualcosa di intimo che lega questi estranei, ma se consideriamo le singolarità (ogni persona ha il proprio metabolismo, ecc.) ci rendiamo conto immediatamente che è un fattore semplicemente ingannevole. Correlation does not imply causation!
  9. La velocità di un sito non è un fattore di ranking, per il semplice fatto che non è chiaro chi la misuri (con “chi” che varia da Google al guru di turno); semmai, è un requisito di buona qualità di un sito.

Lo studio di Backlinko

Chiariti questi punti, vorrei riportarvi e commentare uno studio presentato dal sito Backlinko, We Analyzed 1 Million Google Search Results. Here’s What We Learned About SEO, un articolo molto discusso e linkato di settembre 2016 che, secondo me, contrariamente dal tono inutilmente sfarzoso di questi articoli offre un paio di spunti davvero interessanti. Chi mi conosce o ha mai seguito un mio corso sa bene quanto sia restìo a linkare statistiche di questo tipo, specialmente qualora propongano metodi “miracolosi” per posizionarsi bene su Google: in questo caso, ho registrato una lodevole eccezione.

Per me è doveroso citarli e, notate bene, di solito non lo faccio mai: so bene che questi “studi” sono tanto accattivanti quanto approssimativi (specie per chi abbia studiato un minimo di statistica, è facile smontarli e rilevarne le contraddizioni, senza contare che pubblicare questi studi è una tecnica di link earning / building a tutti gli effetti: produrre contenuti utili e stimolanti per i SEO perchè poi, guarda caso, i blog SEO ne parlino e ci piazzino un link, come ho appena fatto io. Sarebbe carino che qualcuno, prima o poi, discuta e metta in evidenza questa abusatissima tecnica in qualche evento di web marketing, piuttosto che insistere sui soliti concetti triti e ritriti, per inciso).

Cosa hanno fatto i signori di Backlinko? In due parole: sfruttando i dati messi a disposizione da SEMRush, Ahrefs, MarketMuse e SimilarWeb (4 giganti della raccolta dati sul web, soprattutto i primi due), hanno effettuato presumibilmente lo scraping, cioè l’acquisizione ed analisi mirata, di ben un milione di risultati di ricerca di Google. L’idea era quella di capire quali, tra i fattori noti e stabiliti in precedenza, fosse più influente per posizionarsi in prima pagina. Da questi studi è possibile di solito tirare fuori dei cluster, cioè dei raggruppamenti distinti di link, che possano dare indicazioni che poi questi articoli traducono per motivi pratici in termini puramente discorsivi, del tipo: se volete posizionarvi bene su Google, sfruttate bene – cito a caso – i title delle pagine, i backlink da siti autorevoli, e così via.

Che cosa comporta?

In breve, quello che emerge dallo studio – lacunoso, ricordo, nella misura in cui si tratta solo di correlazioni, non di regole: badate a non considerarle “oro colato” – sono soprattutto due cose:

  1. le anchor text risultano essere ancora, nonostante penalizzazioni ed usi francamente ridicoli che ne sono stati fatti, estremamente importanti;
  2. i siti ben posizionati rientrano quasi tutti in un raggruppamento di siti con almeno 300 domini diversi che li linkano.

Il resto – in tutta franchezza – mi sembra un mix di frasi ad effetto, mezze verità ed assunzioni arbitrarie che, per quanto in buonafede possano sembrare, servono soltanto a fuorviare. Non le riprenderò più anche perchè, per non appensantire la trattazione, ho premesso a tutto il discorso i punti secondo me fallaci del loro approccio, limitandomi a filtrare gli unici due che secondo me valgono a tutti gli effetti in qualsiasi strategia SEO.

Se ci tenete andateveli pure a rileggere, ma qui nel frattempo entro nel clou del discorso.

Fattori di ranking (molto) importanti

Abbiamo detto che dall’analisi in questione emergono due fattori di posizionamento basilari: il primo è legato ai testi ancora, cioè al testo presente sui link che puntano al nostro sito. Il secondo, invece, è legato al numero di siti unici che ci linkano; quest’ultimo è un dato che chiunque usi la Search Console di Google dovrebbe vedere e poter consultare molto facilmente (Traffico di ricerca -> Link che rimandano al tuo sito).

Numero di domini che ci linkano

Si tratta del numero prima di “domini principali che presentano link a pagine sul tuo sito“, in pratica.

Eccovi invece, qui sotto, il grafico di backlinko.com che descrive esattamente questa situazione: i siti in prima posizione avevano tutti, secondo loro, almeno 300 backlink da domini distinti in ingresso, e se questo numero diminuisce peggiora progressivamente il posizionamento (a 150 siamo già in seconda posizione). Possiamo assumere che NUMBER OF REFERRING DOMAINS e domini principali che presentano link a pagine sul tuo sito coincidano, in questa sede, concettualmente.

Ripeto, è solo una correlazione e non dimostra nulla di realmente scientifico, ma pensiamola in modo costruttivo / creativo: quando fate link builing sembrerebbero comunque meglio 10 backlink da 10 domini distinti che 100 da uno singolo. Questo perchè tale varietà in ingresso è un ingrediente che da’ molti benefici, e l’ho constatato soprattutto nel medio-lungo periodo su vari siti che ho curato lato SEO. Se ci fate caso, tra l’altro, 300 è una soglia critica per moltissimi miei siti web; quelli che vanno sui 400/500 domini unici che li linkano, di norma, non sono tantissimi o hanno, in media, uno storico estremanete robusto, una buona organizzazione e raramente – credo – hanno sofferto di veri problemi di posizionamento.

Nel caso che ho riportato in screenshot, si tratta di un sito su cui ho effettuato un’attività di base “leggera”, per cui si posiziona bene solo su ricerche “facili” e senza concorrenti particolarmente agguerriti. Potrei riportarne almeno altri tre in cui quel numero da 27 diventa rispettivamente 120, 190 e 318, e per cui le soddisfazioni in termini SEO sono ad essi proporzionali, in qualche modo.

Distribuzione delle anchor text

Sul secondo punto, è almeno da tempi di Google Penguin che sentiamo demonizzare la link building con anchor text mirate: io stesso, ormai, tendo ad acquisire in maniera pseudo-casuale le ancore, ovviamente tenendo sempre in mente la “zona” concettuale del sito, e mai mettendo sempre in evidenza la stessa parola / frase. Il punto è che, come scrive Backlinko stesso, questa pratica è rischiosa ma (e qui entro nella considerazione personale) per una ragione diversa da quella che si sente in giro: è rischiosa perchè viene fatta in modo quasi sempre – uso un eufemismo – privo di stile (se credete che lo stile non c’entri nulla con la SEO, evidentemente pensate pure che il web sia fatto di bot che cliccano a casaccio su qualsiasi cosa, e non di persone sempre più smaliziate, informate ed “agguerrite”). In certi casi la Link Building si continua a fare via software tarati male, usati peggio e concepiti in maniera astrusa o “meccanica”, per cui – messa così – è ovvio che diventi una pratica sconsigliata: è comunque davvero difficile farla bene senza “farsene accorgere“, ed io stesso sto studiando da anni delle strategie che mi consentano di farlo in questo modo. Dateci dentro sotto questo punto di vista, perchè i risultati buoni – prima o poi – arriveranno anche da qui.

Conclusioni

Proviamo quindi a tirare le somme (i pigri potrebbero anche leggere direttamente qui, ma saltando i vari passaggi, si perderanno un po’ di dettagli importanti):

  1. ottimizzare una pagina web rispetto ad una ricerca significa, anzitutto, saper scegliere la pagina (o le pagine!) che sia la migliore “candidata”; trovatele, e cercate di capire bene il perchè convenga, o meno, ottimizzarla;
  2. il discorso della pertinenza è essenziale (ed ancora ignorato o peggio snobbato da molti) nella SEO, perchè (specie negli ultimi anni) a funzionare meglio sono le pagine che effettivamente rispondono “meglio” (più velocemente, più estesamente ecc.) alla “domanda” fatta a Google;
  3. se assumiamo che le anchor text siano importanti per la SEO, resta comunque essenziale saper linkare il sito dall’esterno: nel dubbio, suggerisco sempre di usare anchor text brandizzate sul nome del sito per limitare i rischi;
  4. infine provate ad aumentare, da oggi al prossimo mese ad esempio, il numero di domini unici che linkano il vostro sito; è un fattore facile da misurare, abbastanza intuitivo e spesso vitale (anche se non sempre: di solito lo è se sussistono idonee pre-condizioni di qualità, cioè se il sito è fatto davvero bene sotto ogni punto di vista). Nella mia esperienza, conosco un buon sito (che ho curato per un anno circa) linkatissimo e molto seguito – non dico quale, soprattutto perchè non avrei modo di chiedere il permesso di pubblicare quei dati – con oltre 500 domini unici linkanti ed un posizionamento invidiabile per molte query di ricerca anche molto competitive. Sarà stato un caso, certo, ma di sicuro era un indice di cose fatte come si deve, e non dovrebbe meravigliare il fatto che oltre la metà di quei link siano stati spontanei (lo so per certo, perchè ci ho lavorato per un bel po’). Certo non giurerei sul fatto che se ci arrivate anche voi ne godiate lo stesso, ma certamente fare link building con più di 500 domini unici distinti che ti linkano resta un obiettivo difficile, ma comunque sano e “salutare”. Provateci: è un bel modo, secondo me, per impattare le difficoltà della SEO.

Ecco perchè ho linkato quell’articolo: non tanto per il suo valore effettivo – che tendo comunque a smorzare al 50% dei toni; il mio ruolo scettico / rompiscatole me lo impone! – quanto perchè pone due spunti importanti e riscontrabili nella mia attività. Ecco perchè, alla fine, ho deciso di parlarne nel blog; e spero davvero che sia stato utile anche a te.

Originally posted 2016-12-16 19:57:19.

Pubblicato il

Il keyword stuffing ci ha fregati

In ambito SEO tutti dovremmo conoscere il keyword stuffing ed i problemi che può causare: su tutti, un prolificare di pagine web inutili per gli utenti, difficili da consultare e – nonostante tutto – spesso capaci di primeggiare sui motori di ricerca. Probabilmente è la tecnica (errata) più elementare che si conosca, e sfido qualsiasi SEO a non riconoscere di aver provato, anche solo a livello di test, ad “ottimizzare” una pagina in questo modo balordo. Se questa pratica serve a fare esperienza e ad evidenziare i limiti dei motori di oggi, seppur in misura inferiore rispetto al passato, non può fare parte di alcun tipo di strategia seria.

Sappiamo bene, insomma che una pratica del genere è altamente sconsigliata, e che risulta controproducente e rischia solo di fare del male al nostro sito, danneggiandone la reputazione agli occhi di Google e rischiando penalizzazioni pesanti. La SEO va vista in ottica più ampia, e valutata caso per caso a partire soprattutto dal profilo medio degli utenti attivi (es. disposti a comprare, interessati ad abbonarsi ecc.) che cercheranno il nostro sito.

Volendo vedere la questione da un’ottica leggermente diversa, ci sono molti SEO che tendono a rivalutare impropriamente questa tecnica: mi è capitato più volte di leggere articoli incentrati sulle “tecniche” di scrittura per posizionare un articolo in prima pagina, ad esempio. L’approccio sembra quasi convincente, anche ad uno scettico per natura come il sottoscritto, non fosse altro che era affrontata in maniera concreta & convincente e che spesso, per nicchie particolari, si riesce a posizionare un articolo molto bene (ed altrettanto rapidamente) addirittura senza fare link building (tipicamente, nella mia esperienza, sfruttando domini con alto trust o con uno storico di spessore). Caso specifico, comunque, ma con cui bisogna fare i conti: in questi casi non è affatto raro che l’articolo “ottimizzato” così sia in prima pagina, e presenti una ripetizione sconcertante della stessa parola chiave, evidenziata in bold poi inserita a casaccio nel titolo, ripetuta all’infinito come se i lettori fossero scemi – quando in realtà sarebbe bastata scriverla una volta o due, anche per rispetto alla lingua italiana. Ci si convince facilmente che la causa (falsa causa!) per cui un articolo si posiziona bene su Google sia da attribuirsi spesso, specie nel caso di content marketing improvvisato, al keyword stuffing.

Nel fare questo genere di considerazioni fuori target, insomma, è bene ricordare ancora una volta che correlation does not imply causation: in altri termini, ricordatevi sempre che fattori tipo keyword stuffing noi pensiamo siano irrinunciabili o vitali, ma in realtà non è dimostrabile che abbiano nulla a che fare con la SEO. Questo secondo la logica ingannevole della generalizzazione indebita, o peggio ancora principio della falsa causa: in parole semplici, è fin troppo facile in ambito SEO attribuire a cause ridicole fenomeni – come il posizionamento su Google – su cui nessuno saprà mai davvero nulla. Siamo d’accordo che quegli articoli sono in prima pagina, ma 1) è abbastanza certo che siano bombardati da negative SEO di frustrati vari 2) è altrettanto sicuro che siano segnalati come spam 3) di certo la concorrenza non starà a guardare e le cose è plausibile che cambino nel medio periodo. La realtà delle cose vorrebbe, insomma, più saggiamente considerare una molteplicità di fattori in ballo, che possono andare dalla reputazione del sito che pubblica l’articolo, al numero ed al tipo di citazioni spontanee che è riuscito ad attrarre (autorevolezza), all’età ed allo storico (numero di pagine indicizzate) del dominio, al numero di riferimenti esterni alla pagine e così via. Esiste un contro-test molto facile da effettuare: provare a pubblicare su Storify o siti simili una pagina web con keyword stuffing, e vi renderete conto di quanto sia difficile / impossibile riuscire a posizionarla su una chiave competitiva. Parlo ovviamente di ricerche almeno un minimo competitive, non di quelle che interessano il pub sotto casa con 30 clienti a settimana.

Se è vero che qualche tempo fa il keyword stuffing se non altro si nascondeva ai visitatori via CSS (se non altro, nascondevi la spazzatura sotto lo zerbino), adesso mi pare che questa tendenza sia addirittura scomparsa: la nostra spazzatura ve la mostriamo, è “bella” e ce ne vantiamo pure. In questi casi, si ha più rispetto delle norme fallaci di Google che dei propri clienti/utenti, quando sono questi ultimi che andrebbero più rispettati di tutti.  A certi blogger eccita parecchio, ancora oggi, fare keyword stuffing, e se ne vantano pure.

Più plausibilmente pero’, il loro posizionamento buono deriva da altri fattori che nessuno sta ancora realmente considerando, e che una volta individuati ci permetterebbero davvero di fare la differenza, e fare finalmente concorrenza seria, ai suddetti. Riuscite ad individuare questi fattori? Personalmente sono riuscito a capire quali siano, almeno in parte, solo dopo aver lavorato duramente su un settore specifico (quello degli hosting web) per molti anni, spesso a contatto con la mentalità di queste aziende e cercando di profilare delle personas, cioè dei “profili medi” di chi cerca un servizio di hosting.

Ad esempio:

  1. una pagina ottimizzata dedicata a Mario, un freelance squattrinato che cerca hosting per WP rigorosamente economici;
  2. un’altra pagina incentrata sulle offerte per l’utenza media di Luigi, Gianfranco e Gennaro, il “nocciolo duro” che poi compra la maggioranza delle offerte;
  3. una pagina ulteriore dedicata a Donald, CEO di un’azienda di software alla ricerca di un server dedicato per i servizi che dovranno pubblicare ai propri clienti;
  4. l’idea, insomma, è che dovremmo superare l’idea di keyword stuffing per concentrarci su quella di ottimizzazione del cliente medio, del visitatore occasionale che potrebbe un giorno imbattersi nel nostro sito, e metterlo da subito in condizione di trovare ciò che si aspetta in modo “su misura” per lui;
  5. …e così via, mettendo in coda ad ogni domanda e ad ogni rispettiva personas l’ulteriore richiesta: cosa potrebbero cercare, realisticamente, queste persone?

Partendo da questo è quantomeno più logico costruire pagine web ottimizzate e potenzialmente più facili da ottimizzare, senza contare che poi lo stile (o la tecnica) di scrittura non rispondono a principi assoluti ma rigorosamente relativi: faccio sempre l’esempio, tra colleghi, che se pagine scritte male in italiano insospettiscono e non fidelizzano l’utente che compra gadget tecnologici costosi (e che magari è un nerd della letteratura), probabilmente funzionano benone per promuovere servizi per adulti.

Probabilmente chi si aspettava formule magiche per la SEO rimarrà deluso dalla lettura di questo articolo; ma tutti gli altri, forse, avranno trovato qualche spunto per ragionare di più sulle proprie attività di ottimizzazione.

Originally posted 2016-11-10 12:03:57.