La seconda pagina dei risultati potrebbe essere un luogo poco sicuro per nascondere un cadavere

Troppo spesso mi è capitato di sentire, parlando di SEO durante eventi formativi oppure tra colleghi, la frase fatidica (e sue varianti): il posto più sicuro dove nascondere un cadavere è la seconda pagina di Google! I cadaveri si nascondono bene nella seconda pagina di Google, oppure nella variante in inglese troverete “The Best Place to Hide a Dead Body is Page Two of Google“.

Non entro nel merito di chi abbia coniato questa frase – che starebbe bene in un racconto di H. P. Lovecraft modernizzato, probabilmente – e di chi sia la paternità della stessa, ma vado dritto al punto: questa affermazione può essere innocua se detta con buone intenzioni “didattiche”, ma all’atto pratico è più dannosa che altro. Dire che il posto più sicuro dove nascondere un cadavere è la seconda pagina di Google significa accettare passivamente che l’unica cosa che conta è la prima pagina: e questo in generale è falso, purtroppo (o per fortuna).

Chi sostiene una cosa del genere, infatti, è portato a trasmettere la convinzione che siano solo i primi 10-12 risultati di Google ad essere importanti. Gli utenti infatti – nell’immaginario un po’ ingenuo di chi non è troppo pratico di IR e di SEO – cercano qualcosa, spulciano il primo massimo il secondo risultato e, fatte le opportune valutazioni, arrivano a finalizzare (ad esempio) un acquisto.

L’analisi pero’ dovrebbe essere molto, molto meno superficiale di così, e ve lo proverò a dimostrare ripartendo da zero, cioè da quando l’utente approccia con il motore di ricerca alla ricerca, per l’appunto, di qualcosa. Quello che entra in gioco fin da subito, infatti, non è una ricerca secca come potrebbe avvenire in biblioteca (e a volte neanche lì!) bensì corrisponde al concetto di query session, “sessione di ricerca“: di cosa si tratta è molto semplice, almeno nella sua forma base.

La domanda base che dobbiamo porci è la seguente:

ma gli utenti cliccano sui nostri risultati di ricerca o no?

Se cliccano, infatti, portano una visita al sito, ci arriva un potenziale cliente, possiamo convertire o fare lead. Se non cliccano, semplicemente, non succede nulla – e pure se ci siamo posizionati, è solo uno specchietto di vanità assolutamente inutile ed improduttivo. Per quello la prima pagina, pur essendo ovviamente fondamentale in un’analisi “a grana grossa”, finisce per diventare secondaria se l’analisi è più approfondita, e se utilizziamo metriche di ricerca più precise della banale posizione su Google (peraltro spesso soggettiva da dispositivo a dispositivo), magari (magari!) in posizione zero.

Ma andiamo per ordine, e proviamo ad arrivarci: una sessione di query infatti non è altro (semplificando un po’) che una sequenza di ricerche e di consultazioni dei risultati finalizzate ad uno scopo finale.

Una ricerca, infatti, difficilmente è secca (nel senso che porta immediatamente a trovare la pagina che ci aspettavamo, anche solo per la ragione più ovvia: l’utente non sa cosa troverà in anticipo!) e non sempre (…quasi mai) l’utente trova, usando Google o Bing, quello che cerca al primo colpo.

Per quanto possano essere evoluti i motori moderni, infatti (anche scomodando semantica, geolocalizzazione e quant’altro) i risultati di ricerca sono sempre molto numerosi e, tanto per cominciare, possono esistere più risultati che soddisfino le nostre richieste.

Nel libro “The art of SEO” (un must per chiunque voglia fare SEO in modo davvero professionale, ve lo consiglio) si riportano numerosi esempi di query session, che sono scomponibili nel caso più semplice in:

  • ricerca inizialmente di un qualcosa (ad esempio “che scarpe comprare”)
  • consultazione di un primo risultato (non necessariamente il primo, come vedremo);
  • consultazione del sito annesso;
  • consultazione di un secondo risultato (non necessariamente il secondo);
  • consultazione del secondo sito;
  • ho trovato finalmente quello che cercavo e, finalmente, posso finalizzare l’azione desiderata (un’iscrizione, un abbonamento, un acquisto in genere);
  • una durata (data dalla somma dei singoli task precedenti), interessante da valutare al fine di profilare meglio gusti e preferenze del cliente potenziale.

Per inciso ho specificato “non necessariamente il primo / secondo” perchè, se ci fate caso, molti utenti tendono ad esempio a saltare gli annunci perchè ritengono essere risultati di bassa qualità, oppure (caso opposto) cliccano sul primo risultato senza badarci, oppure saltano siti web che non gradiscono o che sanno già, per via di precedenti esperienza, essere non adatti al loro scopo. L’esempio che porto spesso ai corsi è legato alla circostanza di un sito che abbia una scarsa brand reputation (ad esempio), ma si posizioni benissimo in SERP: tuttavia gli utenti sannò già che su quel sito ci sono annunci invasivi, che la grafica è poco chiara e chi scrive quei post è antipatico, per cui evita di cliccarci o ci clicca solo per sbaglio. Un problema serio che molti siti dovrebbero decidersi ad affrontare, ad esempio ricorrendo a consulenze di web marketing di ampio spettro.

Ciò già rende l’idea di come, nel fare SEO, uno non debba solo considerare il primo risultato ma anche il secondo, il terzo e qualcun altro, a seconda dei casi, e soprattutto (e questo è un mio inciso, beninteso) se si tratta di query non navigazionali (quindi informazionali, se cerco informazioni attendibili, oppure transazionali, se voglio acquistare qualcosa sul web). Se consideri solo la prima pagina, i primi risultati o addirittura solo il primo – a parte che spesso non puoi controllarlo lato SEO – hai una visione alquanto miope della consulenza o del lavoro che stai facendo. Se vogliamo, quindi, le sessioni di ricerca allargano le opportunità del nostro sito, aprendo ad ulteriori possibilità trasversali ed evitando di confinare questa attività di ottimizzazione come ad una pratica meccanica e priva di altro scopo se non quello di “posizionare il sito” (anche se poi, magari, ha un CTR nullo in SERP).

Tra l’altro, tanto per rimanere realisti e complicare un po’ le cose (e farvi capire come l’idea della seconda pagina in cui praticare sepolture di corpi umani sia, garbatamente parlando, una cosa capace di mandarti fuori strada), nel libro in questione vengono fatti ulteriori esempi di sessioni di ricerca innestate in sotto-sessioni correlate. Non è una supercazzola, anzi – a ben vedere – non è nulla che nessuno di noi non abbia fatto almeno una volta nella vita: ad esempio nel caso di ricerche legate alla salute.

  • una persona cerca “cause mal di testa e nausea“;
  • consulta il primo sito che trova nei risultati di ricerca, per un po’;
  • torna indietro per vedere il terzo (il secondo lo salta, ad esempio, perchè lo riconduce ad un noto “guru” della medicina alternativa che non stima particolarmente)
  • non soddisfatto, prova a cercare “cause mal di testa e nausea gravidanza“;
  • consulta il primo ed il secondo sito che trova;
  • trova una termine che non conosce (ad esempio patognomonico) e, a questo punto, avvia un’ulteriore sessione di ricerca sullo stesso;
  • … ha finalmente trovato quello che cercava dopo 50 minuti (o si decide a spegnere il computer, e chiamare il proprio medico)

Se le sessioni si complicano così, se c’è molta concorrenza, se i risultati sembrano tutti uguali o apertamente contraddittori, se l’argomento è delicato ed in molti altri casi che non elenco per brevità, è ovvio che sulla seconda pagina prima o poi ci andrò eccome, alla ricerca delle risposte che non ho trovato prima. Non ne abbiamo la certezza ovviamente, ma sappiate che la scelta (libera) del risultato su cui cliccare:

  1. dipende (abbastanza) dal settore commerciale di appartenenza della ricerca;
  2. dipende (tanto) dalla query stessa;
  3. dipende (tantissimo) dal singolo utente che sta facendo la ricerca!

Quello che voglio dire è: prima di fare i simpatici convincendoci che nella seconda pagina di Google ci vorremmo seppellire un cadavere (ad esempio della suocera), bisogna pensarci meglio. Anche i risultati ben posizionati nei primi 20-25 su Google possono avere buone opportunità, ovviamente da raffinare ed ottimizzare nel tempo.

Poi può darsi che la prima pagina sia comunque l’unica priorità di qualsiasi consulenza ma, per come la vedo io, un SEO che trascuri o addirittura ignori il concetto di sessione di ricerca non è un SEO.

Considerate quindi sempre i seguenti aspetti, quando fate attività di keyword research ad esempio.

Dipende dal tipo di ricerca che analizziamo: la priorità assoluta della prima pagina può essere valida per le query navigazionali (se cerco “Facebook”, cliccherò quasi certamente sul primo risultato, e questo è un dato di fatto), ma non è valida per le ricerche che richiedano una scelta, un confronto o una capacità critica da parte dell’utente: le ricerche informazionali e quelle transazionali). In questi casi, infatti, l’utente tende per natura a considerare e confrontare più risultati successivi, ovviamente dando la priorità ai primi che trova (ma anche a quelli che si notano di più, a quelli che usano le giuste parole, a quelli che gli danno la risposta che vorrebbe leggere e così via).

Conta anche la qualità delle pagine che abbiamo posizionato: se abbiamo forzato la mano con tecniche black hat a me sta anche bene, per intenderci, ma dovremo comunque fare i conti con ciò che si aspetta l’utente sulla nostra pagina. Consideriamo quindi molto bene la concorrenza e studiamone il comportamento, perchè le loro scelte possono guidarci a capire cosa “piace” all’utente che cerca. Pensare che basti posizionare la pagina senza considerare che addirittura chi sta sotto di noi, nei risultati, non possa soddisfare di più l’utente, equivale ad illudersi che non saremo mai traditi o truffati nella nostra vita.

L’idea che dovrebbe passare, a questo punto, è che le sessioni di ricerca e la loro complessità ci insegnano indirettamente una cosa importante: la prima è che nessuna ricerca è per forza diretta e conscia, la seconda è che anche stando in posizione ottimale su Google potremmo avere problemi a convertire, e l’ultima (che non ho citato in precedenza) è che ci possono essere i motivi più svariati per cui il vostro sito non si posiziona o, peggio ancora, si posiziona ma viene comunque ignorato dagli utenti.

Per cui ogni tanto, con l’aiuto della Search Console di Google, date uno sguardo alle pagine con CTR molto bassi o nulli, e rinfrescate quei contenuti se necessario.

Ottimizzare il tuo sito On-Page in 10 passi: migliora il posizionamento!

In questo articolo parliamo di come ottimizzare il tuo sito On-Page o un post nel caso di un blog. Parlare di ottimizzazione SEO significa considerare due fattori fondamentali:

  1. l’ottimizzazione on-page (SEO sulla pagina)
  2. l’ottimizzazione off-page (SEO esterna alla pagina).

In questo spazio ti indico come svolgere l’attività di ottimizzazione interna sulle tue pagine (on- page) in 10 passi per migliorare il posizionamento del tuo sito sui motori di ricerca.

Questo discorso è valido anche nel caso volessi creare un blog in WordPress, che deve essere considerato come la naturale evoluzione di un sito web statico. La differenza tra un blog e un sito, è davvero minima considerando le esigenze di chi si appresta ad imporre la sua presenza sul web.

Premesso questo, colgo l’occasione per ringraziare Salvatore Capolupo che mi ha concesso la possibilità di scrivere sul suo sito e di potermi presentare.

Mi chiamo Ugo Tridico e sono un esperto WordPress e blogger con competenze SEO, web marketing e design. Ho un blog che gestisco su www.ugotridicoweb.it (di cui sono il webmaster).

Ma passiamo subito all’argomento di questo articolo: come ottimizzare il tuo sito web on-page in 10 facili step.

Dicevamo che la SEO On-page, ottimizza i contenuti di ciascuna pagina del sito per una parola chiave principale. Quindi vedremo come usare le giuste intestazioni e posizionare in modo efficace le parole chiave (keywords), con particolare attenzione verso i fattori utili a garantire la qualità dei tuoi contenuti.

Direi di iniziare, d’accordo?

Altrimenti rischio di dilungarmi troppo ed io voglio che tu rimanga fino alla fine su questo articolo. Ma da sveglio!

Quando ci apprestiamo a fare SEO On-page, seguiamo un’insieme di pratiche, metodi comprovati, per classificare pagine e post nelle posizioni più alte nelle SERP dei motori di ricerca (tra i risultati naturali).

Perché è necessario ottimizzare il tuo sito On-Page?

Ottimizzare il sito è necessario per ottenere pagine ottimizzate in modo “naturale”, senza snaturare il contenuto che deve restare usabile e chiaro per i lettori.

Ma l’obiettivo finale è strutturare correttamente le pagine stesse per i motori di ricerca (su tutti Google), in modo che possano individuare facilmente la parola chiave di destinazione e portare visitatori mirati al sito web.

Per questo motivo, prima di ogni attività di ottimizzazione, devi disporre di contenuti interessanti per i lettori dove applicare le tecniche SEO più opportune.

Fare SEO On-page equivale a scrivere contenuti interessanti e trasformarli in contenuti di qualità: utili per i lettori e allo stesso tempo graditi ai motori di ricerca che li andranno a “premiare” e quindi posizionare.

Il livello di gradimento di lettori e motori di ricerca andranno, insieme, a stabilire il successo di un contenuto (autorevolezza).

Invece il valore di una pagina (o articolo) lo stabiliscono: l’argomento da trattare e l’abilità (competenza) con la quale è stato scritto il contenuto testuale.

Supponiamo di conoscere già le keywords per le quali posizionare le nostre pagine e di aver già svolto l’attività di ricerca (keyword research), dove potrà esserti di concreto aiuto Salvatore. Quali sono i passi da compiere per eseguire un’attività di ottimizzazione SEO On-page efficace? Di seguito li vediamo insieme.

Tecniche SEO on-Page : i 10 passi per l’ottimizzazione efficace delle pagine del tuo sito

Ecco di seguito i fattori da considerare per ottimizzare il tuo sito efficacemente passo dopo passo.

Scrivi un Titolo di pagina efficace (meta tag title)

Si tratta del titolo HTML ed è il fattore SEO On-page più importante. Rappresenta il primo meta tag, la prima informazione, che gli spider vanno a scansionare per la valutazione finale della pagina.

In più il tag title viene mostrato nelle SERP e nei link condivisi sui social ed influisce in modo decisivo sul posizionamento. Oltretutto è il primo elemento che si espone alla vista (ed alla valutazione iniziale) dei lettori.

Un titolo SEO ottimizzato efficacemente per i motori di ricerca e utile ai lettori, deve rispettare i seguenti punti:

    • contenere al suo interno la parola chiave principale

    • non superare i 65 caratteri circa (oltre i quali Google lo “taglia”)

    • essere diverso per ogni pagina del sito

    • avere la keyword principale posta all’inizio (o in prossimità)

    • non contenere più di una stessa parola chiave, ma keywords secondarie.

  1. Cura il Tag H1

Il tag H1 ha lo scopo di attirare l’attenzione dei lettori. Quindi saper scrivere un titolo ad effetto è uno dei fattori fondamentali da considerare. Bada bene che Tag H1 e Tag title NON sono la stessa cosa, anche se su piattaforma WordPress coincidono.

Ma ci sono stratagemmi sul codice (o plugin) per renderli “indipendenti” e poterli differenziare. La cosa importante è includere la parola chiave all’interno del titolo H1 possibilmente all’inizio e non ripetere la stessa parola chiave al suo interno.

Il meta titolo corrisponde al capitolo di un libro e quindi non dovrebbe esserci più di un H1 per ogni pagina del tuo sito. Almeno che tu non voglia creare un sito di una sola pagina con tutti gli argomenti al suo interno 🙂

  1. Suddividi in paragrafi: h2/h3/h4/h5/h6

Devono essere utilizzati solo se necessari ai fini dell’organizzazione della tua pagina e sempre in ordine gerarchico. Hanno il compito di aiutare gli spider a capire come è organizzato il contenuto e

rendere il testo più leggibile e ordinato.

Ti consiglio di non fare uso di troppi h2 ed h3 perchè Google non li gradisce e rischieresti di essere “sottovalutato” dagli algoritmi di Google.

Nel meta tag h2 ti consiglio di inserire la tua parola chiave di riferimento, ma sempre essere ripetitivi.

  1. Distribuisci le Keywords nel testo

La tua parola chiave principale (di riferimento) andrebbe inserita nelle prime 100-150 nel testo

della pagina. In questo modo si agevola Google a capire subito di cosa stai parlando.

Solitamente, quando possibile, io inserisco la parola chiave principale ad inizio testo perché gli spider dei motori di ricerca, pongono maggiore attenzione proprio alle prime righe.

Nel resto del testo puoi anche ripetere la tua parola chiave di riferimento ma in modo naturale, pertinente, senza “forzature”. Ti consiglio di posizionare la keyword all’inizio o alla fine dei paragrafi.

Se nell’ambito della stesura del testo dovessi aver bisogno di ripeterla ancora, considera l’uso di

sinonimi.

Google, infatti, è in grado di rilevare la pertinenza semantica del testo e considera più autorevoli i testi che fanno uso delle LSI keywords (Latent Semantic Indexing): di parole “differenti” che usate nello stesso contesto, tendono ad avere significati simili.

Non inserire troppe volte la tua keyword all’interno del contenuto per evitare il rischio di incappare nel “keyword stuffing” ed essere penalizzato da Google.

  1. Migliora la Meta Descrizione (tag description)

Non è un fattore di ranking per i motori di ricerca, ma la meta descrizione è quella porzione di testo che salta subito agli occhi nelle SERP grazie al grassetto che ne evidenzia le keyword presenti.

L’obiettivo è ottimizzare la meta descrizione in modo da attirare l’attenzione del lettore a tal punto da portarlo sulla tua pagina: quindi sul tuo sito.

Cerca di non fare un elenco di keyword come se non ci fosse un domani: devi scrivere un testo persuasivo per spingere il lettore a “cliccare”. Quindi inserire la sola parola chiave di riferimento, a corredo dell’intera descrizione, va più che bene!

  1. Ottimizza la URL

Si tratta di un altro fattore determinante per ottimizzare il tuo sito on-page in modo efficace: ha lo scopo di suggerire a Google e agli utenti l’indirizzo delle tue pagine.

La struttura di un URL è un fattore da considerare soprattutto quando si fa uso di WordPress. Infatti questa piattaforma consente di modificarne la struttura del permalink per agevolare il processo di ottimizzazione SEO su WordPress.

  1. Inserisci e ottimizza le Immagini

Le immagini servono ad aggiungere valore ai contenuti testuali. Ma anche per rendere visivamente più interessante le pagine.

Ma tutto ciò a patto che siano anch’esse opportunamente ottimizzate per la SEO, altrimenti faranno tutt’altro che migliorare la tua posizione (sui motori e agli occhi di lettori competenti in materia).

Un’immagine deve essere ben scelta e coerente con l’argomento della pagina. Considera che a volte un’immagine è più efficace di “mille” parole: prova ad immaginare l’effetto che può avere il giusto connubio tra le due forme di contenuto!

Ma per ottimizzare efficacemente l’intero contenuto, anche le immagini devono essere opportunamente ottimizzate.

Quindi dovrai, dove necessario, ridimensionare e comprimere le immagini che avrai bisogno di inserire e adattare alle tue esigenze.

La cosa più importante è la compressione, utile ad “alleggerire” il peso delle immagini in modo da caricarsi più velocemente nelle pagine del sito.

Ma sarà necessario anche scrivere il testo alternativo delle inserendo le keywords a descrizione dell’immagine utilizzata.

Per scegliere immagini da ottimizzare, per i siti che realizzo, solitamente uso risorse libere da copyright e le vado a cercare su siti come Pixabay.

Successivamente le vado a modificare a mio piacimento, creandone di nuove, con i seguenti tools:

    • Photoshop, Canva, Picmonkey (per progettare e ridimensionare).

    • TinyPNG (per comprimere).

  1. Valuta la Lunghezza del testo

Non c’è una regola specifica da seguire circa il numero di parole da usare per il testo di una pagina web. Ma è possibile parlare di lunghezza minima consigliata e lunghezza ideale.

L’importante è non scrivere meno di 350 parole tenendo presente che testi lunghi generano più interesse, più conversioni e posizionamento migliore. Io nelle mie pagine mi attesto sempre sulle 1500-1900 parole.

Ma in definitiva la lunghezza di un post la stabilisce l’argomento che stai trattando: la lunghezza sarà quella necessaria a trattare esaustivamente quell’argomento.

  1. Inserisci Link interni ed Esterni

A questo punto inserisci collegamenti interni ed esterni nel tuo contenuto. Collegare correttamente le tue pagine verso altre risorse del tuo sito è fondamentale per la user experience dei lettori nonchè per la corretta struttura del sito.

Scegli le giuste porzioni di testo (ancore) da trasformare in link per collegare le tue pagine tra loro e puntare verso risorse esterne al tuo sito. Tutto questo fallo sempre in ottica di pertinenza dell’argomento trattato.

  1. Aumenta la Velocità del Sito

La velocità di caricamento delle pagine del sito è un fattore di posizionamento SEO. Per aumentare la velocità del tuo sito puoi:

    • utilizzare un CDN

    • ospitare il tuo sito su un servizio di hosting più veloce

    • considerare l’uso di plugin di cache se usi WordPress.

  1. Aumenta il “tempo di permanenza” sulle tue pagine

Se i lettori raggiungono la tua pagina e l’abbandonano dopo poco tempo è un “segnale” negativo per Google.

Per aumentare il tempo di permanenza dei tuoi lettori devi sapere come scrivere contenuti persuasivi, attraverso lo studio e l’applicazione delle tecniche di copywriting.

Conclusioni. Abbiamo visto come ottimizzare il tuo sito attraverso l’ottimizzazione On-page delle tue pagine. Considera che ottimizzare il tuo sito con successo e migliorare il posizionamento, dipenderà anche da altri aspetti e soprattutto dal completamento con le attività Off-page necessarie.

Come capire quanto vale un sito in termini SEO

Sono numerosi gli equivoci diffusi in ambito SEO sul “site value” o, se non vi piace l’inglese, il “valore” di un sito web: molti sono i tool online che permettono di calcolarlo, come indice (Alexa, Moz, …) o addirittura in equivalente monetario approssimato. Comunque si calcoli, il valore di un sito riflette inevitabilmente le sue potenzialità, soprattutto in termini di visibilità indotta: se compro uno spazio web su un sito famoso, per intenderci, ne avrò un vantaggio in termini di maggiori esposizioni sul mio banner. Questo è un primo spunto di quella che nel concreto potremmo intendere come “valore” di un sito web.

In generale la SEO tende a dare un significato errato al site value: sbaglia, ad esempio, a considerarlo proporzionale o coincidente al PageRank (che è sempre stato difficile da calcolare, nonostante molti dicessero e dicano tuttora il contrario: come potrei mai valutare quello che non posso neanche misurare con certezza?), sbaglia a renderlo un numeretto espressione di chissà quali proprietà (Alexa ed altri), sbaglia chiunque consideri il “valore” di un sito a prescindere dal contesto.

Motivo per cui lancio la mia modesta proposta: allegare al “valore del sito” un corrispondente contesto, non dico come parole chiave ma almeno con tanto di topic caratteristici. Della serie: ha più senso valorizzare un sito rispetto ad un argomento X, Y, Z che “in assoluto”. Per chi vende bulloni e pezzi di ricambio online, ad esempio, Youporn ha un valore limitato o nullo, ad esempio, rispetto a chi si occupa di servizi per adulti.

In questi termini arriviamo facilmente ad una seconda definizione di site value, che non è più un semplice numeretto associabile ad un sito (e calcolato in modo perlopiù ignoto alle masse, se ci fate caso), bensì è relativo al tasso di attrattività del sito stesso: un sito che permette di confrontare i prezzi di un prodotto “vale” più, in qualsiasi termini potremmo intenderlo, di un semplice blog per quanto popolare possa essere. È ovviamente un’argomentazione soggettiva che potrebbe non mettere d’accordo tutti, ma è fondamentale capirlo anche nelle aste di domini che, a mio parere, restano un qualcosa di troppo legato ad indici astratti e poco riscontrabili nella realtà. A cosa serve il sito? A chi potrà essere utile? Cosa mi permetterà di fare che nessun altro potrà consentirmi? Potrei avere delle buone ragioni per consigliarlo ad un amico o su un forum? Sono queste domande più sensate di qualsiasi indice numerico di “site value” fine a sè stesso.

Sul site value in termini di backlink, poi, preferirei non discutere affatto: troppi sono stati gli scontri con la comunità SEO da parte mia sull’argomento, che non ho mai accettato in termini di pura link building, e mai lo farò.

Cos’è RankBrain

RankBrain è una tecnologia di machine learning (cioè di apprendimento automatizzato da parte di un software) usata da Google dal 2005 ed in grado di ordinare e filtrare, nello specifico, i risultati di ricerca; lo scopo è naturalmente quello di fornire risultati di ricerca che siano più a misura di utente, evitando così pagine costruite esclusivamente per posizionarsi o contenenti keyword stuffing.

I risultati di ricerca validi e “equivalenti” lato posizionamento sono sempre di più: tanti SEO e copywriter lavorano bene nello stesso ambito, e dieci posizioni nella prima pagina (o giù di lì) sono davvero poche per contenerli tutti. Motivo per cui RankBrain fornisce un filtro che opera a valle della prima scrematura dei risultati, in modo da rispondere a determinati requisiti tra cui:

  • grado di “discorsività” della ricerca;
  • presenza di stopword (parole molto comuni, che in genere sono ignorate);
  • connessione tra vari argomenti in base ad un apprendimento precedente (ad esempio: una ricerca su un argomento X collegato da un fatto di cronaca, ad esempio, ad uno Y sul quale esistono già dei risultati validi)

Il funzionamento di RankBrain nello specifico, purtroppo, non è noto: si sa solo che è in grado di funzionare sia su ricerche già “addestrate” che su nuove ricerche – in quest’ultimo caso prova ad indovinare quale siano i risultati migliori da mostrare.

Fattori di ranking per Google: rankbrain, backlink e… pornyness

Un utente di Reddit sul gruppo (o subreddit) /r/TechSEO ha fatto cenno ai famosi 200 fattori SEO che influenzano il posizionamento, chiedendo esplicitamente a Illynes – che lavora a Google ed autodefinitosi “House Elf and Chief of Sunshine and Happiness” – informazioni su qualche altro ranking factor interessante. Tra questi fattori, infatti, figurano da sempre la rilevanza (relevance, ovvero quanto bene un contenuto “soddisfi” la ricerca da ottimizzare), la freschezza del contenuto (freshness, sostanzialmente coincidente con la data di pubblicazione di una pagina), e la popolarità (popularity, un mix di fattori derivante da quanto quell’argomento sia popolare su Google: in genere, comunque, sembra più facile posizionarsi su ricerche “rare” che su quelle più popolari, appunto).

Ma quali altri fattori andrebbero messi in conto nelle nostre ottimizzazioni quotidiane? Illynes ha citato, a riguardo:

  • paese di provenienza dei visitatori vs. sito;
  • RankBrain;
  • backlink al sito / PageRank;
  • lingua del sito;
  • pornyness (traducibile come “grado di pornabilità” o “grado di porno“)

A chi chiedeva se quest’ultimo fattore fosse ufficiale, Illynes ha confermato (forse più per “trollare” che per altro), rispondendo:

Actually, it kinda is. I could make up a public name for it but I’m way too lazy

(traduzione: attualmente, lo è. Potrei inventarmi un nome pubblico per questa cosa, ma sono troppo pigro)

Già mi sembra di scorgere SEO postare contenuti porno sui siti delle parrocchie locali. Scherzo, ovviamente, ma non troppo.

The internet is for porn?

(fonte)

Come registrare un URL su Google a richiesta

In questo articolo vedremo come sia possibile spingere o indurre Google a ripassare su un URL a nostra scelta: come diretta conseguenza, i contenuti di quell’URL verranno reindicizzati (ammesso che ci siano le pre-condizioni perchè ciò possa avvenire senza errori, ovviamente). Andiamo per ordine e vediamo tutto, pertanto.

Come funziona l’indicizzazione dei siti

Quando pubblichiamo un sito web la prima cosa che vogliamo fare, ovviamente, è quella di farlo apparire nei risultati di ricerca di Google: per fare questo, in effetti, non serve fare solitamente nulla di particolare. La cosa essenziale è che il vostro sito sia fatto a regola d’arte, sia privo di errori lato server e che tutte le pagine più importanti da indicizzare siano opportunamente collegate dalla struttura del sito (menù, link interni, widget, ecc.).

Nello specifico, perchè una pagina web sia indicizzabile devono in genere verificarsi una delle seguenti condizioni:

  1. la pagina deve restituire un codice server 200 OK
  2. la pagina deve deve essere scaricabile secondo le indicazioni del robots.txt
  3. la pagina deve contenere un meta tag robots con valore INDEX (o, al limite, non contenere affatto questo meta tag);

A livello pratico cosa significhi è presto detto:

  1. Per verificare il codice restituito dal nostro sito si usa in genere httpstatus.io.
  2. Per verificare le condizioni del robots.txt basta aprire nomedelvostrosito.it/robots.txt (se il file non fosse presente, varrebbe come “semaforo verde” e non porrebbe quindi alcun impedimento alla scansione)
  3. Per verificare i meta tag robots basta visualizzare il sorgente e verificare che sia presente qualcosa del genere (le varie forme di meta tag robots sono discusse qui):
    <meta name="robots" content="INDEX" />

Per quanto riguarda un discorso di completezza lato SEO, è anche opportuno che nel sito sia presente una mappa del sito o sitemap, generalmente reperibile come nomedelvostrosito.it/sitemap.xml (se non si trova a questo indirizzo, significa che la sitemap ha un nome diverso oppure non è stata generata).

L’indicizzazione dei contenuti del nostro sito segue pertanto, di solito, un processo naturale: se il sito è ben fatto ed il server configurato a dovere, entro qualche ora, o al limite un giorno o due da quando abbiamo pubblicato il sito, ogni nuova pagina che pubblichiamo e che rispetti determinati requisiti (sia scansionabile, sia presente nel feed RSS e/o nella sitemap XML del sito) sarà automaticamente acquisita dai motori di ricerca.

Che cosa impedisce l’indicizzazione dei siti?

Di fatto, quello che blocca l’indicizzazione del vostro sito la prima volta è di solito legato:

  1. a siti fatti male tecnicamente (e qui spesso la cosa migliore è buttare giù il sito e rifarlo da zero);
  2. a problemi sull’hosting del sito (pagine web che vengono caricate in modo parziale o non vengono caricate, tempi troppo lunghi di caricamento per problemi sul server e così via);
  3. alla presenza impropria di meta tag robots noindex e/o nofollow
  4. a direttive restrittive nel file robots.txt che impediscono a Google di scaricare la pagina.

Ci sono casi, tuttavia, in cui questo non accade: nella mia esperienza può capitare un ritardo di diversi giorni, per una sorta di effetto sandbox o, detta diversamente, un “rallentamento” dell’indicizzazione di alcune pagine. Questo, secondo alcuni (me incluso), avviene soprattutto per le chiavi di ricerca più concorrenziali, proprio al fine di evitare o limitare il fenomeno dello spamdexing (spam dei motori di ricerca). Questo avviene anche su siti web ben realizzati ed impeccabile tecnicamente, probabilmente come misura di analisi preventiva affinchè si eviti di indicizzare siti inutili di spam o keyword stuffing.

Richiedere la scansione di una pagina a Google

Nel caso in esame, tuttavia, le cose sono più semplici, e così cercheremo di mantenerle nel seguito: se (caso tipico) gli ultimi articoli del vostro blog non venissero indicizzati, potete tentare una indicizzazione “mirata” mediante Search Console. Ovviamente prima di farlo dovrete assicurarvi che il vostro sito funzioni, che non restituisca errori e che le pagine vengano caricate, in media, in meno di 1 o 2 secondi al massimo (limite orientativo pratico anche piuttosto permissivo: secondo Google il tempo medio di caricamento di una pagina dovebbe essere di soli 200 ms)

Per verificare se una pagina o un sito è indicizzato, cerca su Google site:nometuosito.com oppure cerca direttamente l’URL che non ti sembra indicizzato correttamente nella casella di ricerca. In alternativa, leggi la guida contro le penalizzazioni per saperne di più.

Come chiedere a Google di indicizzare un sito (o una pagina)

Storicamente questa operazione si può effettuare da una storica pagina di Google, quella del submit di un sito:

https://www.google.it/intl/it/add_url.html

Questo servizio non è mai stato ufficialmente dismesso negli anni, ma non è raccomandabile di eseguire l’operazione di indicizzazione mediante esso. Questo perchè non avremmo alcun controllo sul processo di sottoposizione, indicizzazione e posizionamento, quindi invieremmo il sito senza avere alcun feedback successivo, quando oggi esistono strumenti più moderni per fare questa operazione – e ne vedremo subito uno, gratuito ed ufficialmente supportato da Google.

Come prima cosa sarà necessario registrare il nostro sito sulla Search Console di Google, ovvero andremo ad inserire l’indirizzo del nostro sito web all’interno dei siti che controlliamo nella SC stessa. Dopo aver fatto questo ed aver validato il sito con file HTML fornito da Google, via DNS oppure con il meta tag HTML sempre fornito da Google, saremo pronti a cominciare la nostra avventura.

Apriamo la Search Console (https://www.google.com/webmasters/tools), andiamo a scegliere l’indirizzo del sito che ci interessa indicizzare, ed apriamo la finestra Scansione, selezionando Visualizza come Google. Di seguito viene riportato un esempio della finestra di menù che sarà necessario cliccare.

Schermata 2016-04-29 alle 10.09.14Dentro la SC cliccando su Scansione e poi suVisualizza come Google dovremmo trovare un box di testo, come riportato di seguito in esso andremo ad inserire parte dell’URL che non viene indicizzato, e cliccheremo su Recupera. Dopo aver fatto il recupero, ammesso che la pagina sia restituita senza redirect 302/301 e senza errori (404, 500, ecc.), saremo pronti alla seconda fase del lavoro, ovvero inviare all’indice di Google la pagina in oggetto.

In pratica nell’applicazione della SC apparirà una nuova riga in basso, con un bel bottone in bella vista con su scritto “Invia all’indice“: Invia all’indice serve, per l’appunto,  ad inviare l’URL del sito a Google per informarlo che qualcosa è cambiato (la fase precedente serviva solo ad assicurarsi che il vostro sito sia interpretato correttamente e per intero da Google, in effetti).

Schermata 2016-04-29 alle 10.11.58

Clicchiamo pertanto sul bottone Invia all’indice.

Per confermare l’invio dell’URL, selezioniamo una delle due opzioni a seconda di quello che ci serve (solo la pagina in esame o anche quelle collegate da essa mediante link diretto), spuntiamo il Recaptcha e confermiamo col bottone Vai.

Schermata 2016-04-29 alle 10.13.16

Fate attenzione, inoltre, ad una cosa fondamentale: il numero di invii con questa tecnica è limitato, per cui non si tratta di uno strumento di cui abusare. Per indicizzare (o tentare di farlo) il numero massimo di pagine possibili, eseguitelo sulla home (non scrivete nulla nel box testo) e spuntate l’opzione “Esegui la scansione di questo URL e dei relativi link diretti“.

Se 1) il sito è ben strutturato come link interni e navigazionali, e 2) se non ci sono direttive noindex inserite in modo scorretto, dovreste riuscire a forzare la reindicizzazione globale del sito – che comunque rimane un “caso limite”, neanche troppo comune nella mia esperienza. Il più delle volte è meglio reindicizzare singole pagine importanti, ma questo soltanto se avete fatto modifiche di rilievo alla pagina o se la stessa sembra “invisibile” a Google.

La cosa davvero interessante che ho osservato, in questi casi, è che l’acquisizione nell’indice è in molti casi instantanea: questo permette di caricare la vostra pagina, ammesso che ci siano le condizioni per farlo, in modo diretto all’interno di Google e renderla immediatamente ricercabile.

robots.txt – Guida all’impostazione per il tuo sito web e per Google

Da sempre al centro dell’attenzione per le attività SEO, il file robots.txt è perlopiù uno strumento che viene utilizzato a sproposito; per combattere la cattiva informazione che ancora oggi spopola sul web, cercheremo di chiarire passo-passo le varie criticità che lo riguardano.

Che cos’è è il file robots.txt

Chiamato tecnicamente protocollo di esclusione robot , si tratta di un file di testo che indica le regole e le restrizioni di scansione da applicare sulle pagine web di un sito. Il file è scritto in chiaro ed è pubblicamente disponibile sulla maggioranza dei siti web, ad esempio per il sito google.it si può trovare aprendo google.it/robots.txt. Generalmente sono interessati al contenuto del file robots.txt gli addetti ai lavori (SEO e webmaster) oltre che i crawler dei motori di ricerca.

Protocolli supportati dal robots.txt

I protocolli utilizzati dal robots.txt sui siti sono HTTPS e HTTP, mediante una GET non condizionale. Google accetta eventuali robots.txt anche visibili via protocollo FTP, per la cronaca.

Visibilità del robots.txt

Ogni sito dovrebbe avere il proprio robots.txt che rimane valido per l’intero dominio. Se il sito è singolo, basta inserire un robots.txt che sia accessibile dalla cartella principale del sito (senza sottocartelle). Se invece uno stesso sito sito ha più versioni multilingua suddivise per URL o più sottodomini, bisogna fare più attenzione.

Queste indicazioni possono essere utili per i siti multilingua, i multi-siti in WordPress oppure i siti web composti da più sottodomini. Queste sono le regole che segue Google nella sua documentazione ufficiale (vedi a fine articolo il link).

  1. Un file robots.txt in un dominio è valido solo per quel dominio. Quindi ad esempio http://www.example.com/robots.txt vale per http://www.example.com, ma non per http://pippo.example.com/
  2. Se un dominio non ha configurato correttamente il CNAME del prefisso www, example.com/robots.txt sarà valido per example.com ma non per www.example.com
  3. Un file robots.txt in un dominio è valido per tutte le sottocartelle di quel dominio. Quindi ad esempio http://www.example.com/robots.txt vale sia per http://www.example.com/abc che per per http://www.example.com/xyz
  4. HTTPS: per rendere correttamente visibile un file robots.txt è anche necessario che il protocollo TLS, se disponibiel, sia correttamente configurato e non presenti problemi di mixed content: per intenderci, http://www.example.com/robots.txt non è visibile per https://www.example.com/ a meno che non ci sia un opportuno redirect da HTTP a HTTPS.

A che serve il robots.txt

Il file utilizza una sintassi molto semplice che permette al webmaster di definire le “aree” o path che sono attraversabile da un crawler di motore di ricerca oppure no.

CMS (WordPress, Joomla!, …) e robots.txt

Il fatto che sia un file .txt non implica automaticamente che sia un file fisicamente rintracciabile via FTP: molti CMS come ad esempio WordPress lo virtualizzano, cioè lo rendono reperibile da browser senza conservarne una copia come file all’interno di /htdocs o /www.

Sintassi del file robots.txt

In genere ci sono una serie di righe ognuna delle quali è scritta come:

direttiva: valore

quindi ad esempio:

User-agent: *

oppure:

Disallow: /

La direttiva indica il tipo di istruzione o “suggerimento” che stiamo dando al crawler, mentre il valore dopo i due punti indica il riferimento della direttiva. Esempi di user-agent possono essere i browser web, i crawler dei motori, i lettori multimediali, i client di posta e naturalmente.

La posizione della sitemap XML in un file robots.txt si possono specificare così:

Sitemap: https://www.google.com/sitemap.xml

Sono ammesse più sitemap, se necessario: basta ripetere più volte la stessa riga con gli URL corrispondenti.

I commenti in un file robots.txt si possono inserire con un # come primo carattere della riga:

# Come se fosse antani

Ad oggi non esiste una sintassi unificata per il robots.txt, per cui non tutti gli user-agent sono in grado di riconoscere ogni direttiva.

robots.txt permissivo al massimo

Per permettere l’accesso a tutto il sito web (va bene in molti casi pratici):

User-agent: *
Disallow:

Bloccare un intero sito

Per bloccare un intero sito:

User-agent: *
Disallow: /

Bloccare un’intera directory di un sito

Per bloccare lo scaricamento di una directory:

User-agent: *
Disallow: /directory/

Bloccare una pagina specifica di un sito

Per bloccare una pagina:

User-agent: *
Disallow: /pagina.html

Direttiva allow

Google è in grado di riconoscere anche la direttiva allow, per consentire la scansione di una sezione specifica, ad esempio possiamo avere robots.txt misti (di seguito ad esempio stiamo consentendo a tutti (*) di scansionare le cartelle /about e /howsearchworks, e stiamo suggerendo di non farlo alla cartella /search)

User-agent: *
Disallow: /search
Allow: /search/about
Allow: /search/howsearchworks

robots.txt versus .htaccess

Non bisogna fare confusione tra le indicazioni che vengono date al robots.txt (che sono in genere facoltative da seguire per i motori) e quelle di un file di direttive come ad esempio .htaccess (che sono direttive obbligatorie per tutti). Le seconde, in genere, sovrastano tecnologicamente le prime, nel senso che hanno sempre la precedenza a parità di condizioni espresse. Se ad esempio in un file robots.txt lasciamo tutto scansionabile:

User-agent: * 
Disallow:

ma poi esiste un blocco per la home del sito che richieda username e password, il sito non sarà scansionabile nè indicizzabile.

Nel contesto di server Apache, ad esempio, il file .htaccess da’ delle direttive che il server è obbligato ad eseguire, e che valgono per motori di ricerca, bot e utenti. Il file robots.txt è invece un file che indica dei “suggerimenti” per i crawler in modo da facilitarne il lavoro (e come molte cose cose “in buonafede”, in molti casi ha un’utilità ed una portata limitate).

Errori comuni sul file robots.txt (da evitare)

I comandi del file robots.txt non sono regole che tutti i crawler devono seguire, ma sono piuttosto linee guida per l’accesso ai siti. Googlebot e altri web crawler affidabili seguono le istruzioni contenute in un file robots.txt, ma non è detto che altri crawler facciano altrettanto.

Utilizzarlo per nascondere sottodirectory interne di un sito. Attenzione, questo sistema è insicuro! In molti casi capitano robots.txt di siti in WordPress che presentano disallow sulla cartella wp-admin, wp-content o wp-include. Per quanto non sia sbagliato concettualmente, non si tratta di un procedimento ottimale: prima di tutto, così facendo, stiamo mettendo in chiaro un’informazione molto utile per eventuali attacchi informatici, cioè che il nostro sito è fatto in WordPress e che al suo interno potrebbero esserci informazioni riservate. In secondo luogo anche se i crawler affidabili rispettano le istruzioni di un file robots.txt, altri potrebbero interpretarle in modo imprevedibile. Per garantire la reale sicurezza delle informazioni riservate, ti consigliamo di utilizzare altri metodi di blocco, come la protezione mediante password dei file privati presenti sul tuo server (htaccess).

Utilizzarlo per nascondere una pagina ai motori. Attenzione, non serve a questo! Sebbene Google non esegua la scansione o l’indicizzazione dei contenuti bloccati dal file robots.txt, potrebbe comunque trovare e indicizzare un URL non consentito dal robots mediante un backlink esterno. Di conseguenza, l’indirizzo URL e, potenzialmente, anche altre informazioni disponibili pubblicamente, quali l’anchor text nei link che rimandano alla pagina, potrebbero continuare a essere visualizzati nei risultati della Ricerca Google. Per evitare che l’URL venga visualizzato nei risultati di Google, si suggerisce ancora una volta di proteggere tramite password i file sul server oppure usare il meta tag noindex, cambiare l’URL di risposta con uno diverso da 200 o rimuovere del tutto la pagina (404).

(fonte)

Migliori strumenti SEO: tool a confronto

Se il tuo desiderio piu grande è quello di migliorare la parte SEO del tuo sito, dovrai utilizzare almeno una parte degli strumenti SEO più adeguati che ci siano: ovviamente le cose sono molto cambiate negli ultimi anni, ed è importante essere aggiornati. Se una volta si usavano MOZ e SEOPanel, ad oggi questi strumenti tendono ad essere rimpiazzati da scelte piu moderne, come ad esempio SEOZoom e (almeno in parte) Majestic SEO e l’ottimo (e costossissimo) Ahrefs.

Non c’è dubbio che, ad oggi, a parte alcuni strumenti SEO open source (di cui parleremo per completezza, visto che quasi nessuno lo fa in Italia) che sono per lo più parziali e da utilizzare in modo combinato, la totalità degli strumenti a disposizione siano a pagamento, e debbano quindi essere pagati per poterne fare uso. Si tratta quindi di un vero e proprio investimento che dovrete effettuare mensilmente, e che vi ripagherà nella misura in cui riuscirete a trarre profitto da vostro progetto web (e non, semplicemente, prime posizioni su vanity metrics ad esempio). Vediamo quindi un po’ di strumenti open source, per poi valutare brevemente quelli più diffusi.

A che servono i tool SEO

Lo scopo di tutti questi strumenti è quello classico delle attività SEO:

  1. effettuare una scansione del sito per individuare title e meta description rapidamente, in modo tale da poterli correggere al volo se necessario;
  2. scansionare le pagine ed analizzarne i contenuti, in modo da evidenziare eventuali tempi morti di caricamento, tag errato o superflui e così via;
  3. analizzare i ranking attuali, cioè i posizionamenti attuali delle nostre pagine web, e tracciarne se possibile lo storico (cioè come sono andati i posizionamenti delle pagine web negli ultimi 6 mesi, ad esempio);
  4. fare una lista di backlink in ingresso a qualsiasi sito, cosa che Google permette (mediante Search Console) di fare soltanto su quelli di nostra proprietà; in molti casi è utile tracciare anche le anchor text che permettono di arrivare al nostro sito web mediante quei backlink.
  5. trovare spunti, idee e spiare il comportamento della concorrenza nel nostro settore.

SEOPanel (free e open source)

Si tratta di uno strumento abbastanza utile e, per quello che costa (nulla), relativamente interessante (le pecche non mancano, comunque): in buona sostanza è un tool di monitoraggio del ranking del sito, che permette di  tracciare per singole parole chiave il comportamento su Google, Yahoo e Bing in termini di posizione. Permette di stabilire la velocità di scansione, la periodicità ed un numero potenzialmente illimitato di parole chiave e siti web. Il tutto si paga con un’interfaccia a detta di molti poco intuitiva, e con il fatto considerevole che molti risultati di ricerca speciali (come quelli geografici, risultati zero o basati su semantica) non vengano, ad oggi, rilevati correttamente. Andando a spulciare il codice, si tratterebbe di riscrivere un po’ meglio alcune parti e, a quel punto, quantomeno come tool per misurare le posizioni dei nostri risultati su Google sarebbe molto comodo.

Per essere gratis e open source, ovviamente, è certamente un buon tool – anche perchè non mi pare ne esistano altri equivalenti – per quanto andrebbe un po’ aggiornato. Download

SEOZoom (a pagamento, a partire da 29€/mese)

SEOZoom è una suite SEO che offre un po’ di tutto, dal monitoraggio dei risultati di ricerca al suggerimento di parole chiave, spionaggio di backlink, ricerca di link opportunity e addirittura un tool editoriale per copy SEO. Lo strumento è davvero molto completo: permette di tracciare uno storico delle attività del sito, delle sue movimentazioni in termini di risultati di ricerca (il grafico “Andamento Sito” che viene mostrato mostra quanto è attivo su Google un certo sito), della collocazione dei topic del sito (utile anche per un’analisi della sua pertinenza), dell’analisi della distribuzione delle anchor text, della classificazione dei backlink ricevuti sulla base della qualità degli stessi. Poco utile, a mio avviso, il fatto che ci sia davvero troppa roba nell’interfaccia, che io preferirei fosse snellita o che quantomeno fosse possibile per l’utente abilitare soltanto le sezioni che si usano di più. Ogni tanto per qualche sito escono fuori dati improbabili (ad essere gentili), ma questo credo sia inevitabile per qualsiasi tool SEO visto che si tratta di strumenti che simulano le valutazioni che fa Google – e che spesso, per non dire sempre, sono influenzati dalle convizioni (giuste o sbagliate che siano) di chi li ha sviluppati.

Ad oggi, uno strumento ancora migliorabile quanto complessivamente impareggiabile, anche perchè l’unico ad essere tutto in Italiano. SEOZoom.it

Majestic SEO (a pagamento, a partire da 46€/mese)

A differenza del precedente, questo è un database link index, cioè un repository a pagamento con tutti i backlink di ogni singolo sito, rilevati e raggruppati per periodo. Davvero molto utile per spiare i link della concorrenza, e per individuare i siti da cui convenga di più – in prospettiva – ricevere un backlink. Non è una spesa da poco farne uso, ma i vantaggi sono chiari: in pochi click troverete i link della concorrenza, e potrete provare anche voi ad ottenerli.

Qualche pecca nell’usabilità e nel fatto che sia piuttosto difficile, in certe sezioni, fare operazioni che sarebbero davvero utili: ad esempio raggruppare i backlink per dominio, che molte volte invece appaiono ripetuti molte volte e questo (nel caso dei link sitewide o da footer) è davvero una seccatura. A parte questo, strumento top per quanto certamente non economico. Majestic SEO

 

 

 

Migliori corsi SEO da fare online

I seguenti corsi sono tutti da svolgere online, mediante dei pratici video-corsi da scaricare o visionare nel tuo browser; la parte introduttiva di ogni corso è solitamente gratuita. I docenti sono molto preparati ed offrono conoscenze a livello di SEO ed ottimizzazione sui motori decisamente interessante.

I corsi sono pensati per vari livelli: base (indicato con *) se siete dei principianti, intermedio (**) e avanzato (***) se siete un po’ più esperti.

Come apparire su Google senza consultare i tutorial di Aranzulla

Anche tu vorresti apparire primo su Google per la tua ricerca preferita: ti posso capire, del resto anch’io mi sono messo a fare SEO nel lontano 2008 spinto proprio da questa idea. All’inizio sembrava impossibile, eppure sono riuscito a diventare un consulente del settore, aiutando molti siti web ad essere primi su Google in svariati settori: editoria, giochi online, web hosting, informatica ed IT e così via. In questo articolo vorrei condividere con te un po’ della mia esperienza, per farti capire che sì, è possibile essere primi su Google: il lavoro, se fatto bene, ripaga anche in questo ambito.

Perchè il sito è scomparso da Google

Se sei arrivato su questa pagina è molto probabile che il tuo sito non ci sia su Google: e giustamente vorresti sapere perchè. Uno dei casi più complessi da affrontare in ambito SEO, del resto, è quello in cui il nostro sito non appare per nulla nei risultati (SERP, Search Engine Results Pages), o magari viene ignorato dai motori di ricerca. In questi casi è fondamentale capire se si tratti di un problema di indicizzazione oppure di uno di posizionamento.

Problema di indicizzazione

Nel primo caso, il sito non compare in prima pagina perchè Google non lo conosce per nulla: succede ad esempio se il sito è molto lento a caricare (per cui il crawler non riesce a scansionarlo bene), oppure se le sue pagine web contengono un meta tag NOINDEX, NOFOLLOW oppure, ancora, se il file robots.txt lo blocca.

È fondamentale controllare queste tre cose, quindi, per assicurarsi che il sito sia perfettamente scansionabile, ed eventualmente si può checkare e provare a forzare l’indicizzazione per risolvere il problema.

Problema di posizionamento

Nel secondo caso, invece, è la classica situazione che va gestita nel tempo lato SEO, magari ricorrendo ad un consulente apposito: si tratta di capire anzitutto che tipo di problema soffre il tuo sito, e poi prendere delle contromisure adeguate. I problemi che causano una scomparsa dai risultati di ricerca sono vari: ad esempio un problema tecnico che ha fatto degradare le prestazioni globali in SERP, una penalizzazione manuale da parte dello staff di Google, una penalità algoritmica che ha colpito in quel periodo te o altri concorrenti. In questi casi si fanno tre cose diverse:

  • la prima è quella di ripulire il profilo di backlink da eventuali backlink spazzatura, accumulati nel tempo magari a nostra insaputa; in questi casi è tipico fare un bel disavow dei link spam o poco utili.
  • la seconda è quella di controbilanciare il profilo di link con backlink tematici, ricorrendo quindi ad una sana link building (bilanciando link nofollow/dofollow, tematici e non, distribuendo bene pure le anchor text);
  • la terza è quella di rivedere la struttura interna ed i contenuti del sito, effettuando un’operazione di ottimizzazione delle pagine (SEO on-site) a seconda dei casi, in modo che siano pagine pertinenti e a misura di utente, se possibile prive di inutili sovraottimizzazioni o ripetizioni di parole chiave.

Quanto tempo ci vuole per fare SEO?

Per apparire su Google col tuo sito, in generale, devi anche saper scegliere le giuste chiavi di ricerca, cioè stabilire che ci sono keyword per cui è possibile arrivare in prima pagina e che, in base a quanto sono competitive, ti daranno questa opportunità soltanto nel tempo: quindi non ti illudere e non aspettarti risultati immediati per ricerche molto difficili.

Ci vorranno almeno 6 mesi per poter iniziare a vedere dei risultati concreti, e l’idea potrebbe essere quella di ottimizzare vari gruppi di parole chiave: quelle di natura commerciale per incrementare i tuoi guadagni, qualche vanity keyword per poter aumentare un po’ il traffico sul tuo sito (è comunque qualificante farlo), qualche parola chiave legata agli how-to del tuo settore per dare così delle risposte concrete al tuo sito web.