Pubblicato il

I 12 miti SEO più dannosi di sempre

Non è arte, non è una scienza esatta e periodicamente ci fa disperare, divertire e lavorare duramente: nel mondo dell’ottimizzazione e della sua divulgazione su internet, come in altri ambiti, è naturale che possano diffondersi dei falsi miti. Leggende urbane e bufale SEO sono all’ordine del giorno, ma questo soprattutto dato l’interesse editoriale di molti siti nel farsi leggere ad ogni costo.

Con questo articolo propongo una rassegna dei miti più assurdi e pericolosi, se vogliamo, per lavorare correttamente nella SEO.

1) Alla fine è solo questione di PageRank…

Il PageRank è solo l’indice più intuitivo e più semplice da spiegare che possa esistere, ma ciò non vuol dire che sia il più utile: la fissazione di molti SEO nel semplificare i termini del discorso, spesso calati nella (tragica) buonafede di chi vorrebbe farsi apprezzare anche dai clienti più ottusi, è diventata un must all’interno delle liste di miti SEO, ed è quasi invulnerabile a qualsiasi considerazione contraria si possa farne. No, non è solo questione di PageRank nella SEO – purtroppo o per fortuna: nella valutazione dei siti in ambito ottimizzazione sui motori intervengono (per citarne giusto altri tre) anche la user experience, le ottimizzazioni interne, il numero di backlink al sito. Ottimizzare un sito passa per capirne il contesto, per stabilire cosa sia meglio per un sito di tipo X, Y o Z, e non può per questo essere questione di PageRank e numeretti vari, isolati dal contesto e considerati totem da adorare. La mentalità riduzionista di molti SEO, alla fine, significa spesso che state avendo a che fare con improvvisazione ed incompetenza: diffidate sempre dai mercanti di PageRank.

2) Il tool per i disavow / per lo spam / per segnalare i link a pagamento è inutile!

Secondo me questo genere di ragionamento denota solo una scarsa propensione al settore: scarso ottimismo, scarsa flessibilità, scarsa mentalità imprenditoriale oltre che scarsa voglia di fare, unita ala voglia morbosa di rimanere nella propria comfort zone. Il vero problema di questi tool, in effetti, è che (a parte il disavow nel caso di penalizzazioni esplicite) praticamente mai – almeno nella mia esperienza – danno un riscontro misurabile. Ovvero se segnali un link di spam o comprato Google non ti dirà mai “bravo” o “adesso ti premio”; superato questo scoglio di mentalità “scolastica”, l’uso di questo come di altri strumenti SEO è, prima che utile, a mio avviso doveroso per migliorare la qualità del lavoro di tutti. Dubito che se tutti segnalassero spam ed irregolarità a Google non succederebbe nulla di buono: il problema, appunto, è che chi non segnala o svilisce spesso, purtroppo, ha ottime ragioni per farlo.

3) Ho calcolato la keyword density “ottimale” (al 4%) e…

La keyword density rientra in quelle che il buon Enrico Altavilla ha etichettato come “ca**te SEO” ed ha spiegato egregiamente: La keyword density non è mai stata usata dai motori di ricerca moderni per stabilire quanto un documento è attinente ad una query. L’ultimo utilizzo pratico che io conosco risale ad alcuni vecchi algoritmi in voga in ambito universitario negli anni settanta! Per cui se il vostro consulente di fiducia o il vostro collega vi parla di keyword density, direi che tanto “di fiducia” e tanto “collega” magari non è.

Ripetiamo, per brevità: non solo la keyword density è una metrica di Information Retrieval obsoleta e stupidella (si limita a considerare il numero di occorrenze di una parola chiave in un contesto), ma non c’è nemmeno  traccia storica del fatto che sia mai stata usata dai motori.

4) Consideriamo i SEO factor (stagionali: oggi va il blu, domani chissà)

Si tratta di uno dei miti SEO forse meno banali da smontare, poichè perchè si basa su un frainteso statistico ed esprime (mi si passino i termini poco garbati) un mix letale di analfabetismo funzionale e smanìa da marketing a basso costo. Ci sono numerosi articoli, soprattutto stranieri (spesso ripresi dai SEO italiani, purtroppo) che parlano dei SEO factor del momento: adesso “va di moda” ottimizzare i title, domani si lavora sui contenuti (Come a dire: normalmente cosa fate, se lavorate sui contenuti a sprazzi o solo se lo scrive MOZ?), dopodomani chissà. Il problema di questo approccio – che, per inciso, anche se fosse valido porterebbe i SEO a fare tutti le stesse operazioni, in massa, su ogni sito! – è che si trova ad essere sbagliato in partenza: da un lato, infatti, è figlio di un fraintendimento legato alla correlazione, dall’altro esprime la necessità di certe agenzie e guru di fare link building pubblicando i SEO factor 2016, 2015, 2014 e così via. La correlazione statistica non implica causalità: qualsiasi SEO factor troviate in giro, anche il più convincente, sarà comunque frutto di uno studio statistico. Ogni statistica è limitata ad un campione, ed il campione in esame potrebbe non essere pertinente al vostro scopo o essere stato manipolato ad arte. Inoltre, il fatto che ci siano correlazioni molto forti (cioè prossime ad 1) tra due fattori non vuol dire che uno causi l’altro (metto le parole chiave all’inizio del titolo -> mi posiziono meglio). Il fraintendimento della correlazione e dei SEO factor porta un condizionamento subdolo e terrificante nel nostro lavoro e nell’indipendenza di giudizio, ed è uno dei mali della nostra professione, da sempre. Se consideriamo che a volte vengono discusse correlazioni dello 0.1 o 0.2 (correlazioni molto deboli, o spurie) e sono anch’esse considerate ranking factor, si capisce ancor più quanto sia stupido discutere di SEO in questi termini.

5) I meta tag keyword della pagina sono sbagliati!

Se state cercando di capire quali meta tag keyword siano meglio nelle vostre pagine a scopo SEO, magari non siete troppo aggiornati e fareste bene a riguardare un post ufficiale del blog di Google: dal 21 settembre 2009 non ha molto senso parlare di questo tag, infatti, perchè è stato ufficialmente dismesso. In pratica non viene più usato da Google, o se preferite: “Google doesn’t use the “keywords” meta tag in our web search ranking”.

In pratica non serve riempire questo campo con una lista di parole chiave separate da vingola, non cambia nulla nella pratica ed è molto meglio dedicarsi ad altre attività. Anche Bing è sulla stessa linea, per inciso (“Today, it’s pretty clear the meta keyword tag is dead in terms of SEO value”), ma rimane l’opinione diffusa che un uso sbagliato dei meta tag keyword sia comunque penalizzante. Per la cronaca, e per quello che vale, ho fatto un test sul mio sito qualche tempo fa – inserendo volutamente keyword sbagliate o fuori tema – e non è successo nulla di interessante nè in positivo nè in negativo. Per il resto sono opinioni, non fatti, e sulle opinioni mi rifaccio spesso alla celebre frase attribuita all’ex CEO di Netscape, Jim Barksdale: se disponiamo di dati, analizziamoli. Se tutto ciò che abbiamo sono opinioni, consideriamo la mia (o, se preferite, ognuno consideri la propria).

6) Il meta tag noindex basta, da solo, a deindicizzare le pagine

Su questo si è diffusa una cattiva idea simile a quella diffusa sul file .htaccess per il mod_rewrite: si pensa, infatti, che usare il meta tag noindex basti a deindicizzare “magicamente” quella pagina da Google, così come attivare il mod_rewrite metta in automatico gli URL SEO-friendly. In realtà il noindex impedisce l’indicizzazione di una pagina non ancora indicizzata, mentre se la pagina esiste va rimossa manualmente mediante Search Console di Google (così come è il PHP a creare gli URL SEO friendly, htaccess in un certo modo è solo una condizione necessaria, non sufficente).

In genere possiamo rimuovere a mano dall’indice di Google sia le pagine 404 che quelle con noindex. In proposito potete leggere il mio articolo su come deindicizzare una pagina.

7) Il file robots.txt serve a deindicizzare le pagine

Anche qui abbiamo un equivoco simile al precedente: a parte il fatto che il file robots.txt da’ solo delle direttive opzionali che i motori possono seguire o meno (di solito lo fanno), ma in genere il robots.txt stabilisce cosa si possa scansionare del sito, partendo dai suoi link nella pagina principale. Non c’è motivo di limitare il robots, insomma, con strane espressioni al suo interno, ma ha senso (io dimentico sempre di farlo, ad esempio) inserire l’indirizzo assoluto della sitemap del sito al suo interno.

Molti forum e blog si sono scatenati a proporre versioni di robots.txt al limite della poesia ermetica, ma dubito parecchio che ciò possa aver fatto una qualche differenza significativa in ambito SEO.

8) La link building è superata / non serve a niente

L’ho sentita e letta varie volte, ed è come dire ad un gommista che tutti i copertoni sono superati o ad un cineasta che tutte macchine da presa sono roba vecchia, perchè da oggi si va tutti a piedi (neanche coi mezzi). Chiacchiere da bar che servono solo a scoraggiare la concorrenza più ingenua e a scatenare inutili discussioni nel settore. Lo scredito sulla link building è poco credibile, peraltro, anche perchè proviene spesso da semplici “rosiconi”: chi non è in grado di farla, o peggio ancora non l’ha mai davvero capita.

9) La SEO è morta: adesso alle aziende serve il social media manager marketer sbricchenbàuer tarapìa-tapioco

Una volta per tutte, diffidiamo in massa dai professionisti (?) della supercazzola sul web, e smettiamola di screditare i colleghi che cercano di lavorare seriamente: se è vero che in certi casi la SEO è inapplicabile o non serve a molto (ne parlo nel mio ebook in un capitolo apposito), essere tassativi sul fatto che sia addirittura morta al 100% mi pare eccessivo. Sono morte semmai le pratiche viste nei punti precedenti, e quella mentalità “isolazionista” che tende a considerare i singoli fattori e non la somma degli stessi. Anche qui, come nel caso dei SEO factor, siamo di fronte a (presunti) SEO che non riconoscono chiare strategie SEO (e le amplificano loro malgrado!): nel caso precedente, citavano nei propri blog studi statistici che lasciano il tempo che trovano (e fanno link building a quei siti in massa), in questo caso fanno lo stesso coi blog di (presunti) professionisti che affermano che l’ottimizzazione dei motori non serva più a nulla.

Da un lato è pure un bene, per una volta, che questo mito si diffonda: serve a ripulire un po’ il settore, liberandolo da gente che farebbe bene a fare altro nella vita. Come, ad esempio, raccogliere patate.

10) Abbiamo già fatto SEO, grazie.

Obiezione abbastanza diffusa, specie tra chi ha semplicemente poca voglia di investire: certo, è vero che la SEO è un’attività che tende a far vedere i propri effetti e benefici più che altro nel lungo periodo. Questo senza dubbio, ma ciò non vuol dire che basti farla una volta e basta: dipende dal traffico, dipende da come vanno le conversioni, ci sono tanti fattori che vanno considerati.

Rimane l’ulteriore considerazione legata al fatto che in certi contesti sia necessario applicarla costantemente: questo avviene soprattutto nell’ambito di siti editoriali (news). In questi casi, fare la SEO una volta tanto e poi basta può essere molto deludente: perchè non rifarla su base periodica, proprio per affiancarsi al flusso di pubblicazioni e post giornalieri?

11) Google odia i SEO!

Non è proprio così, anzitutto perchè esiste una guida ufficiale alla SEO redatta da Google (un po’ vecchiotta ma sempre valida: la trovate nel mio sito in copia PDF (guida_ottimizzazione_motori_ricerca.pdf, search-engine-optimization-starter-guide.pdf), e se non vi basta la trovate qui in italiano e in inglese). Dire che Google odia i SEO è una leggenda urbana che ci ha screditato negli anni, e che è figlia della confusione che regna sovrana: sarebbe come dire, tornando all’esempio precedente, che i gommisti odino le macchine. Ovvio che non sia così: odiano le macchine che cercano di investirli per strada (Google non sopporta, parimenti, che qualcuno manipoli i propri risultati), ma non possono odiarli tutti perchè sono parte del loro pane quotidiano.

Se non vi convince neanche questo, Google ci tiene a far capire all’utente che la SEO è un’attività importante, ma non sempre necessaria: l’articolo ufficiale Hai bisogno di un SEO? spiega nel dettaglio proprio questo aspetto. Se vuoi saperne ancora di più, c’è anche una guida SEO che ho preparato e che puoi leggere gratuitamente

12) Bisogna ottimizzare ogni pagina del sito per una singola parola chiave (one page, one keyword)

Più che un mito, questo tende a diventare un limite che i SEO si auto-impongono: del resto il traffico che può arrivare su una pagina tende ad essere vario, da più fonti e non per forza dai motori. Una volta isolato il traffico di ricerca, con Google Analytics è semplice capire da quali ricerche provenga: non è che sia sbagliato mirare una parola chiave per una certa pagina, certo è che ragionare in modo più flessibile, testare più opzioni su più pagine e capire quale funzioni meglio nella pratica è decisamente più consigliabile. Il concetto è che su una pagina raramente arriverà traffico da una singola chiave di ricerca, anzi è molto più comune che arrivi traffico da numerose varianti della stessa ricerca (ed è anche più sano, corretto e sicuro che sia così).

Non che sia sbagliato ragionare in quei termini in assoluto, anzi: in caso di siti molto complessi o concorrenziali, quello è un modo ottimo per focalizzare l’obiettivo. Obiettivo che deve essere chiaro e non può mai essere, secondo me, troppo rigidamente stabilito. Di fatto, l’ottimizzazione di ogni pagina può e deve indirizzare un buon numero di parole chiave: la cosa essenziale (e spesso difficile da realizzare) è che siano realmente pertinenti. Quello è il difficile.

A proposito, quanti SEO saprebbero spiegare ad un cliente cosa significa la parola “pertinente“?

Originally posted 2016-07-29 10:04:42.

Pubblicato il

Introduzione al meraviglioso mondo della SEO

Vuoi scoprire tutti i segreti della SEO? Sapere meglio come funziona, come si fa, cosa ti serve sapere e come agire? Questa è guida per SEO principianti che vorrei offrirti dal mio blog: grazie ad essa potrai scoprire le principali informazioni per l’ottimizzazione dei motori.

Si partirà dalle basi, cercando di capire quando davvero vi serve un SEO, e passando poi a inquadrare che cosa stiamo ottimizzando, come misurarlo, come rendersi conto da soli se stiamo lavorando bene o no, per poi complicare un po0 il discorso e passare alle azioni pratiche che si possono eseguire. Il tutto con esempi pratici, strategie applicabili ad ogni settore ed un esempio di ottimizzazione per siti di e-commerce.

Ogni articolo andrebbe letto nell’ordine in cui viene presentato in questa pagina, in modo da garantire un apprendimento graduale.

A fine di ogni articolo troverete il link per tornare a questa pagina. Buona lettura!

…ma ti serve davvero un SEO?

Partiamo dalle basi: hai davvero bisogno di un SEO? Può sembrare una domanda strana, ma non lo è: in realtà molti siti hanno carenze sotto altri punti di vista, ad esempio usabilità o grafica, ma non hanno affatto bisogno di attività SEO al loro interno. Tutto questo si rifletterà poi nelle aspettative del cliente, che spesso saranno sovradimensionate o distorte se non si risolvono dall’inizio i problemi nell’approccio ben noti. Ne parlo nel primo articolo, Come capire se hai bisogno di un SEO.

Cosa aspettarsi dalla SEO, oggi

In secondo luogo, sempre nell’ambito del voler ridimensionare le aspettative, dobbiamo imparare a capire cosa aspettarci dalla SEO: esistono i risultati garantiti, i posizionamenti sicuri, la garanzia di finire in prima pagina? Ne parliamo qui, ma sono abbastanza sicuro che se siamo in sintonia da subito la risposta, in parte, già la conosci.

Conosci bene Google ed i motori di ricerca?

Adesso siamo pronti a fare un bel tuffo nella SEO pratica: come prima cosa dobbiamo imparare ad utilizzare bene Google, e per farlo è necessario conoscere i principali operatori per la ricerca. Fatto questo, andremo a scoprire come si possa indicizzare un sito, e – dopo aver capito la differenza tra posizionamento ed indicizzazione, andremo a vedere come forzare l’indicizzazione, se necessario.

Come gestire la SEO on-page?

A livello di gestione del vostro sito, dovrete sapere come impostare title e meta-description (gli altri tag sono secondari o poco utili) e come utilizzare in modo corretto i meta tag robots: si tratta di tag non visibili dall’utente ma importanti per i motori, in quanto in grado di stabilire se una pagina o un link debbano essere visibili ai motori, oppure no. In realtà è tutto abbastanza semplice, e ne parlo qui.

Tecniche di ottimizzazione di base

A questo punto siamo pronti ad affrontare l’argomento successivo, quello che riguarda l’ottimizzazione base di un sito per i motori: qui parleremo delle tecniche più importanti per ottimizzarlo velocemente. Qualunque sia la vostra strategia di promozione, a questo punto, ci sono due cose da tenere in forte considerazione: la prima è trovare un modo per portare traffico, cioè visitatori, sul vostro sito web; la seconda è che la prima pagina non è tutto, e a volte esistono anche altre priorità – per esempio, far convertire il sito (cioè guadagnare dalle sue vendite).

Link building: cos’è e come si fa

Se avete già un minimo di esperienza saprete che la link building è una delle componenti fondamentali di qualsiasi attività SEO: ne parlo in modo molto approfondito in un lungo articolo. Ad ogni modo, dopo averlo letto ed applicato, sappiate che spesso questo potrebbe non bastare, purtroppo: a volte ci sono delle difficoltà dovute al settore in cui si opera, che neanche il SEO più abile sarà in grado di aggirare. In questi casi bisogna intervenire su altri livelli, fermo restando che il lavoro ben fatto in ambito SEO è sempre un investimento concreto nel medio-lungo periodo, anche se non sempre è in grado di produrre un rientro economico.

E se il traffico non arriva? 🙁

Problemi di visite sul sito? Ne parlo qui: eccovi un argomento un po’ più tecnico, ovvero le 5 verifiche da fare subito se il traffico del tuo sito è in calo. Se poi sei stato un bambino molto cattivo, Google potrebbe averti penalizzato: ecco cosa fare per uscire da una penalizzazione.

Bufale sulla SEO

Ecco cinque approfondimenti per evitare di commettere errori madornali durante l’ottimizzazione del tuo sito. Parleremo di indici SEO (come MOZ o AlexaRank), keyword density (una unità di misura delle ripetizioni di una parola in un testo), article marketing (una strategia spesso usata malissimo), PageRank (il celebre indice di Google) e gli incessanti Google Update (o aggiornamenti algoritmici che riguardano il motore di ricerca e in particolare come “tratta” i nostri siti).

  1. L’iper-valutazione degli indici SEO
  2. La keyword density
  3. L’article marketing usato male
  4. L’iper-valutazione del PageRank
  5. L’iper-valutazione dei Google Update

Approfondimenti finali e conclusioni

Da leggere solo dopo aver considerato tutto il resto, per capire ancora meglio il discorso.

7 idee sbagliate in ambito SEO che ti hanno fregato finora

Originally posted 2016-07-18 20:50:29.

Pubblicato il

Siti di scarsa qualità in prima pagina, come rosicare in modo semplice e veloce

Motivo di angoscia e terrore per moltissimi addetti ai lavori, vedere risultati di ricerca con siti molto vecchi, scadenti e soprattutto irremovibili da anni è una cosa che fa piacere a pochi (se non, forse, ai proprietari di quei siti). Siti con contenuti vecchi, che non prevedono neanche uno straccio di responsiveness eppure sono lì, a farci beffe di noi e delle nostre ottimizzazioni. In molti casi, i siti in questione lasciano tracce di pratiche considerate scorrette come, di solito, keyword stuffing.

Perchè avviene? Evidentemente alcuni “fattori SEO” – come un po’ erroneamente vengono chiamati, ma è per capirci – non sono tarati a dovere, e questo introduce una sorta di bug all’interno del sistema: di solito questi errori vengono risolti nel tempo, ma possono passare molti mesi finchè succederà ed essere Google un sistema in larga parte closed il meglio che possiamo fare è segnalare come spam i siti scorretti. Qualcuno dirà che serve a poco ma io sostengo da sempre che sia meglio che non fare nulla, o tentare improbabili azioni negative SEO contro l’odiato competitor (che potrebbero inaspettatamente ritorcersi contro di voi).

Risposta breve alla domanda “cosa possiamo farci“: quasi nulla, o meglio, è importante che questa cosa non diventi un limite. Se è vero che le SERP di bassa qualità coincidono molto in consulenze a costo superiore alla media (non fosse altro che richiedono un lavoro più scrupoloso, lungo e dettagliato, ed è difficile capire precisamente dove e quando si andrà a parare), è anche vero che in molti casi rendono sconveniente del tutto intervenirci. Ci sono articoli che provano ad identificare le caratteristiche dei siti scadenti che finiscono in prima pagina, che rispondono il più delle volte, in effetti, a specifiche caratteristiche (ad esempi: EMD – Exact Match Domain, oppure sono domini aged di almeno cinque o sei anni), ma questo non dovrebbe trarre in inganno e considerarsi “regola”.

Dal mio punto di vista, se ci si vuole “infilare” in SERP con risultati scadenti, vale in generale il principio most-recent most-relevant, ovvero cercare di sfruttare Caffeine, nella speranza che Google privilegi contenuti più recenti/approfonditi/di maggiore “qualità“, o pertinenza, per le query in questione. Questo pero’ non sempre si può fare, quantomeno nei casi in cui è possibile farlo si prova ad onorare il succitato principio “Searchers want to find the latest relevant content, and publishers expect to be found the instant they publish“, il che si può attuare in una miriade di modi diversi (il più delle volte un dominio molto autoritativo, o magari EMD, può aiutare parecchio).

Originally posted 2015-09-27 11:30:25.

Pubblicato il

Il PageRank ti vede più come un amico, nella SEO

Scorro Google Plus qualche sera fa e mi imbatto in un collega delle mie cerchie che espone, in maniera dettagliata, come venga calcolata “una certa cosa” (se masticate SEO da più di qualche tempo avrete facilmente intuito di che si tratta: se non lo aveste capito, parlo del PageRank). Lo fa per mettere giustamente in mostra le proprie competenze, ma c’è di mezzo il solito discorso: concentrarsi troppo su un aspetto qualsiasi della SEO mette in ombra tutto il resto, e ci fa lavorare male.

Perdonatemi se non metto riferimenti precisi alla questione e se non tiro in ballo la persona – non l’ho ancora conosciuta di persona, rischio di farmi capire male e ho tempo nè voglia, in questi mesi, di discutere più di quanto le consulenze richiedano – ma non è per mancanza di rispetto o “paura”: semplicemente, mi ha dato da pensare un commento comparso a questo post, che in sostanza diceva qualcosa tipo

alla gggiente piaciono le cose semplici!1!!! smettila con queste cos3 complicate!!1!

(più o meno, ecco). In pratica, il commentatore in questione si lamentava (lamentarsi sui social, che novità) dell’approccio “scientifico” alla questione, troppo ostico per lui che di mestiere fa pure il consulente (ecco), il che mi da’ da riflettere perchè sarebbe come lamentarsi di un idraulico competente in idraulica, che poi signora mia i clienti non capiscono queste cose complicate sui tubi, mentre potresti fare l’esempio di Super Mario che è chiaro e divertente e poi ha quei baffi che lo rendono così simpatico…

E poi non scherziamo: abbiamo decine di blog SEO che presentano tutto in modo così semplice (bene, bravo, bis, e nel frattempo ti invitano a cliccare un po’ dappertutto), tu chi sei per fare il “professorone”? Il mondo SEO è ricchissimo di esempi sbagliati o semplicistici, fatti apposto per rendere l’argomento appetibile anche ai gonzi.

Sarebbe come se, mutatis mutandis, uno che fa l’avvocato si lamentasse perchè il suo collega tira sempre fuori questi discorsoni che coinvolgono il codice civile e quello penale: è il tuo mestiere, ciccio, e ci vuole tanto rispetto.

Mi ha dato da riflettere perchè questa manìa di “semplificare” – o meglio ridurre ai minimi termini: calcoli di keyword density, calcolo di indici, PageRank –  la SEO e renderla “per la gente” ha rovinato molti consulenti, dato in mano il settore a chi sapeva spammarsi meglio, lavato la testa ai clienti (che a volte sembra ne capiscano più di te sull’argomento!) e come se non bastasse deturpato le nostre, legittime, pretese sui prezzi (della serie: se mi convinco davvero che siano tutte cavolate e che basta manipolare il PR, lavorerò per poco molto, molto più facilmente).

In realtà molte cose in ambito SEO sono maledettamente complesse, e questo dovremmo metterci l’anima in pace un po’ tutti: soprattutto quando si tratta, come va molto di moda in Italia, di tentare goffi reverse engineering di Google, della serie: ho posizionato il blog di mia zia per la ricerca “ricette di zia Ada che abita a Roma vicino casa mia“, quindi sono un SEO.

Solo che, strano a dirsi (ma forse no) molti clienti si ostinano a ritenere che sia facile, si irritano se li contraddici (quel commento sgarbato, per quanto patetico, è sintomatico) ed in molti casi (parlo per esperienza diretta) è soltanto un paravento per poter dire “mi hai chiesto troppi soldi per una cosa così semplice“.

La semplificazione ad ogni costo in ambito SEO è, in altri termini, l’anticamera dello scrocco.

Chiaro, no?

Originally posted 2015-09-25 09:01:49.

Pubblicato il

Come usare bene i meta-tag ROBOTS

Il meta tag ROBOTS presenta tipicamente un duplice attributo name e description, ed è un tag delle pagine utilizzabile per definire le politiche di indicizzazione delle stesse. Ad esempio:

<META NAME="ROBOTS" CONTENT="...">

dove il NAME deve essere ROBOTS ed il CONTENT può prevedere uno o più attributi separati da virgola. Il meta tag con l’attributo NAME, in altri termini, dovrebbe essere incluso nella sezione HEAD della pagina, e valorizzato a seconda dei casi al fine di specificare cosa dovrà fare il motore di ricerca al momento della scansione. Uno dei motivi per cui si evita che una pagina sia indicizzata, ad esempio, può riguardare contenuti non rilevanti del sito (o, ad esempio, potenzialmente duplicati o relativi a sezioni “dubbie”), oppure siti in fase di test che non si desidera archiviare in Google, ma possono esistere molte altre situazioni intermedie in cui è opportuno farlo. Ovviamente, nel cambiare questo tag, dovremo fare attenzione a garantire che le pagine o i link importanti non siano inavvertitamente escluse/i da Google.

È possibile, in altri termini, utilizzare questo tag per specificare se la pagina dovrà essere indicizzata o meno, ma anche (ad esempio) se i link contenuti in essa dovranno essere indicizzati o meno. A monte di tutto, pero’, perchè questo attributo abbia senso, la pagina non deve essere bloccata dalle direttive del robots.txt.

Nello specifico il “NAME” dell’attributo deve essere uguale a “ROBOTS”, mentre il campo “CONTENT” può assumere uno dei seguenti valori: “INDEX“, “NOINDEX“, “FOLLOW“, “NOFOLLOW“. I valori possono essere sia singoli che multipli, a patto che siano separati da virgola, ovviamente in modo da definire qualcosa di sensato.

Se desideri evitare che una pagina compaia nei risultati della Ricerca Google, quindi, dovrai inserire un meta tag ROBOTS con attributo  NOINDEX nel markup HTML della pagina.
Nota: se la pagina non è ancora presente in Google, così facendo, non lo sarà neanche in futuro; se invece lo è, può essere opportuno attendere il passaggio del crawler oppure “forzare” il passaggio mediante gli appositi strumenti della Search Console (o analoghi tool degli altri motori, se disponibili). L’effetto del meta tag in questione sarà effettivo solo al successivo passaggio del crawler di Google.
Eventuali backlink ad una pagina con attributo NOINDEX, di fatto, saranno irrilevanti per l’indicizzazione della stessa.

A livello pratico, dunque, potremmo avere qualcosa quattro possibili opzioni di base:

<META NAME="ROBOTS" CONTENT="NOINDEX, FOLLOW">
<META NAME="ROBOTS" CONTENT="INDEX, NOFOLLOW">
<META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW">
<META NAME="ROBOTS" CONTENT="INDEX, FOLLOW">

che nella pagina web, nel caso tre, verranno concretizzati in questi termini:

<html>
<head>
<title>...</title>
<META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW">
</head>

Il significato è presto detto: usare il primo tag con NOINDEX, FOLLOW indica a Google/Bing di non indicizzare la pagina corrente, ma di seguire i link contenuti in essa; il secondo INDEX, NOFOLLOW indica invece di indicizzare il contenuto e di ignorare i link; il terzo esclude sia pagina che link dal motore mentre il quarto non mette vincoli di alcun tipo nè al contenuto pagina nè ai link. Se non viene inserito alcun tag ROBOTS, per inciso, si assume che il valore dei meta tag sia “INDEX,FOLLOW“.

La modifica di questi valori deve essere effettuata via modifica del theme o template, in modo coerente col funzionamento del vostro CMS: in WordPress (ma anche in altri ambienti, in effetti), ci sono numerosi plugin che permettono di controllare facilmente questi attributi, come SEO Yoast e SEO Ultimate.

(fonti: www.robotstxt.org/meta.html, support.google.com/webmasters/answer/93710?vid=1-635783378613794450-2566149819)

Originally posted 2015-09-21 10:01:34.

Pubblicato il

Come ottenere lo snippet in primo piano su Google

Introduzione

Hai cercato per tutto il web e non sei riuscito a capire un emerito su questo argomento. Non ti preoccupare: qui troverai la risposta giusta e riuscirai finalmente a capire cosa siano questi benedetti snippet in primo piano. Sì, sono quelli che appaiono come primissimo risultato per certe ricerche, e che ti mettono al top del top su Google: non c’è nessun SEO della concorrenza che possa toglierti da lì, salvo tu faccia davvero schifo con il tuo sito o sia un po’ sfigato – e in questo caso non potresti comunque farci nulla. Per cui sorridi, in ogni caso: mettiti comodo in poltrona e leggi con attenzione quello che ho scritto – la soluzione è giusto qui sotto!

(sì, ultimamente mi piacciono gli incipit alla Aranzulla – anche se probabilmente lui non avrebbe mai usato certe parole.)

Cosa sono i featured snippet

Per capire un po’ meglio cosa siano gli snippet di questo tipo, bisogna considerare ciò che dice Google a riguardo (fonte):

  1. il risultato zero viene estratto programmaticamente dal testo della pagina web, quindi ci si aspetta che sia delimitato e ben riconoscibile (ad esempio in un paragrafo a sè stante, oppure utilizzando un paragrafo ed una lista puntata o numerata).
  2. viene abilitato per le ricerche che corrispondano più chiaramente a domande;
  3. lo snippet non è necessario che riporti verità assolute o il Vangelo secondo qualcuno, bensì – secondo Google, eh – un punto di vista chiaro ed inequivocabile di quel sito;
  4. la feature potrebbe subire modifiche in futuro, o essere comunque alterata o rimossa.
  5. cliccando su “Fornisci feedback” in basso a destra qualsiasi utente può segnalare eventuali snippet impropri o poco comprensibili.

Quali siti possono ottenere il featured snippet?

Apparentemente tutti, non ci sono limitazioni effettive.

Sono ovviamente preferiti, e più probabili allo snippet in “posizione zero”:

  • i blog molto curati, soprattutto se sanno approfondire e pubblicare post evergreen (cioè post diversi da notizie, che durino sempre nel tempo e mantengano la propria validità);
  • i siti di tutorial e guide, cioè idealmente quelli modello Aranzulla: è molto frequente che questi siti diano risposte utili e concise (come vedremo tra un attimo) alle domande (o ricerche) degli utenti;
  • i giornali online, per quanto sia un caso particolare e di solito non sia banalissimo ottenerne uno; anche qui, l’approfondimento di un topic e la capacità di sintetizzare le risposte la faranno da padrone.

Cos’è la posizione zero

La posizione zero, detta anche featured snippet, risultato zero o snippet in primo piano, secondo Google è un risultato di ricerca che si pone al di sopra di tutti gli altri, quindi come unico risultato in evidenza nell’above the fold (cioè la sezione della finestra visibile senza scorrere verso il basso)

Quando un utente o un’utentessa di Google pone la propria (intelligentissima, il più delle volte) domanda dentro Google, la risposta restituita potrebbe – a determinate condizioni – essere mostrata in un riquadro speciale di snippet in primo piano.

Attenzione: solo Google sa a chi e per quale ragione concedere questo onore. Per cui a noi poveri (in ogni senso) SEO non rimane che provare a dare l’ennesima sistemata ai nostri siti, e vedere se eventualmente riusciamo a conquistare la posizione zero con qualche piccolo accorgimento sul testo e sul markup HTML.

Esempio di featured snippet italiano

Per capire bene di cosa parliamo, provate a cercare ad esempio “cos’è una mappa catastale“: almeno ad oggi, dovreste vedere una cosa del genere, con lo snippet in primo piano bene in vista.

 

Come ottenere lo snippet in primo piano

Non ci sono regole precise per ottenerlo: da un punto di vista di copy, sembra che le definizioni concise di un qualcosa funzionino alla grande. Fossi in loro, per inciso, proverei una decina di definizioni test e le infilerei in un blog, anche per capire quali siano viste e quali no: in caso di successo, le visite sono assicurate – immagino tassi di click se non prossimi al 100%, quasi – ovviamente poi dipende: se la vostra pagina fa schifo, oggi avrete lo snippet e domani, magari, lo perderete per sempre.

Il trucco per quello che sono riuscito a capire, visto che qualcuno l’ho beccato su qualche sito ottimizzato in passato, è legato:

  1. a quanto sia concisa e calzante la definizione;
  2. all’uso corretto di tag paragrafo (<p>) in cui inserire definizione e titolo (<h2>,<p>);
  3. alla scelta corretta della query da ottimizzare per la posizione zero (funziona per le richieste tipo “cos’è X”, di norma)
  4. ad una discreta dose di fortuna (che quella aiuta sempre, nella vita).

Come verificare di aver ottenuto lo snippet

La verifica può avvenire mediante una semplice ricerca tra quelle piazzate in prima posizione secondo la Search Console, anche se al momento questo strumento non segnala l’evenienza della cosa. Basta in generare cercare qualcosa su Google, e verificare che sia effettivamente attivo come risultato zero.

Sembra banale, ma è così: per verificare se avete ottenuto uno snippet per la ricerca “cos’è la seduzione“, non vi resta che provare a cercare su Google “cos’è la seduzione” e verificare di essere al vostro posto (al momento trovate una definizione da dizionario, per cui non vi illudete, vecchi lupi di mare o Casanova.

Suggerimenti per ottimizzare on-page la tua pagina per gli snippet

Se andiamo ad analizzare la struttura HTML del sito che ha ottenuto il posizionamento, troviamo una cosa del genere in corrispondenza del testo evidenziato: apparentemente l’HTML, ben formato (nel senso che ci sono tag di apertura e chiusura ben innestati e basta), presenta un semplice paragrafo <p> preceduto nello specifico da uno in cui è presente approssimativamente la query di ricerca “cos’è un (estratto estratto di) mappa catastale”.

In prima approssimazione, quindi (regole orientative non rigide, da prendere con le pinze):

  1. bisogna inserire una domanda frequente (cos’è X, come funziona Y, ecc.) in un <p></p> o in un heading (<h2></h2>, ad esempio)
  2. bisogna inserire una risposta o definizione secca in un altro blocco <p></p>;
  3. title e meta description sembrerebbero ininfluenti in tal senso (il title c’è ma è diverso, mentre la meta description era del tutto assente, quando ho fatto il check)
  4. la risposta non deve essere troppo lunga perchè, comunque, il numero di parole visualizzate nello snippet è comunque limitato per esigenze grafiche;
  5. mi sembra anche plausibile che nella definizione non debbano esserci contenuti commerciali di alcun genere, come link a siti partner, link venduti o banner pubblicitari (secondo me, ovviamente); se vedete, si tratta di semplice testo conciso e funzionale;
  6. la creazione dello snippet non è forzabile in alcun modo: dalle mie parti si direbbe “cce vo culu” (bisogna essere fortunati, ndr)

Ho visto altri featured snippet che presentavano un paragrafo con una lista <ul>, <li> oppure <ol>, <li> all’interno, ma questo della lista non sembra essere un requisito obbligatorio. Se mettete la lista, potrebbe essere vista nel risultato zero – in questo modo occupate anche più spazio nella SERP, tra l’altro.

Come evitare gli snippet in primo piano

Come spesso accade per Google, non è nota la procedura per fare direttamente qualcosa di ambìto (come posizionare un sito in prima pagina, tanto per fare un esempio casuale), ma è possibile fare in modo che lo snippet NON venga attivato.

Per evitare questa possibilità (anche se non riesco ad immaginare per quale motivo farlo sinceramente), basta inserire il testo da non “snippare” nel tag <meta name="googlebot" content="nosnippet">

Originally posted 2018-10-10 18:45:20.

Pubblicato il

sitemap: cosa sono e a cosa servono

Le sitemap sono uno degli elementi portanti dell’inizio di qualsiasi attività SEO, ma possono essere sfruttate per consolidare una situazione esistente, formalizzarla al meglio e così via. In questo articolo scopriremo qualche informazione utile sulle sitemap, dette anche “mappe del sito” – le quali servono per definire la struttura di tutte le pagine del nostro sito web, in modo che Google (ed in particolare la Search Console) possa leggere ed interpretare questo file.

Perchè si chiamano sitemap?

Il fatto che si chiamino “mappe” del sito non deve trarre in inganno: non si tratta di cartine geografiche, bensì di mappe nel senso di “file strutturati”: Una sitemap non è altro se non una risorsa pubblicamente accessibile dal web che elenca gerarchicamente tutte le pagine di un sito, nata formalmente per rendere agevole la navigazione dell’utente all’interno del sito, ma soprattutto per facilitare il crawler dei motori di ricerca a determinare la posizione delle varie pagine.

Struttura delle sitemap

Una sitemap è un file (tipicamente XML) in cui si possono inserire (o far inserire via plugin o software, come avviene di frequente nella quasi totalità dei casi) le pagine web del tuo sito: tali informazioni saranno comunicate a Google al fine di rendere pubblica l’organizzazione del sito, ed evitare ad esempio che ci possano essere URL non scansionati, ignorati o non indicizzati. La Sitemap ha una forma in XML perchè il suo potere espressivo è più ampio di quello di un normale file di testo (come ad esempio il robots.txt): in particolare, una mappa può fornire metadati utili associati alle pagine, come ad esempio l’ultima data di aggiornamento (tanto per capirci, cosa molto utile per i blog aggiornati o per i siti di news, ad esempio).

Formato di esempio delle sitemap

Le sitemap sono solitamente un file strutturato in formato XML, che presenta al proprio interno una forma di questo tipo:

<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
  <url>
    <loc>http://www.esempio.it</loc>
    <lastmod>2012-01-23</lastmod>
    <changefreq>weekly</changefreq>
    <priority>1</priority>
  </url>
  <url>
    <loc>http://www.esempio.it?id=7</loc>
    <lastmod>2012-01-23</lastmod>
    <changefreq>monthly</changefreq>
    <priority>0.8</priority>
  </url>
  <url>
    <loc>http://www.esempio.it?id=9</loc>
    <lastmod>2012-01-23</lastmod>
    <changefreq>monthly</changefreq>
    <priority>0.5</priority>
  </url>
</urlset>

Ogni elemento racchiuso tra <…> rappresenta un tag, che (similmente ai tag del markup HTML) può essere autonomo (come ad esempio <?xml version=”1.0″ encoding=”UTF-8″?>) oppure essere un contenitore (come ad esempio <loc>http://www.esempio.it</loc>). Gli elementi <url> rappresentano i vari URL del sito, che verranno scansionati da Google in modo da poter apparire nei motori di ricerca in forma aggiornata, essere ovviamente aggiornati nel tempo ad ogni minimo cambiamento e così via.

In genere, poi, la forma delle sitemap è innestata (cioè ci sono degli elementi che ne possono contenere altri: quello di livello più esterno è in genere chiamato URLSET) e caratterizzata da una struttura fissa di tanti elementi URL. In genere, ogni URL contiene almeno le seguenti informazioni:

  1. loc: il nome univoco dell’URL, campo obbligatorio
  2. lastmod: la data dell’ultima modifica effettuata a quell’URL
  3. changefreq: campo opzionale che indica la frequenza con cui viene aggiornato, in media, quell’URL
  4. priority: una priorità numerica (numero con virgola, da 0.0 a 1.0) con cui si indica la priorità dell’URL rispetto agli altri

Le sitemap sono a loro volta innestabili, nel senso che una mappa può contenerne altre – cosa molto frequente nella generazione di sitemap complesse per siti molto ramificati. La generazione delle sitemap può essere affidata ad un programmatore nel caso in cui il CMS sia proprietario o non disponga di un sistema per generarla da sè, diversamente ci sono plugin free o a pagamento a seconda dei casi per finalizzare questo obiettivo.

Come generare una sitemap (WordPress, Joomla!, …)

Di norma se usate un CMS come Joomla!, Magento o WordPress, è possibile generare una sitemap sfruttando delle apposite sezioni interne (tipicamente quelle per webmaster, o denominate “SEO”), al limite dopo aver installato un apposito plugin. A seconda del tipo di CMS utilizzato ci saranno delle funzionalità già pronte, oppure se non sono presenti andranno integrate via plugin o addon specifici.

  • Ad esempio, per WordPress è molto frequente l’uso dell’ottimo plugin Google XML Sitemaps.
  • Per Joomla possiamo usare JSitemaps.
  • Per Magento esistono soluzioni diverse, più o meno complesse, a seconda dei casi e della versione utilizzata del CMS.

Come generare una sitemap dall’esterno

Per i siti statici, o che non dispongano delle risorse per generare una sitemap, è possibile generarla dall’esterno mediante appositi tool come xml-sitemaps.com.

Originally posted 2018-06-11 09:12:16.

Pubblicato il

Introduzione agli strumenti basic e gratis per la SEO: Analytics, Search Console e SEO Panel

Farsi aiutare dai software è doveroso durante qualsiasi attività SEO, e questo perchè i dati da analizzare sono quasi sempre di diversa (backlink, fonti di traffico, citazioni) e numerosa natura (proporzionale alla popolarità ed al numero di visitatori). Se rinunciamo a questi tool, le nostre analisi rischiano di essere fuorvianti e di portarci decisamente fuori strada: vediamo quindi quattro software free che sarebbe doveroso utilizzare periodicamente.

Il primo da mettere in lista è la Search Console (l’ormai ex Webmaster Tools) di Google, che fornisce indicazioni molto dettagliate anzitutto sullo stato di indicizzazione del sito: andando all’indirizzo https://www.google.com/webmasters/tools/ col nostro account Gmail, ovviamente dopo aver configurato il nostro sito, troveremo tutte le informazioni sul livello di ottimizzazione del sito. Le principali informazioni che possiamo ricavare da questo strumento sono l’analisi delle ricerche (quali ricerche portano al nostro sito, su quali pagine, con quale frequenza e con quale CTR), lo stato della sitemap (se presente), i link interni, i link che rimandano al nostro sito ed altri tool da usare all’occorrenza, come quello per la ri-scansione delle pagine e la notifica di penalizzazioni.

I test per la verifica dell’indicizzazione sono, infine, stati da me descritti nell’articolo linkato; dalla SC si ottengono, più che altro, dati statistici e prestazionali.

Il secondo tool che possiamo sfruttare per le analisi SEO, in realtà, non è un vero e proprio software bensì il risultato delle attività del sito: i log del server (di errore, ma anche di semplici attività del sito) possono infatti dare indicazioni molto interessanti sui migliori contenuti del sito, sui link non ancora rilevati dalla Search Console e sulle ricerche avvenute internamente nel nostro portale. Ne ho parlato diffusamente su trovalost.it in maniera approfondita, per cui rimando a quell’articolo per maggiori informazioni. Trovare i log sul server non è difficile, cambia solo lievemente in funzione del tipo di webserver e del sistema operativo installato dall’hosting. Per analizzare i log, conviene utilizzare dei buoni editor di testo come TextWrangler per Mac e TextEdit per Windows.

Il terzo strumento da considerare è senza dubbio Google Analytics, che è uno strumento impareggiabile per tracciare i visitatori, la provenienza, le fonti di traffico (ovvero i backlink “attivi”), il rimbalzo ed altro ancora. Installare Google Analytics è quindi indispensabile per qualsiasi sito, dai siti vetrina fino ai siti di news con migliaia di visitatori giornalieri.

L’ultimo strumento utile potrebbe infine essere SEO Panel (scopri come installarlo), il tool open source per le analisi SEO che, rispetto alle prime versioni, offre molte opzioni extra, tra cui la generazione di report ed uan rilevazione più precisa dei risultati. Permette infatti di tracciare i ranking delle parole chiave sito per sito, effettuando una verifica del posizionamento in automatico e mostrando poi i risultati all’utente finale. Si scarica da seopanel.in, e richiede un hosting con cron job e PHP/MySQL.

Originally posted 2015-08-20 09:45:55.

Pubblicato il

Fare SEO per siti di e-commerce

La SEO sui siti di e-commerce – clicca qui per saperne di più sulla SEO – è probabilmente la migliore, se possiamo dire così, sia a scopo didattico (per imparare questo mestiere) che puramente remunerativo (per via del modello di mercato intrinsecamente redditizio, il più delle volte): se un sito riesce a convertire di più grazie ai motori di ricerca, infatti, gli effetti saranno visibili anche per chi non fosse esperto di web analytics, e questo darà un livello di credibilità ad un’attività come l’ottimizzazione per i motori, spesso ingrata, difficile da trasferire e mal pagata.

Quali sono, anzitutto, i fattori più importanti per promuovere un e-commerce lato SEO?

Ogni consulente decide in modo autonomo come ottimizzare questo aspetto, per il quale non esiste una regola generale o sempre valida o tantomeno a “botta sicura”: il modo migliore, comunque, consiste molto spesso nel fare la scelta più ragionevole per gli utenti e cercare di evitare ridondanze e ripetizioni dei termini.

  1. Il contesto, gli obiettivi. La prima cosa da tenere conto quando si fa SEO sui siti di e-commerce è l’obiettivo: se puntiamo alle conversioni, come è quasi sempre scontato fare, oppure se stiamo semplicemente lavorando sull’incremento del numero di visualizzazioni del nostro sito di ecommerce. Banale scriverlo, molto meno banale ragionarci: ma da questo dipenderà il taglio delle nostre scelte successive, per cui ragioniamoci in modo opportuno.
  2. La coda lunga.  Ormai chiunque prova a vendere prodotti online, il mercato sui motori di ricerca si è molto aperto e, nonostante la supremazia indiscussa di Ebay ed Amazon, non ci sono dubbi che la SEO giochi un ruolo determinante, soprattutto per quel tipo di prodotti o servizi che sui grossi portali siano difficili da trovare, troppo costosi o irreperibili per altre ragioni. Un buon modo per sbloccare il traffico, almeno all’inizio, è quello di trovare i giusti settori o nicchie di mercato su cui operare, e cercare di valorizzarle per avviare le attività. In questo contesto, operativamente  si tratta di indagare sulle parole chiave della coda lunga: elencarle, scremarle, stabilire delle strategie editoriali su di esse e così via. Non è complicato determinare le ricerche di questo tipo, all’atto pratico, in quanto: sono tipicamente più lunghe della media, composte da almeno 2 o 3 parole (esempio: hosting molto economici), tendono ad occupare piccoli settori, piccole fette di mercato di ricerca (certamente meno dei corrispondenti termini base da cui sono tratti, hosting nel caso precedente), tendono ad avere poca o nessuna concorrenza, per quanto non si tratti di una regola sempre valida. Cercare un po’ di termini di questo tipo serve a generare la lista dei termini chive che, di fatto, andranno ad essere ragionevolmente distribuiti sulla pagina, senza forzature ma in modo estremamente naturale, ovvero su:URL delle pagine, link di orientamento e navigazione (categorie, tag), titolo, sottotitolo e descrizione della pagina, descrizione del prodotto, soprattutto title e meta description, tag immagini e/o attributo alt.
  3. Link interni e sitemap. In questo caso si tratta di un controllo minimale: si cerca di fare in modo che i prodotti siano tutti ben collegati tra loro (almeno un link in ingresso per ogni prodotto o categoria), per il resto sottoponiamo la sitemap alla Search Console (sia di Bing che di Google) ed attendiamo qualche giorno che i dati del sito vengano rilevati. Effettuando una ricerca tipo site:nomedelvostroecommerce.com dovremmo riuscire a vedere tutte le pagine del nostro sito, requisito basilare perchè siano indicizzate, cioè ricercabili. Se non lo fossero, cerchiamo di lavorare sui link esterni (aggiungendone), e proviamo a reindicizzare il sito mediante gli appositi tool e procedure.
  4. Verifichiamo che l’ecommerce funzioni. La procedura di ottimizzazione lato SEO di un e-commerce non può non passare, almeno una volta, per un rapido check del carrello: sembra una cosa che non c’entra nulla, o addirittura banale, ma la user experience ne può (e ne deve) uscire rafforzata poichè questo, in termini SEO, fa la differenza. Gli utenti riescono ad acquistare facilmente da mobile e da desktop? Un caso invalidante tipico che ho riscontrato, ad esempio, riguarda la presenza di un form con inserimento dati obbligatori che funziona male ed impedisce di concludere l’acquisto. Questo ovviamente influenza molto il numero di conversioni che il sito fa, e spesso in pochi ci pensano. In caso di difficoltà dovremo rivolgerci ad un webmaster di fiducia.
  5. Cerchiamo di acquisire link esterni. Sono fondamentali per il successo del nostro e-commerce, ma sono anche i più complessi da ottenere in questo ambito. Al contrario dei blog che sono linkabili molto più facilmente, ricevere link su un sito commerciale non è banale e deve esserci 1) il giusto contesto (un forum permissivo, ad esempio) 2) una buona ragione per farlo. Il fatto che si tratti di un sito di natura commerciale finirà per scoraggiare molti utenti, anche perchè le politiche di molti siti non sono troppo permissive in tal senso: buone eccezioni se ne trovano se riusciamo ad essere padroni dei nostri mezzi e facendo, come sempre, un po’ di esperienza diretta. Un buon backlink per il sito di e-commerce potrebbe essere, ad esempio, quello di un giornale online molto popolare che parla dei metodi innovativi di vendita del nostro sito: ciò che è diverso e devìa dalla norma, di solito, attira link spontaneamente nel tempo. Anche stabilire partnership con aziende e blogger, di fatto, possiede un ruolo determinante in ciò.

A livello pratico, poi, le attività SEO su siti di e-commerce sono scomponibili in due macro-attività:

  1. ottimizzazione on page, cioè sulle pagine interne, agendo sul CMS;
  2. ottimizzazione off page, ovvero tutte le attività di link buiding, buzzing, segnalazioni, partnership e via dicendo.

La suddivisione è del tutto orientativa, visto che tante attività “strategiche” del settore andrebbero prima di tutto pianificate; resta utile pensarla in questi termini visto che, alla prova dei fatti, la prima è tipicamente lunga e “compilativa” mentre la seconda è, se possibile, ancor più a medio-lungo termine.

Per capire bene di cosa stiamo parlando consideriamo un e-commerce in Prestashop, diffusissimo CMS per i negozi online. I margini di ottimizzazione on page su Prestashop sono buoni, senza dubbio, tanto che si possono settare nel dettaglio title e meta-description di ogni categoria, pagina statica e pagina prodotto (e anche campi praticamente inutili come le meta keyword). Se lo scopo principale della SEO è quello di aumentare le visite sulle pagine che convertono di più, diventa necessario, in molti casi, ottimizzare prima le pagina più visitate, o quelle che ci interessa di più far convertire, e subito dopo (ammesso che il budget lo permetta) tutte le altre.

A livello di ottimizzazione onpage, quindi, si tratta di un lavoro ben codificato, declinabile in vario modo e più che altro “lungo e faticoso”: per certi versi, analogo a quando dobbiamo togliere una penalizzazione da un sito, insomma. Sappiamo cosa fare, è un processo lungo e l’esito dovrà essere verificato eventualmente con “try & test” successivi, fino al raggiungimento dell’obiettivo. Da non dimenticare la generazione di contenuti utili, tutorial e FAQ del settore, perchè aiutano sempre a calamitare l’interesse delle persone verso il nostro ecommerce. Ciò che diventa complicato sugli e-commerce è legato invece al secondo punto, l’ottimizzazione SEO off page: come facciamo a prendere backlink per migliorare il posizionamento di un negozio online?

I backlink spontanei verso i siti di e-commerce sono naturali nella misura in cui gli utenti trovano una buona ragione per farlo: ecco perchè i coupon e gli sconti funzionano bene a livello di link bait, e sono una delle strategie più spontanee per fare link building in modo sensato. Sconsigliato, o comunque poco professionale in questo caso, ricorrere al grezzo comment marketing linkando un sito di e-commerce: si capisce subito che lo stiamo facendo per incrementare la visibilità del sito, ed anche il webmaster più ingenuo capirà le nostre intenzioni, e finirà per togliere il link.

Le directory aziendali, invece, per quanto siano usate piuttosto male (quasi in tutti i casi si fa keyword stuffing) e spesso non permettano backlink se non a pagamento, funzionano discretamente bene a livello SEO, e tra queste segnalerei hotfrog.it, diffusa in tutte le lingue e piuttosto utile, secondo me. Se avete un’attività ben codificata in un settore commerciale, inoltre, potete segnalare il vostro sito a DMOZ, con tutte le riserve del caso ed essendo disposti ad aspettare un po’ per l’eventuale approvazione.

Originally posted 2015-08-19 12:30:21.

Pubblicato il

10 requisiti necessari per fare SEO col tuo sito

Molto spesso si pensa, sbagliando o banalizzando la questione, che per fare SEO basti manipolare un po’ testo, title e contenuti delle pagine o al limite dei widget; nulla di più sbagliato, perchè per farla è necessario avere un minimo di qualità di base. Cosa si intende quindi per qualità in questa accezione? Ci sono un po’ di cose che è necessario conoscere, prima di procedere oltre.

Eccovi i principali 10 requisiti che ho stilato in questi anni, tra molte consulenze su siti diversi e tanta esperienza, perchè la vostra SEO – anche se ben fatta, formalmente – non sia un bel buco nell’acqua.

  1. Scansionabilità del sito – Tutte le pagine più importanti del vostro sito (categorie, pagine singole, home pagine, pagina chi siamo, FAQ ecc.) devono essere scansionabili da Google: questo vuol dire che A) devono dare una risposta HTTP(o meglio ancora HTTPS) con codice server 200 OK (ci sono dei tool per verificarlo) e soprattutto B) devono rispettare i requisiti di scansionabilità richiesti da Google. All’atto pratico ciò significa che il vostro sito deve caricare correttamente la pagina senza errori lato server, e non deve essere presente il meta tag NOINDEX che, come risaputo, viene interpretato per evitare la scansione dei contenuti (ed è infatti utilizzato per deindicizzare le pagine web). Visto che vi trovate, accertatevi che i DNS del vostro sito siano ben impostati, che il vostro sito reindirizzi correttamente con e senza www davanti (specie se si tratta di un dominio di secondo livello), che non ci sia nessun firewall o software bloccante il vostro sito web. Se usate HTTPS, configuratelo a dovere e verificate che non esista una doppia versione del sito HTTP / HTTPS (potrebbe essere visto come un duplicato).
  2. Usabilità del sito – Il vostro blog o sito da ottimizzare deve rispettare e valorizzare l’uso da parte degli utenti: deve essere chiaro, in particolare, il site intent cioè lo scopo delle vostre pagine. In pratica: nelle vostre pagine è abbastanza chiaro a cosa serva il vostro portale? Ci sono pagine in cui esistono troppi link, e/o non si sa bene dove cliccare? Ci sono pagine in cui non è abbastanza chiaro il contrasto tra sfondo e colore del font? Ci sono titoli poco chiari o poco pertinenti rispetto all’effettivo contenuto della pagina?
  3. Progetta le tue pagine per gli utenti, non per i motori. Questo è un mantra ripetuto da Google dalla notte dei tempi, ma si tratta di un semplice principio utile a distinguere tra un sito fuffa ed uno di qualità: se progetti le tue pagine per i motori di ricerca fissandoti sulla keyword density ed altre similiti amenità, non ricaverai mai nulla di buono.
  4. Evita i trucchetti: prova sempre a chiederti se ti sentiresti a tuo agio nello spiegare il tuo comportamento sul web a un sito web concorrente o a un dipendente di Google. Sapresti dirmi come produci contenuti? Scopiazzandoli da altri siti? Analizzando e migliorando l’esistente? Proponendo il punto di vista più popolare del momento?
  5. Fai in modo che il tuo sito web si distingua dagli altri nel tuo campo. Questo punto non richiede ulteriori spiegazioni, credo.
  6. Aggiorna spesso il tuo sito – I “siti vetrina” sono una locuzione tanto sbagliata (e che fa tanto “web di una volta”) quanto inutile all’atto pratico: non fate siti vetrina, il web non è il negozio di zia Adolfa sotto casa. Il web è una miniera di informazioni e bisogna essere bravi a canalizzare le giuste informazioni sul vostro sito, in modo da darvi un’identità ben precisa e non vi renda delle banali content farm (fabbriche di contenuti vomitati sul momento, scritti con dilettantismo e giusto per farsi cliccare i banner) come troppe ce ne sono nel web.
  7. Velocità del sito – Non è tanto un fattore di posizionamento (anche se poi concorre ad esserlo), in quest’ottica, quanto un pre-requisito tecnico: se il vostro sito impiega in media più di 1-2 secondi a caricare una singola pagina, quale che sia il problema di fondo (hosting, theme sballato, plugin buggati…), la SEO rischia di diventare un’operazione del tutto inutile.
  8. Contenuti di qualità – Cosa si intenda per “qualità”, ovviamente, dipende dai casi: se si tratta di un e-commerce, devi proporre prodotti di valore, a buon prezzo e con descrizioni ordinate. Se si tratta di un blog su cui si vendono banner, si devono costruire e scrivere cose che valga la pena leggere. Se proponi l’ennesimo sito già esistente non potrai avere successo, anche se fai SEO come si dovrebbe fare. Se proponete l’ennesimo e-commerce clonato o l’ennesimo blog scopiazzato da altre fonti, di scarso interesse o (come avviene per la maggioranza dei blog) focalizzato esclusivamente sui propri gusti e preferenze, e senza pensare minimamente al target di riferimento, non c’è SEO che possa reggere, purtroppo: l’impatto sarà comunque limitato.
  9. Fatevi aiutare da un professionista – Se partite con l’idea che gestire un sito sia robetta facile per fare soldi facili, lasciate perdere. Farete perdere tempo a chi cercherà di spiegarvi come funziona davvero, e darete sempre più spazio ai colossi che divoreranno progressivamente i piccoli e medi imprenditori del web. Non è una barzelletta, il web: non è una barzelletta la SEO, non lo è tantomeno gestire seriamente il proprio account social per lavoro.
  10. Rispetta il tuo pubblico, non ingannarlo con trucchetti da SEO di periferia, facendo click baiting grossolano o scrivendo che una cosa è free quando in realtà poi non lo è: il pubblico su internet ha una soglia di attenzione bassissima, e quello di cui non ha bisogno è l’ennesimo pseudo-imprenditore che crede che fare soldi sul web basti scrivere quattro stupidaggini o farsi fare il sito dal cuggino di turno. Se non rispetti il tuo pubblico, ti ignoreranno e non rispetteranno te.

Originally posted 2017-12-10 13:57:01.