I 12 miti SEO più dannosi di sempre

Non è arte, non è una scienza esatta e periodicamente ci fa disperare, divertire e lavorare duramente: nel mondo dell’ottimizzazione e della sua divulgazione su internet, come in altri ambiti, è naturale che possano diffondersi dei falsi miti. Leggende urbane e bufale SEO sono all’ordine del giorno, ma questo soprattutto dato l’interesse editoriale di molti siti nel farsi leggere ad ogni costo.

Con questo articolo propongo una rassegna dei miti più assurdi e pericolosi, se vogliamo, per lavorare correttamente nella SEO.

Vorresti pubblicare guest post per la tua azienda? Prova il servizio di link building di ➡️ Rankister.com ⬅️

1) Alla fine è solo questione di PageRank…

Il PageRank è solo l’indice più intuitivo e più semplice da spiegare che possa esistere, ma ciò non vuol dire che sia il più utile: la fissazione di molti SEO nel semplificare i termini del discorso, spesso calati nella (tragica) buonafede di chi vorrebbe farsi apprezzare anche dai clienti più ottusi, è diventata un must all’interno delle liste di miti SEO, ed è quasi invulnerabile a qualsiasi considerazione contraria si possa farne. No, non è solo questione di PageRank nella SEO – purtroppo o per fortuna: nella valutazione dei siti in ambito ottimizzazione sui motori intervengono (per citarne giusto altri tre) anche la user experience, le ottimizzazioni interne, il numero di backlink al sito. Ottimizzare un sito passa per capirne il contesto, per stabilire cosa sia meglio per un sito di tipo X, Y o Z, e non può per questo essere questione di PageRank e numeretti vari, isolati dal contesto e considerati totem da adorare. La mentalità riduzionista di molti SEO, alla fine, significa spesso che state avendo a che fare con improvvisazione ed incompetenza: diffidate sempre dai mercanti di PageRank.

2) Il tool per i disavow / per lo spam / per segnalare i link a pagamento è inutile!

Secondo me questo genere di ragionamento denota solo una scarsa propensione al settore: scarso ottimismo, scarsa flessibilità, scarsa mentalità imprenditoriale oltre che scarsa voglia di fare, unita ala voglia morbosa di rimanere nella propria comfort zone. Il vero problema di questi tool, in effetti, è che (a parte il disavow nel caso di penalizzazioni esplicite) praticamente mai – almeno nella mia esperienza – danno un riscontro misurabile. Ovvero se segnali un link di spam o comprato Google non ti dirà mai “bravo” o “adesso ti premio”; superato questo scoglio di mentalità “scolastica”, l’uso di questo come di altri strumenti SEO è, prima che utile, a mio avviso doveroso per migliorare la qualità del lavoro di tutti. Dubito che se tutti segnalassero spam ed irregolarità a Google non succederebbe nulla di buono: il problema, appunto, è che chi non segnala o svilisce spesso, purtroppo, ha ottime ragioni per farlo.

3) Ho calcolato la keyword density “ottimale” (al 4%) e…

La keyword density rientra in quelle che il buon Enrico Altavilla ha etichettato come “ca**te SEO” ed ha spiegato egregiamente: La keyword density non è mai stata usata dai motori di ricerca moderni per stabilire quanto un documento è attinente ad una query. L’ultimo utilizzo pratico che io conosco risale ad alcuni vecchi algoritmi in voga in ambito universitario negli anni settanta! Per cui se il vostro consulente di fiducia o il vostro collega vi parla di keyword density, direi che tanto “di fiducia” e tanto “collega” magari non è.

Ripetiamo, per brevità: non solo la keyword density è una metrica di Information Retrieval obsoleta e stupidella (si limita a considerare il numero di occorrenze di una parola chiave in un contesto), ma non c’è nemmeno  traccia storica del fatto che sia mai stata usata dai motori.

4) Consideriamo i SEO factor (stagionali: oggi va il blu, domani chissà)

Si tratta di uno dei miti SEO forse meno banali da smontare, poichè perchè si basa su un frainteso statistico ed esprime (mi si passino i termini poco garbati) un mix letale di analfabetismo funzionale e smanìa da marketing a basso costo. Ci sono numerosi articoli, soprattutto stranieri (spesso ripresi dai SEO italiani, purtroppo) che parlano dei SEO factor del momento: adesso “va di moda” ottimizzare i title, domani si lavora sui contenuti (Come a dire: normalmente cosa fate, se lavorate sui contenuti a sprazzi o solo se lo scrive MOZ?), dopodomani chissà. Il problema di questo approccio – che, per inciso, anche se fosse valido porterebbe i SEO a fare tutti le stesse operazioni, in massa, su ogni sito! – è che si trova ad essere sbagliato in partenza: da un lato, infatti, è figlio di un fraintendimento legato alla correlazione, dall’altro esprime la necessità di certe agenzie e guru di fare link building pubblicando i SEO factor 2016, 2015, 2014 e così via. La correlazione statistica non implica causalità: qualsiasi SEO factor troviate in giro, anche il più convincente, sarà comunque frutto di uno studio statistico. Ogni statistica è limitata ad un campione, ed il campione in esame potrebbe non essere pertinente al vostro scopo o essere stato manipolato ad arte. Inoltre, il fatto che ci siano correlazioni molto forti (cioè prossime ad 1) tra due fattori non vuol dire che uno causi l’altro (metto le parole chiave all’inizio del titolo -> mi posiziono meglio). Il fraintendimento della correlazione e dei SEO factor porta un condizionamento subdolo e terrificante nel nostro lavoro e nell’indipendenza di giudizio, ed è uno dei mali della nostra professione, da sempre. Se consideriamo che a volte vengono discusse correlazioni dello 0.1 o 0.2 (correlazioni molto deboli, o spurie) e sono anch’esse considerate ranking factor, si capisce ancor più quanto sia stupido discutere di SEO in questi termini.

LEGGI ANCHE:   Perchè Yoast NON è il miglior plugin SEO per WordPress

5) I meta tag keyword della pagina sono sbagliati!

Se state cercando di capire quali meta tag keyword siano meglio nelle vostre pagine a scopo SEO, magari non siete troppo aggiornati e fareste bene a riguardare un post ufficiale del blog di Google: dal 21 settembre 2009 non ha molto senso parlare di questo tag, infatti, perchè è stato ufficialmente dismesso. In pratica non viene più usato da Google, o se preferite: “Google doesn’t use the “keywords” meta tag in our web search ranking”.

In pratica non serve riempire questo campo con una lista di parole chiave separate da vingola, non cambia nulla nella pratica ed è molto meglio dedicarsi ad altre attività. Anche Bing è sulla stessa linea, per inciso (“Today, it’s pretty clear the meta keyword tag is dead in terms of SEO value”), ma rimane l’opinione diffusa che un uso sbagliato dei meta tag keyword sia comunque penalizzante. Per la cronaca, e per quello che vale, ho fatto un test sul mio sito qualche tempo fa – inserendo volutamente keyword sbagliate o fuori tema – e non è successo nulla di interessante nè in positivo nè in negativo. Per il resto sono opinioni, non fatti, e sulle opinioni mi rifaccio spesso alla celebre frase attribuita all’ex CEO di Netscape, Jim Barksdale: se disponiamo di dati, analizziamoli. Se tutto ciò che abbiamo sono opinioni, consideriamo la mia (o, se preferite, ognuno consideri la propria).

6) Il meta tag noindex basta, da solo, a deindicizzare le pagine

Su questo si è diffusa una cattiva idea simile a quella diffusa sul file .htaccess per il mod_rewrite: si pensa, infatti, che usare il meta tag noindex basti a deindicizzare “magicamente” quella pagina da Google, così come attivare il mod_rewrite metta in automatico gli URL SEO-friendly. In realtà il noindex impedisce l’indicizzazione di una pagina non ancora indicizzata, mentre se la pagina esiste va rimossa manualmente mediante Search Console di Google (così come è il PHP a creare gli URL SEO friendly, htaccess in un certo modo è solo una condizione necessaria, non sufficente).

In genere possiamo rimuovere a mano dall’indice di Google sia le pagine 404 che quelle con noindex. In proposito potete leggere il mio articolo su come deindicizzare una pagina.

7) Il file robots.txt serve a deindicizzare le pagine

Anche qui abbiamo un equivoco simile al precedente: a parte il fatto che il file robots.txt da’ solo delle direttive opzionali che i motori possono seguire o meno (di solito lo fanno), ma in genere il robots.txt stabilisce cosa si possa scansionare del sito, partendo dai suoi link nella pagina principale. Non c’è motivo di limitare il robots, insomma, con strane espressioni al suo interno, ma ha senso (io dimentico sempre di farlo, ad esempio) inserire l’indirizzo assoluto della sitemap del sito al suo interno.

Molti forum e blog si sono scatenati a proporre versioni di robots.txt al limite della poesia ermetica, ma dubito parecchio che ciò possa aver fatto una qualche differenza significativa in ambito SEO.

8) La link building è superata / non serve a niente

L’ho sentita e letta varie volte, ed è come dire ad un gommista che tutti i copertoni sono superati o ad un cineasta che tutte macchine da presa sono roba vecchia, perchè da oggi si va tutti a piedi (neanche coi mezzi). Chiacchiere da bar che servono solo a scoraggiare la concorrenza più ingenua e a scatenare inutili discussioni nel settore. Lo scredito sulla link building è poco credibile, peraltro, anche perchè proviene spesso da semplici “rosiconi”: chi non è in grado di farla, o peggio ancora non l’ha mai davvero capita.

LEGGI ANCHE:   I contenuti lunghi funzionano meglio per il ranking di una pagina?

9) La SEO è morta: adesso alle aziende serve il social media manager marketer sbricchenbàuer tarapìa-tapioco

Una volta per tutte, diffidiamo in massa dai professionisti (?) della supercazzola sul web, e smettiamola di screditare i colleghi che cercano di lavorare seriamente: se è vero che in certi casi la SEO è inapplicabile o non serve a molto (ne parlo nel mio ebook in un capitolo apposito), essere tassativi sul fatto che sia addirittura morta al 100% mi pare eccessivo. Sono morte semmai le pratiche viste nei punti precedenti, e quella mentalità “isolazionista” che tende a considerare i singoli fattori e non la somma degli stessi. Anche qui, come nel caso dei SEO factor, siamo di fronte a (presunti) SEO che non riconoscono chiare strategie SEO (e le amplificano loro malgrado!): nel caso precedente, citavano nei propri blog studi statistici che lasciano il tempo che trovano (e fanno link building a quei siti in massa), in questo caso fanno lo stesso coi blog di (presunti) professionisti che affermano che l’ottimizzazione dei motori non serva più a nulla.

Da un lato è pure un bene, per una volta, che questo mito si diffonda: serve a ripulire un po’ il settore, liberandolo da gente che farebbe bene a fare altro nella vita. Come, ad esempio, raccogliere patate.

10) Abbiamo già fatto SEO, grazie.

Obiezione abbastanza diffusa, specie tra chi ha semplicemente poca voglia di investire: certo, è vero che la SEO è un’attività che tende a far vedere i propri effetti e benefici più che altro nel lungo periodo. Questo senza dubbio, ma ciò non vuol dire che basti farla una volta e basta: dipende dal traffico, dipende da come vanno le conversioni, ci sono tanti fattori che vanno considerati.

Rimane l’ulteriore considerazione legata al fatto che in certi contesti sia necessario applicarla costantemente: questo avviene soprattutto nell’ambito di siti editoriali (news). In questi casi, fare la SEO una volta tanto e poi basta può essere molto deludente: perchè non rifarla su base periodica, proprio per affiancarsi al flusso di pubblicazioni e post giornalieri?

11) Google odia i SEO!

Non è proprio così, anzitutto perchè esiste una guida ufficiale alla SEO redatta da Google (un po’ vecchiotta ma sempre valida: la trovate nel mio sito in copia PDF (guida_ottimizzazione_motori_ricerca.pdf, search-engine-optimization-starter-guide.pdf), e se non vi basta la trovate qui in italiano e in inglese). Dire che Google odia i SEO è una leggenda urbana che ci ha screditato negli anni, e che è figlia della confusione che regna sovrana: sarebbe come dire, tornando all’esempio precedente, che i gommisti odino le macchine. Ovvio che non sia così: odiano le macchine che cercano di investirli per strada (Google non sopporta, parimenti, che qualcuno manipoli i propri risultati), ma non possono odiarli tutti perchè sono parte del loro pane quotidiano.

Se non vi convince neanche questo, Google ci tiene a far capire all’utente che la SEO è un’attività importante, ma non sempre necessaria: l’articolo ufficiale Hai bisogno di un SEO? spiega nel dettaglio proprio questo aspetto. Se vuoi saperne ancora di più, c’è anche una guida SEO che ho preparato e che puoi leggere gratuitamente

12) Bisogna ottimizzare ogni pagina del sito per una singola parola chiave (one page, one keyword)

Più che un mito, questo tende a diventare un limite che i SEO si auto-impongono: del resto il traffico che può arrivare su una pagina tende ad essere vario, da più fonti e non per forza dai motori. Una volta isolato il traffico di ricerca, con Google Analytics è semplice capire da quali ricerche provenga: non è che sia sbagliato mirare una parola chiave per una certa pagina, certo è che ragionare in modo più flessibile, testare più opzioni su più pagine e capire quale funzioni meglio nella pratica è decisamente più consigliabile. Il concetto è che su una pagina raramente arriverà traffico da una singola chiave di ricerca, anzi è molto più comune che arrivi traffico da numerose varianti della stessa ricerca (ed è anche più sano, corretto e sicuro che sia così).

Non che sia sbagliato ragionare in quei termini in assoluto, anzi: in caso di siti molto complessi o concorrenziali, quello è un modo ottimo per focalizzare l’obiettivo. Obiettivo che deve essere chiaro e non può mai essere, secondo me, troppo rigidamente stabilito. Di fatto, l’ottimizzazione di ogni pagina può e deve indirizzare un buon numero di parole chiave: la cosa essenziale (e spesso difficile da realizzare) è che siano realmente pertinenti. Quello è il difficile.

A proposito, quanti SEO saprebbero spiegare ad un cliente cosa significa la parola “pertinente“?

Il servizio professionale per inviare SMS aziendali: ➡️ prova SMSHosting ! ⬅️

Salvatore Capolupo

Ingegnere informatico dal 2006.