7 strategie per provare a fare SEO in modo nuovo

Questo è un articolo particolarmente ambizioso, e si basa sul libro SuperThinking – scritto da Gabriel Weinberg, fondatore di DuckDuckGo, e Lauren McCann. È edito solo in inglese che io sappia, ma si tratta di un inglese comunque agevole da leggere e piuttosto chiaro: ve lo consiglio (e lo trovate qui). Un discreto mattincino in cui sono illustrati, in modo divulgativo e comprensibile (e senza troppi tecnicismi), i più diffusi modelli mentali per affrontare ogni tipo di problema quotidiano, o quasi. Che si possano applicare alle strategie SEO è una cosa che mi ha incuriosito fin dalle prime pagine che ho letto, e che ho cercato di concretizzare in questa sede dopo aver finito di leggerlo.

La cosa interessante è che i modelli mentali di cui parla sono applicabili alla SEO ed al tipo di strategie che decidiamo di attuare. Grazie ad essi e ad alcune accortezze, sarà più semplice gestire il nostro lavoro quotidiano.

Vorresti pubblicare guest post per la tua azienda? Prova il servizio di link building di ➡️ Rankister.com ⬅️

Sbagliare di meno – being wrong less

Viviamo in un mondo di scelte, ci troviamo (non solo nelle strategie SEO) a dover affrontare situazioni inedite e poco familiari; è naturale, oltre che inevitabile, fare ogni tanto scelte sbagliate. Impossibile, del resto, imporsi di non sbagliare mai più in futuro! In ambito SEO l’ottica “being wrong less” sembra rispondere in modo banale al quesito, ma è spesso una strategia vincente nel lungo periodo. Sbagliare di meno, in sostanza, implica evitare di ripetere errori del passato, e non perseverare in scelte illogiche solo perché pensiamo sia “giusto” farlo (e ci sono fin troppo bias coinvolti in questo condizionamento in negativo: recentismo, ambiguità, eccesso di aspettative, pessimismo ingiustificato).

Sbagliare di meno significa, anche, evitare di avventurarsi in strategie black hat per il proprio sito se non si è abbastanza esperti oppure, molto più frequentemente, non seguire passivamente “regole SEO” (più che altro presunte tali): ad esempio mettere la keyword all’inizio del title anche se il title non ha senso in italiano, acquistare link sulla base esclusiva del valore di indici come lo ZA o il PageRank, lavorare sull’aspetto scrittura SEO come se l’italiano fosse assurdamente un optional a cui rinunciare per compiacere Google.

Sbagliare di meno, in altri termini, significa soprattutto non perseverare nei soliti errori che sappiamo essere strategie ininfluenti o penalizzanti: keyword stuffing, spamdexing, guest post scadenti o duplicati all’infinito e così via.

Bias di automazione

L’automation bias è una trappola frequente in ambito SEO (bias significa pregiudizio – e si dovrebbe leggere baaias): la sua definizione formale è abbastanza complicata, ma in soldoni)consiste nell’errore di dare la “precedenza” alle macchine, più precisamente ai sistemi di decisione automatici: i vari software SEO, insomma, che se “dicono” qualcosa tendiamo a dare loro più importanza di quanto esperienza, logica e know-how ci suggeriscano. Il tutto con conseguenze più o meno banali (es. preferire Google Translate ad un traduttore professionista, perchè Google è fico ed il traduttore no) quanto potenzialmente disastrose (es. lasciare guidare il pilota automatico che tanto “fa tutto lui” senza stare al volante).

Del resto è il problema che hanno tutte le persone che “dipendono” dai tool SEO, e si fanno troppo condizionare dagli stessi. Della serie: devo comprare un backlink, cerco su SEOZoom, considero strepitoso un dominio X con poche visite, brutta grafica, magari che fa visibilmente schifo, che renda ridicola la mia azienda o non c’entra nulla con quello che faccio – ma lo compro lo stesso, e questo perchè un software dice che ha uno ZA elevato. Bias di automazione: un vizio di falsa attribuzione di autorità a cui più o meno tutti siamo affetti, ad oggi. Nella SEO, del resto, nulla è mai del tutto automatico, e se si potesse lavorare solo via software ci saremmo arrivati già da un pezzo (e la figura del consulente sarebbe ridotta a quella di un semplice operatore).

LEGGI ANCHE:   Penalizzazioni Google: cosa controllare, dove intervenire

Per inciso: ogni volta che vedo pannelli di tool SEO con 15.000 opzioni, mi chiedo spesso se non finiscano per confondere l’utente medio, più che guidarlo. Oltre che, naturalmente, alimentare all’infinito l’automation bias.

Evitare di pensare troppo alla correlazione

La correlazione statistica è una relazione di varia natura tra due misure, che tende a trovare una corrispondenza “quasi” esatta tra l’andamento di due misure modellandone, se possibile, una funzione matematica che possa approssimarle. È uno dei principi più importanti della statistica, e viene spesso usata per esprimere una relazione tra due quantità: correlazione che pero’ non vuol dire che il valore di una variabile causi l’altra. È una differenza di fino che in molti non hanno capito – ne parlavo su Webhouse qualche anno fa – ma che sarebbe importante focalizzare, il tutto per evitare ancora una volta scelte errate o illogiche che sembrano corrette.

Detta in altri termini, se anche l’aumento dei backlink in ingresso fosse correlato ad un miglioramento del ranking su Google del nostro sito, non vuol dire affatto che sia una strategia universale per posizionare qualsiasi sito (anche se, ovviamente, della correlazione va tenuto conto).

In soldoni: occhio quando leggete cose tipo “ho notato che i post più condivisi sui social sono i meglio posizionati su Google: per cui per posizionarmi devo farmi condividere sui social” – è un ragionamento apparentemente corretto, ma non è questione di logica. È questione, molto più semplicemente, di correlazione statistica: il fatto che i post più condivisi su Facebook siano anche i meglio posizionati potrebbe essere solo incidentale.

Principio di Pareto/Massa critica

Questo è un principio molto usato in economia, e stabilisce (in una delle varianti più note) che il 90% delle cause è dovuto al 10% degli effetti: è insomma, in altri termini, quella che in fisica si chiama a volte massa critica. Per la SEO riuscire ad individuarla è un problema reale oltre che di ottimizzazione dei tempi e dei modi.

Riuscirete ad individuare la massa critica per la vostra SEO? Quale sarà il fattore (o i fattori) che farà la differenza? Tra le decine di operazioni più o meno inutili che andrete ad eseguire per il vostro sito, riuscirete a capire quale renda davvero al massimo per i vostri obiettivi?

Bias di disponibilità

Availability Bias — “Farsi condizionare da informazioni recenti, solo perchè appena lette”

Questa considerazione fuorviante mi sembra altrettanto interessante, e nasce da un errore che, secondo me, ha fatto un collega che commentava un articolo, che ho scritto su un forum in inglese, in cui raccontavo di un calo di visite su uno dei miei siti, avvenuto senza un motivo apparente. Ho dato qualche dettaglio in merito, ed ho sottoposto il sito in questione per confrontarmi su eventuali problematiche annesse. Era l’epoca della authorship, il periodo in cui Google sembrava valorizzare i contenuti “autoriali” rispetto a quelli generalisti (partendo dalla considerazione che un medico è più credibile di un copy pagato 10€ se deve scrivere sulla validità dell’omeopatia o sull’efficacia di un farmaco per dimagrire).

LEGGI ANCHE:   Guida pratica per ottimizzare la INP (Interaction Next Paint)

Questo collega era convintissimo che il problema del mio sito fosse legato all’uso di nickname falsi come firma dei contenuti, senza considerare che la authorship era stata rimossa da anni ma per lui, semplicemente, il mondo si era fermato lì. Una sorta di “recentismo” che in questo caso era dettato anche dalla pigrizia – sì, quando leggete certi commenti sicuri di sè sui social a volte è un mix tra pigrizia (il collega non era aggiornatissimo), recentismo (dava importanza esagerata all’ultima cosa che aveva letto, oppure alla prima che gli era venuta in mente) ed effetto Dunning-Krueger (non sa molto su un argomento ma si sente, paradossalmente, sicuro di sè per la mancanza di meta-conoscenza su ciò che dice).

Chiaro, può anche darsi che Google “avesse capito” che quegli autori non erano veri ed abbia penalizzato i contenuti per questo: peccato che poi, mesi dopo, il sito recuperò il traffico smarrito e quei nick falsi non furono mai cambiati.  Ovvio, può anche darsi che non sia una grande idea in generale usare nomi fake su un blog, ma alla prova dei fatti non lo vedo come una cosa più penalizzante della link building che facciamo spesso senza ammetterlo.

Su questa falsariga troviamo anche l’effetto ancoraggio, che è la tendenza ad aggrapparsi ostinatamente alla prima idea che abbiamo avuto anche qualora si fosse rivelata sbagliata.

Eccesso di aspettative

Il bias di aspettativa si verifica nel momento in cui le aspettative di una persona su un certo risultato finiscono per influenzare il comportamento proprio (ragionamento circolare) ed altrui (ragionamento circolare “di riflesso”). Si tratta di un bias molto difficile da rilevare, perchè è dettato da una convinzione personale radicata che si auto-fortifica, spesso a prescindere dalla realtà. Motivo per cui, di fronte a ranking non adeguati o disastrosi, posso comunque essere portato a credere di aver fatto un ottimo lavoro.

Sarebbe il caso di ricordare che le regole che fa Google non sono trasparenti, per cui l’eccesso di aspettative va sempre contestualizzato anche a questo aspetto.

Insensibilità alla dimensione del campione

Bias classico in ambito SEO, che si verifica quando una cosa funziona in un numero limitatissimo di casi, spesso pure auto-condizionati (per intenderci: più clicchiamo sui nostri risultati più li vedremo salire sui motori, ma questo non implica affatto che anche gli altri utenti vedano la stessa cosa). Molte valutazioni statistiche sono effettuate sia sulla falsariga della correlazione confusa con la causalità che, di fatto, sull’incapacità umana di capire che su campioni molto piccoli possono esistere variazioni che sembrano giganti ed in realtà non lo sono.

Una percentuale di successo del 90% sembra sempre una gran cosa, ma un conto è il 90% inteso come 9 su 10, decisamente un altro è nel caso di un campione molto popoloso come ad esempio 9.000.000 su 10.000.000 (che sempre 90% è).

Il servizio professionale per inviare SMS aziendali: ➡️ prova SMSHosting ! ⬅️

Salvatore Capolupo

Ingegnere informatico dal 2006.