Cos’è RankBrain

RankBrain è una tecnologia di machine learning (cioè di apprendimento automatizzato da parte di un software) usata da Google dal 2005 ed in grado di ordinare e filtrare, nello specifico, i risultati di ricerca; lo scopo è naturalmente quello di fornire risultati di ricerca che siano più a misura di utente, evitando così pagine costruite esclusivamente per posizionarsi o contenenti keyword stuffing.

I risultati di ricerca validi e “equivalenti” lato posizionamento sono sempre di più: tanti SEO e copywriter lavorano bene nello stesso ambito, e dieci posizioni nella prima pagina (o giù di lì) sono davvero poche per contenerli tutti. Motivo per cui RankBrain fornisce un filtro che opera a valle della prima scrematura dei risultati, in modo da rispondere a determinati requisiti tra cui:

  • grado di “discorsività” della ricerca;
  • presenza di stopword (parole molto comuni, che in genere sono ignorate);
  • connessione tra vari argomenti in base ad un apprendimento precedente (ad esempio: una ricerca su un argomento X collegato da un fatto di cronaca, ad esempio, ad uno Y sul quale esistono già dei risultati validi)

Il funzionamento di RankBrain nello specifico, purtroppo, non è noto: si sa solo che è in grado di funzionare sia su ricerche già “addestrate” che su nuove ricerche – in quest’ultimo caso prova ad indovinare quale siano i risultati migliori da mostrare.

Fattori di ranking per Google: rankbrain, backlink e… pornyness

Un utente di Reddit sul gruppo (o subreddit) /r/TechSEO ha fatto cenno ai famosi 200 fattori SEO che influenzano il posizionamento, chiedendo esplicitamente a Illynes – che lavora a Google ed autodefinitosi “House Elf and Chief of Sunshine and Happiness” – informazioni su qualche altro ranking factor interessante. Tra questi fattori, infatti, figurano da sempre la rilevanza (relevance, ovvero quanto bene un contenuto “soddisfi” la ricerca da ottimizzare), la freschezza del contenuto (freshness, sostanzialmente coincidente con la data di pubblicazione di una pagina), e la popolarità (popularity, un mix di fattori derivante da quanto quell’argomento sia popolare su Google: in genere, comunque, sembra più facile posizionarsi su ricerche “rare” che su quelle più popolari, appunto).

Ma quali altri fattori andrebbero messi in conto nelle nostre ottimizzazioni quotidiane? Illynes ha citato, a riguardo:

  • paese di provenienza dei visitatori vs. sito;
  • RankBrain;
  • backlink al sito / PageRank;
  • lingua del sito;
  • pornyness (traducibile come “grado di pornabilità” o “grado di porno“)

A chi chiedeva se quest’ultimo fattore fosse ufficiale, Illynes ha confermato (forse più per “trollare” che per altro), rispondendo:

Actually, it kinda is. I could make up a public name for it but I’m way too lazy

(traduzione: attualmente, lo è. Potrei inventarmi un nome pubblico per questa cosa, ma sono troppo pigro)

Già mi sembra di scorgere SEO postare contenuti porno sui siti delle parrocchie locali. Scherzo, ovviamente, ma non troppo.

The internet is for porn?

(fonte)

Come registrare un URL su Google a richiesta

In questo articolo vedremo come sia possibile spingere o indurre Google a ripassare su un URL a nostra scelta: come diretta conseguenza, i contenuti di quell’URL verranno reindicizzati (ammesso che ci siano le pre-condizioni perchè ciò possa avvenire senza errori, ovviamente). Andiamo per ordine e vediamo tutto, pertanto.

Come funziona l’indicizzazione dei siti

Quando pubblichiamo un sito web la prima cosa che vogliamo fare, ovviamente, è quella di farlo apparire nei risultati di ricerca di Google: per fare questo, in effetti, non serve fare solitamente nulla di particolare. La cosa essenziale è che il vostro sito sia fatto a regola d’arte, sia privo di errori lato server e che tutte le pagine più importanti da indicizzare siano opportunamente collegate dalla struttura del sito (menù, link interni, widget, ecc.).

Nello specifico, perchè una pagina web sia indicizzabile devono in genere verificarsi una delle seguenti condizioni:

  1. la pagina deve restituire un codice server 200 OK
  2. la pagina deve deve essere scaricabile secondo le indicazioni del robots.txt
  3. la pagina deve contenere un meta tag robots con valore INDEX (o, al limite, non contenere affatto questo meta tag);

A livello pratico cosa significhi è presto detto:

  1. Per verificare il codice restituito dal nostro sito si usa in genere httpstatus.io.
  2. Per verificare le condizioni del robots.txt basta aprire nomedelvostrosito.it/robots.txt (se il file non fosse presente, varrebbe come “semaforo verde” e non porrebbe quindi alcun impedimento alla scansione)
  3. Per verificare i meta tag robots basta visualizzare il sorgente e verificare che sia presente qualcosa del genere (le varie forme di meta tag robots sono discusse qui):
    <meta name="robots" content="INDEX" />

Per quanto riguarda un discorso di completezza lato SEO, è anche opportuno che nel sito sia presente una mappa del sito o sitemap, generalmente reperibile come nomedelvostrosito.it/sitemap.xml (se non si trova a questo indirizzo, significa che la sitemap ha un nome diverso oppure non è stata generata).

L’indicizzazione dei contenuti del nostro sito segue pertanto, di solito, un processo naturale: se il sito è ben fatto ed il server configurato a dovere, entro qualche ora, o al limite un giorno o due da quando abbiamo pubblicato il sito, ogni nuova pagina che pubblichiamo e che rispetti determinati requisiti (sia scansionabile, sia presente nel feed RSS e/o nella sitemap XML del sito) sarà automaticamente acquisita dai motori di ricerca.

Che cosa impedisce l’indicizzazione dei siti?

Di fatto, quello che blocca l’indicizzazione del vostro sito la prima volta è di solito legato:

  1. a siti fatti male tecnicamente (e qui spesso la cosa migliore è buttare giù il sito e rifarlo da zero);
  2. a problemi sull’hosting del sito (pagine web che vengono caricate in modo parziale o non vengono caricate, tempi troppo lunghi di caricamento per problemi sul server e così via);
  3. alla presenza impropria di meta tag robots noindex e/o nofollow
  4. a direttive restrittive nel file robots.txt che impediscono a Google di scaricare la pagina.

Ci sono casi, tuttavia, in cui questo non accade: nella mia esperienza può capitare un ritardo di diversi giorni, per una sorta di effetto sandbox o, detta diversamente, un “rallentamento” dell’indicizzazione di alcune pagine. Questo, secondo alcuni (me incluso), avviene soprattutto per le chiavi di ricerca più concorrenziali, proprio al fine di evitare o limitare il fenomeno dello spamdexing (spam dei motori di ricerca). Questo avviene anche su siti web ben realizzati ed impeccabile tecnicamente, probabilmente come misura di analisi preventiva affinchè si eviti di indicizzare siti inutili di spam o keyword stuffing.

Richiedere la scansione di una pagina a Google

Nel caso in esame, tuttavia, le cose sono più semplici, e così cercheremo di mantenerle nel seguito: se (caso tipico) gli ultimi articoli del vostro blog non venissero indicizzati, potete tentare una indicizzazione “mirata” mediante Search Console. Ovviamente prima di farlo dovrete assicurarvi che il vostro sito funzioni, che non restituisca errori e che le pagine vengano caricate, in media, in meno di 1 o 2 secondi al massimo (limite orientativo pratico anche piuttosto permissivo: secondo Google il tempo medio di caricamento di una pagina dovebbe essere di soli 200 ms)

Per verificare se una pagina o un sito è indicizzato, cerca su Google site:nometuosito.com oppure cerca direttamente l’URL che non ti sembra indicizzato correttamente nella casella di ricerca. In alternativa, leggi la guida contro le penalizzazioni per saperne di più.

Come chiedere a Google di indicizzare un sito (o una pagina)

Storicamente questa operazione si può effettuare da una storica pagina di Google, quella del submit di un sito:

https://www.google.it/intl/it/add_url.html

Questo servizio non è mai stato ufficialmente dismesso negli anni, ma non è raccomandabile di eseguire l’operazione di indicizzazione mediante esso. Questo perchè non avremmo alcun controllo sul processo di sottoposizione, indicizzazione e posizionamento, quindi invieremmo il sito senza avere alcun feedback successivo, quando oggi esistono strumenti più moderni per fare questa operazione – e ne vedremo subito uno, gratuito ed ufficialmente supportato da Google.

Come prima cosa sarà necessario registrare il nostro sito sulla Search Console di Google, ovvero andremo ad inserire l’indirizzo del nostro sito web all’interno dei siti che controlliamo nella SC stessa. Dopo aver fatto questo ed aver validato il sito con file HTML fornito da Google, via DNS oppure con il meta tag HTML sempre fornito da Google, saremo pronti a cominciare la nostra avventura.

Apriamo la Search Console (https://www.google.com/webmasters/tools), andiamo a scegliere l’indirizzo del sito che ci interessa indicizzare, ed apriamo la finestra Scansione, selezionando Visualizza come Google. Di seguito viene riportato un esempio della finestra di menù che sarà necessario cliccare.

Schermata 2016-04-29 alle 10.09.14Dentro la SC cliccando su Scansione e poi suVisualizza come Google dovremmo trovare un box di testo, come riportato di seguito in esso andremo ad inserire parte dell’URL che non viene indicizzato, e cliccheremo su Recupera. Dopo aver fatto il recupero, ammesso che la pagina sia restituita senza redirect 302/301 e senza errori (404, 500, ecc.), saremo pronti alla seconda fase del lavoro, ovvero inviare all’indice di Google la pagina in oggetto.

In pratica nell’applicazione della SC apparirà una nuova riga in basso, con un bel bottone in bella vista con su scritto “Invia all’indice“: Invia all’indice serve, per l’appunto,  ad inviare l’URL del sito a Google per informarlo che qualcosa è cambiato (la fase precedente serviva solo ad assicurarsi che il vostro sito sia interpretato correttamente e per intero da Google, in effetti).

Schermata 2016-04-29 alle 10.11.58

Clicchiamo pertanto sul bottone Invia all’indice.

Per confermare l’invio dell’URL, selezioniamo una delle due opzioni a seconda di quello che ci serve (solo la pagina in esame o anche quelle collegate da essa mediante link diretto), spuntiamo il Recaptcha e confermiamo col bottone Vai.

Schermata 2016-04-29 alle 10.13.16

Fate attenzione, inoltre, ad una cosa fondamentale: il numero di invii con questa tecnica è limitato, per cui non si tratta di uno strumento di cui abusare. Per indicizzare (o tentare di farlo) il numero massimo di pagine possibili, eseguitelo sulla home (non scrivete nulla nel box testo) e spuntate l’opzione “Esegui la scansione di questo URL e dei relativi link diretti“.

Se 1) il sito è ben strutturato come link interni e navigazionali, e 2) se non ci sono direttive noindex inserite in modo scorretto, dovreste riuscire a forzare la reindicizzazione globale del sito – che comunque rimane un “caso limite”, neanche troppo comune nella mia esperienza. Il più delle volte è meglio reindicizzare singole pagine importanti, ma questo soltanto se avete fatto modifiche di rilievo alla pagina o se la stessa sembra “invisibile” a Google.

La cosa davvero interessante che ho osservato, in questi casi, è che l’acquisizione nell’indice è in molti casi instantanea: questo permette di caricare la vostra pagina, ammesso che ci siano le condizioni per farlo, in modo diretto all’interno di Google e renderla immediatamente ricercabile.

robots.txt – Guida all’impostazione per il tuo sito web e per Google

Da sempre al centro dell’attenzione per le attività SEO, il file robots.txt è perlopiù uno strumento che viene utilizzato a sproposito; per combattere la cattiva informazione che ancora oggi spopola sul web, cercheremo di chiarire passo-passo le varie criticità che lo riguardano.

Che cos’è è il file robots.txt

Chiamato tecnicamente protocollo di esclusione robot , si tratta di un file di testo che indica le regole e le restrizioni di scansione da applicare sulle pagine web di un sito. Il file è scritto in chiaro ed è pubblicamente disponibile sulla maggioranza dei siti web, ad esempio per il sito google.it si può trovare aprendo google.it/robots.txt. Generalmente sono interessati al contenuto del file robots.txt gli addetti ai lavori (SEO e webmaster) oltre che i crawler dei motori di ricerca.

Protocolli supportati dal robots.txt

I protocolli utilizzati dal robots.txt sui siti sono HTTPS e HTTP, mediante una GET non condizionale. Google accetta eventuali robots.txt anche visibili via protocollo FTP, per la cronaca.

Visibilità del robots.txt

Ogni sito dovrebbe avere il proprio robots.txt che rimane valido per l’intero dominio. Se il sito è singolo, basta inserire un robots.txt che sia accessibile dalla cartella principale del sito (senza sottocartelle). Se invece uno stesso sito sito ha più versioni multilingua suddivise per URL o più sottodomini, bisogna fare più attenzione.

Queste indicazioni possono essere utili per i siti multilingua, i multi-siti in WordPress oppure i siti web composti da più sottodomini. Queste sono le regole che segue Google nella sua documentazione ufficiale (vedi a fine articolo il link).

  1. Un file robots.txt in un dominio è valido solo per quel dominio. Quindi ad esempio http://www.example.com/robots.txt vale per http://www.example.com, ma non per http://pippo.example.com/
  2. Se un dominio non ha configurato correttamente il CNAME del prefisso www, example.com/robots.txt sarà valido per example.com ma non per www.example.com
  3. Un file robots.txt in un dominio è valido per tutte le sottocartelle di quel dominio. Quindi ad esempio http://www.example.com/robots.txt vale sia per http://www.example.com/abc che per per http://www.example.com/xyz
  4. HTTPS: per rendere correttamente visibile un file robots.txt è anche necessario che il protocollo TLS, se disponibiel, sia correttamente configurato e non presenti problemi di mixed content: per intenderci, http://www.example.com/robots.txt non è visibile per https://www.example.com/ a meno che non ci sia un opportuno redirect da HTTP a HTTPS.

A che serve il robots.txt

Il file utilizza una sintassi molto semplice che permette al webmaster di definire le “aree” o path che sono attraversabile da un crawler di motore di ricerca oppure no.

CMS (WordPress, Joomla!, …) e robots.txt

Il fatto che sia un file .txt non implica automaticamente che sia un file fisicamente rintracciabile via FTP: molti CMS come ad esempio WordPress lo virtualizzano, cioè lo rendono reperibile da browser senza conservarne una copia come file all’interno di /htdocs o /www.

Sintassi del file robots.txt

In genere ci sono una serie di righe ognuna delle quali è scritta come:

direttiva: valore

quindi ad esempio:

User-agent: *

oppure:

Disallow: /

La direttiva indica il tipo di istruzione o “suggerimento” che stiamo dando al crawler, mentre il valore dopo i due punti indica il riferimento della direttiva. Esempi di user-agent possono essere i browser web, i crawler dei motori, i lettori multimediali, i client di posta e naturalmente.

La posizione della sitemap XML in un file robots.txt si possono specificare così:

Sitemap: https://www.google.com/sitemap.xml

Sono ammesse più sitemap, se necessario: basta ripetere più volte la stessa riga con gli URL corrispondenti.

I commenti in un file robots.txt si possono inserire con un # come primo carattere della riga:

# Come se fosse antani

Ad oggi non esiste una sintassi unificata per il robots.txt, per cui non tutti gli user-agent sono in grado di riconoscere ogni direttiva.

robots.txt permissivo al massimo

Per permettere l’accesso a tutto il sito web (va bene in molti casi pratici):

User-agent: *
Disallow:

Bloccare un intero sito

Per bloccare un intero sito:

User-agent: *
Disallow: /

Bloccare un’intera directory di un sito

Per bloccare lo scaricamento di una directory:

User-agent: *
Disallow: /directory/

Bloccare una pagina specifica di un sito

Per bloccare una pagina:

User-agent: *
Disallow: /pagina.html

Direttiva allow

Google è in grado di riconoscere anche la direttiva allow, per consentire la scansione di una sezione specifica, ad esempio possiamo avere robots.txt misti (di seguito ad esempio stiamo consentendo a tutti (*) di scansionare le cartelle /about e /howsearchworks, e stiamo suggerendo di non farlo alla cartella /search)

User-agent: *
Disallow: /search
Allow: /search/about
Allow: /search/howsearchworks

robots.txt versus .htaccess

Non bisogna fare confusione tra le indicazioni che vengono date al robots.txt (che sono in genere facoltative da seguire per i motori) e quelle di un file di direttive come ad esempio .htaccess (che sono direttive obbligatorie per tutti). Le seconde, in genere, sovrastano tecnologicamente le prime, nel senso che hanno sempre la precedenza a parità di condizioni espresse. Se ad esempio in un file robots.txt lasciamo tutto scansionabile:

User-agent: * 
Disallow:

ma poi esiste un blocco per la home del sito che richieda username e password, il sito non sarà scansionabile nè indicizzabile.

Nel contesto di server Apache, ad esempio, il file .htaccess da’ delle direttive che il server è obbligato ad eseguire, e che valgono per motori di ricerca, bot e utenti. Il file robots.txt è invece un file che indica dei “suggerimenti” per i crawler in modo da facilitarne il lavoro (e come molte cose cose “in buonafede”, in molti casi ha un’utilità ed una portata limitate).

Errori comuni sul file robots.txt (da evitare)

I comandi del file robots.txt non sono regole che tutti i crawler devono seguire, ma sono piuttosto linee guida per l’accesso ai siti. Googlebot e altri web crawler affidabili seguono le istruzioni contenute in un file robots.txt, ma non è detto che altri crawler facciano altrettanto.

Utilizzarlo per nascondere sottodirectory interne di un sito. Attenzione, questo sistema è insicuro! In molti casi capitano robots.txt di siti in WordPress che presentano disallow sulla cartella wp-admin, wp-content o wp-include. Per quanto non sia sbagliato concettualmente, non si tratta di un procedimento ottimale: prima di tutto, così facendo, stiamo mettendo in chiaro un’informazione molto utile per eventuali attacchi informatici, cioè che il nostro sito è fatto in WordPress e che al suo interno potrebbero esserci informazioni riservate. In secondo luogo anche se i crawler affidabili rispettano le istruzioni di un file robots.txt, altri potrebbero interpretarle in modo imprevedibile. Per garantire la reale sicurezza delle informazioni riservate, ti consigliamo di utilizzare altri metodi di blocco, come la protezione mediante password dei file privati presenti sul tuo server (htaccess).

Utilizzarlo per nascondere una pagina ai motori. Attenzione, non serve a questo! Sebbene Google non esegua la scansione o l’indicizzazione dei contenuti bloccati dal file robots.txt, potrebbe comunque trovare e indicizzare un URL non consentito dal robots mediante un backlink esterno. Di conseguenza, l’indirizzo URL e, potenzialmente, anche altre informazioni disponibili pubblicamente, quali l’anchor text nei link che rimandano alla pagina, potrebbero continuare a essere visualizzati nei risultati della Ricerca Google. Per evitare che l’URL venga visualizzato nei risultati di Google, si suggerisce ancora una volta di proteggere tramite password i file sul server oppure usare il meta tag noindex, cambiare l’URL di risposta con uno diverso da 200 o rimuovere del tutto la pagina (404).

(fonte)

Migliori strumenti SEO: tool a confronto

Se il tuo desiderio piu grande è quello di migliorare la parte SEO del tuo sito, dovrai utilizzare almeno una parte degli strumenti SEO più adeguati che ci siano: ovviamente le cose sono molto cambiate negli ultimi anni, ed è importante essere aggiornati. Se una volta si usavano MOZ e SEOPanel, ad oggi questi strumenti tendono ad essere rimpiazzati da scelte piu moderne, come ad esempio SEOZoom e (almeno in parte) Majestic SEO e l’ottimo (e costossissimo) Ahrefs.

Non c’è dubbio che, ad oggi, a parte alcuni strumenti SEO open source (di cui parleremo per completezza, visto che quasi nessuno lo fa in Italia) che sono per lo più parziali e da utilizzare in modo combinato, la totalità degli strumenti a disposizione siano a pagamento, e debbano quindi essere pagati per poterne fare uso. Si tratta quindi di un vero e proprio investimento che dovrete effettuare mensilmente, e che vi ripagherà nella misura in cui riuscirete a trarre profitto da vostro progetto web (e non, semplicemente, prime posizioni su vanity metrics ad esempio). Vediamo quindi un po’ di strumenti open source, per poi valutare brevemente quelli più diffusi.

A che servono i tool SEO

Lo scopo di tutti questi strumenti è quello classico delle attività SEO:

  1. effettuare una scansione del sito per individuare title e meta description rapidamente, in modo tale da poterli correggere al volo se necessario;
  2. scansionare le pagine ed analizzarne i contenuti, in modo da evidenziare eventuali tempi morti di caricamento, tag errato o superflui e così via;
  3. analizzare i ranking attuali, cioè i posizionamenti attuali delle nostre pagine web, e tracciarne se possibile lo storico (cioè come sono andati i posizionamenti delle pagine web negli ultimi 6 mesi, ad esempio);
  4. fare una lista di backlink in ingresso a qualsiasi sito, cosa che Google permette (mediante Search Console) di fare soltanto su quelli di nostra proprietà; in molti casi è utile tracciare anche le anchor text che permettono di arrivare al nostro sito web mediante quei backlink.
  5. trovare spunti, idee e spiare il comportamento della concorrenza nel nostro settore.

SEOPanel (free e open source)

Si tratta di uno strumento abbastanza utile e, per quello che costa (nulla), relativamente interessante (le pecche non mancano, comunque): in buona sostanza è un tool di monitoraggio del ranking del sito, che permette di  tracciare per singole parole chiave il comportamento su Google, Yahoo e Bing in termini di posizione. Permette di stabilire la velocità di scansione, la periodicità ed un numero potenzialmente illimitato di parole chiave e siti web. Il tutto si paga con un’interfaccia a detta di molti poco intuitiva, e con il fatto considerevole che molti risultati di ricerca speciali (come quelli geografici, risultati zero o basati su semantica) non vengano, ad oggi, rilevati correttamente. Andando a spulciare il codice, si tratterebbe di riscrivere un po’ meglio alcune parti e, a quel punto, quantomeno come tool per misurare le posizioni dei nostri risultati su Google sarebbe molto comodo.

Per essere gratis e open source, ovviamente, è certamente un buon tool – anche perchè non mi pare ne esistano altri equivalenti – per quanto andrebbe un po’ aggiornato. Download

SEOZoom (a pagamento, a partire da 29€/mese)

SEOZoom è una suite SEO che offre un po’ di tutto, dal monitoraggio dei risultati di ricerca al suggerimento di parole chiave, spionaggio di backlink, ricerca di link opportunity e addirittura un tool editoriale per copy SEO. Lo strumento è davvero molto completo: permette di tracciare uno storico delle attività del sito, delle sue movimentazioni in termini di risultati di ricerca (il grafico “Andamento Sito” che viene mostrato mostra quanto è attivo su Google un certo sito), della collocazione dei topic del sito (utile anche per un’analisi della sua pertinenza), dell’analisi della distribuzione delle anchor text, della classificazione dei backlink ricevuti sulla base della qualità degli stessi. Poco utile, a mio avviso, il fatto che ci sia davvero troppa roba nell’interfaccia, che io preferirei fosse snellita o che quantomeno fosse possibile per l’utente abilitare soltanto le sezioni che si usano di più. Ogni tanto per qualche sito escono fuori dati improbabili (ad essere gentili), ma questo credo sia inevitabile per qualsiasi tool SEO visto che si tratta di strumenti che simulano le valutazioni che fa Google – e che spesso, per non dire sempre, sono influenzati dalle convizioni (giuste o sbagliate che siano) di chi li ha sviluppati.

Ad oggi, uno strumento ancora migliorabile quanto complessivamente impareggiabile, anche perchè l’unico ad essere tutto in Italiano. SEOZoom.it

Majestic SEO (a pagamento, a partire da 46€/mese)

A differenza del precedente, questo è un database link index, cioè un repository a pagamento con tutti i backlink di ogni singolo sito, rilevati e raggruppati per periodo. Davvero molto utile per spiare i link della concorrenza, e per individuare i siti da cui convenga di più – in prospettiva – ricevere un backlink. Non è una spesa da poco farne uso, ma i vantaggi sono chiari: in pochi click troverete i link della concorrenza, e potrete provare anche voi ad ottenerli.

Qualche pecca nell’usabilità e nel fatto che sia piuttosto difficile, in certe sezioni, fare operazioni che sarebbero davvero utili: ad esempio raggruppare i backlink per dominio, che molte volte invece appaiono ripetuti molte volte e questo (nel caso dei link sitewide o da footer) è davvero una seccatura. A parte questo, strumento top per quanto certamente non economico. Majestic SEO

 

 

 

Migliori corsi SEO da fare online

I seguenti corsi sono tutti da svolgere online, mediante dei pratici video-corsi da scaricare o visionare nel tuo browser; la parte introduttiva di ogni corso è solitamente gratuita. I docenti sono molto preparati ed offrono conoscenze a livello di SEO ed ottimizzazione sui motori decisamente interessante.

I corsi sono pensati per vari livelli: base (indicato con *) se siete dei principianti, intermedio (**) e avanzato (***) se siete un po’ più esperti.

Come apparire su Google senza consultare i tutorial di Aranzulla

Anche tu vorresti apparire primo su Google per la tua ricerca preferita: ti posso capire, del resto anch’io mi sono messo a fare SEO nel lontano 2008 spinto proprio da questa idea. All’inizio sembrava impossibile, eppure sono riuscito a diventare un consulente del settore, aiutando molti siti web ad essere primi su Google in svariati settori: editoria, giochi online, web hosting, informatica ed IT e così via. In questo articolo vorrei condividere con te un po’ della mia esperienza, per farti capire che sì, è possibile essere primi su Google: il lavoro, se fatto bene, ripaga anche in questo ambito.

Perchè il sito è scomparso da Google

Se sei arrivato su questa pagina è molto probabile che il tuo sito non ci sia su Google: e giustamente vorresti sapere perchè. Uno dei casi più complessi da affrontare in ambito SEO, del resto, è quello in cui il nostro sito non appare per nulla nei risultati (SERP, Search Engine Results Pages), o magari viene ignorato dai motori di ricerca. In questi casi è fondamentale capire se si tratti di un problema di indicizzazione oppure di uno di posizionamento.

Problema di indicizzazione

Nel primo caso, il sito non compare in prima pagina perchè Google non lo conosce per nulla: succede ad esempio se il sito è molto lento a caricare (per cui il crawler non riesce a scansionarlo bene), oppure se le sue pagine web contengono un meta tag NOINDEX, NOFOLLOW oppure, ancora, se il file robots.txt lo blocca.

È fondamentale controllare queste tre cose, quindi, per assicurarsi che il sito sia perfettamente scansionabile, ed eventualmente si può checkare e provare a forzare l’indicizzazione per risolvere il problema.

Problema di posizionamento

Nel secondo caso, invece, è la classica situazione che va gestita nel tempo lato SEO, magari ricorrendo ad un consulente apposito: si tratta di capire anzitutto che tipo di problema soffre il tuo sito, e poi prendere delle contromisure adeguate. I problemi che causano una scomparsa dai risultati di ricerca sono vari: ad esempio un problema tecnico che ha fatto degradare le prestazioni globali in SERP, una penalizzazione manuale da parte dello staff di Google, una penalità algoritmica che ha colpito in quel periodo te o altri concorrenti. In questi casi si fanno tre cose diverse:

  • la prima è quella di ripulire il profilo di backlink da eventuali backlink spazzatura, accumulati nel tempo magari a nostra insaputa; in questi casi è tipico fare un bel disavow dei link spam o poco utili.
  • la seconda è quella di controbilanciare il profilo di link con backlink tematici, ricorrendo quindi ad una sana link building (bilanciando link nofollow/dofollow, tematici e non, distribuendo bene pure le anchor text);
  • la terza è quella di rivedere la struttura interna ed i contenuti del sito, effettuando un’operazione di ottimizzazione delle pagine (SEO on-site) a seconda dei casi, in modo che siano pagine pertinenti e a misura di utente, se possibile prive di inutili sovraottimizzazioni o ripetizioni di parole chiave.

Quanto tempo ci vuole per fare SEO?

Per apparire su Google col tuo sito, in generale, devi anche saper scegliere le giuste chiavi di ricerca, cioè stabilire che ci sono keyword per cui è possibile arrivare in prima pagina e che, in base a quanto sono competitive, ti daranno questa opportunità soltanto nel tempo: quindi non ti illudere e non aspettarti risultati immediati per ricerche molto difficili.

Ci vorranno almeno 6 mesi per poter iniziare a vedere dei risultati concreti, e l’idea potrebbe essere quella di ottimizzare vari gruppi di parole chiave: quelle di natura commerciale per incrementare i tuoi guadagni, qualche vanity keyword per poter aumentare un po’ il traffico sul tuo sito (è comunque qualificante farlo), qualche parola chiave legata agli how-to del tuo settore per dare così delle risposte concrete al tuo sito web.

 

Migliori strumenti per webmaster: tool a confronto

Ah che vita, quella del webmaster: a casa dalla mattina alla sera, il più delle volte, a godersi i risultati del proprio lavoro e a divertirsi a creare siti nuovi ogni giorno, sfruttando i migliori strumenti a propria disposizione per farlo.

Non c’è dubbio che, ad oggi, a parte alcuni strumenti SEO open source (di cui parleremo per completezza, visto che quasi nessuno lo fa in Italia) che sono per lo più parziali e da utilizzare in modo combinato, la totalità degli strumenti a disposizione siano a pagamento, e debbano quindi essere pagati per poterne fare uso. Si tratta quindi di un vero e proprio investimento che dovrete effettuare mensilmente, e che vi ripagherà nella misura in cui riuscirete a trarre profitto da vostro progetto web (e non, semplicemente, prime posizioni su vanity metrics ad esempio). Vediamo quindi un po’ di strumenti open source, per poi valutare brevemente quelli più diffusi.

A che servono i tool per webmaster

Lo scopo di tutti questi strumenti è quello classico delle attività di monitoraggio del sito, monitoraggio ed attività SEO, analisi delle prestazioni e del numero di visite e così via, ma anche:

  1. aiutarvi a costruire pagine più velocemente (page builder);
  2. effettuare la scansione del sito per individuare rapidamente tag sbagliati o mancanti;
  3. effettuare scansione ed analisi delle pagine web, in modo da evidenziare eventuali tempi morti di caricamento, tag errato o superflui e così via.

Visual Composer (59$ per sito)

Per quanto sia continuamente oggetto di incompatibilità ed a volte tenda più a complicare che a snellire il lavoro, l’originale visual composer sviluppato come plugin premium per WordPress permette di creare splendide pagine web senza perdersi in ore di design. Ovviamente è uno strumento che ha un costo ma che, per chi realizza molte landing page ad esempio, può valere pienamente la cifra che si va a spendere. La versione free è molto limitata, conviene usare direttamente la premium.

Search Console (gratis)

Se lo chiamate ancora Webmaster Tools è il caso di aggiornarsi: ormai  è la Search Console di Google, uno strumento molto utile per tracciare in tempo reale il comportamento in SERP di Google del vostro sito. Se volete sapere

Google Analytics (gratis)

Rispetto ai primi anni a cavallo del 2010 è in parte peggiorato come interfaccia: troppe opzioni, menu molto dispersivi, troppe differenze tra la versione mobile e quella per desktop. A parte questo, e nonostante io abbia l’impressione che misuri le visite al ribasso, rimane uno strumento eccellente per i web analytics: quindi serve a misurare visite, traffico, provenienza dei visitatori, profilazione commerciale degli stessi, mappa delle principali fonti di traffico esterne, del comportamento medio dei visitatori e così via.

 

 

Il mio sito è lentissimo: cosa fare?

Il tuo sito è diventato una lumaca e non riesci a capire perchè? Nessun problema: c’è sempre un modo per risolvere! Quando un sito smette di funzionare, infatti, ci sono molte cose che bisognerebbe andare a controllare: inutile sottolineare, quindi, che un’analisi seria dovrebbe sempre interessare tutti i singoli punti, e questo molto spesso (per ragioni di tempo o competenze non adeguate) non è possibile farlo.

Che strumenti bisogna usare?

Gli strumenti per i check sono moltissimi, e non tutti sono gratis – anche se molti, almeno a livello base, lo sono; il problema è anche scegliere quelli giusti e saper capire i risultati che ci danno. Alcuni strumenti interessanti lato SEO (che poi interessano tecnicamente il sito stesso, in molti casi), ad esempio, sono indicati nella sezione risorse del sito. In genere, ovviamente, nessuno ha la bacchetta magica per risolvere i problemi.

In genere per valutare le prestazioni del sito bisogna valutare:

  • i tempi di risposta del server;
  • i tempi di risposta per l’invio del TTFB;
  • i tempi di caricamento dei vari “pezzi” HTML che compongono la pagina.

Quali CMS si possono correggere?

Quasi tutti, a meno che non siano davvero molto vecchi. I CMS più utilizzati sono WordPress e Joomla!, ma è possibile intervenire su siti web scritti ad esempio in PHP o con sorgente proprietario (ad esempio un sito che ti ha venduto un’azienda su misura per te). Se nel primo caso è più agevole per noi tecnici intervenire, nel secondo spesso è difficile o sconsigliabile farlo: molto meglio, nel secondo caso, chiedere direttamente a chi vi ha fatto il sito (al webmaster).

Problemi tipici

Vedremo adesso quali sono i problemi tecnici più comuni che possono interessare un sito e che, nello specifico, tendono a rallentarlo; ad esempio abbiamo i seguenti.

  1. tempi di caricamento molto lunghi (più di 3-4 secondi);
  2. parti del sito che caricano più lentamente di altre;
  3. sito caricato in modo incompleto.

Lentezza del sito e SEO

In genere la velocità del sito è considerata un fattore di ranking in positivo, nel senso che Google lo valuta bene. Se il sito è lento potrebbe anche avere difficoltà a posizionarsi, in effetti; se le pagine vengono caricate solo in parte, potreste avere problemi in fase di indicizzazione e posizionamento dei vari contenuti.

Non è detto, inoltre, che un sito che si vede bene sul browser sia visto correttamente da Google: ci sono infatti molti fattori che andrebbero presi in considerazione (se le pagine sono scansionabili, ad esempio, e se il robots.txt permetta di scaricarle a Google). Intervenire sulla velocità del sito e migliorarla anche un po’ può essere, alla lunga, una vera e propria ottimizzazione come potrebbero esserlo, ad esempio, migliorare i title, aggiungere le meta description oppure aggiungere backlink al sito.

Aspetti che possono influenzare la lentezza, quando non funziona più

Il dettaglio del tuo sito ovviamente potrebbe dipendere da altri fattori come:

  1. troppi plugin nel sito;
  2. sito progettato in modo poco efficente;
  3. grafica o CMS troppo lento o con dei bug;
  4. presenza di bug che stanno riempendo il log di errori;
  5. traffico generato da bot che potrebbero rallentarvi il sito dall’esterno (problema di sicurezza del sito o dell’hosting);
  6. hosting configurato in modo scorretto (ad esempio a livello di permessi dei file);
  7. hosting non adeguato a sostenere il carico di visite;
  8. sito non aggiornato o non più funzionante dopo un aggiornamento del sito (plugin, theme, moduli, core, ecc.).

Come fare a risolvere

In genere puoi provare anche da solo, ma non sempre sarà facile agire. Per risolvere i problemi del tuo sito ed essere quantomeno sicuro di trovare una soluzione utile, può essere utile l’intervento di un professionista del web che si paghi ad ore: è semplice, economico e si fa tutto via email o Skype, comodamente da casa tua o dall’ufficio.

Ciao! Sono Salvatore Capolupo, sono ingegnere informatico e mi occupo di web da quasi 20 anni. Per saperne di più guarda la mia offerta per l’analisi SEO del tuo sito oppure (se hai problemi tecnici) richiedi una consulenza ad ore.

 

La grafica del mio sito non funziona più: cosa fare?

La grafica del tuo sito è saltata ed il sito non si vede più bene come prima? Nessun problema: c’è sempre un modo per risolvere! Quando un sito smette di funzionare, infatti, ci sono molte cose che bisognerebbe andare a controllare: inutile sottolineare, quindi, che un’analisi seria dovrebbe sempre interessare tutti i singoli punti, e questo molto spesso (per ragioni di tempo o competenze non adeguate) non è possibile farlo.

Che strumenti bisogna usare?

Gli strumenti per i check sono moltissimi, e non tutti sono gratis – anche se molti, almeno a livello base, lo sono; il problema è anche scegliere quelli giusti e saper capire i risultati che ci danno. Alcuni strumenti interessanti lato SEO (che poi interessano tecnicamente il sito stesso, in molti casi), ad esempio, sono indicati nella sezione risorse del sito. In genere, ovviamente, nessuno ha la bacchetta magica per risolvere i problemi.

Quali CMS si possono correggere?

Quasi tutti, a meno che non siano davvero molto vecchi. I CMS più utilizzati sono WordPress e Joomla!, ma è possibile intervenire su siti web scritti ad esempio in PHP o con sorgente proprietario (ad esempio un sito che ti ha venduto un’azienda su misura per te). Se nel primo caso è più agevole per noi tecnici intervenire, nel secondo spesso è difficile o sconsigliabile farlo: molto meglio, nel secondo caso, chiedere direttamente a chi vi ha fatto il sito (al webmaster).

Problemi tipici dei siti che si vedono male

Vedremo oggi quali sono i problemi tecnici che possono interessare un sito e che, nello specifico, tendono ad alterare la grafica, quindi a mostrare ad esempio:

  1. tema grafico non funzionante su mobile (ad esempio: non si vede bene su telefono);
  2. tema grafico non funzionante su desktop, o su mobile e desktop (tipicamente: proporzioni sbagliate degli elementi, formattazione non funzionante, ecc.);
  3. difetto di progettazione nel sito, ad esempio codice errato, aggiornamenti non andati a buon fine, file o database corrotto;
  4. tema grafico non compatibile con il dispositivo (ad esempio vecchia grafica che non va bene su mobile, e deve essere riprogettata o sostituita);
  5. sito completamente bloccato su una pagina bianca (la pagina bianca della morte di WordPress, ad esempio), e spesso anche inaccessibile.

Aspetti che possono influenzare la grafica, quando non funziona più

Il dettaglio del tuo sito ovviamente potrebbe dipendere da altri fattori come:

  1. hosting configurato in modo scorretto (ad esempio a livello di permessi dei file);
  2. hosting non adeguato a sostenere il carico di visite;
  3. sito non aggiornato o non più funzionante dopo l’aggiornamento.

Come fare a risolvere

In genere puoi provare anche da solo, ma non sempre sarà facile agire. Per risolvere i problemi del tuo sito ed essere quantomeno sicuro di trovare una soluzione utile, può essere utile l’intervento di un professionista del web che si paghi ad ore: è semplice, economico e si fa tutto via email o Skype, comodamente da casa tua o dall’ufficio.

Ciao! Sono Salvatore Capolupo, sono ingegnere informatico e mi occupo di web da quasi 20 anni. Per saperne di più guarda la mia offerta per l’analisi SEO del tuo sito oppure richiedi una consulenza ad ore.