Checklist SEO per la pubblicazione di nuovi siti

Checklist SEO per la pubblicazione di nuovi siti

Dicembre 19, 2011 0 Di Michele Mazzali

checklist seo per pubblicazione nuovo sitoLa pubblicazione di un nuovo sito è un momento importante e delicato, nel quale ogni operazione deve essere effettuata con la massima attenzione. Prima della pubblicazione è necessario effettuare una serie di controlli e di test volti a controllare numerosi aspetti tecnici e non, tra i quali l’ottimizzazione a livello SEO del sito che è stato sviluppato.

Questi sono solo alcuni degli aspetti fondamentali su cui soffermarsi nel check finale di un sito che si sta per pubblicare; la mia analisi non è ovviamente completa, ma è orientata agli sviluppatori che conoscono solo qualche base SEO e vogliono presentare al meglio il proprio sito ai motori di ricerca: mi aspetto di ricevere nei commenti dei consigli su altri aspetti da monitorare nella fase che precede la messa online.

URL, redirect e canonical

L’URL seo-friendly contiene le parole chiave per cui una pagina è ottimizzata e, possibilmente, non contiene ID o particolari parametri. Sarà quindi del tipo
http://www.miosito.it/parole-chiave.htm
e non
http://www.miosito.it/page.php?id=5&lang=ita
È inoltre fondamentale che esista UNO e UN SOLO URL che identifichi un contenuto; ove questo non fosse possibile, sarà necessario implementare dei redirect 301 nel file .htaccess, o, dove questo non fosse possibile, utilizzare un rel=”canonical” nell’head, specificando l’URL della pagina che vogliamo indicizzata.
Questo vale anche per la home: http://www.miosito.it/ e http://www.miosito.it/index.htm potrebbero essere entrambe indicizzate; meglio utilizzare un redirect 301 per ricondurre la home page a una sola forma canonica.

Check dei 404 e link

Una buona progettazione si riflette anche nella cura con la quale colleghiamo tra di loro le risorse. Esistono strumenti gratuiti per il SEO che ci aiutano nell’individuazione dei broken link e delle risposte 404 che vengono restituite: personalmente uso Xenu, ma mi è stato consigliato AnalogX LinkExaminer.
Inoltre, il numero di link all’interno delle pagine deve essere contenuto, in modo da non ridurre il link juice passato alle pagine di destinazione, e ciascun link dovrebbe prevedere un anchor text e un attributo title coerenti con le keywords della pagina a cui si collega.

Analisi dei tag title

È indispensabile che i title di ciascuna pagina corrispondano a una delle keyword che abbiamo determinato nella fase preliminare di analisi delle keyword. Ciascun title deve, quindi, essere diverso dagli altri e deve corrispondere a una delle query di ricerca per cui vogliamo che il nostro sito sia posizionato; tuttavia, non bisogna mai scordarsi che la progettazione è, prima di tutto, pensata per l’esperienza degli utenti. I title devono quindi essere ben scritti e completi, e devono possibilmente essere lunghi al massimo 12 parole, che corrisponde al limite di lettura del motore di Google.

Controllo dei meta description

Il metatag description è fondamentale per avere un buon CTR (click-through rate), perché è la stringa descrittiva che compare nella SERP, il cosiddetto snippet che ha l’obiettivo di invogliare l’utente al click. Meglio è costruito, magari utilizzando anche le parole chiave, più alto è il rapporto tra il numero di impression (numero di volte in cui si appare nella SERP) e visite. Google visualizza i primi 150 caratteri circa della description, quindi è utile costruire un testo che non oltrepassi questo limite.

Controllo del contenuto testuale

Rileggere e ricontrollare i testi prima della pubblicazione è assolutamente necessario, in modo da correggere inesattezze, errori grammaticali e ortografici e da individuare eventuale contenuto duplicato all’interno di due pagine differenti. Il testo delle pagine, inoltre, deve essere coerente con il title.

Controllo onpage approfondito

All’interno di ciascuna pagina è necessario controllare la presenza di tag e attributi necessari ad ottimizzare al meglio il contenuto. Tra gli step necessari:

  • controllare la presenza di headings: h1, h2 e h3 coerenti con il title e le keywords sulle quali si vuole costruire la pagina;
  • descrivere ciascuna immagine con un testo alternativo, in modo da migliorare l’accessibilità e dare un’alternativa testuale coerente con le keywords;
  • dopo l’avvento di Google Panda, nel caso in cui sia presente della pubblicità, è bene avere l’accortezza di presentarla non in primo piano e dare sempre più evidenza al contenuto originale rispetto agli ads;
  • verificare la struttura del sito e la sua usabilità: quanti click sono necessari per accedere al contenuto del sito? Più di due click per raggiungere una risorsa rischiano di essere frustranti per la user experience.

La sitemap XML e i suoi valori

La sitemap XML è uno strumento utile per suggerire a Google e agli altri motori quali sono le pagine del sito da indicizzare. Oltre ovviamente alla sua presenza, è necessario verificare il suo aggiornamento, la sua sintassi e specificare dei valori di priority e di frequenza di aggiornamento plausibili.

Accesso dei robots alle pagine

L’ultimo passo per la messa online di un sito consiste nel permettere l’accesso ai motori di ricerca. È opportuno effettuare un check dei meta robots, se presenti, per verificare di non aver impedito l’accesso a una parte del sito che vogliamo indicizzare, e compilare un robots.txt che consenta l’accesso al crawler di Google e specifichi l’indirizzo della sitemap XML.
Per gli utenti WordPress, in dashboard -> impostazioni -> privacy è presente il checkbox che consente di eliminare il disallow dal robots.txt e consentire dunque l’accesso agli spider dei motori di ricerca.