Via Scoop.itMa Veille

L’outil de requêtage sur Google Analytics
Qui dit Excel dit forcément traitement de données et en matière de données Google Analytics est incoutournable. Le plugin SEO Tools pour Excel permet donc de requêter sur les données de votre compte GA pour travailler par exemple sur une liste de mots clés générant des visites sur votre page d’accueil (cf exemple en copie d’écran).
Perso j’utilise plutôt pour ça Excellent Analytics qui me parait plus intuitif mais les capacités des 2 outils me paraissent très proches (a priori)
Via www.1ere-position.fr

Rémi Morin

Veilleur - Référenceur Gestion de l'identité numérique des entreprises soucieuses de leur e-reputation, et conscientes de la plus-value que peut apporter la bonne gestion de leur présence en ligne.

Follow Me:
TwitterFacebookLinkedInPinterestGoogle Plus

Via Scoop.itMa veille Etourisme

Voilà bientôt trois ans que Google officialisait la suppression définitive de Google PageRank dans les outils de Google Webmaster Tools. Comment se fait-il alors que tant de référenceurs se fondent encore aujourd’hui sur le PageRank d’un site pour évaluer la qualité de cette page dont va dépendre ou non un échange de lien? Car en effet, si Google a souhaité rendre facultatif cet indice de positionnement des pages de site de sa barre d’outils sous les dires de Susan Moskwa, Webmaster Analyst de Google: « Nous répétons depuis longtemps que les gens ne devraient pas se focaliser autant sur le PageRank ; de nombreux webmasters semblent penser que c’est la variable la plus importante à suivre, ce qui est tout simplement faux. Nous l’avons supprimé car nous avons estimé qu’il était ridicule de dire aux gens de ne pas y penser tout en continuant à l’afficher et donc les inciter à suivre ce critère», il n’en reste pas moins un vrai critère de référencement pour certains encore aujourd’hui.
Via www.lemarketingenligne.com

Rémi Morin

Veilleur - Référenceur Gestion de l'identité numérique des entreprises soucieuses de leur e-reputation, et conscientes de la plus-value que peut apporter la bonne gestion de leur présence en ligne.

Follow Me:
TwitterFacebookLinkedInPinterestGoogle Plus

Via Scoop.itMa Veille

Google rappelle qu’il ne lit que les premiers 500 kilo-octets du fichier robots.txt d’un site web, ce qui doit logiquement correspondre à l’immense majorité des cas… John Mueller, Webmaster Trends Analyst chez Google Zurich, rappelle sur son profil Google+ que les robots de Google n’analysent que les 500 premiers kilo-octets du fichier robots.txt d’un site web, comme le rappelle l’aide en ligne du moteur. En même temps, ce fichier (au format textuel donc très léger) ne contient la plupart du temps que quelques lignes listant les répertoires à ne pas indexer et l’adresse du (des) fichier(s) Sitemap et ne fait que quelques kilo-octets dans l’immense majorité des cas. Logiquement, cette limite des 500 Ko ne doit donc être atteinte que dans des cas très précis et d’autant plus rares…
Via actu.abondance.com

Rémi Morin

Veilleur - Référenceur Gestion de l'identité numérique des entreprises soucieuses de leur e-reputation, et conscientes de la plus-value que peut apporter la bonne gestion de leur présence en ligne.

Follow Me:
TwitterFacebookLinkedInPinterestGoogle Plus

Via Scoop.itMa Veille

Les règles de la sémantique sont très précises à propos des balises d’en-têtes et de H1 en particulier. Concernant l’optimisation pour le référencement, c’est bien plus subtil qu’il n’y paraît au premier abord.
  Rien de bien compliqué à suivre la règle sémantique qui dicte que les balises d’en-têtes servent à hiérarchiser le contenu textuel.   Pourtant, un échange récent sur Webmaster Hub avec un espèce d’illuminé de bas étage tourne au vinaigre car il maintient que H1 possède sa place dans le Header.
  Retour sur l’utilisation des balises d’en-têtes et H1 en particulier, ainsi que son implication pour l’optimisation du référencement.
Via www.laurentbourrelly.com

Rémi Morin

Veilleur - Référenceur Gestion de l'identité numérique des entreprises soucieuses de leur e-reputation, et conscientes de la plus-value que peut apporter la bonne gestion de leur présence en ligne.

Follow Me:
TwitterFacebookLinkedInPinterestGoogle Plus

Via Scoop.itMa Veille

Lorsque l’on souhaite refondre un site internet, c’est à dire en refaire une nouvelle version, il faut avant tout, réaliser un document de travail expliquant l’expression de besoin.
Auditer son site :
Tout d’abord, il est primordial d’auditer son site pour comprendre ce qui fonctionne de ce qui ne fonctionne pas :
Taux de rebond : étudier les pages vues par visite de son site, les comparer aux concurrents, et rechercher les typologies de pages les mieux adaptées, et celles les plus mal pensées.
Attention, beaucoup pensent qu’une refonte graphique réussie fera gagner en pages vues par visite, ce qui peut s’avérer faux : il n’est pas rare que la version actuelle qui ait connu des optimisations pendant des mois, voire des années, ait des éléments fonctionnant très bien (emplacement des liens, typologie de liens…), qui font que la refonte risque de faire perdre ça ! Je vois ainsi régulièrement des sites dont la refonte fait perdre 10 % de pages vues/visite du fait d’erreurs !
Référencement : quelles sont les pages performant le mieux ? Quelles pages performent le plus mal ? Dans quels mots clefs y a-t-il un gap d’audience à récupérer ?
La refonte d’un site est l’occasion ou jamais de se pencher sur son référencement, pour rechercher des leviers d’augmentation de la visibilité !
Ainsi, se donner des thèmes, pages et des mots clefs à travailler prioritairement permettra de se donner des objectifs et permettre un gain grâce à la refonte du site.
Sources de trafic : l’étude des sources de trafic, comparées à celles de vos concurrents français et   internationaux vous donnera des axes de travail : si votre audience provient à 70 % de Google, et à 20 % des accès direct, alors que vos concurrents ont 50 % de visiteurs en accès direct, vous trouverez ainsi un axe de travail majeur !
Monétisation : étudier les pages vues par visite de son site, les comparer aux concurrents, et rechercher les typologies de pages les mieux adaptées, et celles les plus mal pensées.
Etat technique : Si votre site a des soucis récurrents de stabilité, et de bugs, mettre en place des process pour développer et recetter le développement hors production, pour ne pas nuire à la qualité du perçu de votre site serait une bonne chose !
Par ailleurs, suivre les indicateurs de performance que sont la vitesse seront importants pour la qualité de votre site.
Design : souvent, n’ayant pas de graphiste en internet, le design est un problème car il est dur à changer et améliorer.
Faire une nouvelle version est l’occasion ou jamais de vérifier ses erreurs et repartir sur de bonnes bases !
Web 2.0 : avez-vous pensé que le contenu produit par les visiteurs est du contenu gratuit, à ne pas négliger ?
C’est ainsi qu’un site comme CommentcaMarche.net se paie le luxe d’être le 1er site média, malgré un nombre limité de contenu produit en internet, car il dispose d’un des plus gros forums mondiaux.
Par ailleurs, les réseaux sociaux peuvent attirer un public nouveau, et accroitre son audience. Une meilleure intégration des réseaux sociaux sur votre site sera donc importante !
Document de préconisation :
Une fois l’audit réalisé, il est nécessaire de réaliser un document de préconisations fonctionnelles, tenant compte de la gestion des acquis (éléments fonctionnant bien).
En parallèle de ça, la réalisation d’une nouvelle version devra être pensée pour permettre de gagner de l’audience et du CA : si vous investissez 3000 ou 10 000 € de frais divers, il est primordial qu’ils portent leurs fruits.
Par ailleurs, la nouvelle version peut être le moment idéal pour lancer de nouvelles sections en fonction de la demande du marché.
Gestion du recettage :
La phase crutiale du recettage permettra de s’assurer que l’ensemble des éléments ont bien été pris en compte.
Il faudra veiller notamment à ce que la nouvelle   version du site :
Fonctionne sur tous les navigateurs majeures
L’absence de bugs : il vaut mieux prendre son temps
La bonne gestion seo en gérant l’ensemble des points cruciaux en terme de référencement : urls, titles, maillage, etc.
Via sebastiendechezelles.com

Rémi Morin

Veilleur - Référenceur Gestion de l'identité numérique des entreprises soucieuses de leur e-reputation, et conscientes de la plus-value que peut apporter la bonne gestion de leur présence en ligne.

Follow Me:
TwitterFacebookLinkedInPinterestGoogle Plus

Via Scoop.itMa Veille

Désormais, Google pourra afficher un autre titre que celui paramétré dans la balise title de la page web. Une première.   La rédaction d’un title fait encore et toujours partie des incontournables du référencement
On savait que la balise meta description n’était pas prise en compte dans le calcul algorithmique de Google, et qu’elle pouvais être remplacée, presque indifféremment, par une autre partie textuelle de la page web jugée plus pertinente par rapport à la recherche enregistrée.   Désormais, le title de page pourra être lui aussi remplacé, si Google juge un autre titre plus pertinent. Il semble que Google veuille par là s’attaquer aux titres jugés trop longs, trop courts, ou alors identiques sur plusieurs pages, voire redondants par certains aspects.   Une amélioration bienvenue qui a de très forte chance d’améliorer la qualité des résultats, mais qui pose plusieurs questions.
Via www.hemmer.ch

Rémi Morin

Veilleur - Référenceur Gestion de l'identité numérique des entreprises soucieuses de leur e-reputation, et conscientes de la plus-value que peut apporter la bonne gestion de leur présence en ligne.

Follow Me:
TwitterFacebookLinkedInPinterestGoogle Plus

Via Scoop.itMa Veille

Connaissez-vous bien les commandes spéciales des moteurs de recherche, qui permettent d’effectuer des requêtes précises, parfois très utiles pour travailler le référencement naturel ? WebRankInfo vous propose la plus grande base de données d’explications sur ces commandes et opérateurs spéciaux : le guide des commandes Google, Bing et Yahoo. Mise à jour du 13/12/2010 : un PDF des 32 commandes spéciales de Google, Bing et Yahoo est disponible !
Via www.webrankinfo.com

Rémi Morin

Veilleur - Référenceur Gestion de l'identité numérique des entreprises soucieuses de leur e-reputation, et conscientes de la plus-value que peut apporter la bonne gestion de leur présence en ligne.

Follow Me:
TwitterFacebookLinkedInPinterestGoogle Plus

Via Scoop.itMa Veille

Si vous débutez en SEO les infographies qui suivent vous permettront de démarrer du bon pied.
Bien évidemment pix-geeks.com respecte toutes ces règles d’or (euh faudrait quand même que je vérifie, mais en principe c’est bon). Au programme : Les règles de base du SEO
URL
Metadonnées
Balises HTML
Contenu
Soigner le linking
Liens internes
Liens sortants
Duplicate content
Pour aller plus loin
Age de site et mises à jour
Sitemap XML
SMO
J’avais un peu parcouru les illustrations en diagonales (honte à moi) et en creusant il convient de rajouter quelques commentaires si on se penche uniquement sur Google : Google en théorie ne prend plus en compte les balises Meta keywords comme l’indique Matt Cutts. 
Il manque des informations sur la balise STRONG/B
Les seuils sur la densité de mots clefs donnent lieu à discussion
Les attributs de fréquence de mise à jour sont ignorés par les moteurs. Je les renseigne quand même.
Pour ce qui est des redirections, j’en fais en 301 je n’ai jamais entendu parler de redirections 302 Pour le reste je reste assez d’accord  
Via pix-geeks.com

Rémi Morin

Veilleur - Référenceur Gestion de l'identité numérique des entreprises soucieuses de leur e-reputation, et conscientes de la plus-value que peut apporter la bonne gestion de leur présence en ligne.

Follow Me:
TwitterFacebookLinkedInPinterestGoogle Plus

Via Scoop.itMa Veille

Qu’est ce qu’un lien brisé ? Broken Link Les liens brisés sont tout simplement, des liens à l’intérieur de votre site web ou blog, qui pointent vers des pages qui n’existent pas ou plus. Cela inclut à la fois des liens vers les pages intérieurs de votre propre site web ou blog et des liens vers des pages d’autres sites. Origines des liens brisés ? La page que vous avez peut-être liés a existé dans le passé, mais ne l’ai plus, a été supprimé, ou peut-être tout simplement, vous avez utilisé une URL erronée lors de la création du lien. Peu importe la raison, chaque fois qu’un utilisateur clique sur un de ces liens, il verra une page frustrante d’erreur 404 !
Via www.dyalo.com

Rémi Morin

Veilleur - Référenceur Gestion de l'identité numérique des entreprises soucieuses de leur e-reputation, et conscientes de la plus-value que peut apporter la bonne gestion de leur présence en ligne.

Follow Me:
TwitterFacebookLinkedInPinterestGoogle Plus