Archive | référencement RSS feed for this section

Analyse de logs – petit déj’ conférence

4 mar

Conférence petit dej’ autour du thème des logs organisée par Oncrawl, animée par Erlé Alberton, Roland Debraband et Nicolas Gellens (Open-Linking).

Cette présentation était très intéressante car à la différence de nombreuses présentations commerciales d’outils auxquelles j’ai pu assister dans des salons par exemple, j’ai pu en tirer quelques bonnes pratiques en matière d’analyse de logs.

analyse-logs-conference

/*commercial-alert
J’y ai découvert un outil très intéressant et suffisamment visuel pour être utilisé par des novices, avec des fonctionnalités dédiées à des utilisateurs plus avancés (Oncrawl).
commercial-alert*/

J’en retiens quelques astuces notamment sur l’utilisation des logs en SEO que j’aimerais partager avec vous. L’analyse de logs est surtout nécessaire à partir de 1 000 pages, on oublie donc les sites vitrine et les boutiques avec peu de références produits, pour ce type de site une méthodologie plus artisanale est encore envisageable.

A l’instar d’un parcours client bien orienté dans un magasin de meubles à monter scandinave, les logs permettent d’optimiser le passage des robots et des utilisateurs dans votre site.

Le constat est le suivant : un utilisateur ou un robot parcourt votre site et laisse une trace dans un fichier portant le nom de log. On peut bien souvent le trouver à l’adresse suivante (racine de votre site) : /var/log/httpd si vous êtes sous apache. Les informations tracées dans ces logs sont nombreuses et peuvent souvent vous éclairer sur des optimisations SEO à mettre en place.

Sachant que les robots crawlent certaines catégories du site et d’autres moins (l’outil vous donne cette info à partir de vos logs), on peut prioriser ces pages en les mettant plus en avant sur des requêtes concurrentielles (qui nous intéressent donc plus). Par exemple si le robot crawle prioritairement vos mentions légales ou vos CGV, à vous de positionner les autres pages de manière à ce que le robot les voie et les considère comme plus importantes.

Il existe une notion de budget de crawl, c’est à dire que Google va par exemple vous donner 100 de budget de crawl si c’est la première fois qu’il parcourt votre site. 2 situations s’offrent à lui:

  • soit la navigation se passe bien, vous respectez les standards Google (vous avez du contenu de qualité, frais, etc.) il vous récompensera en revenant la prochaine fois avec un budget de 110 pour crawler votre site
  • soit la navigation est tumultueuse, le bot rencontre des erreurs, le site est lent etc. il reviendra avec un budget de crawl moins important (comprenez-le, il préférera consacrer son énergie à crawler des sites plus qualitatifs que le vôtre)

Les meilleurs sites en termes de référencement naturel totalisent 50% à 60% de pages dites « actives » (pages générant des visites SEO). Les moins bons en comptent de 0 à 10%. Les logs permettent de savoir quelles sont vos pages actives, et là aussi de mettre l’accent sur celles qui vous intéressent d’un point de vue business.

Open Linking avait commencé l’analyse de logs il y a quelques années, de manière artisanale n’ayant pas d’outil spécifique à l’époque (Elle avait plus précisément commencé avec Linux + Excel, avant de passer à Watussi box combiné à Google Analytics), puis l’agence a développé son propre outil en interne. Enfin après avoir testé plusieurs outils, elle utilise aujourd’hui Oncrawl qui semble satisfaire à ses attentes.

Certaines balises rel=canonical (dans le but d’éviter le duplicate content, donc avec une bonne intention de départ) mal configurées font perdre du temps au robot Google car il se perd entre deux url avec deux rel=canonical différentes (« cluster canonical not matching ») ne menant pas vers la même url, ainsi il perd du temps qu’il pourrait passer pour parcourir d’autres pages plus importantes de votre site. Du coup c’est un point à vérifier en priorité et qu’il est possible de cerner grâce à l’analyse des logs.

/*spoiler-alert
Pour terminer, deux optimisations à venir sur l’outil oncrawl ont été dévoilées :
– un mix avec le trust et le citation flow de Majestic permettant de pondérer la popularité externe de la page sélectionnée (en plus de toutes les infos fournies par oncrawl)
– des filtres personnalisables avec des expressions régulières (par exemple pour catégoriser des pages ne disposant pas de catégorie au départ mais contenant un morceau de code permettant de déterminer ladite catégorie)

spoiler alert*/

Retour sur le SEO Camp Lille 2016

5 mar

Le 4 Mars 2016 s’est tenu une nouvelle édition du SEO Camp Lille. Les conférences ont regroupé cette année autant des thématiques variées concernant les outils orientés statistiques et extractions de données, des analyses sémantiques, des conseils pour soigner les relations clients/prestataires, le développement des synergies entre SEO et SEA, le SEO en Chine, et quelques secrets de Google.

Vincent Terrassi et Thibault Willerv nous ont montré comment optimiser nos outils SEO avec R, un outil de statistiques bien plus puissant qu’Excel. R vous permet de créer des tableaux et des graphiques à partir de liste extraites de vos outils SEO habituels. Grâce à une formule spécifique, votre data est traitée et vous donne de nouvelles informations. Vous pouvez par exemple grâce à des packages fournis avec R ou à télécharger séparément:

  • créer des graphiques en temps réel (package shiny)
  • faire des prévisions de trafic à partir de vos données actuelles (outil rocket mill forecaster)
  • clusteriser (simplifier et catégoriser par famille) vos mots clés (package google word2vec)
  • vous pouvez créer des tableau de venn (package biopath) pour vous placer sur des mots clés utilisés par vos concurrents non présents sur votre site

Bonus : 70 ans de vidéo Youtube sont créés chaque jour, on peut les tronquer et les présenter différemment via R.

 

Antoine Brisset nous a montré les pièges à éviter lors d’une analyse sémantique. Après avoir défini l’analyse sémantique, il nous fait découvrir le TAL (traitement automatique du language) une regex permet de séparer chaque mot dans une phrase : Plusieurs étapes sont nécessaires à l’analyse syntaxique : étiqueter syntaxiquement un mot, normaliser la casse, lemmatiser des mots (grâce à un dictionnaire fléchi du français) supprimer les stop words, supprimer les caractères uniques etc.Des framework (treat, ntlk) permettent de faciliter la tâche.

 

Sébastien Monnier nous a dévoilé quelques secrets de Google (comment lire entre ses lignes) et notamment les derniers conseils des guidelines mises à jour fin janvier :

  • il faut adapter le mobile (ce n’est plus un simple + mais une obligation)
  • recommande clairement de passer en https l’ensemble du site (pas uniquement une partie)
  • l’accessibilité (non-voyants ou malvoyants) est récompensée
  • le nombre de liens maximum par page s’élève à 1 000
  • aucune mention concernant les url avec paramètres donc on peut supposer que GG sait les interpréter
  • la notion de crawlbudget émerge : Google ne peut pas tout crawler dans une journée
  • la chasse aux liens (backlinks) n’est plus la priorité de Google (de moins en moins de pénalités)
  • Matt Cutts est en congés sabbatique en 2014, continue a parler sur des actus geek mais pas d’annonce officielle
  • Amit Singhal figure la plus importante du search a été remplacé par John Gennandrea ex directeur de freebase

Sylvain Garin et Yuxiao Zhang ont abordé le SEO en Chine. Les acteurs du search en Chine sont actuellement, par % de part de marché : Baidu (56 %), Haosou (30 %), Sogou (13 %), Bing (0,7 %), Google (0,3 %). Notons que cette faible représentation de Google peut être utile à certains car il permet de toucher 200 000 européens expatriés ou installés là-bas. Actuellement, en Chine on peut payer jusqu’à 80 000 € pour être présent en SEO sur Baidu.

 

David Groult a abordé la complémentarité SEO-SEA, voici quelques-uns de ses conseils :

  • Faut-il acheter sa marque sur Google Adwords ?

les + : le double affichage donc plus de trafic (environ +10%), la modification des argumentaires simples, l’amélioration globale du QS (bons taux de clics) moins vrai aujourd’hui, le coût très faible, le suivi de l’évolution de la visibilité (niveau d’impression).

les – : cannibalisation du trafic seo, les dépenses inutiles

  • Comment utiliser le SEA pour aider le SEO ?

Sachant que toutes les données ou presque sont bloquées via Analytics, on utiliser en alternative celles fournies par Adwords et voir quels mots clés sont les plus rentables. Voici quelques cas pratiques :

– un client ecommerce (à 10k€/mois) : analyser quelles sont les requêtes les plus rentables parmi celles-ci rechercher quelles sont les requêtes non travaillées en SEO. Netlinking par rapport au contenu : rechercher des sites affinitaires via adplanner pour le réseau display.

– la revue de la sémantique des annonces pour un site de contraception a permis d’augmenter le CTR des annonces, cette pratique a été reprise en SEO

– pour un client de chocolats plusieurs arguments ont été testés : « chocolats artisanaux », « livraison gratuite » et « livraison 24h » : le meilleur CTR est donné par la livraison 24h (répliqué en seo)

– pour un site de vélos, ses annonces étaient orientées produit et prix, un argumentaire de spécialistes vélo a été testé sur des annonces (par ex « sucer la roue ») les prospects ferrus de vélo donc le CTR a suivi. Il faut bien comprendre sa cible et ainsi utiliser les bons mots clés dans ses annonces pour obtenir de meilleurs résultats. DSA : campagnes adwords automatisées (google matche les requetes automatiquement avec les annonces). Il est utile pour valider des contenus SEO et montre ce que google retire de mon contenu SEO. Modifier son contenu en conséquence permet d’être plus pertinent.

  • Comment travailler le SEO pour performer en SEA ?

Selon lui les facteurs influençant le QS sont en % du QS :

– le CTR : 60%

– la pertinence MC - ads – LP : 25%

– la convivialité de la LP : 15% (d’où l’intérêt de travailler leur contenu)

Payer adwords aide-t-il mon seo ? Cela n’a pas d’impact direct (indirectement oui car le trafic du site augmente) Dans Google Shopping : les critères facultatifs sont valorisant il faut un flux le plus complet possible, on peut par exemple rajouter un argument livraison 24h dans le titre.

David a conclu sa présentation en expliquant qu’il n’y avait pas de vérité absolue dans le monde du digital, il faut tester un maximum en accumulant et exploiter la data pour performer au maximum.

 

Aurélien Bardon nous a coaché dans la manière d’aborder les relations prestataire-annonceur. Il a évoqué quelques pratiques qui paraissent évidentes mais qui ne le sont pas pour tous les interlocuteurs d’un même projet, par exemple :

  • rédiger des emails synthétiques
  • arrêter les réunionites et pourquoi pas développer les réunions debout (gain de temps certain)
  • hiérarchiser les urgences
  • adapter son discours à son interlocuteur
  • soigner les objets de mail
  • être humble (reconnaitre ses erreurs, ou son manque de connaissances)
  • être aimable / savoir remercier (appel d’offre, conseils gratuits etc.)
  • prévenir le plus tôt possible en cas de problème bloquant (communiquer plus et mieux)
  • ASAP n’existe pas, il faut communiquer des deadlines réalistes et tenables

 

Cette journée s’est conclue par une table ronde autour de la formation webmarketing animée par Yann Lemort et Sébastien Monnier. Selon Yann il faut soigner le relationnel, l’orthographe, et se former en permanence, (l’enquête du SEO Camp en cours révélant que les experts search – surtout SEO – sont 40% d’autodidactes). Sébastien a souligné un besoin d’heures supplémentaires sur la thématique marketing digital, et la nécessité de savoir gérer la frustration (nombreuses préconisations pas ou mal appliquées).

Globalement les écoles ne creusent pas assez, selon Yann la plupart des connaissances sont acquises sur le terrain (sites perso ou alternance) n’ayant pas suffisamment de temps en cours.