archive

Traitement automatique des langues

Bonjour tout le monde !

Pour ceux qui suivent le site Veille Digitale et Jérôme Deiss, vous avez surement dû voir que je viens de publier un article sur l’optimisation du sitemap.xml pour le SEO.

En effet, je trouve que la plupart des sites sous-optimisent ce fichier XML, alors qu’il est super important pour indiquer les URL principales aux moteurs de recherche. Depuis que je travaille sur Baidu, je vois que ce moteur, par exemple, accorde une importance certaine aux sitemaps.

Je rafraîchis donc mes fichiers .xml très régulièrement pour que les moteurs repèrent les dernières URL à indexer. Pour lire l’article publié sur Veille Digitale, je vous invite à cliquer sur le lien ci-dessous :

Sitemap.xml : Comment l’optimiser pour les moteurs ?

Baidu sitemap.xml

 

Je vous conseille de faire attention à la priorité (priority) des URL dans le sitemap.xml. Pour les URL principales (page d’accueil, pages catégories, pages d’introduction), mettez du 1.

Pour la fréquence (changefreq), je mets souvent du « daily » pour forcer les moteurs à venir visiter mon site quotidiennement. Cela est en tout cas avéré pour Baidu (il rafraîchit ses crawls tous les jours via le sitemap.xml).

Bon courage à tous !

Véronique Duong –

Bonjour tout le monde !

Pour ceux qui suivent l’actualité de Google, du SEO, vous savez déjà que Google+ est important pour votre visibilité sur le web … et pour votre business. Et, ce matin, en lançant mon logiciel de veille automatique pour récupérer les dernières news, je suis tombée sur une infographie (voir à la fin de l’article) parlant de Google+ Local.

Je me suis dit « pourquoi ne pas faire un mini tutoriel pour créer une page Google+ Local ? »Â Cela va permettre aux entreprises d’augmenter la visibilité de leurs locaux et les clients pourraient trouver en deux clics les bureaux, les numéros de téléphone et les horaires d’ouverture. C’est pratique !

1) Je vous invite à lire cette documentation : https://support.google.com/plus/answer/1713911?hl=fr

2) Connectez-vous à votre compte Google+

3) Allez dans Accueil > Pages

Google+ Local - étape 1

4) Cliquez sur le bouton bleu « Créer une page »

5) Choisissez la catégorie « Petite entreprise ou activité locale »

Google+ Local - étape 2

6) Recherchez le nom de votre entreprise, et si vous ne le trouvez pas, remplissez le formulaire ci-contre

Google+ Local - étape 3

Tous les champs doivent être remplis ! 🙂

Google+ Local - étape 4

7) Dès que le formulaire est rempli, cliquez sur Envoyer.

8) Validez votre page Google+ Local par téléphone ou par courrier postal

Google+ Local - étape 5

Après la validation, votre page Google+ Local devrait être effective et visible !

Les internautes peuvent également laisser leurs avis sur vous depuis la page Google+ Local ! #Ereputation

Google+ Local - étape 6

J’aime beaucoup la présentation en plus, avec le plan des rues ! C’est vraiment très pratique.

Qu’en pensez-vous ? Je conseille à toutes les entreprises d’en créer une en tout cas.

Bon courage à tous,

Véronique Duong –

Bonjour tout le monde !

C’est toujours en effectuant mes veilles informationnelles avec mon outil de veille stratégique que je découvre des choses super intéressantes, et surtout que je suis inspirée à rédiger des articles sur mes thématiques préférées ! Donc, aujourd’hui, en consultant ma collecte de données, j’ai trouvé une infographie sur … la méthode pour effectuer une étude de mots-clés.

Certes avec le problème du (not provided) et la disparition de l’ancien générateur de mots-clés, l’infographie que je vais vous présenter n’est plus trop à jour, mais je trouve que la logique décrite est vraiment pas mal, et on pourrait la suivre même en utilisant le Keyword Planner et Google Trends.

L’illustration présente 5 étapes pour bien faire sa sélection d’expressions-clés (pour le 3e point, j’ai réadapté la stratégie et remplacé l’ancien Keyword Tool par le Planner =)) :

1) Identifier les landing pages ou les pages populaires de votre site (je dirais les pages où vous devez donner le plus de visibilité comme la page d’accueil, les pages catégories, etc.)

2) Penser à tous les mots-clés possibles en faisant du brainstorming avec vos collègues, vos collaborateurs.

3) Chercher et observer le volume et la tendance d’évolution de ces mots-clés dans le Keyword Planner et Google Trends.

4) Faire une analyse de concurrence des mots-clés (un mot-clé générique très concurrentiel serait un vrai défi pour se classer dessus !)

5) Finaliser la liste, et insérer ces derniers dans le contenu des pages web désignées dans le point 1.

Voici l’infographie réalisée par Promodo :

Etude de mots-clés SEO

 

La sélection des mots-clés est une étape importante malgré tous les changements survenus cette année 2013. Il faut bien écrire dans ces pages web pour qu’on les trouve non ? Donc, il faudra toujours faire une étude d’expressions-clés pour orienter au mieux nos internautes ! 🙂

Bon courage à tous !

Véronique Duong

Bonjour tout le monde !

En effectuant ma veille informationnelle avec mon logiciel de veille stratégique, j’ai trouvé une jolie infographie qui résume les techniques de SEO Black Hat les plus connues ! Elle n’est pas toute récente, et elle a été déjà surement vue par la plupart d’entre vous (qui veille sur le SEO surtout !).

Quand on parle de techniques black hat, on pense bien évidemment à tout ce qui est automatisation, spamdexing, cloacking (montrer différentes versions du site aux moteurs VS aux utilisateurs), keyword stuffing, les éléments cachés comme les liens, les mots-clés, etc.

Voici l’infographie, réalisée par Outrider, présente les techniques les plus connues :

Infographie techniques SEO black hat - AUTOVEILLE

 

Si vous ne voulez pas vous prendre une pénalité Penguin (ferme de liens) ou une pénalité Panda (ferme de contenus ou contenu dupliqué), n’appliquez pas ces techniques, c’est assez risqué.

Et toujours pour rappel : publiez du contenu de qualité où les internautes peuvent apprendre quelque chose, et construisez vous une belle image sur le web.

Bon courage à tous !

Véronique Duong –

Bonjour à tous !

Ce nouvel article ne va pas proposer de tests techniques ou de développements d’outils de veille ou de SEO, mais juste refléter quelques pensées que j’ai par rapport au Big Data.

Je vais parler de deux problématiques qui me reviennent souvent à l’esprit dès que je veille ou que je lis des articles sur le Big Data.

  1. Comment récupérer au maximum les données présentes (bases de données, webanalytics, CRM ou GRC) pour bien connaître ses visiteurs, ses internautes ?
  2. Comment faire pour bien définir une stratégie marketing (proposition personnalisée de produits, retargeting, etc.) très personnalisée ?

Par rapport à la collecte, cela dépend de la stratégie marketing que vous voulez mettre en place. Si on prend l’exemple de la vente des produits, ça serait utiliser le Big Data pour redéfinir une meilleure stratégie de vente. Il faudrait se tourner vers les bases de données PHP, SQL (type OVH déjà) où on peut par exemple récupérer les données (coordonnées, autres informations) sur les utilisateurs, leurs commentaires pour ensuite les analyser attentivement.

Il faut faire des groupes d’utilisateurs, car tous les produits que l’on vend, ne sont pas forcément dédiés tout public. Plus un produit est ciblé et correspond aux attentes, mieux c’est. Cependant, il y a des contraintes quant à la collecte des données. On ne peut pas toujours tout récupérer.

Voici les plus gros challenges auquel le Big Data pour le Marketing doit faire face :

Défis du Big Data pour le Marketing

 

 

Certaines entités ont trop peu de clients pour se constituer une base, certaines collectent irrégulièrement les données et pas assez en temps-réel, le manque de partage des données est un frein pour mesurer correctement le retour sur investissement de la stratégie marketing, et surtout … 45% des entités n’utilisent pas correctement les données des clients / consommateurs pour personnaliser leurs stratégies de communication ! Je trouve cela vraiment dommage.

Cependant, cette petite infographie date de 2012, et les chiffres auraient légèrement évoluer depuis (avec toutes les sensibilisations qu’on a sur le web, on aurait plus de sociétés qui optimisent cela).

Je pense que les sociétés et les entreprises devraient mieux exploiter leurs données clientèles pour proposer des services plus adaptés à chaque consommateur. Il y a certes de l’investissement au début, mais si c’est pour bien améliorer le ROI, cela en vaut la peine.

Si vous êtes SEO à la base, je vous conseille de lire cet article sur le remarketing de Moz. Cela m’a fait beaucoup réfléchir en parallèle sur le sujet du Big Data.

Je suis prête à discuter avec vous sur le sujet du Big Data qui m’intéresse autant que la veille et le SEO ! Email : autoveille@free.fr

Merci beaucoup

Véronique Duong –

Bonjour !

Si vous avez un peu suivi mes tweets, vous auriez vu qu’hier soir, j’annonçais que j’ai développé un petit outil (ou plutôt chaîne de traitements) pour extraire et calculer automatiquement les liens en nofollow de différentes pages web ou même d’un site web.

J’ai fait un petit test sur le site de Nespresso (NB : je ne travaille pas pour ce site).

Liens en nofollow de Nespresso

Pour extraire et calculer les liens en nofollow, voici comment je procède :

1) J’utilise AUTOVEILLE Monitoring, mon logiciel de veille sous forme d’outil de crawl pour extraire et stocker toutes les pages web d’un même site.

2) Je sauvegarde ces pages dans un même répertoire, par exemple vduong/dossier/nespresso

3) Ensuite, je lance une ligne de script qui va me permettre d’extraire en quelques secondes (20 secondes) tous les liens en nofollow du site ! La durée que l’outil va mettre dépend bien évidemment de la taille du site.

Outil SEO : extraction liens nofollow

4) Je lance une autre commande pour calculer automatiquement le nombre de liens :

Calcul des liens nofollow

Voici un extrait des liens en nofollow de Nespresso :

liens en nofollow de Nespresso

Avec cette technique SEO, je peux voir si le nombre de liens en nofollow est important ou pas dans les pages. Attention à Penguin ! Si vous en avez trop, les moteurs pourraient croire que votre site est une ferme de liens (ex : vous avez vendu beaucoup de liens, et que vous avez mis l’attribut nofollow dessus pour éviter que le jus de liens de vos pages se perd).

Pour Nespresso, c’est l’ensemble du site (soit plus de 15000 – 20000 pages il me semble) qui ne contient que 2604 liens en nofollow, donc par rapport à la taille du site, ça va.

Avez-vous une méthode aussi pour trouver les liens en nofollow sur un site ? Si oui, laquelle utilisez-vous ? Merci pour le partage !

Bon courage

Véronique Duong –

Bonjour tout le monde !

Comme nous sommes déjà au mois de décembre 2013 (…), il est temps de commencer à faire ses prévisions pour l’année qui va suivre ! En effectuant ma veille informationnelle avec mon logiciel de veille automatique, je suis tombée sur une infographie qui va m’aider à résumer les prévisions pour 2014. En gros, ce serait une année doublement digitale, où les gens seront encore plus connectés !

En ce qui concerne le SEO, on estime que 33% du trafic naturel provenant de Google irait à la première page web classée sur la première page !

Les campagnes SEA seraient également en augmentation (au moins 25%) pour l’année prochaine. Avec tous les débats sur le (not provided), on peut très bien comprendre pourquoi le SEA va augmenter. Les entreprises sont de plus en plus prêtes à payer Google (et les autres) pour être visibles en première page (une augmentation d’environ 72% pour le budget !)

Sinon, côté SMO, les emails contenant des boutons de partage sur les réseaux sociaux obtiendraient une augmentation de près de 158% pour leurs taux de clics (vous avez deviné ce qu’il vous reste à faire ;)) ! En 2013, il y aurait eu 52% des webmarketeurs qui ont trouvé au moins un client sur Facebook.

Les réseaux sociaux vont continuer de croître pour ces 5 prochaines années, donc il faut bien se préparer dès maintenant !

Voici l’infographie réalisée par WebDAM :

Webmarketing 2014 : les prévisions - AUTOVEILLE

Peu à peu, je tends à me désigner comme une webmarketeuse spécialisée en SEO que « SEO » tout court. Et vous ?

Bon courage à tous !

Véronique Duong –

Bonjour à tous !

Pour bien finir la semaine, je vous propose une petite infographie SEO très rigolote pour mieux connaître … Googlebot ! Je l’ai trouvée grâce à mon logiciel de veille informationnelle. Mais, récemment, j’ai légèrement réduit le volume de ma veille en infographies car j’en récupérais trop ou j’avais déjà vu certaines d’entre elles.

Sinon, cette caricature m’a fait bien rire, je ne pense pas qu’elle va vous apprendre quelque chose de nouveau, mais il y a tout de même quelques éléments qui sont de bonnes piqûres de rappel :

  • Publier régulièrement du contenu frais !
  • Eviter les techniques black hat
  • Eviter le keyword stuffing (suroptimisation)
  • Eviter d’avoir des liens entrants de mauvaise qualité (spams)
  • Eviter l’utilisation de liens avec l’attribut rel=nofollow

Si ces critères sont respectés, il n’y a pas de raison pour que Googlebot ne vient pas souvent vous rendre visite. Voici l’illustration de ce crawler par ElevateLocal (cliquez sur l’image pour l’agrandir si nécessaire) :

Infographie de GoogleBot - SEO - AUTOVEILLE

Tous les détails comptent pour ce moteur ! Ne les négligez pas.

Bon courage à tous !

Véronique Duong –

Bonjour !

J’étais en train de développer un flux RSS pour mon site AUTOVEILLE afin de relayer les dernières informations sur mon logiciel de veille, et je ne pensais pas écrire sur le SEO et les mots-clés en (not provided).

Mais …, entre temps, en effectuant ma veille stratégique, je suis tombée sur un article parlant (encore !) de ce « problème » de sécurisation des mots-clés, et j’ai eu l’idée de vous présenter quelques outils alternatifs qui permettraient de savoir plus ou moins comment les internautes arrivent sur votre site.

1) Le premier que je regarderais est : Google Webmaster Tools

Pour voir les mots-clés sur lesquels internautes sont arrivés, il faut aller dans Trafic de recherches > Requêtes de recherche > Filtrer sur « Tous« . Vous verrez ensuite une liste de mots-clés avec leurs taux d’impressions, les clics, leurs CTR, les positionnements de votre site sur ces derniers :

Extrait de mots-clés Webmaster Tools - AUTOVEILLE

 

2) Le deuxième outil que j’utliserais : Google Keyword Planner

Même si les statistiques ne sont pas très précises, cet outil permet quand même de nous donner une idée sur la popularité d’un mot-clé. Remplissez bien les champs, définissez bien le ciblage, et ajoutez votre page de destination aussi. Cela vous donnera des mots encore plus ciblés :

Keyword Planner de Google

Mots-clés du Keyword Planner de Google

 

3) Le troisième outil serait Google Trends !

Cet outil permet de voir en un œil la tendance des recherches pour un mot-clé par période, par région. Il vous indique aussi les mots-clés les plus fréquents qui sont recherchés 🙂 Cela donne vraiment des pistes intéressantes :

Mots-clés de Google Trends

 

J’aime bien Google Trends pour ma part, peut être encore plus que le Keyword Planner, parce qu’ils proposent plus de fonctionnalités et on voit l’évolution d’une expression-clé dans le temps ! Très important 😉

4) Le quatrième outil, je dirais qu’il faut regarder les suggestions de Google et le nombre de résultats donnés pour un mot-clé. Plus il y a de pages indexées sur ce mot-clé, plus il y aurait de la concurrence sur ce mot.

Mots-clés suggérés par Google

Nombre de pages indexées pour un mot-clé - AUTOVEILLE

 

 

Voilà, à peu près ce que je peux vous dire pour aujourd’hui. Je pense qu’avec l’algorithme Colibri, il est intéressant d’utiliser Google Trends pour repérer l’évolution d’un mot-clé dans le temps, et s’il est toujours recherché.

J’espère que cet article vous aurait rassurés, moi, en l’écrivant, je me dis que le (not provided) pourrait être embêtant, mais il ne va pas « tuer » le SEO.

Et vous ? Auriez-vous d’autres suggestions d’outils ?

Courage ! 😉

Véronique Duong –

Bonjour tout le monde !

Voici un petit article dans lequel je vais vous présenter un nouvel outil que je viens de développer : le compteur de caractères sur un grand volume de textes.

Mis à part des mises à jour que je fais sur mon logiciel de veille stratégique et des autres outils d’automatisation (crawling, SEO, etc.), je développe souvent de petits outils informatiques qui me permettent de réaliser rapidement certaines tâches du quotidien.

Voici un extrait de mon outil Perl qui permet de faire ce comptage automatique :

Compteur de caractères - AUTOVEILLE

La fonction length fait tout le boulot ici ! Sans elle, pas de comptage automatique. Elle est simple et très robuste, je l’utilise souvent dans mes scripts.

Pour faire fonctionner mon compteur de caractères, j’ouvre un terminal de Linux, et je lance mon script sur une phrase, un corpus ou une collecte de tweets (par exemple) :

Comptage de caractères - AUTOVEILLE

 

Je vais tenter de créer une interface graphique pour mon compteur AUTOVEILLE, ainsi vous pourriez le tester également. Avec cette technique, il n’y a pas de limites de caractères, vous pourriez passer un corpus de volume important, mon AUTOVEILLE Counter (je pense que je vais le nommer comme ça) va pouvoir compter tous les caractères de ce dernier !

Il pourrait être utile pour compter les balises title, les méta descriptions, etc. Il faudrait juste ajouter une boucle au script Perl pour que les éléments soient saisis proprement ligne par ligne.

Je le rajouterai sur mon site officiel ce week end ! Et si vous voulez en savoir plus, n’hésitez pas à m’écrire par mail, par commentaire ou encore via Twitter (voir le panel ci-contre =>)

Merci beaucoup à mes lecteurs fidèles aussi !

Bon courage à tous !

Véronique Duong –