archive

Veilles

Bonjour tout le monde !

Pour ceux qui suivent le site Veille Digitale et JĂ©rĂŽme Deiss, vous avez surement dĂ» voir que je viens de publier un article sur l’optimisation du sitemap.xml pour le SEO.

En effet, je trouve que la plupart des sites sous-optimisent ce fichier XML, alors qu’il est super important pour indiquer les URL principales aux moteurs de recherche. Depuis que je travaille sur Baidu, je vois que ce moteur, par exemple, accorde une importance certaine aux sitemaps.

Je rafraĂźchis donc mes fichiers .xml trĂšs rĂ©guliĂšrement pour que les moteurs repĂšrent les derniĂšres URL Ă  indexer. Pour lire l’article publiĂ© sur Veille Digitale, je vous invite Ă  cliquer sur le lien ci-dessous :

Sitemap.xml : Comment l’optimiser pour les moteurs ?

Baidu sitemap.xml

 

Je vous conseille de faire attention Ă  la prioritĂ© (priority) des URL dans le sitemap.xml. Pour les URL principales (page d’accueil, pages catĂ©gories, pages d’introduction), mettez du 1.

Pour la frĂ©quence (changefreq), je mets souvent du « daily » pour forcer les moteurs Ă  venir visiter mon site quotidiennement. Cela est en tout cas avĂ©rĂ© pour Baidu (il rafraĂźchit ses crawls tous les jours via le sitemap.xml).

Bon courage Ă  tous !

VĂ©ronique Duong –

Bonjour tout le monde !

Mon logiciel de veille a rapatrié une nouvelle infographie SEO qui donne 10 conseils de référencement naturel pour améliorer les classements des pages web dans les résultats de recherche des moteurs de recherche.

Audits, rédaction de contenus User-Friendly, structure du code HTML, etc. sont des points abordés dans cette illustration. Si on suit les étapes de cette infographie inversée (elle part du 10e point au 1er point), il faudrait faire tout ceci pour améliorer ses positions dans les SERP :

10) Faire un audit SEO complet du site pour découvrir les problématiques

9) Ecrire pour ses lecteurs et non pour les moteurs (!!)

8) Améliorer la structure des éléments on-page (H1, ancres de textes, gras, etc.)

7) Eviter d’avoir des liens de mauvaise qualitĂ© qui pointent vers le site (Penguin … !!)

6) Créer des balises <title> qui incluent les mots-clés ciblés

5) Ajouter les nouveaux articles Ă  des sites comme Digg, Stumbleupon

4) Utiliser les boutons des réseaux sociaux pour les partages (!!)

3) Supprimer tous les duplicate content du site (Panda … !!)

2) S’assurer que les URL contiennent les mots-clĂ©s ciblĂ©s

1) Publier réguliÚrement de nouveaux contenus

J’ai suivi la numĂ©rotation Ă  l’envers de l’infographie. On remarquera que tous les points n’ont pas la mĂȘme importance. Le point 2 avec les mots-clĂ©s dans les URL n’est pas si important. Tandis que le point 1) est super important : la publication rĂ©guliĂšre de contenus !

Voici l’infographie rĂ©alisĂ©e par Interactivity Marketing :

Infographie pour améliorer le SEO

 

Cette infographie est une bonne piqûre de rappel en tout cas ! Vous ne trouvez pas ?

Bon courage Ă  tous !!

VĂ©ronique Duong –

Hello tout le monde !

Me revoici avec un article sur une technique SEO que je viens de tester, et qui semble bien marcher sur Baidu ! Depuis quelques mois, j’effectue quotidiennement une veille stratĂ©gique sur les rĂ©sultats de recherche Baidu pour un client, et j’ai remarquĂ© que Baidu affichait aussi les tracking code. Et cela fausserait les statistiques (Brand Zone), et ne rend les URL pas trĂšs attirantes …

Tracking code ?cmpid - Baidu Brand Zone

 

Pour masquer ces tracking code, j’utilise la technique du robots.txt ! Il suffit de faire un Disallow sur le ?cmpid, et … avoir de la patience pour que Baidu rafraĂźchit son crawl et qu’il ne l’affiche plus ! Cela pourrait prendre beaucoup de temps par contre (environ 2 mois).

En revanche, comme vous le savez, une restriction dans un robots.txt doit absolument commencer par un slash « / » … donc si vous devez interdire l’indexation de ces tracking code, vous devez placer un « / » devant le « ? », sinon cela ne marchera pas.

Exemple de codes de resctriction Robots.txt pour cet exemple de tracking code :

Disallow: Cmpid - robots.txt AUTOVEILLEPour tous les moteurs :

tous moteurs - robots.txt - disallow

 

Pour Baiduspider uniquement :

Baiduspider - robots.txt - cmpid

 

J’ai testĂ© cette technique SEO pour un client de prestige, et je ne peux pas publier les rĂ©sultats ici. Mais si vous rencontrez un cas similaire, vous pouvez tester cette mĂ©thode.

Et vous ? Auriez-vous une méthode efficace pour masquer les tracking code dans les URL ?

L’URL rewriting marcherait aussi, mais connaissiez-vous d’autres alternatives ?

Merci ! et bon courage Ă  tous !

VĂ©ronique Duong –

 

Hello tout le monde !

Cela fait un petit moment que je n’ai pas rĂ©digĂ© un article sur la e-rĂ©putation ! Eh bien, voici un nouvel article pour vous rappeler Ă  quel point il est important de se protĂ©ger sur le web pour avoir une rĂ©putation en ligne digne de votre image !

Toujours grĂące Ă  ma veille stratĂ©gique que j’effectue au quotidien avec mon logiciel de veille informationnelle, j’ai trouvĂ© une infographie trĂšs claire qui va illustrer mes propos. L’illustration est plutĂŽt orientĂ©e pour ceux qui sont Ă  la recherche d’un emploi, et elle indique des chiffres intĂ©ressants comme … 48% des recruteurs et des DRH qui font des recherches sur le web pour mieux connaĂźtre ses candidats …

S’il y a des personnes qui se nomment comme vous sur le web, un employeur pourrait vous confondre si vous ne prĂ©cisez pas bien ce que vous faites, votre parcours, etc … donc, soyez original et mettez-vous en valeur 🙂

Pour les entreprises, je vous conseille d’investir un miminum dans le SEO. Le rĂ©fĂ©rencement naturel est une grande aide pour ceux qui veulent « nettoyer » un peu leurs SERP ! Il va faire remonter vos derniers contenus de qualitĂ© sur les mots-clĂ©s de votre site et de votre marque, et « effacer » ceux que vous ne voulez plus voir dans les premiĂšres pages Google.

Et surtout, faites de la veille corporate sur votre marque. Si on vous critique, vous seriez tout de suite alerter, et vous pourriez réagir immédiatement.

Voici l’infographie rĂ©alisĂ©e par KBSD qui reprend un peu ce que j’ai dit :

Protégez votre e-réputation - AUTOVEILLE

Si vous observez des messages négatifs à votre encontre, répondez calmement en demandant les raisons de telles réactions, et soyez trÚs diplomate.

Bon courage Ă  tous !

VĂ©ronique Duong –

Bonjour tout le monde !

Pour ceux qui suivent l’actualitĂ© de Google, du SEO, vous savez dĂ©jĂ  que Google+ est important pour votre visibilitĂ© sur le web … et pour votre business. Et, ce matin, en lançant mon logiciel de veille automatique pour rĂ©cupĂ©rer les derniĂšres news, je suis tombĂ©e sur une infographie (voir Ă  la fin de l’article) parlant de Google+ Local.

Je me suis dit « pourquoi ne pas faire un mini tutoriel pour crĂ©er une page Google+ Local ? »Â Cela va permettre aux entreprises d’augmenter la visibilitĂ© de leurs locaux et les clients pourraient trouver en deux clics les bureaux, les numĂ©ros de tĂ©lĂ©phone et les horaires d’ouverture. C’est pratique !

1) Je vous invite à lire cette documentation : https://support.google.com/plus/answer/1713911?hl=fr

2) Connectez-vous Ă  votre compte Google+

3) Allez dans Accueil > Pages

Google+ Local - étape 1

4) Cliquez sur le bouton bleu « CrĂ©er une page »

5) Choisissez la catĂ©gorie « Petite entreprise ou activitĂ© locale »

Google+ Local - étape 2

6) Recherchez le nom de votre entreprise, et si vous ne le trouvez pas, remplissez le formulaire ci-contre

Google+ Local - étape 3

Tous les champs doivent ĂȘtre remplis ! 🙂

Google+ Local - étape 4

7) DĂšs que le formulaire est rempli, cliquez sur Envoyer.

8) Validez votre page Google+ Local par téléphone ou par courrier postal

Google+ Local - étape 5

AprĂšs la validation, votre page Google+ Local devrait ĂȘtre effective et visible !

Les internautes peuvent également laisser leurs avis sur vous depuis la page Google+ Local ! #Ereputation

Google+ Local - étape 6

J’aime beaucoup la prĂ©sentation en plus, avec le plan des rues ! C’est vraiment trĂšs pratique.

Qu’en pensez-vous ? Je conseille Ă  toutes les entreprises d’en crĂ©er une en tout cas.

Bon courage Ă  tous,

VĂ©ronique Duong –

Bonjour tout le monde !

C’est toujours en effectuant mes veilles informationnelles avec mon outil de veille stratĂ©gique que je dĂ©couvre des choses super intĂ©ressantes, et surtout que je suis inspirĂ©e Ă  rĂ©diger des articles sur mes thĂ©matiques prĂ©fĂ©rĂ©es ! Donc, aujourd’hui, en consultant ma collecte de donnĂ©es, j’ai trouvĂ© une infographie sur … la mĂ©thode pour effectuer une Ă©tude de mots-clĂ©s.

Certes avec le problĂšme du (not provided) et la disparition de l’ancien gĂ©nĂ©rateur de mots-clĂ©s, l’infographie que je vais vous prĂ©senter n’est plus trop Ă  jour, mais je trouve que la logique dĂ©crite est vraiment pas mal, et on pourrait la suivre mĂȘme en utilisant le Keyword Planner et Google Trends.

L’illustration prĂ©sente 5 Ă©tapes pour bien faire sa sĂ©lection d’expressions-clĂ©s (pour le 3e point, j’ai rĂ©adaptĂ© la stratĂ©gie et remplacĂ© l’ancien Keyword Tool par le Planner =)) :

1) Identifier les landing pages ou les pages populaires de votre site (je dirais les pages oĂč vous devez donner le plus de visibilitĂ© comme la page d’accueil, les pages catĂ©gories, etc.)

2) Penser à tous les mots-clés possibles en faisant du brainstorming avec vos collÚgues, vos collaborateurs.

3) Chercher et observer le volume et la tendance d’Ă©volution de ces mots-clĂ©s dans le Keyword Planner et Google Trends.

4) Faire une analyse de concurrence des mots-clés (un mot-clé générique trÚs concurrentiel serait un vrai défi pour se classer dessus !)

5) Finaliser la liste, et insérer ces derniers dans le contenu des pages web désignées dans le point 1.

Voici l’infographie rĂ©alisĂ©e par Promodo :

Etude de mots-clés SEO

 

La sĂ©lection des mots-clĂ©s est une Ă©tape importante malgrĂ© tous les changements survenus cette annĂ©e 2013. Il faut bien Ă©crire dans ces pages web pour qu’on les trouve non ? Donc, il faudra toujours faire une Ă©tude d’expressions-clĂ©s pour orienter au mieux nos internautes ! 🙂

Bon courage Ă  tous !

Véronique Duong

Bonjour tout le monde !

En effectuant ma veille informationnelle avec mon logiciel de veille stratĂ©gique, j’ai trouvĂ© une jolie infographie qui rĂ©sume les techniques de SEO Black Hat les plus connues ! Elle n’est pas toute rĂ©cente, et elle a Ă©tĂ© dĂ©jĂ  surement vue par la plupart d’entre vous (qui veille sur le SEO surtout !).

Quand on parle de techniques black hat, on pense bien évidemment à tout ce qui est automatisation, spamdexing, cloacking (montrer différentes versions du site aux moteurs VS aux utilisateurs), keyword stuffing, les éléments cachés comme les liens, les mots-clés, etc.

Voici l’infographie, rĂ©alisĂ©e par Outrider, prĂ©sente les techniques les plus connues :

Infographie techniques SEO black hat - AUTOVEILLE

 

Si vous ne voulez pas vous prendre une pĂ©nalitĂ© Penguin (ferme de liens) ou une pĂ©nalitĂ© Panda (ferme de contenus ou contenu dupliquĂ©), n’appliquez pas ces techniques, c’est assez risquĂ©.

Et toujours pour rappel : publiez du contenu de qualitĂ© oĂč les internautes peuvent apprendre quelque chose, et construisez vous une belle image sur le web.

Bon courage Ă  tous !

VĂ©ronique Duong –

Bonjour Ă  tous !

Ce nouvel article ne va pas proposer de tests techniques ou de dĂ©veloppements d’outils de veille ou de SEO, mais juste reflĂ©ter quelques pensĂ©es que j’ai par rapport au Big Data.

Je vais parler de deux problĂ©matiques qui me reviennent souvent Ă  l’esprit dĂšs que je veille ou que je lis des articles sur le Big Data.

  1. Comment récupérer au maximum les données présentes (bases de données, webanalytics, CRM ou GRC) pour bien connaßtre ses visiteurs, ses internautes ?
  2. Comment faire pour bien définir une stratégie marketing (proposition personnalisée de produits, retargeting, etc.) trÚs personnalisée ?

Par rapport Ă  la collecte, cela dĂ©pend de la stratĂ©gie marketing que vous voulez mettre en place. Si on prend l’exemple de la vente des produits, ça serait utiliser le Big Data pour redĂ©finir une meilleure stratĂ©gie de vente. Il faudrait se tourner vers les bases de donnĂ©es PHP, SQL (type OVH dĂ©jĂ ) oĂč on peut par exemple rĂ©cupĂ©rer les donnĂ©es (coordonnĂ©es, autres informations) sur les utilisateurs, leurs commentaires pour ensuite les analyser attentivement.

Il faut faire des groupes d’utilisateurs, car tous les produits que l’on vend, ne sont pas forcĂ©ment dĂ©diĂ©s tout public. Plus un produit est ciblĂ© et correspond aux attentes, mieux c’est. Cependant, il y a des contraintes quant Ă  la collecte des donnĂ©es. On ne peut pas toujours tout rĂ©cupĂ©rer.

Voici les plus gros challenges auquel le Big Data pour le Marketing doit faire face :

Défis du Big Data pour le Marketing

 

 

Certaines entitĂ©s ont trop peu de clients pour se constituer une base, certaines collectent irrĂ©guliĂšrement les donnĂ©es et pas assez en temps-rĂ©el, le manque de partage des donnĂ©es est un frein pour mesurer correctement le retour sur investissement de la stratĂ©gie marketing, et surtout … 45% des entitĂ©s n’utilisent pas correctement les donnĂ©es des clients / consommateurs pour personnaliser leurs stratĂ©gies de communication ! Je trouve cela vraiment dommage.

Cependant, cette petite infographie date de 2012, et les chiffres auraient lĂ©gĂšrement Ă©voluer depuis (avec toutes les sensibilisations qu’on a sur le web, on aurait plus de sociĂ©tĂ©s qui optimisent cela).

Je pense que les sociĂ©tĂ©s et les entreprises devraient mieux exploiter leurs donnĂ©es clientĂšles pour proposer des services plus adaptĂ©s Ă  chaque consommateur. Il y a certes de l’investissement au dĂ©but, mais si c’est pour bien amĂ©liorer le ROI, cela en vaut la peine.

Si vous ĂȘtes SEO Ă  la base, je vous conseille de lire cet article sur le remarketing de Moz. Cela m’a fait beaucoup rĂ©flĂ©chir en parallĂšle sur le sujet du Big Data.

Je suis prĂȘte Ă  discuter avec vous sur le sujet du Big Data qui m’intĂ©resse autant que la veille et le SEO ! Email : autoveille@free.fr

Merci beaucoup

VĂ©ronique Duong –

Bonjour !

Si vous avez un peu suivi mes tweets, vous auriez vu qu’hier soir, j’annonçais que j’ai dĂ©veloppĂ© un petit outil (ou plutĂŽt chaĂźne de traitements) pour extraire et calculer automatiquement les liens en nofollow de diffĂ©rentes pages web ou mĂȘme d’un site web.

J’ai fait un petit test sur le site de Nespresso (NB : je ne travaille pas pour ce site).

Liens en nofollow de Nespresso

Pour extraire et calculer les liens en nofollow, voici comment je procĂšde :

1) J’utilise AUTOVEILLE Monitoring, mon logiciel de veille sous forme d’outil de crawl pour extraire et stocker toutes les pages web d’un mĂȘme site.

2) Je sauvegarde ces pages dans un mĂȘme rĂ©pertoire, par exemple vduong/dossier/nespresso

3) Ensuite, je lance une ligne de script qui va me permettre d’extraire en quelques secondes (20 secondes) tous les liens en nofollow du site ! La durĂ©e que l’outil va mettre dĂ©pend bien Ă©videmment de la taille du site.

Outil SEO : extraction liens nofollow

4) Je lance une autre commande pour calculer automatiquement le nombre de liens :

Calcul des liens nofollow

Voici un extrait des liens en nofollow de Nespresso :

liens en nofollow de Nespresso

Avec cette technique SEO, je peux voir si le nombre de liens en nofollow est important ou pas dans les pages. Attention Ă  Penguin ! Si vous en avez trop, les moteurs pourraient croire que votre site est une ferme de liens (ex : vous avez vendu beaucoup de liens, et que vous avez mis l’attribut nofollow dessus pour Ă©viter que le jus de liens de vos pages se perd).

Pour Nespresso, c’est l’ensemble du site (soit plus de 15000 – 20000 pages il me semble) qui ne contient que 2604 liens en nofollow, donc par rapport Ă  la taille du site, ça va.

Avez-vous une méthode aussi pour trouver les liens en nofollow sur un site ? Si oui, laquelle utilisez-vous ? Merci pour le partage !

Bon courage

VĂ©ronique Duong –

Bonjour tout le monde !

Comme nous sommes dĂ©jĂ  au mois de dĂ©cembre 2013 (…), il est temps de commencer Ă  faire ses prĂ©visions pour l’annĂ©e qui va suivre ! En effectuant ma veille informationnelle avec mon logiciel de veille automatique, je suis tombĂ©e sur une infographie qui va m’aider Ă  rĂ©sumer les prĂ©visions pour 2014. En gros, ce serait une annĂ©e doublement digitale, oĂč les gens seront encore plus connectĂ©s !

En ce qui concerne le SEO, on estime que 33% du trafic naturel provenant de Google irait à la premiÚre page web classée sur la premiÚre page !

Les campagnes SEA seraient Ă©galement en augmentation (au moins 25%) pour l’annĂ©e prochaine. Avec tous les dĂ©bats sur le (not provided), on peut trĂšs bien comprendre pourquoi le SEA va augmenter. Les entreprises sont de plus en plus prĂȘtes Ă  payer Google (et les autres) pour ĂȘtre visibles en premiĂšre page (une augmentation d’environ 72% pour le budget !)

Sinon, cĂŽtĂ© SMO, les emails contenant des boutons de partage sur les rĂ©seaux sociaux obtiendraient une augmentation de prĂšs de 158% pour leurs taux de clics (vous avez devinĂ© ce qu’il vous reste Ă  faire ;)) ! En 2013, il y aurait eu 52% des webmarketeurs qui ont trouvĂ© au moins un client sur Facebook.

Les réseaux sociaux vont continuer de croßtre pour ces 5 prochaines années, donc il faut bien se préparer dÚs maintenant !

Voici l’infographie rĂ©alisĂ©e par WebDAM :

Webmarketing 2014 : les prévisions - AUTOVEILLE

Peu Ă  peu, je tends Ă  me dĂ©signer comme une webmarketeuse spĂ©cialisĂ©e en SEO que « SEO » tout court. Et vous ?

Bon courage Ă  tous !

VĂ©ronique Duong –