archive

Traitement automatique des langues

Bonjour tout le monde !

Ce week-end, en effectuant ma veille stratĂ©gique sur les outils SEO avec mon logiciel de veille automatique, j’ai trouvĂ© un outil en ligne de MOZ trĂšs intĂ©ressant : le Open Site Explorer.

C’est un outil qui permet de voir en une seule vue l’autoritĂ© du domaine, le PageRank, les backlinks, les noms de domaines qui pointent vers notre site, les ancres de textes utilisĂ©s, etc.

La version, que je vais vous prĂ©senter, est la version gratuite. Avec la version non payante, on n’a qu’un nombre trĂšs limitĂ© de donnĂ©es.

Voici la page d’accueil, et c’est ici qu’il faut entrer l’URL ou le nom de domaine que vous voulez traiter :

Open Site Explorer de MOZ

 

Je vais utiliser mon propre petit site pour éviter tout problÚme de citations de marque, etc. : http://autoveille.free.fr

Open Site Explorer de MOZ et AUTOVEILLE

 

Cliquez sur « Search » pour lancer l’analyse des liens. On peut ensuite analyser les ancres de texte, la popularitĂ© de la page en hyperlien. L’outil vous indique Ă©galement si vous avez Ă  faire du dofollow ou nofollow ! C’est vraiment pas mal je trouve.

Analyse de backlinks - AUTOVEILLE

 

Dans les exemples ci-dessus, les liens sont issus des commentaires sur les blogs d’oĂč les liens en nofollow. L’ancre utilisĂ©e est mon nom et mon prĂ©nom (VĂ©ronique Duong) comme vous pouvez le voir. On peut aussi observer l’autoritĂ© de la page qui pointe vers le mien.

L’outil est assez complet, je vous ai juste prĂ©sentĂ© une des ses caractĂ©ristiques premiĂšres, et je vous laisse dĂ©couvrir la suite par vous-mĂȘme (Linking Domains, Top Pages, etc.)

Bon courage Ă  tous !

VĂ©ronique Duong –

 

Bonjour tout le monde !

Un petit article pour vous parler du site http://www.htaccesstools.com. En faisant ma veille technologique via mes logiciels de veille pour trouver des outils SEO, je suis tombée sur le site Htaccesstools qui traite des sujets et des problématiques liées au .htaccess !

La semaine derniĂšre, j’avais dĂ©jĂ  publiĂ© un petit article en proposant un mini tutoriel sur le .htaccess pour un public dĂ©butant / moyen qui s’intĂ©resserait au SEO technique. Je vous invite Ă  le lire pour avoir un premier aperçu de l’Ă©lĂ©ment.

Le site htaccesstools.com vient complĂ©ter mes connaissances en la matiĂšre, et je dĂ©couvre qu’il existe aussi la possibilitĂ© de mettre en place le fichier .htpasswd pour crĂ©er des mots de passe afin de protĂ©ger le site web. Ca Ă  l’air trĂšs pratique en tout cas !

Le site propose un outil pour en gĂ©nĂ©rer automatiquement (cliquez sur l’image pour y accĂ©der) :

Ce site propose également de générer des fichiers .htaccess pour des redirections par langue, par exemple :

J’adore ce site ! Je pense qu’il va me faciliter la vie pour certaines choses. Cependant, je vĂ©rifie tout de mĂȘme les codes gĂ©nĂ©rĂ©s car on ne sait jamais. En tout cas, ce site mĂ©riterait d’ĂȘtre plus connu je pense ! 🙂 

Sinon, mes classements bougent de temps en temps en ce moment, et je pense que c’est probablement liĂ© aux backlinks que je perds / gagne. Pour l’instant, ça Ă  l’air de se stabiliser.

RequĂȘte "logiciel de veille" AUTOVEILLE

 

Mais bon, comme je le disais hier, pensons aux internautes plutĂŽt. Les mots-clĂ©s devraient avoir un peu moins d’importance maintenant.

Bon courage Ă  tous !

VĂ©ronique Duong –

Bonjour tout le monde !

Me revoilĂ  avec un article sur le SEO et les astuces ! Je vais vous parler de l’attribut rel=canonical qu’on utilise dans la balise <link> pour indiquer Ă  Google que la page qu’il verrait actuellement n’est pas la version rĂ©fĂ©rente. Cet attribut permet de gĂ©rer correctement les pages dupliquĂ©es ou ayant un contenu trĂšs similaire. Il pourrait ĂȘtre utile pour les pages web des produits dĂ©clinĂ©s, les diffĂ©rentes versions linguistiques d’un site (français-France, français-Suisse, français-Canada, par exemple), etc.

En travaillant sur certains sites, je dĂ©couvre que cet attribut n’est pas mis en place pour beaucoup d’entre eux, et je trouve que cela est vraiment dommage de ne pas en « profiter » !

Google la prend bien en compte (voici la documentation de Google sur ce Canonical tag), et il faudrait l’utiliser pour votre site. Surtout si vous avez un site e-commerce avec beaucoup de produits dĂ©clinĂ©s, ce n’est pas nĂ©gligeable.

Voici un exemple de pages web dupliquées : les URL sont différentes mais les contenus sont identiques et sans canonical tag !

Duplicate content et Canonical tag manquant

 

L’attribut rel=canonical est en effet introuvable :

pas-de-canonical-tag

 

Le duplicate content est trÚs pénalisant pour un site web. Il ne faut donc pas prendre cette problématique à la légÚre. En tout cas, avec les moteurs de recherche, on évite au maximum de copier / coller les contenus, de les dupliquer, etc. AprÚs, avec certains CMS, on doit utiliser des plugins et des rÚgles pour éviter cela.

Il faudrait juste ajouter cette balise sur toutes les pages web déclinées de votre site :

Astuce SEO : canonical tag - AUTOVEILLE

 

J’espĂšre que les sites vont bientĂŽt implĂ©menter cette technique !

Bon courage !

VĂ©ronique Duong –

Bonsoir tout le monde !

Voici une information que je viens de lire il y a quelques instants en faisant ma veille automatique du SEO : Matt Cutts recommande de ne pas dupliquer les textes des mĂ©ta descriptions pour diffĂ©rentes pages web d’un mĂȘme site. Il faudrait qu’elles soient uniques.

Matt Cutts ajoute Ă©galement qu’il ne s’embĂȘte pas Ă  crĂ©er des descriptions pour son propre blog, et qu’il faudrait laisser Google choisir automatiquement l’affichage du snippet (ça me rappelle un peu le web sĂ©mantique avec l’algorithme Colibri) :

In short, it is better to let Google auto-create snippets for your pages versus having duplicate meta descriptions.

Pour débattre sur ce sujet, une vidéo a également été créée et postée sur YouTube :

Personnellement, je suis d’accord avec lui de ne pas rĂ©pĂ©ter la mĂȘme description pour toutes les pages web, mais peut ĂȘtre pas de laisser Google choisir les extraits pour former mes snippets automatiquement. En effet, je veux que mes descriptions sonnent comme des annonces marketing, qu’elles correspondent avec le contenu de la page web, et qu’elles ne soient pas tronquĂ©es par des … Ă  la fin.

Qu’en pensez-vous ?

Bon courage !

VĂ©ronique Duong –

Source de l’article en anglais : Search Engine Land

Bonjour tout le monde !

Ce week-end, j’ai trouvĂ© une petite infographie intĂ©ressante en faisant ma veille automatisĂ©e avec mon logiciel de veille automatique ! C’est une illustration sur les commandes vocales et opĂ©rateurs utiles de Google pour faire de la veille ou de la recherche d’informations de façon encore plus efficace.

Je l’ai dĂ©jĂ  postĂ©e sur Twitter, mais je la remets ici pour ceux qui l’auraient loupĂ©e ! Cette image a Ă©tĂ© rĂ©alisĂ©e par Trendblog.net :

Commandes de Google

Commandes de Google

Je trouve qu’il manque les opĂ©rateurs boolĂ©ens dans cette illustration qui est tout de mĂȘme dĂ©jĂ  trĂšs complĂšte ! Mais je pense que cela aurait Ă©tĂ© encore plus intĂ©ressant de mettre les opĂ©rateurs boolĂ©ens qui peuvent fonctionner avec les expressions rĂ©guliĂšres (Regex) pour trouver des rĂ©sultats encore plus nombreux.

CĂŽtĂ© SEO, ces commandes permettraient aussi aux utilisateurs d’obtenir des rĂ©ponses encore plus pertinentes Ă  leurs requĂȘtes (Colibri …) car ils « rĂ©pondraient » Ă  des questions prĂ©cises. Je pense qu’ils devraient jouer un rĂŽle dans le web sĂ©mantique car les rĂ©sultats qui seront affichĂ©s, vont ĂȘtre personnalisĂ©s selon chaque internaute.

Qu’en pensez-vous ? Faites-vous aussi un lien de ces commandes avec le web 3.0 ? ou du moins, un dĂ©but dans cette « Ăšre » ?

Bon courage Ă  tous !

VĂ©ronique Duong –

Bonjour tout le monde !

Aujourd’hui, je vais aborder un sujet plutĂŽt technique dans le domaine du SEO : le fichier .htaccess. Mais je vais aller droit Ă  l’essentiel, en parlant essentiellement de deux actions principales du SEO technique : la gestion des redirections 301 et des pages erreurs 404.

En rĂ©alitĂ©, ces deux actions ne sont pas trĂšs compliquĂ©es Ă  mettre en place (lorsqu’on sait programmer surtout). GrĂące Ă  mes connaissances en Perl et en Regex (avec le dĂ©veloppement de mon logiciel de veille et des autres outils, je pense que ce n’est plus un secret pour tout le monde .. ), cela m’a parlĂ© quasi-immĂ©diatement.

1) Comment faire une redirection 301 permanente sans réécriture d’URL ?

Il nous faut :

  • La commande / la fonction pour faire une redirection 301 (ici en bleu : Redirect 301)
  • L’URI de l’ancienne page ou de l’ancien rĂ©pertoire (ici en orange : /2012/ancienne-page.html)
  • La nouvelle URL sur laquelle on fait la redirection (ici en vert : http://autoveille.free.fr/ nouvelle-page.html)

Redirection permanente 301 - Exemple - AUTOVEILLE

2) Comment faire une redirection 301 permanente avec réécriture d’URL ?

Il nous faut :

  • La commande / la fonction pour faire une redirection 301 avec réécriture (ici en bleu : RedirectMatch 301)
  • L’URI de l’ancienne page ou de l’ancien rĂ©pertoire (ici en orange : /2012/(.*)\.html$)
  • La nouvelle URL réécrite sur laquelle on va faire les redirections permanentes (ici en vert : http://autoveille.free.fr/ $1)

LĂ , dans mon exemple ci-dessous, je demande au systĂšme de reconnaĂźtre toutes les URI contenant « /2012/ » suivi de n’importe quel caractĂšre (le point « . ») zĂ©ro ou plusieurs fois (l’astĂ©rique  « * ») et qui se termine par .html (le dollar « $ » marque la fin de ligne).

DĂšs que le systĂšme a fait cette correspondance, il va attraper, grĂące aux parenthĂšses capturantes, ce que j’ai encadrĂ© en rouge (le point et l’astĂ©rique) dans la partie orange et placer ces Ă©lĂ©ments Ă  la fin de la nouvelle URL réécrite (le $1 reprend les Ă©lĂ©ments des parenthĂšses capturantes) dans la partie verte.

Redirection 301 avec réécriture URL - Exemple - AUTOVEILLE

VoilĂ , c’est Ă  peu prĂšs tout. J’espĂšre que j’ai Ă©tĂ© assez claire (sinon, vous pouvez me poser des questions dans les commentaires ou par mail).

3) Comment personnaliser la page 404 ?

Par défaut, si un internaute tombe sur une page 404, il verra une page comme celle-ci :

page erreur 404 - par défaut - AUTOVEILLE

Pas trÚs attirante, ni parlante non ? On peut alors personnaliser la page, et faire rediriger les erreurs sur cette derniÚre. Voici une page 404 personnalisée aux couleurs vitaminées !

Page erreur 404 personnalisée

Le code Ă  mettre dans le fichier .htaccess :

Page erreur 404 personnalisée - AUTOVEILLE

J’ai tentĂ© d’expliquer le .htaccess de façon concise et prĂ©cise. Mais il y a bien Ă©videmment beaucoup autres choses qu’on peut faire avec ce fichier. Attention cependant, Google n’aime pas tellement les redirections, et Baidu encore moins ! A mettre en place avec modĂ©ration.

Bon courage à tous 🙂

VĂ©ronique Duong –

Hello tout le monde !

Voici une petite information SEO pour bien commencer Ă  la journĂ©e ! En faisant ma veille quotidienne des classements de mes pages HTML dans les rĂ©sultats de recherche, je viens de voir qu’il est possible de vĂ©rifier le nombre d’articles ou de pages web qui ont Ă©tĂ© crawlĂ©es et indexĂ©es par Google tout en prenant compte de l’Authorship.

Pour regarder cela, je n’Ă©tais pas connectĂ©e Ă  mon compte Google, j’ai entrĂ© la requĂȘte « AUTOVEILLE »Â et j’ai juste cliquĂ© sur mon nom « Speedwell Duong » dans l’un des snippets, et cette page est apparue :

Speedwell Duong - Véronique Duong - Authorship

 

Avec cette technique, on peut voir les pages qui ont Ă©tĂ© liĂ©es Ă  notre profil. Il y a Ă©galement les publications les plus rĂ©centes postĂ©es dans Google+ (et qui sont dĂ©jĂ  indexĂ©es par Google) qui apparaissent aussi dans la partie « snippet / profil de l’auteur » :

Snippet Profil Google+ Authorship Speedwell Duong

 

Si je change de mots-clĂ©s dans les requĂȘtes, d’autres informations apparaissent Ă  la place des « Posts rĂ©cents » :

Google Authorship : lier les articles au profil Google+

 

Dans l’exemple ci-dessus, il y a l’un de mes articles rĂ©cents « Ne pas se laisser faire par Google » qui apparaĂźt dans le snippet de mon profil. Ces Ă©lĂ©ments apparaissent en fonction des requĂȘtes, et cela tend vers un web de plus en plus sĂ©mantique.

Qu’en pensez-vous de tout cela ? Personnellement, j’aime beaucoup. Je trouve que ce service de Google permet aux internautes de mieux connaĂźtre les auteurs des publications, et de se faire une idĂ©e plus prĂ©cise de leurs backgrounds.

Bon courage Ă  tous ! (et discutons sur Twitter pour ceux qui le veulent : @veroduong)

VĂ©ronique Duong –

Hello tout le monde !

Je vous propose un nouvel article sur une petite technique de rĂ©fĂ©rencement sur le nom de la marque et les noms de produits que j’appelle le « SEO Branding« .

Je travaille beaucoup les mots-clĂ©s gĂ©nĂ©riques, et un peu moins les mots-clĂ©s contenant le nom de la marque. Cependant, il est en effet essentiel de travailler ces mots aussi (personnellement, je ne travaillais pas Ă  fond sur le rĂ©fĂ©rencement de marques car je me disais (et je me dis toujours) que si on ne connait pas ces marques, les sites auraient beaucoup de mal Ă  ĂȘtre visibles …).

SEO Branding et Google - AUTOVEILLE

De ce fait, il ne faut pas nĂ©gliger la mise en valeur de la marque et de vos produits (leurs noms) lors de l’implĂ©mentation des actions SEO (Ă©tudes de mots-clĂ©s, localisation des mots, etc.). Quand je parle de SEO branding, je pense surtout aux sites e-commerce qui peuvent classĂ©s avant votre site … alors que vous ĂȘtes la version authentique et fiable !

C’est pour cela que vous devez absolument tenter d’ĂȘtre 1er sur votre marque pour :

  • 1) Votre rĂ©fĂ©rencement
  • 2) Votre E-rĂ©putation

Je vous donne quelques petites astuces pour rĂ©fĂ©rencer votre site sur votre marque et vos noms de produits. Je prends l’exemple de Sasa (Ă©quivalent de Sephora Ă  Hong Kong) :

1) Utilisez Google Keyword Planner pour trouver les mots-clés les plus pertinents liés à votre marque et à vos produits (noms, déclinaisons, etc.)

SEO Branding - Keyword Planner - AUTOVEILLE

2) Mettez les mots-clés sélectionnés au début des balises title des pages web concernées

Sasa Brand - SEO Branding - AUTOVEILLE

 

3) Patientez (les crawls des moteurs de recherches peuvent ĂȘtre plus ou moins longs … )

4) Faites une veille réguliÚre de vos résultats de recherche pour voir si votre marque est toujours bien visible dans les SERP :

Le page d’accueil de Sasa

Sasa site web - AUTOVEILLE

 

 

Le site de Sasa, dans les résultats de recherche, positionné en 1er sur sa marque :

Sasa résultats de recherche SEO brand

 

Bon courage Ă  tous !

VĂ©ronique Duong –

PS : je ne travaille pas pour Sasa ! C’est un exemple que j’ai pris au hasard 😉

 

Bonjour tout le monde !

Je souhaite tout d’abord remercier JĂ©rĂŽme Sepeau pour avoir parlĂ© et mentionné AUTOVEILLE Monitoring et mes services de veille stratĂ©gique avec mon logiciel de veille lors de l’atelier La Veille et la Prospection en BtoB pour les PME d’Aquitaine au PĂŽle NumĂ©rique CCI de Bordeaux.

Pour cet atelier, j’avais rĂ©alisĂ© une prĂ©sentation en trois slides pour expliquer en quelques mots ce que AUTOVEILLE Monitoring propose comme fonctionnalitĂ©s et services.

Je vous invite Ă  retrouver ci-joint l’article rĂ©digĂ© par JĂ©rĂŽme Sepeau pour cet atelier : Veille et la Prospection en BtoB: PĂŽle NumĂ©rique CCI de Bordeaux

CCI de Bordeaux - Atelier sur la veille et la prospection

D’autres outils ont Ă©galement Ă©tĂ© prĂ©sentĂ©s pendant cette confĂ©rence.

Je vous mets les slides réalisées pour cette occasion :

1) Les différents outils proposés

AUTOVEILLE : Veille et prospection B2B | ATELIER

2) Description d’AUTOVEILLE Monitoring

AUTOVEILLE : Veille et prospection BtoB

3) Quelques exemples réalisés dans le passé

autoveille-presentation-veille-prospection-3

La prĂ©sentation est simple et trĂšs visuelle pour permettre aux interlocuteurs de capter l’information essentielle tout de suite : « AUTOVEILLE Monitoring est un service de veille stratĂ©gique fourni par VĂ©ronique Duong, et qui fonctionne sur les technologies du traitement automatique des langues et le langage informatique Perl ».

Si vous ĂȘtes intĂ©ressĂ©s par les outils d’AUTOVEILLE pour automatiser veille, rĂ©fĂ©rencement naturel, crawling, etc. N’hĂ©sitez pas Ă  m’Ă©crire via ma page Contact.

Actuellement, je suis en train de rĂ©flĂ©chir Ă  l’intĂ©gration d’un autre processus automatique (rĂ©alisĂ© avec le langage XML) dans ma chaĂźne de traitements de veille, mais cela pourrait ĂȘtre un peu de temps. DĂšs que le tout est prĂȘt, je rĂ©digerais un article pour l’annoncer !

Bon courage Ă  tous ! We can do it !

VĂ©ronique Duong –

Bonjour tout le monde !

Dans ce nouvel article, je ne pense pas vous apprendre quelque chose de trÚs nouveau, mais ce serait plutÎt un ensemble de piqûres de rappel sur le robots.txt. Il doit se trouver à la racine du site.

Ce fichier .txt est un « outil SEO »  trĂšs utile qui vous permet d’indiquer aux crawlers des moteurs de recherche d’indexer ou d’exclure certaines pages, certains rĂ©pertoires de votre site. Il peut Ă©galement servir Ă  dĂ©sindexer un site en entier … si vous ne souhaitez pas que les internautes vous trouvent (… ça me fait penser au nettoyage de la e-rĂ©putation, oui, cela pourrait aussi ĂȘtre utile dans ce cadre, mais c’est un autre sujet :)).

Vu qu’il peut dĂ©sindexer un site complet, le robots.txt doit donc ĂȘtre manipulĂ© avec prĂ©cautions. De plus, il ne faut pas mettre de lignes vides entre chaque ligne de restriction.

Il est essentiellement composé de trois éléments :

  • User-agent (Crawlers)
  • Allow (Permettre)
  • Disallow (Interdire)

Les deux Ă©lĂ©ments qu’on utilise surtout sont :

  • User-agent (Crawlers)
  • Disallow (Interdire)

Le robots.txt permet surtout de dire ce qu’on ne veut pas que les crawlers indexent, d’oĂč l’utilisation plus frĂ©quente du Disallow que du Allow. Voici quelques exemples (je mets des numĂ©ros, mais il n’y en a pas Ă©videmment) :

1) Cas de figure 1

  1. User-Agent: *
  2. Disallow: /

Ces deux lignes veulent dire qu’on demande Ă  tous les crawlers de ne pas indexer le site !

2) Cas de figure 2

  1. User-Agent: *
  2. Disallow: /pdf

Ces deux lignes veulent dire qu’on demande Ă  tous les crawlers de ne pas indexer le dossier ou le rĂ©pertoire pdf !

3) Cas de figure 3

  1. User-Agent: Googlebot
  2. Disallow: /admin/login.html
  3. User-Agent: Baiduspider
  4. Disallow: /repertoire-1

Ces 4 lignes indiquent les choses suivantes : on dit Ă  Googlebot (crawler de Google) de ne pas indexer la page web /admin/login.html, et parallĂšlement, on dit Ă  Baiduspider (crawler de Baidu) de ne pas indexer le dossier /repertoire-1.

Voici une petite infographie en guise de mémento (créée par http://www.elliance.com en 2008) :

Infographie simple du robots.txt | AUTOVEILLE

Bonne restriction !

VĂ©ronique Duong –