archive

Archives de Tag: infographie SEO

Bonjour tout le monde !

Cela fait longtemps que je n’ai pas posté d’infographies sur ce blog ! Mais récemment, j’en ai découvert une qui me parait assez intéressante pour les grands débutants en référencement naturel. L’illustration est signée Orson.io

L’infographie est en français, et je n’ai pas besoin de vous la traduire 🙂

Mais voici les points importants à retenir et à optimiser systématiquement sur une page web pour le SEO :

  • Les heading titles, notamment le H1
  • Les images (attributs alt)
  • L’introduction de l’article / de la page (le chapô)
  • La structuration du contenu
  • Les liens internes et externes
  • Le Responsive Design
  • Les méta tags (au passage, dans l’infographie, il y a une faute. Maintenant, c’est 58 caractères le title, et non 70 ! Les CMS comme WordPress, Drupal, etc. devraient mettre à jour cette limite de caractères.)
  • Les boutons de partage sur les réseaux sociaux à mettre en place sur chaque page web
  • Les mots-clés et le champ lexical autour à bien analyser, poser et travailler

Voici l’infographie en question :

infographie-seo-on-page-autoveille

Si vous avez des questions sur le référencement naturel ou que vous débutez en SEO, n’hésitez pas à m’écrire à autoveille@gmail.com ! Je serais ravie de pouvoir répondre à vos problématiques, et de vous aider à travailler le SEO de votre site.

Bon courage à tous !

Véronique Duong – Directrice associée @Rankwell et Passionnée de SEO

 

Bonjour tout le monde !

En cette fin de mois, je vais vous proposer un article sur la construction de liens, et comment réussir son netlinking. En effectuant ma veille informationnelle avec mon logiciel de veille automatique, j’ai trouvé une infographie bien intéressante sur « Comment construire des liens ? ».

Dans cette illustration, on y trouve plusieurs astuces. Cependant, avant de passer aux conseils, nous allons rappeler l’importance des liens : Un lien est pratiquement considéré comme un « vote » de la part d’un autre site pour le nôtre, et plus on a de votes, plus on a toutes nos chances d’arriver vers les premiers dans les résultats de Google. Pour obtenir ces « votes », il existe plusieurs moyens pour y arriver.

Personnellement, mes méthodes préférées sont l’Inbound marketing et le Guest blogging. Je ne suis pas fan des méthodes d’échanges de liens en mode « link ninja ». Je crois surtout que si un site donne des informations de qualité, des données explicatives intéressantes, etc. cela va naturellement générer les liens.

Voici donc les astuces de link building possibles :

– Optimisation de communiqués de presse (méthode un peu ancienne et dépassée, mais pourquoi pas)

– Soumissions dans les annuaires (attention, choisissez les meilleurs annuaires connus)

– Sites d’agrégation d’articles (comme les Digg, Reddit, etc.)

– Sites ou logiciels de bookmarking social (Chipmark, Unalog, etc.)

– Optimisation de widgets

– Email marketing et newsletters

– Liens dans les forums de discussion

– Commentaires dans les blogs

Si vous souhaitez utiliser des méthodes de type link ninja pour faire vos liens, voici quelques conseils tirés de l’infographie pour rédiger vos mails template et vos demandes :

– Faites des e-mails courts et originaux

– Soyez honnête dans votre demande (dites clairement ce que vous voulez)

– Identifiez les pages là où vous souhaitez mettre un lien

– Surtout, expliquez pourquoi cet échange de liens sera bénéfique pour le futur site partenaire

Toutefois, il faut savoir que la construction de liens est une étape très longue à réaliser en SEO, mais il faut avoir la patience et la persévérance. De mon côté, comme je crois aux méthodes d’Inbound Marketing et de Guest Blogging, dès que j’ai du temps libre, je travaille sur mon blog pour espérer améliorer le référencement encore et toujours de mon site AUTOVEILLE.

Voici l’infographie en question, réalisée par HUA Marketing :

Comment réussir son Link Building ? - AUTOVEILLE

Je trouve qu’il manque toute la partie Content Marketing / Inbound Marketing qui peut aider à générer des backlinks de qualité naturellement. Certaines méthodes proposées sont un peu anciennes, mais si on les applique avec parcimonie sur des sites ou des annuaires fiables, cela pourrait être intéressant.

Qu’avez-vous pensé de cette infographie ? N’hésitez pas à donner votre avis et à partager les méthodes de link building que vous aimez utiliser.

Bon courage à tous !

Véronique Duong – autoveille@gmail.com

 

Bonjour tout le monde !

En faisant de la veille stratégique sur le blog de Neil Patel, j’ai à nouveau trouvé une superbe infographie de cet auteur ! L’illustration porte sur la méthode de crawl et d’indexation de Google 🙂 Je pense que cela pourrait intéresser tout référenceur. Rappelons tout d’abord que Google a une base de données deux fois plus grosse que celles de Yahoo! et Bing.

Et il faut aussi clairement mentionné une chose : lorsqu’on cherche sur Google, on ne cherche pas sur le « web », on ne cherche que dans l’index de Google, son corpus de pages web ! Google crawle et  indexe régulièrement les pages qu’il a déjà dans sa base et va à la découverte de nouvelles. Le moteur de recherche américain affiche les pages les plus « pertinentes » dans ses résultats par rapport à une requête tapée dans la barre de recherche.

Dans l’infographie, la notion de « web invisible » est également abordée. Le web invisible peut se définir comme étant une partie du web accessible directement avec les liens des pages mais non indexés par les moteurs de recherche. Les données dans le web profond (autre nom pour le web invisible) seraient plusieurs fois plus importantes que les données indexées par les robots.

Les spiders de Google visiteraient et parcouraient les pages web « comme » des humains. Ils visitent de page en page et  suivent de lien en lien. Ils essayent d’indexer toutes les pages possibles qui leurs sont proposées. Ce processus est celui du crawling ! Les crawls peuvent se faire de plusieurs par jour à tous les six mois ! C’est donc assez variable (plusieurs fois par jour pour les sites qui font souvent des mises à jour de leurs pages, et tous les six mois, pour des sites très statiques et petits).

Google aurait environ 1 000 000 serveurs pour crawler et afficher les pages web dans ses résultats. C’est gigantesque !

Neil Patel propose aussi dans son infographie 7 hypothèses qui feraient que Google (ou les autres moteurs de recherche) n’arrive pas à crawler un site :

  1. Un robots.txt mal configuré peut engendrer de vrais problèmes
  2. Un fichier .htaccess avec de mauvaises règles de redirections peut également en être la source
  3. Des méta tags mal écrits avec des balises mal fermées peuvent empêcher les spiders de bien indexer les pages web
  4. Les paramètres d’URLs qui sont mal configurés
  5. Un PageRank bas (est-ce toujours valable ? le PageRank ne serait plus mis à jour d’après John Mueller)
  6. Des problèmes de connectivité ou de DNS
  7. Un nom de domaine avec un historique spammy …

Ces quelques points ci-dessus sont effectivement à vérifier et à prendre en compte si jamais vous rencontrez des problèmes de crawl et d’indexation.

Voici l’infographie en question :

Comment Google crawle t-il et indexe t-il un site web ?  - AUTOVEILLE

Avez-vous d’autres points à rajouter ? Je pense qu’on aurait pu ajouter un point au niveau des astuces techniques sur les problèmes d’indexation : c’est de regarder si dans les pages, il n’y a pas une méta robots « noindex » ou « none » qui empêche le site de se faire indexer. Le sitemap XML peut également être intéressant à implémenter si on veut faire indexer ses pages web plus rapidement.

Bon courage à tous !

Véronique Duong – autoveille@gmail.com

Bonjour tout le monde !

En faisant une veille stratégique avec mon logiciel de veille automatique et ma recherche d’informations, j’ai trouvé à nouveau une superbe infographie signée Neil Patel sur 10 points-clés pour créer un site web de haute qualité ! Je ne sais pas comment il fait (surement avec une équipe derrière !), mais il arrive à créer de belles illustrations très régulièrement ! C’est admiratif.

Cette nouvelle infographie traite de 10 points essentiels pour optimiser ou créer un site de qualité qui permet de convertir des visiteurs en acheteurs, par exemple. Le premier point abordé concerne la pertinence et les contextes. Peu à peu, Google ne regarderait plus que les mots-clés, mais le sujet et le contexte. La longueur des articles est également important pour avoir un contenu riche et « référençable ». Les pages web qui sont souvent bien positionnées, ont plus de 900 mots ! Un bon article devrait faire entre 2000 et 2450 mots. Pour les lecteurs, un article de 1600 mots leurs paraît idéal (cela me semble très long). Ici, Neil Patel a également parlé d’astuces très intéressantes comme découper les pages avec des H1 et H2, créer un rendu en liste à puces avec des paragraphes courts (une idée par paragraphe), etc.

Les images et les vidéos sont de bons éléments pour attirer les visiteurs à lire vos pages web. Les pages qui font partie de pages les mieux positionnées, ont environ 7 images par page web. Il ne faut pas oublier la chose suivante : une image vaut 1000 mots ! :).

Alors une chose aussi très importante : la grammaire et l’orthographe ! Je travaille souvent sur des sites multilingues, et à la suite des audits réalisés par les différents traducteurs de mon entreprise, il y a souvent des erreurs linguistiques qui peuvent nuire à l’image d’une marque.

Ensuite, viennent les points sur la lisibilité, le format et l’expertise qui sont également des éléments à optimiser pour proposer un site de qualité à ses lecteurs. Mais les derniers points de cette infographie me semblent plus intéressant et je vais m’attarder un peu plus dessus : les réseaux sociaux, les liens externes et la qualité des commentaires laissés sur un site.

Je vois que de nombreux sites ne proposent pas des boutons de partage SMO de leurs contenus. C’est dommage car en les implémentant, ils pourraient être doublement plus visibles sur le web. Les internautes intéressés par vos articles pourront facilement repartager ces derniers avec leurs amis, contacts, etc., et cela va augmenter votre taux de visites et de trafic (et certainement vos liens externes !).

Faites aussi attention aux commentaires qu’on vous laisse. N’acceptez que des commentaires de qualité et refusez les spammy. Il faut vraiment penser à modérer les retours qu’on vous laisse.

10 points essentiels pour un site web de qualité - AUTOVEILLE Voyez-vous d’autres points à ajouter à cette infographie ? De mon côté, je trouve qu’il manque le côté technique. Un site de qualité passe aussi par un site bien construit avec un code HTML propre et allégé au maximum, le moins de codes JavaScript inutiles, etc. N’hésitez pas à participer en postant vos avis dans l’espace des commentaires ci-dessous.

Bon courage à tous !

Véronique Duong – autoveille@gmail.com

Bonjour tout le monde !

A travers ma veille stratégique du jour, mon logiciel de veille m’a rapatrié une autre illustration très intéressante : comment optimiser le référencement d’un site en Parallaxe (= un site constitué uniquement d’une seule page web à faire défiler en longueur).

Comme je trouve beaucoup d’informations et d’infographies sur les problèmes liés au SEO et au webdesign, j’ai décidé de partager celle-ci sur le Parallaxe avec vous également. Pour ceux qui ne savent pas ce qu’est le Parallaxe, voici deux exemples simples avec mon CV ou la chronologie d’évolution d’AUTOVEILLE.

L’idée est donc d’optimiser au mieux l’unique Title, l’unique Meta Description, l’unique H1 qu’on a sur cette page / ce site. Le positionnement d’une seule et même page web sur plusieurs mots-clés est très difficile (déjà qu’avec plusieurs, c’est dur, alors qu’avec une, je vous laisse imaginer !). Sinon, il faut bien évidemment mettre des mots-clés populaires à ces endroits, mais également mettre un minimum de contenu textuel au tout début de la page en Parallaxe.

Comme une image vaut mille mots, voici l’infographie que j’ai reconstituée (les visuels ont été réalisés par Keneth Von Rauch de AWWWARDS) :

Infographie SEO : Comment optimiser une page en Parallaxe ?

 

L’astuce principale pour optimiser une page en Parallaxe, c’est d’externaliser tous les contenus (images, vidéos, textes, etc.) dans des pages externes (fichiers HTML qu’on va appeler avec du JavaScript ou Jquery) ! Pas mal l’astuce je trouve !

Qu’en pensez-vous ? Avez-vous déjà testé cette technique ? A t-elle marché ?

Votre avis m’intéresse, et n’hésitez pas à commenter ou repartager l’article !

Bon courage à tous,

Véronique Duong

Bonjour à tous !

Ce matin, en effectuant ma veille stratégique d’informations avec mon logiciel de veille, je suis tombée sur une infographie SEO qui pourrait vous intéresser. C’est une sorte de checklist SEO avec tous les éléments à faire ou à revoir annuellement pour maintenir un bon référencement naturel d’un site web.

Les conseils donnés vont de la participation aux conférences SEO jusqu’à l’optimisation des contenus 🙂 J’ai surtout trouvé cette illustration pertinente car elle donne aussi des astuces de maintenance SEO (voir les parties Maintenance Tips de l’image).

Je ne vais pas détailler l’infographie dans cet article, mais on peut retenir qu’il faut :

  • veiller constamment sur les actions des concurrents
  • veiller sur la qualité des liens externes qui pointent vers le site
  • revoir les KPI (indicateurs de performance) tous les ans pour s’assurer qu’ils sont toujours valides
  • maintenir une publication régulière de contenus pertinents et de qualité
  • surveiller les retours et les commentaires des clients, des visiteurs
  • rediriger les lecteurs vers les meilleurs articles / pages (événements, etc.) du site
  • se demander tous les 6 mois : « si je devais remplacer une stratégie ou tactique SEO, laquelle devrait l’être ? et pourquoi ? »

Voici l’infographie SEO en question (réalisée par Sparkplug) :

Infographie SEO : les éléments à revoir et à réauditer tous les ans - AUTOVEILLE

(Cliquez sur l’infographie pour l’agrandir).

Je suis actuellement extrêmement occupée (avec des projets SEO Baidu, Google, etc.) et j’ai moins de temps à consacrer à mon blog. Mais j’essaie de publier 2 articles par semaine au minimum (rien que pour mes lecteurs !!) 🙂

Bon courage à tous !

We can do it !!

Véronique Duong

 

 

Bonjour tout le monde !

Déjà la deuxième semaine du mois de janvier 2014 ! Ce matin, en effectuant ma veille stratégique à l’aide de mon outil de veille automatique, je suis tombée sur une infographie définissant le spam en search. Je pense qu’il est très intéressant de la partager ici avec vous.

Beaucoup de points sont traités dans cette infographie, et c’est pourquoi elle est très grande :). D’après cette illustration, le spam regroupe l’ensemble des actions suivantes :

  • liens payants (attention à Penguin !!)
  • les articles de blogs payants
  • les pages satellites
  • le duplicate content (!)
  • le cloaking (= montrer une version suroptimisée du site différente aux moteurs par rapport à celle que les internautes voient)
  • le manque de diversité dans les SERP (il faut des contenus différents et originaux (!))
  • les fermes de contenu (attention à Panda !!)
  • les sites web affiliés. Ce genre de sites n’ont aucune valeur pour Google :

Selon Google, les sites Web affiliés, au sens strict du terme, ou ceux n’incluant que peu de contenu, n’apportent aucune valeur ajoutée aux internautes, tout spécialement s’ils adhèrent à un programme distribuant du contenu à plusieurs centaines d’affiliés.

  • les sites sur-optimisés destinés aux moteurs de recherche (et non aux internautes …)
  • les sites similaires reproduits en plusieurs fois
  • les sites avec trop de pubs (qui pourrait créer une mauvaise expérience-utilisateur)
  • les offres « arnaqueuses » et illégales (comme la vente de médicaments et dérivés)

Ce n’est qu’une partie de la liste des actions considérés comme du spam ! Voici l’infographie en question (réalisée par SEOBook) :

Qu'est ce que le Spam en Search ? - AUTOVEILLE

 

J’espère que cet article et cette infographie vous seront utiles !

Bon courage à tous,

Véronique Duong –

Bonne année à tous !!

Pour bien commencer l’année 2014, en effectuant ma veille stratégique avec mon logiciel de veille, j’ai trouvé une jolie infographie qui reprend les 11 mises à jours les plus importantes des algorithmes SEO de Google en 2013.

D’après l’infographie, il y a eu 4 grosses mises à jour de Panda, et 2 mises à jour de Penguin. En plus de ces deux algorithmes, les SEO ont pu accueillir l’arrivée de Colibri (Hummingbird), de l’expansion du Knowledge Graph (élement qui devient de plus en plus important), et des in-depth articles. J’ajouterai également l’implémentation des résultats de recherche privés qui rendent les SERP de plus en plus personnalisés.

Voici l’infographie, réalisée par e2m Solutions, qui illustre proprement ces changements :

infographie SEO : Changements d'algorithmes Google

 

Google s’est beaucoup attaqué aux réseaux de liens (achat / vente) et aux fermes de liens avec des MAJ assez puissantes de Penguin. Je pense qu’il faut vraiment faire attention à ce genre de techniques car une pénalité de la part du moteur de recherche peut tout « détruire ».

Matt Cutts recommande surtout aux webmasters de faire attention aux MAJ de Penguin :

« Nope, it’s not the title and meta descriptions. I’d recommend reading up about Penguin and looking into how to clean things up for Penguin ».

Il faut alors faire doublement attention aux backlinks qui pointent vers un site. Leurs qualités, leurs provenances sont réellement primordiaux pour Google.

Bon courage à tous ! GO 🙂

Véronique Duong –

Bonjour tout le monde !

En effectuant ma veille d’informations avec mon logiciel de veille, je suis tombée sur une infographie qui révèle les facteurs de classement qui sont pris en compte par les moteurs de recherche en termes de référencement naturel.

Cette illustration sépare les techniques SEO white hat et black hat. Elle montre également l’importance de chaque action SEO en termes de classement par rapport aux autres actions. Cette infographie est intéressante à garder quelque part sur votre bureau car elle permet de voir très rapidement, dans quelles actions de référencement, on devrait faire plus d’efforts et investir plus.

>>> Pour les techniques SEO white hat, voici le poids des actions selon leurs importances :

Importance haute

  • Les backlinks provenant de sites de qualité (.gov, .edu, etc.)
  • Les soumissions dans les annuaires de qualité
  • Les mots-clés dans les URL, les NDD, les balises title, les H1, H2, les ancres de texte
  • La fraîcheur des pages (plus c’est récent, mieux c’est)

Importance moyenne

  • Les mots-clés dans les méta descriptions
  • La proximité des mots-clés
  • Les mots-clés dans les attributs alt
  • Les soumissions dans les sites de communiqués de presse

Importance basse

  • La balise meta tag keyword (par contre pour Baidu, elle est encore effective !)
  • La densité de mots-clés dans le contenu textuel

>>> Pour les techniques SEO black hat, voici le poids des actions selon leurs importances :

Importance haute

  • L’utilisation abusée des H1
  • L’automatisation de la génération des contenus
  • L’achat de liens et du trafic (attention à ça, une pénalité coûte chère !)
  • Du texte présenté sous forme d’images (pour « tromper » les moteurs de recherche et les internautes …)

Importance moyenne

  • Le duplicate content
  • Les pages dynamiques

Importance basse

  • La fréquence de changement des contenus

Voici l’infographie réalisée par SEMAPHORE (cliquez sur l’image pour l’agrandir) :

 

 

Facteurs de classement SEO - AUTOVEILLE explications

 

Je pense que cette illustration donne de bons conseils dans l’ensemble. Il manque juste un peu le côté des micro data, mais l’essentiel des critères on-page y sont.

Et vous ? Qu’en pensez-vous ?

Bon courage à tous !

Véronique Duong –

Bonjour à tous et Joyeux Noël !!

J’imagine que la plupart d’entre vous est en train de préparer le réveillon de ce soir ! C’est la première fois que je suis au bureau un 24 décembre, mais ce n’est pas plus mal, on est avec les collègues et on passe un bon moment (et on travaille ^^) !

En effectuant ma veille informationnelle avec mon logiciel de veille stratégique, je suis tombée sur une infographie datant de l’année dernière (2012), mais qui me semble intéressante de partager ici. Même si je pense que les statistiques ont quelque peu changé, cela nous donne une bonne idée sur les ventes pendant la période des festivités de Noël.

A en croire l’infographie, les gens commencent à taper le mot-clé « Cadeau Noel » à partir de mi-août !! Oui, en plein été, donc commencez aussi à promouvoir vos collections spéciales Noël à ce moment là. Le pic de recherches pour « Cadeau Noel » se situe entre le 18 et le 24 décembre (je pense que tous les ans, c’est à peu près la même chose).

A noter aussi que les 2 premières semaines de Noël équivalent 9 semaines normales dans l’année (statistiques de 2011). De plus, durant la période de Noël, le taux de rebond est légèrement en baisse (-16%) et les visites et leurs durées sont plus nombreuses et longues.

Voici l’infographie qui illustre les propos ci-dessus (elle a été réalisée par Cadeau Maestro) :

Infographie - Webmarketing Noël - Statistiques

 

A partir de mi-août, commencez à penser à Noël. C’est une période extrêmement importante pour les ventes de vos produits. Vers fin janvier, les recherches commencent à revenir à la normale. Donc de septembre à janvier de l’année d’après, c’est votre période forte de ventes.

Bon courage à tous !!

Excellent réveillon 🙂

Véronique Duong –