archive

Archives de Tag: veille SEO

Bonjour tout le monde !

Après avoir effectué ma veille stratégique d’informations avec mon logiciel de veille automatique, mon outil de collecte de données m’a ramené une infographie plutôt intéressante qui indique 4 raisons prouvant qu’avoir qu’un seul site web ne suffit pas pour réussir dans le domaine de marketing digital.

Voici les 4 raisons sans plus tarder :

  1. Obtenir plus de visiteurs grâce aux SEO, SEA, SMO, et au web marketing en général comme les newsletters, les e-mailings, etc.
  2. Mettre en place une stratégie de conversion avancée avec grâce aux médias en ligne (la TV, le print, etc., les médias traditionnels apportent moins de conversions)
  3. Penser à la rentabilité des moyens investis dans le digital marketing : les outils en ligne peuvent être souvent gratuits (on peut toujours se débrouiller) par rapport aux moyens des médias traditionnels (TV, print, etc.)
  4. Mesurer facilement le ROI des médias digitaux (SEO, SEA, etc.) mis en place avec les outils Analytics contrairement aux médias traditionnels (télévision, catalogue papier, etc.)

Voici l’infographie en question, réalisée par SushiDigital :

4 raisons qui montre qu'un site web n'est pas suffisant pour réussir en marketing digital - AUTOVEILLECet article s’adresse aux sociétés qui estiment encore que le web marketing et/ou le mobile marketing sont secondaires. Vous pouvez lire à quel point vous pouvez augmenter vos visites, vos ventes, rentabiliser vos stratégies marketing grâce aux médias digitaux (vs. aux médias traditionnels).

Si vous avez des questions, n’hésitez pas à me contacter pour avoir de l’aide dans votre stratégie de marketing digital !

Bon courage à tous,

Véronique Duong – autoveille@gmail.com

Bonjour tout le monde !

En effectuant ma veille d’informations stratégique avec mon outil de veille automatisée, j’ai trouvé une infographie très intéressante qui explique que certaines tâches ou actions, considérées comme une phase ou une étape du « SEO », n’ont rien à voir avec les moteurs de recherche ou le référencement naturel.

Le mot « SEO » est utilisé un peu pour décrire tout et n’importe quoi en webmarketing maintenant. Entre les confusions de SEA, SEM, SEO, certaines personnes ne savent pas de quoi elles parlent … Le SEA (Search Engine Adversiting), c’est le référencement payant avec les liens sponsorisés. Le SEO (Search Engine Optimization), c’est le référencement naturel et le SEM (Search Engine Marketing) englobe les deux, mais certains l’utilisent pour désigner le SEA …

Mais maintenant, on parle surtout de « OC / DC » ! Vous allez me dire qu’est ce que c’est ce que ça encore … En gros, c’est l’optimisation de contenu (OC) pour découvrir des conversions (DC).

Voici les informations principales extraites de l’infographie réalisée par copyblogger :

Optimisations on-site

  • Avoir un site web avec un temps de chargement rapide (en 3 secondes maximum) et qui soit Responsive Design
  • Créer du contenu utile, informatif pour les internautes
  • Optimiser et tester les call-to-actions afin d’avoir plus de leads et de conversions

Optimisations off-site

  • Être stratégique dans sa définition de l’audience à cibler
  • Utiliser des mots-clés qui tournent autour du contexte du site ( penser au Knowledge Graph, au web sémantique)
  • Employer le marketing sur les réseaux sociaux (vive le SMO !)
  • Augmenter la visibilité de son site et de ses contenus en les promouvant sur les autres sites (netlinking … encore et toujours !)

Pensez OC/DC dès maintenant 🙂

Pourquoi le SEO est mort ? Explications - AUTOVEILLE

Qu’avez-vous pensé de cette infographie ? Moi, je viens d’apprendre un nouveau concept, le OC/DC ! Je vais ajouter ça sur mon CV, tiens ^^ Trêve de plaisanterie, n’hésitez pas à commenter et à m’écrire si vous avez des questions sur le web marketing en général (Asie ou Europe) : autoveille@gmail.com

Véronique Duong –

Bonjour tout le monde !

Dans l’article d’aujourd’hui, j’ai quelques astuces SEO à partager avec ceux qui ont des sites ou des blogs qui fonctionnent sous WordPress. Ce CMS est très pratique pour créer un blog rapidement et gratuitement mais il possède également pas mal de défauts (notamment le problème de Duplicate Content massif à cause de la génération automatique de pages via les tags et les catégories). Grâce à mon outil de veille automatique, je suis tombée sur une infographie qui donne des conseils pour penser systématiquement au référencement naturel d’un site qui marche sur WordPress.

L’illustration donne des informations en trois parties : mots-clés, SEO on-site, SEO off-site

Voici les astuces pour la partie sur les mots-clés :

  • Choisir des mots-clés à trafic qui sont pertinents et en rapport avec les sujets abordés sur le site ou le blog (on ne prend pas des mots-clés populaires juste pour faire du SEO …)

Voici les astuces SEO on-site pour WordPress :

  • Inclure un mot-clé dans l’URL
  • Inclure des mots-clés dans le titre de l’article (qui sera repris en title)
  • Inclure des mots-clés dans le corps de l’article avec une densité de mots clé tournant autour de 2%
  • Nommer les images et/ou les vidéos avec des mots-clés
  • Remplir les attributs alt avec des mots-clés lors du téléchargement des images dans le CMS
  • Utiliser le plugin Yoast (seulement pour WordPress.org) pour remplir les méta descriptions avec des mots-clés

Voici les astuces SEO off-site pour WordPress :

  • Faire des liens internes entre les anciens et les nouveaux articles
  • Installer les boutons de partage pour que les utilisateurs puissent partager les éléments sur les réseaux sociaux
  • Partager les articles sur Google+ avec une description unique incluant un ou deux mots-clés
  • Partager les articles sur Pinterest avec une description unique incluant un ou deux mots-clés

Je trouve que sur la partie SEO off-site, cela est un peu incomplet, j’ajoute alors les astuces suivantes pour vous, mes chers lecteurs :

  • Connecter les profils Twitter, Facebook, Linkedin, etc. à la plateforme de publication. Ainsi, dès la publication de l’article, il sera automatiquement partagé sur ces réseaux sociaux
  • Installer aussi la Search Console de Google, les Webmaster Tools de Pinterest, etc. pour suivre la performance du site dans les outils

Voici l’illustration en question, réalisée par TheWorkAtHomeWife :

Astuces SEO pour les sites sous WordPress - AUTOVEILLE

Cet article est dédié aux grands débutants en SEO et qui commencent à travailler sur WordPress. Si vous avez des commentaires et / ou des questions sur le SEO, des choses que vous souhaitez approfondir par rapport à vos connaissances, n’hésitez pas à m’écrire à autoveille@gmail.com

Bon courage à tous,

Véronique Duong – autoveille@gmail.com

Bonjour tout le monde !

En effectuant ma veille informationnelle avec mon logiciel de veille stratégique, je suis tombée au hasard sur une infographie assez intéressante sur les différences entre le référencement naturel (SEO) et le référencement payant (PPC).

Cet article s’adresse aux débutants dans le Search. Mais pour ceux qui veulent avoir une illustration à partager avec leurs équipes commerciales ou webmarketing pour pouvoir expliquer aux clients les différences, elle est également faite pour vous !

Je ne vais pas reprendre tout ce qui est écrit dans l’illustration, mais donner mon avis sur le SEO + le SEA : si vous venez de commencer avec un nouveau site, une nouvelle marque, je vous conseille de mettre en place un peu de SEM pendant les 6 premiers mois afin de vous rendre visible tout de suite, et en parallèle, travaillez votre SEO pendant ce temps. Après les 6 premiers mois, lorsque le SEO aura fait ses premiers effets positifs en termes de classement, vous pouvez réduire le SEM au fur et à mesure. Le SEO vous permet d’être positionné à long terme dans les résultats de recherche avec une bonne maintenance du site.

Les résultats du SEA sont instantanés, plus vous payez cher pour un mot clé, plus vous allez être positionné premier. En SEO, c’est avec du travail et avec des techniques « malignes » (pas spammy non plus !) que vous allez pouvoir faire indexer correctement votre site, et le classer haut dans les résultats de recherche naturels.

différences entre SEO et SEA / PPC - AUTOVEILLE

Cette infographie n’a pas été signée, et si vous savez qui est l’auteur, merci de m’en faire part ! Si vous avez des questions sur le Search, le SEO et le SEA, n’hésitez pas à m’écrire pour en discuter. Je serais ravie de vous lire et de vous aider !

Bon courage à tous !

Véronique Duong – autoveille@gmail.com

Bonjour tout le monde,

Après avoir effectué une veille informationnelle avec mon logiciel de veille stratégique, je suis tombée sur une infographie intéressante donnant des astuces et des conseils pour protéger un site du Negative SEO. Pour rappel, le Negative SEO est un ensemble de techniques de « hack » employées pour attaquer le SEO (et l’e-réputation, en même temps) des concurrents qui sont bien classés dans les résultats de recherche de Google.

Voici les astuces et les conseils données par l’infographie :

1. Revoyez et surveillez vos liens externes / backlinks afin de voir que vous n’avez pas de liens qui ressemblent à du spam, des liens provenant de sites de mauvaise qualité, etc. Les outils de la Search Console (anciennement « Webmaster Tools ») peuvent vous donner beaucoup d’informations intéressantes.

2. Commencez à déployer une stratégie de nettoyage de liens :

  • contactez les webmasters de sites afin de faire enlever les liens qu’ils font vers leurs mauvais sites
  • utilisez l’outil de Google pour désavouer les liens de qualité médiocre

3. Faites une veille stratégique de liens avec un outil de veille comme Google Alerts pour voir quelles nouvelles mentions vous avez eues sur la toile !

4. Surveillez également vos bons liens :

  • vérifiez si les liens de qualité que vous avez sont toujours actifs (et non devenus des pages 404)
  • vérifiez aussi que les liens de qualité ne sont pas passés de Dofollow à Nofollow

L’illustration en question a été réalisée par Link Search Tools :

Protéger son site du Negative SEO - AUTOVEILLE

Qu’avez-vous pensé de ces astuces ? Avez-vous déjà fait fasse à un cas de Negative SEO ? Si oui, comment en êtes-vous sorti ? Combien de temps a t-il duré pour la phase de nettoyage et de « guérison » ?

N’hésitez surtout pas à partager vos expériences avec moi et mes lecteurs, nous serons ravis de vous lire !

Bon courage à tous (et bonnes vacances pour ceux qui partent ou qui lisent AUTOVEILLE sur la plage 😉 )

Véronique Duong – autoveille@gmail.com

Bonjour tout le monde !

En effectuant ma veille informationnelle, mon logiciel de veille automatique m’a rapatriée une nouvelle infographie de Neil Patel ! Elle donne des astuces pour fidéliser une audience sur un site. Je suis complétement addict au blog de Neil Patel ! Je le suis, j’ai créé des flux RSS dessus, etc. Il est vraiment super intéressant, et vous pouvez en apprendre tellement dessus.

Pour faire revenir des visiteurs sur un site, la première chose, c’est de se concentrer sur la qualité des contenus. Surveiller les statistiques qui ont réellement un intérêt sur l’audience comme les visites, les nouveaux visiteurs et les taux de rebond. On note aussi qu’un bon CTR ne veut pas toujours signifier que l’engagement des visiteurs est aussi bien. En effet, des articles trop génériques génèrent des visites mais peu d’engagement. Il faut quelque chose de plus spécifique. En effet, il se peut que les visiteurs viennent une fois acheter un produit ou un service, puis ne reviennent plus par la suite par manque de mises à jour ou d’innovation.

Dans ce cas, ils risquent de ne pas être correctement fidélisés. Il faut alors leurs proposer de nouveaux produits, des mises à jour des service, de nouvelles éditions, des contenus de qualité pour donner envie aux gens de revenir sur le site.

De plus, l’emailing ou la newsletter est toujours très efficace pour fidéliser une clientèle et pour construire une vraie audience loyale. Envoyez des emailings à vos anciens clients et donnez leur envie de revenir (et de faire des conversions à nouveau !) sur votre site. Souvenez-vous : il vaut mieux avoir 100 visiteurs de qualité que 1000 qui ne le sont pas.

Le partenariat permet aussi de se créer une audience plus riche et intéressante. Cherchez des partenaires qui travaillent sur la même thématique que vous et faites des échanges de « services » (interviews, articles invités, etc.). Ces techniques vont permettre de booster les audiences de l’un et l’autre, et certainement créer plus de trafic pour chacun des partenaires.

Mis à part un contenu de qualité, il faut aussi penser au design du site ! Plus un site est beau et original, plus il donnera envie aux internautes de retourner sur le site ou tout simplement de le partager avec des contacts rien que pour l’aspect esthétique du site. Cette méthode vous permettra aussi d’avoir plus de visiteurs, et peut être des visiteurs de qualité qui pourront convertir ! 🙂

N’hésitez pas à tester aussi les méthodes citées mais également à innover. Grâce à l’innovation, vous allez pouvoir attirer des visiteurs en permanence. En mettant aussi à jour vos pages web, les internautes reviendront aussi très naturellement sur votre site.

Comment fidéliser son audience sur le web ? - AUTOVEILLE

Cette infographie est un bon résumé des procédés pour fidéliser une audience loyale. Qu’en avez-vous pensé ? L’avez-vous trouvée utile ? Je suis intéressée d’avoir vos avis sur les infographies de Neil Patel. J’en publie régulièrement sur mon blog, et les trouver vous intéressantes ? Personnellement, je les trouve très bien (sinon je ne les publierai pas haha) et très éducatives.

Pour information, je ne fais pas de « sponsor » pour Neil Patel. Je reprends ces infographies car elles le méritent.

Bon courage à tous !

Véronique Duong – autoveille@gmail.com

Bonjour tout le monde !

A environ 2 semaines de la fin d’année, il n’est pas encore trop tard pour connaître les tendances Web Design pour l’année prochaine (2015) !

En effectuant ma collecte automatique d’infographies avec mon logiciel de veille, je suis tombée sur une illustration qui présente 6 prédictions pour 2015 dans le domaine :

  1. Le Responsive Design (qui deviendra un indispensable en 2015 et pour les années à venir)
  2. La Typographie (une jolie police, les effets « flat » (du tout plat, sans ombre ou relief), etc. seront aussi des must-have !)
  3. Les Images (qui devront être plus grandes et nettes car elles pourraient inciter les internautes à rester plus longtemps sur le site et à réduire le taux de rebond ! Ceci dit, il faut aussi faire attention pour le SEO : trop de grandes images peuvent ralentir le temps de chargement du site. Il faut également penser à optimiser les contenus textuels autour et leurs attributs alt).
  4. Les Blogs (qui sont plus attractifs qu’un site totalement « corporate » pour vendre)
  5. Le Flat design (la tendance du « flat » va être très à la mode l’année prochaine ! Par exemple, le nouveau logo de Google est en « flat » design)
  6. Le Storytelling interactif (la plupart des internautes lisent en diagonal. Il faut leurs proposer des contenus multimédias riches pour inciter leurs engagements et à acheter).

L’infographie en question a été réalisée par l’agence TisIndia :

Top 6 de tendances en web design en 2015 - AUTOVEILLE

Voyez-vous d’autres points à ajouter ? De mon côté, je trouve dommage que l’illustration n’est pas abordée les sujets de « long scrolling » page ou de l’effet parallax. Mais peut être que ces deux points seront moins à la mode en 2015 ? Qu’en pensez-vous ?

Vos commentaires sont les bienvenus ! 🙂

Bon courage à tous !

Véronique Duong – autoveille@gmail.com

Bonjour tout le monde !

En faisant de la veille stratégique sur le blog de Neil Patel, j’ai à nouveau trouvé une superbe infographie de cet auteur ! L’illustration porte sur la méthode de crawl et d’indexation de Google 🙂 Je pense que cela pourrait intéresser tout référenceur. Rappelons tout d’abord que Google a une base de données deux fois plus grosse que celles de Yahoo! et Bing.

Et il faut aussi clairement mentionné une chose : lorsqu’on cherche sur Google, on ne cherche pas sur le « web », on ne cherche que dans l’index de Google, son corpus de pages web ! Google crawle et  indexe régulièrement les pages qu’il a déjà dans sa base et va à la découverte de nouvelles. Le moteur de recherche américain affiche les pages les plus « pertinentes » dans ses résultats par rapport à une requête tapée dans la barre de recherche.

Dans l’infographie, la notion de « web invisible » est également abordée. Le web invisible peut se définir comme étant une partie du web accessible directement avec les liens des pages mais non indexés par les moteurs de recherche. Les données dans le web profond (autre nom pour le web invisible) seraient plusieurs fois plus importantes que les données indexées par les robots.

Les spiders de Google visiteraient et parcouraient les pages web « comme » des humains. Ils visitent de page en page et  suivent de lien en lien. Ils essayent d’indexer toutes les pages possibles qui leurs sont proposées. Ce processus est celui du crawling ! Les crawls peuvent se faire de plusieurs par jour à tous les six mois ! C’est donc assez variable (plusieurs fois par jour pour les sites qui font souvent des mises à jour de leurs pages, et tous les six mois, pour des sites très statiques et petits).

Google aurait environ 1 000 000 serveurs pour crawler et afficher les pages web dans ses résultats. C’est gigantesque !

Neil Patel propose aussi dans son infographie 7 hypothèses qui feraient que Google (ou les autres moteurs de recherche) n’arrive pas à crawler un site :

  1. Un robots.txt mal configuré peut engendrer de vrais problèmes
  2. Un fichier .htaccess avec de mauvaises règles de redirections peut également en être la source
  3. Des méta tags mal écrits avec des balises mal fermées peuvent empêcher les spiders de bien indexer les pages web
  4. Les paramètres d’URLs qui sont mal configurés
  5. Un PageRank bas (est-ce toujours valable ? le PageRank ne serait plus mis à jour d’après John Mueller)
  6. Des problèmes de connectivité ou de DNS
  7. Un nom de domaine avec un historique spammy …

Ces quelques points ci-dessus sont effectivement à vérifier et à prendre en compte si jamais vous rencontrez des problèmes de crawl et d’indexation.

Voici l’infographie en question :

Comment Google crawle t-il et indexe t-il un site web ?  - AUTOVEILLE

Avez-vous d’autres points à rajouter ? Je pense qu’on aurait pu ajouter un point au niveau des astuces techniques sur les problèmes d’indexation : c’est de regarder si dans les pages, il n’y a pas une méta robots « noindex » ou « none » qui empêche le site de se faire indexer. Le sitemap XML peut également être intéressant à implémenter si on veut faire indexer ses pages web plus rapidement.

Bon courage à tous !

Véronique Duong – autoveille@gmail.com

Bonjour tout le monde !

Aujourd’hui, je vous propose un article qui va vous permettre d’optimiser systématiquement votre référencement naturel sans y penser. En effet, mon logiciel de veille automatique m’a rapatriée une infographie intéressante qui explique comment travailler la partie sémantique de son SEO sans se « prendre la tête ».

Voici quelques astuces pour parvenir à créer systématiquement une page « Google-friendly » :

  • Placer des mots-clés dans les URL
  • Insérer des mots-clés et des verbes d’action pertinents dans vos titres et vos méta descriptions
  • Rédiger des titres éditoriaux parlant pour les internautes
  • Employer des mots-clés « long tail » dans le contenu textuel (parfois, en rédigeant les textes, on le fait déjà sans s’en rendre compte)
  • Lier les articles précédents avec les nouveaux qui traitent de la même thématique (pour le maillage interne)
  • Poster vos articles sur les réseaux sociaux, les autres sites spécialisés pour leurs donner de la visibilité
  • Optimiser le temps de chargement des pages en évitant de mettre trop d’images sur ces dernières
  • Remplir les attributs alt des images avec des mots-clés pertinents
  • Placer un plan du site dans le footer

Optimiser SEO facilement ses pages web - AUTOVEILLE

 

Cette infographie date de 2014 et a été réalisée par Mallee Blue Media.

Elle est très simple, mais permet de se rappeler des éléments indispensables à optimiser pour son référencement en un coup d’œil  🙂

J’espère que cet article aidera les personnes qui débutent en SEO.

Bon courage à tous,

Véronique Duong – autoveille@gmail.com

Bonjour à tous,

Dans l’article d’aujourd’hui, nous nous intéressons aux systèmes et aux méthodes d’indexation et de référencement de Google. En effectuant une veille stratégique sur les algorithmes de Google, mon logiciel de veille m’a rapatrié un article très intéressant portant sur le fonctionnement des crawlers et des différents autres composants de Google. Cet article a été rédigé par les deux fondateurs de Google, Sergey Brin et Larry Page. Vous pouvez lire cet article en suivant le lien sur le site de Stanford.edu

Même si les algorithmes du moteur sont confidentiels, grâce au schéma fourni dans l’article, on peut tout de même mieux comprendre comment marche l’indexation chez Google. Dans le livre d’Olivier Andrieu, on peut lire que Google posséderait deux index : un index principal (où il faut absolument y être pour être visible) et un index secondaire (pages dupliquées, pages ayant peu de liens externes, pages « mal liées », etc.).

Voici l’architecture « high level » (comme le décrit les fondateurs) de Google :

Architecture des composants de Google - AUTOVEILLE

 

Source : Stanford (Article rédigé par Sergey Brin et Larry Page)

Voici ce que les fondateurs expliquent par rapport à cette structure [Extrait de l’article] :

In Google, the web crawling (downloading of web pages) is done by several distributed crawlers. There is a URLserver that sends lists of URLs to be fetched to the crawlers. The web pages that are fetched are then sent to the storeserver. The storeserver then compresses and stores the web pages into a repository. Every web page has an associated ID number called a docID which is assigned whenever a new URL is parsed out of a web page. The indexing function is performed by the indexer and the sorter. The indexer performs a number of functions. It reads the repository, uncompresses the documents, and parses them. Each document is converted into a set of word occurrences called hits. The hits record the word, position in document, an approximation of font size, and capitalization. The indexer distributes these hits into a set of « barrels », creating a partially sorted forward index. The indexer performs another important function. It parses out all the links in every web page and stores important information about them in an anchors file. This file contains enough information to determine where each link points from and to, and the text of the link.

The URLresolver reads the anchors file and converts relative URLs into absolute URLs and in turn into docIDs. It puts the anchor text into the forward index, associated with the docID that the anchor points to. It also generates a database of links which are pairs of docIDs. The links database is used to compute PageRanks for all the documents. […]

Pour résumer en français, le crawling est effectué par différents robots. Il y a un « URLserver » qui envoie une liste d’URLs à extraire aux crawlers. Ces URLs seront ensuite envoyées dans le « storeserver ». Puis le storeserver compresses et stockes les pages web (URLs) dans un « entrepôt ». Chaque page a un ID nommé docID qui lui est assignée.

L’index fonctionne grâce à deux composants : l' »indexer » et le « sorter » (outils d’indexation et de tri). L’indexer possède plusieurs fonctions. Il lit les éléments dans l’entrepôt, décompresse les documents et les décrypte. Chaque document est découpé en mots nommés « hits ». L’indexer met ces « hits » dans des silos (« barrels »), ce qui crée des index partiellement triés. L’indexer analyse tous les liens d’une page et stocke les ancres dans un fichier nommé « anchors ». Ce fichier contient des informations qui indiquent d’où provient un lien et le texte sur ce lien (l’ancre).

L’URLresolver lit les fichiers d’ancres et convertit les liens relatifs en liens absolus qui sont ensuite transformés en docIDs. Cela met l’ancre de texte dans l’index transféré, associé au docID dont l’ancre y pointe. Cela génère également une base de données de liens qui est utilisée pour calculer le PageRank de chaque page … 🙂

Grâce à cet article, on comprend bien mieux comment Google fonctionne. Il n’y a pas qu’un outil, qu’un seul algorithme, mais plusieurs qui tournent en même temps. Panda, Penguin, etc. ne seraient rien d’autres que des composants qui font partie de la chaîne de traitements maintenant.  Je n’ai traduit que l’essentiel de l’article car c’est la partie la plus intéressante pour comprendre le SEO à mon avis. En voyant le schéma, c’est typiquement une chaîne de traitements d’ingénierie linguistique informatique très poussée. Peu à peu, je vais me remettre dans les recherches scientifiques car j’aime beaucoup étudier les problématiques liées à ce domaine.

Si vous avez des questions sur le traitement automatique des données ou le référencement naturel, n’hésitez pas à me contacter avec cette adresse autoveille@gmail.com

Bon courage à tous !

Véronique Duong –