Comment traiter un robots.txt avec trop de restrictions pour Baidu ? #SEO
Bonjour tout le monde !
En effectuant ma veille informationnelle avec mon logiciel de veille automatique, je suis tombĂ©e sur un article offiicel de Baidu (pour dĂ©butants) qui explique comment traiter un robots.txt avec un nombre de restrictions Ă©levĂ©es qui empĂȘche le site d’ĂȘtre indexĂ© dans Baidu. Vous pouvez le lire ici (et faire un Google Translate si nĂ©cessaire) :
çœç«èŻŻć°RobotsèŻ„ćŠäœć€ç
L’exemple rĂ©cupĂ©rĂ© par Baidu concerne le site 258 qui est bloquĂ© par un robots.txt … oui et le nom de domaine n’est pas trĂšs optimisĂ© ^^.
Les sites chinois utilisent souvent des chiffres pour leurs marques, domaines, mais cela a un sens : les sons phonĂ©tiques des chiffres sont parfois similaires Ă certains mots comme le site 57France, qui a le son de « Wu Qi » France (= æć»æłćœ), mais je vous avoue qu’en termes de SEO, ce n’est pas la meilleure option !
En regardant les Webmaster Tools (capture ci-dessous), on voit que les pages sont toutes bloquĂ©es d’un seul coup !
Voici les étapes données par Baidu pour résoudre ce problÚme :
- Changer les Disallow du robots.txt en Allow
- Aller dans les Webmaster Tools de Baidu pour tester si le nouveau robots.txt marche
- Surveiller les temps de crawls de Baidu dans æćéąæŹĄ
- Rafraichir le sitemap du site pour que Baidu découvre les nouvelles URLs, etc.
AprĂšs 2 ou 3 jours, normalement les choses devraient revenir Ă la normal :
Une nouvelle fois, on constate que Baidu mentionne Ă nouveau le sitemap dans ses recommandations. C’est vraiment un Ă©lĂ©ment primordial pour le SEO chinois. Il y a beaucoup de confĂ©rences, de concours sur le sitemap en Chine, et cela m’a un peu Ă©tonnĂ©e au dĂ©but, mais maintenant je pense que c’est vraiment un must-have !
Si vous avez des questions liées au SEO chinois, une seule adresse mail à retenir : autoveille@gmail.com
Bon courage Ă tous !
VĂ©ronique Duong – Consultante SEO certifiĂ©e CESEO
Pingback: Comment traiter un robots.txt avec trop de restrictions pour Baidu ? | News SEO
Pingback: Comment traiter un robots.txt avec trop de restrictions pour Baidu ? | Articles SEO