Cloaking : est-il toujours possible de duper Google ?
En SEO les « utilités » du cloaking sont légion : optimisation du maillage interne, page avec 800 mots pour Google quand les utilisateurs n’en verront qu’un seul ; bref, avec un peu d’imagination, on peut faire énormément de choses. Mais il s’agit d’une pratique fortement déconseillée par Google. Et comme il est roublard, le filou, il peut également crawler votre site avec un autre User-Agent que le désormais célèbre GoogleBot. Néanmoins, derrière ces déclarations d’intentions, Google détecte-t-il le cloaking réellement à tous les coups ?
Pour en avoir le cœur net, nous avons réalisé une série de tests.
Méthodologie du test
Dans le cadre de ce test, nous avons utilisé un script de cloaking dont le fonctionnement est le suivant :
- Si GoogleBot accède à la page, un contenu optimisé lui est présenté
- Si un utilisateur autre (faux user-agent ou une personne bien réelle) tente d’accéder à la page, aucun contenu n’est affiché
Notre objectif était de positionner une page sur une requête dont le contenu était entièrement cloaké. En gros Google a vu une page optimisée quand tous les autres utilisateurs ont vu une page blanche.
Conclusion
A l’issu de ce test, nous avons constaté que les pages cloakées ont bien été indexées. Globalement Google a bien positionné une page dont le contenu n’était visible que par lui. Mais nous avons également constaté, d’après la vision de la Search Console, que Google était capable de crawler avec des UserAgents différents. En théorie il est donc également possible de compenser cet écart en cloakant également une page pour la Search Console.