SEO Black Hat

BlackHatSEO.fr est un site d'information sur les techniques de Black Hat SEO. Les techniques de spamdexing tel que le cloaking, le keyword stuffing, les redirections d'url, les pages satellites.. n'auront plus de secret pour vous ! Ce site s'accompagne d'un forum privé sur le forum SEO, n'hésitez pas à vous inscrire pour le consulter (à vous de la trouver via Google, ou pas).

Black hat SEO ?

Dans le petit monde du SEO on parle souvent des chapeaux noirs (Black hat), des chapeaux blancs (White hat) et même des chapeaux gris (even gray hat). Ces termes visant à définir les techniques de SEO employées. D'ou viennent ces expressions ? Beaucoup s'accordent à dire que ces termes sont dérivés des vieux westerns où les gentils Cowboys portaient des chapeaux blancs et les méchants des chapeaux noirs. Black and white hat. Il s'agit bien entendu d'une réduction volontairement simpliste ;-)

Cloaking

Le cloaking peut être utilisé de differentes façons, pour de bonnes ou de mauvaises raisons. Dans cette article j'aborderai principalement les mauvaises ;-) Cette methode permet de dissimuler le véritable contenu d'une page web aux moteurs de recherches et internautes.
Le cloaking se traduit en français par dissimulation, masquage ou encore camouflage. Cette technique permet d'afficher une page differente, que le visiteur soit un robot, un internaute, ou encore certains types d'internautes.

Les différentes methodes de cloaking:

User-agent cloaking: Cette methode de cloaking sur l'user agent detecte l'user-agent du visiteur, robot ou humain et peut être plus ou moin facilement identifier par les moteurs. A utiliser avec modération. Vous pouvez aussi utiliser les users agents des autres moteurs de recherche: MSNBot pour Msn search ou live, Slurp pour Yahoo, VoilaBot pour voila, DeepIndex bot pour Deepindex, Exabot pour Exalead...

IP Cloaking: Cette méthode de cloaking sur IP identifie le visiteur grace à son IP. Contrairement à l'user agent, l'ip est moin facilement falsifiable. A noter qu'il exite deux sortes de Cloaking, le Spam Cloaking qui lui à une connotation négative auprés des moteurs et le SEO Cloaking qui lui, permet d'offrir une version plus adaptée aux bots et qui n'est pas considéré comme du Spamdexing.

Page hijacking

La page hijacking (nommé aussi page hijack ou jacking) est une technique de spamdexing visant à dérober les positions d'autres sites sur les moteurs de recherche. Les sites visés sont souvent des sites populaires avec un traffic important et un grand nombre de pages. Elle se traduit en français par "détournement de page".

Comment peut on voler la position d'un de ses concurents sur google ?

La methode est simple, il sagit de creer un site au contenu similaire de celui de votre concurent. Titles, meta tag, contenu, images, seul les liens internent changent. Cette technique de page jacking est possible gràce à la fonction "copy content" de Google, qui à pour but de supprimer toutes les pages au contenu similaire. Le moteur choisie une des deux pages et place la deuxiéme en "pages similaires" (non affiché dans les resultats de recherche). Cela n'est bien entendu possible qu'avec un nombre suffisant de pages car Google ne remplacera pas toutes les pages.

302 Google Jacking:

Les redirection 302 (redirections temporaires) peuvent aussi être utilisées lors de la création de pages hijacking. Le but étant de faire croire à Google que la page n'existe plus et qu'elle a été temporairement déplacée à une autre URL. Un bon exemple peut être un annuaire qui utilise des redirections 302 sur les liens des sites qu'il référence. Dans ce cas les pages de redirections peuvent apparaitre dans Google.

Keyword stuffing

Le keyword stuffing ou bourrage de mots-clés est une technique de spamdexing consistant à inserer des listes de mots clefs sur une page web en vue d'un meilleur positionnement sur les moteurs de recherches. Ces mots clefs peuvent être visibles ou non par les internautes.

La technique de keyword stuffing la plus répandue est le background spoofing. Ce procédé consiste à placer dans le corps de la page une liste de mots clés écrits de la même couleur que le fond (background) de la page web.

Exemple, du texte blanc sur un fond blanc.

Les moteurs de recherche peuvent repérer cette methode par la lecture de vos feuilles de style et vous déclasser, voir pire vous blacklister ;-). Il existe cependant une possibilité pour éviter que google ne voit la supercherie, l'utilisation d'une image d'arriere plan de la couleur de votre liste de mots clefs. Les moteurs ne peuvent pas voir la couleur de votre image de fond, vous pouvez spammer tranquille... Une seconde methode consite à creer un grand nombre de pages satellites (avec utilisation de keyword stuffing) redirigées quand l'internaute arrive sur la page.

Page satellite

L'utilisation des pages satellites est trés répandue dans le petit monde du web, beaucoup de webmasters les utilisent sans même le savoir. Ces pages sont destinées à augmenter considérablement le nombre de point d'entrée des visiteurs et des bots au site.

Une page satellite peu être créée de differentes maniéres. Voici quelques exemples d'utilisations:

La Page satelitte avec redirection:

Création d'un grand nombre de pages bourrées de mots clefs (keyword stuffing) avec redirection de l'internaute vers la home du site, une page commerciale ou une page MFA (Made for Adsense). Ces pages peuvent être créées dynamiquement ou à l'ancienne ;-) Les types de redirections utilisées sont souvent la balise META Refresh, la redirection javascript ou encore le cloaking. La plupart des moteurs de recherche traques ces methodes, il vaut mieux ne pas les utiliser.

La page satellite par duplicate:

Cette methode est facile à mettre en place et difficilement identifiable par les moteurs de recherche. Il sagit de proposer aux bots des moteurs le même contenu (ou presque) à des url différentes. Pour éviter le "duplicate content" (contenu similaire) sanctionné par les moteurs il est preférable de gérer dynamiquement les titles, meta tag et titre pour proposer une version differente. Le resultat de ces duplicates est l'augmentation du nombre de vos pages indexées et l'augmentation de votre nombre de liens internes qui pointent vers votre index se qui entraine un renforcement de votre site pour atteindre un meilleur positionnement. Un site ayant 50 000 pages aura plus de chance d'atteindre un bon positionnemnt qu'un site en ayant seulement 50.

Indexation des recherches et tags:

Certains scripts proposent la mise en place d'une page présentant le top recherche, sur les scripts d'annuaires ou les tags sur les scripts de blogs. Ces liens sont le plus souvent cliquables et renvoient vers une page presentant le resultat de la recherche sur les mots clefs. Vous ne le saviez peut etre pas mais il sagit bien de pages satellites ! Il est donc préferable d'utiliser ces outils avec modération. Je vous parles en conaissance de cause, m'etant fait blacklisté un annuaire pour cette raison. Il est vrai que tout est question d'échelle, dans mon cas environ 35000 pages de recherches indéxées.

Typosquatting

Il existe deux formes de typosquatting, l'URL Squatting et la faute d'orthographe dans une requête concurencielle.

Url Squatting:

L'url Squatting consiste à réserver des noms de domaine proches orthographiquement de ceux visés. Il sagit d'inverser deux lettres, en supprimer une, ou encore acheter le domaine phonétique. Ce type de spamdexing vise à récuperer les internautes faisant des erreures lorsqu'ils qu'ils tapent une URL dans la barre d'adresse. Cette technique est aussi appelé URL hijacking (proche de la page hijacking). Cette methode de typosquatting est la plus répandue sur le web mais pas la plus éfficace ;-)

Les fautes d'orthographes dans les requêtes:

Il peut être interréssant de faire volontairement des fautes d'orthographes lors de la rédaction d'un article. Le but principal est de récupérer les internautes à partir des moteurs de recherche. Ex: "Nom de domaine" donne "Non de domaine" ou "Nom de doméne" Le positionnement sera beaucoup plus facile et vous étes sur de récupérer un minimum de visiteurs ;-)

Vole d'identité grace au typosquatting:

Un des dangers du l'url squatting est la mise en place de pages hijacking sur le domaine. En effet si cette pratique est utilisée en copiant des sites de banques, de ventes ou d'email, les pirates peuvent récuperer des données confidentielles et s'en servir contre les internautes. Cette pratique est bien entendue déconseillée et punie par la loi.

SEO Glossary - Black Hat SEO

Les articles de la catégorie SEO Glossary :

Page Rank (PR)

Le page rank est une évaluation approximative de Google sur la popularité relative d'un site Web. Le pagerank (que l'on peu traduire pas rang de la page) classent les sites sur une échelle de 0 à 10. 10 étant la meilleur note.

Link Popularity

Link Popularity représente le nombre et la qualité des liens pointant vers votre site Web. C'est un facteur très important que les moteurs de recherche emploient pour déterminer la valeur de votre site Web.

Backlink

Un backlink est un lien d'un site Web externe et indépendant au site Web étant optimisé. Plus le nombre et la qualité de liens externent pointent vers votre site, plus vous avez de chances de monter dans les moteurs.

Index

Liste des sites Web qu'un moteur de recherche stock et emploi pour fournir les résultats de recherche.

Spider

Spider ou l'Araignée comme elle est souvent apellé représente le web (la toile). L'index des moteurs qui contiennent les sites et leurs contenu.

SERP (Search Engine Results Page)

Une SERP est une page de resultats sur une requête donné. Serp est parfois employé pour définir les resultats dans les moteurs de recherche d'un maniére générale.

SEO (Search Engine Optimization)

Processus d'optimisation d'un site Web ou d'une page afin d'augmenter sa position dans les SERP. Il existe deux types d'optimisation, l'optimisation on-page et off-page.

NB: Le site BlackHatSEO.fr se dégage de toute résponsabilité quant à l'utilisation de ces méthodes de spamdexing et ne vous encourages pas à les utiliser.