Le référencement de site web commence par enregistrer un site web dans les bases de données des moteurs de recherche. Cette première étape afin d’être présent sur internet. Ensuite, la seconde étape consiste à optimiser les page web afin de générer du trafic.
A savoir, il existe deux sortes de référencement :
Le référencement SEO qui est un référencement naturel et gratuit. Puis, le référencement publicitaire SEA qui est un référencement payant. Cela sous formes : bannière publicitaire, d’achat de mots clés Ads, campagne publicitaire de type Facebook, e-mailing.
Le référencement permet d’améliorer le classement d’un site web dans les résultats des moteurs de recherches.
Le référencement de site web SEO et SEA
Référencement naturel SEO
La première étape du référencement de site web consiste a sélectionner des mots clés qui présente bien l’activité de l’entreprise. Ensuite intégrez ces mots clés dans les pages web du site internet. L’objectif est d’obtenir un bon positionnement dans les résultats des moteurs de recherche. Référencez bien votre site web en SEO pour l’afficher dans les premières pages des résultats de Google, Bing, Yahoo…
D’autre part, il est important d’enregistrer un site internet dans les annuaires. Classez les URLs d’un site de façon thématique dans la rubrique correspondante à l’activité du site (exemple de Yahoo!). La seule technique existante pour améliorer le référencement d’un site internet sur les annuaires est l’indexation de l’URL.
Référencement publicitaire SEA (payant)
Le référencement de site web payant consiste à l’achat des mots clés via différentes plateforme, par exemple Google Ads. En effet, le paiement s‘effectue sur les mots clés au cout par clic. A savoir, la valeur marchande d’un mot clé est variable en fonction de la concurrence du mot et du nombre de clics sur le lien. Certes, plus un mot clé est populaire comme « cartouche d’encre » dans les résultats des moteurs de recherche, plus l’enchère au clic est haute…
Études sur les comportements des internautes
Voir les études Médiamétrie : les internautes consultent en moyenne 1 à 2 pages de résultats. Généralement, ils utilisent un seul moteur de recherche par enquête.
Un bon référencement de site internet est essentiel pour apparaître dans la première soit la plus consultée. Ainsi, être présent au top de la première page de résultat vous assure un bon trafic de visiteurs.
Les internautes préfèrent se fier au résultat du référencement naturel qu’aux résultats du référencement PEA (payant). En effet, les internautes cliquent en premier sur les liens naturels et ensuite sur les liens payants.
Visibilité des liens naturels
Admettons vous êtes positionné dans les trois premier rangs d’une première page dans un moteur de recherche. Alors vos taux de clic sont de 100%.
Visibilité des liens payants
Admettons vous êtes positionné en n°1 c’est 50% du taux de clic, position n°2 c’est 40%, position n°3 c’est 30%.
Les effets du référencement d’un site web
Le référencement de site web est aujourd’hui l’un des principales moyen d’optimiser un site internet. En effet, le SEO permet aux internautes d’accéder rapidement à ce qu’il recherche. D’autre part, pour les webmaster, le référencement permet de se positionner auprès des concurrents. Par exemple, un site web bien référencé obtiendra plus de visites, même avec un simple site internet.
Le référencement SEO des sites web en 2009
En 2009, le référencement des sites web était une discipline en pleine évolution, mais les pratiques étaient très différentes de celles d’aujourd’hui. Voici un aperçu des principales caractéristiques et stratégies utilisées à cette époque :
1) Poids du référencement technique
– Balises Meta : Les balises Meta Keywords et Meta Description avaient une certaine importance (notamment pour certains moteurs de recherche comme Yahoo), bien que Google réduisait déjà leur poids dans son algorithme.
– Structure des URL : Les URL « propres » (courtes, descriptives et contenant des mots-clés) étaient une bonne pratique largement encouragée.
– Temps de chargement : Ce n’était pas encore un critère clé pour le référencement, mais il commençait à être pris en compte.
– Indexation : Les fichiers comme le `robots.txt` et les sitemaps XML étaient des outils cruciaux pour orienter les moteurs de recherche dans l’exploration et l’indexation des pages.
2) Contenu et mots-clés
– Densité des mots-clés : On surveillait de près la densité de mots-clés dans les textes. L’abus de mots-clés (keyword stuffing) était une pratique encore courante.
– Contenu unique : Google privilégiait déjà les contenus originaux, mais les pratiques de duplication de contenu ou de « spinning » (réécriture automatisée de textes) étaient encore répandues.
– Longueur du contenu : Les contenus courts pouvaient bien se positionner, car les exigences sur la profondeur et la qualité du contenu étaient moins strictes qu’aujourd’hui.
3) Liens et popularité
– Backlinks : Les backlinks (liens entrants) étaient l’un des principaux facteurs de classement. La quantité primait souvent sur la qualité.
– Échanges de liens : Les échanges de liens (partenariats réciproques) étaient monnaie courante.
– Fermes de liens : Les « link farms », réseaux de sites destinés uniquement à créer des liens, étaient encore assez efficaces. Cela, bien que Google commençait à les pénaliser via des mises à jour comme Google Florida (2003).
4) Importance de Google
– En 2009, Google dominait déjà le marché des moteurs de recherche avec environ 65-70 % de part de marché dans de nombreux pays.
– Des mises à jour importantes comme Google Vince (février 2009) commençaient à mettre l’accent sur les marques établies dans les résultats de recherche.
5) Réseaux sociaux et référencement
– Les réseaux sociaux comme Facebook et Twitter étaient en croissance, mais leur impact direct sur le référencement naturel était encore limité. En fait, les réseaux généraient du trafic et créer des opportunités de backlinks.
6) Outils et suivi
– Google Analytics : L’outil était déjà populaire pour analyser le trafic des sites.
– **Google Webmaster Tools** (aujourd’hui Search Console) : C’est l’outil principal pour surveiller les performances SEO, identifier les problèmes d’indexation et optimiser les sites.
7) Publicité et SEO
– Le référencement naturel et les campagnes publicitaires via Google AdWords (Ads) étaient utilisés pour maximiser la visibilité.
– Contrairement à aujourd’hui, l’on pensait que les campagnes AdWords influençaient les classements organiques, bien que Google l’ait toujours nié.
Pratiques à risque (Black Hat SEO)
Les techniques dites « Black Hat » (cloaking, liens cachés, texte invisible, etc.) étaient largement utilisées. D’ailleurs, on obtenait des résultats impressionnants à court terme. Cependant, ces pratiques comportaient un risque de pénalité. Surtout après les mises à jour de l’algorithme Google Panda (à partir de 2011).
En somme, en 2009, le référencement de site web (SEO) était plus orienté sur des aspects techniques simples et des stratégies quantitatives (liens, mots-clés). Contrairement à aujourd’hui, l’expérience utilisateur ou l’intention de recherche. Ainsi, les algorithmes des moteurs de recherche ont considérablement évolué. Désormais, ces vieilles méthodes sont obsolètes et risquées.
Autres articles :
Réaliser son cahier des charges pour le web
Les avantages de Google Penguin
Les bases du référencement naturel
2 comments
C’est vrai j’ai jamais cliqué sur les liens venant du référencement payant, je sais qu’ils ont payé pour être là, alors ça m’intéresse moins.
Oui le référencement payant est complémentaire ! Mais pas besoin, si vous avez un site internet bien optimisé en référencement, cela vous assure un bon classement sur les moteurs de recherche et une bonne présence sur Internet !