Le référencement de site web est l’action d’inscrire ou d’enregistrer un site web dans les bases de données des moteurs de recherche. Afin d’être présent sur internet pour augmenter le trafic des visite des internautes.
Le référencement SEO est un référencement naturel, c’est l’action d’optimiser une page web afin quelle soit indexée et présente sur internet. Le référencement permet d’améliorer le classement d’un site web dans les résultats des moteurs de recherches.
Autre forme de référencement, c’est le référencement publicitaire SEA c’est un référencement payant, sous formes : bannière publicitaire, Ads, campagne publicitaire, e-mailing.
Le référencement de site web SEO et SEA
Référencement naturel SEO
La première étape consiste a sélectionner des mots clés pertinents qui présente bien l’activité et les produits de l’entreprise. Ensuite intégrer ces mots clés dans les pages web du site internet de l’entreprise. L’objectif est d’obtenir un bon positionnement dans les résultats des moteurs de recherche. Un site web bien référencé en SEO sera affiché dans les premières pages des résultats des moteurs de recherche de Google, Bing, Yahoo…
D’autre part, il est important d’enregistrer un site internet dans les annuaires. Classez les URLs d’un site de façon thématique dans la rubrique correspondante à l’activité du site (exemple de Yahoo!). La seule technique existante pour améliorer le référencement de son site internet sur les annuaires est la soumission manuelle de son adresse internet soit le lien de l’URL.
Référencement publicitaire SEA (payant)
Le référencement de site web payant consiste à l’achat des mots clés via différentes plateforme, par exemple Google Ads. Suite à une étude préalable sur la recherche de mot clés, le webmaster achète des mots clés jugés pertinents. Le paiement s‘effectue sur les mots clés au cout par clic, la valeur marchande du mot clé est variable en fonction de la concurrence du mot clé et du nombre de clics sur le lien. Certes, plus un mot clé est populaire comme « cartouche d’encre » dans les résultats des moteurs de recherche, plus l’enchère du clic est haute…
Études sur les comportements des internautes
Voir les études Médiamétrie : les internautes consultent en moyenne 1 à 2 pages de résultats. De plus, ils utilisent en général un seul moteur de recherche par enquête.
Un bon référencement de site internet est essentiel pour apparaître dans la page la plus consultée soit la première page. Être présent en première page et en haut des résultats de recherche. Cela assure un bon trafic de visiteurs.
D’autres études sur le comportement des internautes démontrent que le référencement SEO était préféré au référencement PEA (payant). En effet, les statistiques confirment que les internautes cliquent en premier sur les liens naturels et ensuite sur les liens payants.
Visibilité des liens « naturels » : Pour une position dans les trois premier résultats dans un moteur de recherche les taux de clic sont de 100%.
Visibilité des liens « payants » suivant leur position : Position n°1 c’est 50% du taux de clic, position n°2 c’est 40%, position n°3 c’est 30%.
Les effets du référencement d’un site web
Le référencement est aujourd’hui l’un des principales critères du trafic d’un site web. En effet, il permet aux internautes d’accéder rapidement à leur recherche. Il permet aussi de se positionner auprès des concurrents. Par exemple, un site web bien référencé obtiendra plus de visites, même avec un site internet obsolète.
Le référencement SEO des sites web en 2009
En 2009, le référencement des sites web (SEO, ou Search Engine Optimization) était une discipline en pleine évolution, marquée par des pratiques très différentes de celles d’aujourd’hui. Voici un aperçu des principales caractéristiques et stratégies utilisées à cette époque :
1) Poids du référencement technique
– Balises Meta : Les balises Meta Keywords et Meta Description avaient encore une certaine importance (notamment pour certains moteurs de recherche comme Yahoo), bien que Google réduisait déjà leur poids dans son algorithme.
– Structure des URL : Les URL « propres » (courtes, descriptives et contenant des mots-clés) étaient une bonne pratique largement encouragée.
– Temps de chargement : Ce n’était pas encore un critère clé pour le référencement, mais il commençait à être pris en compte.
– Indexation : Les fichiers comme le `robots.txt` et les sitemaps XML étaient des outils cruciaux pour orienter les moteurs de recherche dans l’exploration et l’indexation des pages.
2) Contenu et mots-clés
– Densité des mots-clés : On surveillait de près la densité de mots-clés dans les textes. L’abus de mots-clés (keyword stuffing) était une pratique encore courante.
– Contenu unique : Google privilégiait déjà les contenus originaux, mais les pratiques de duplication de contenu ou de « spinning » (réécriture automatisée de textes) étaient encore répandues.
– Longueur du contenu : Les contenus courts pouvaient bien se positionner, car les exigences sur la profondeur et la qualité du contenu étaient moins strictes qu’aujourd’hui.
3) Liens et popularité
– Backlinks : Les backlinks (liens entrants) étaient l’un des principaux facteurs de classement. La quantité primait souvent sur la qualité.
– Échanges de liens : Les échanges de liens (partenariats réciproques) étaient monnaie courante.
– Fermes de liens : Les « link farms », réseaux de sites destinés uniquement à créer des liens, étaient encore assez efficaces, bien que Google commençait à les pénaliser via des mises à jour comme Google Florida (2003).
4) Importance de Google
– En 2009, Google dominait déjà largement le marché des moteurs de recherche avec environ 65-70 % de part de marché dans de nombreux pays.
– Des mises à jour importantes comme Google Vince (février 2009) commençaient à mettre l’accent sur les marques établies dans les résultats de recherche.
5) Réseaux sociaux et référencement
– Les réseaux sociaux comme Facebook et Twitter étaient en croissance, mais leur impact direct sur le référencement naturel était encore limité. Ils servaient principalement à générer du trafic et à créer des opportunités de backlinks.
6) Outils et suivi
– Google Analytics : L’outil était déjà populaire pour analyser le trafic des sites.
– **Google Webmaster Tools** (aujourd’hui Search Console) : C’était l’outil principal pour surveiller les performances SEO, identifier les problèmes d’indexation et optimiser les sites.
7) Publicité et SEO
– Le référencement naturel et les campagnes publicitaires via Google AdWords (aujourd’hui Google Ads) étaient souvent combinés pour maximiser la visibilité.
– Contrairement à aujourd’hui, il était courant de penser que les campagnes AdWords pouvaient influencer indirectement les classements organiques, bien que Google l’ait toujours nié.
Pratiques à risque (Black Hat SEO)
Les techniques dites « Black Hat » (cloaking, liens cachés, texte invisible, etc.) étaient encore largement utilisées, avec des résultats parfois impressionnants à court terme. Cependant, ces pratiques comportaient un risque de pénalité, surtout après des mises à jour algorithmiques comme celles de Google Panda (à partir de 2011).
En somme, en 2009, le SEO était plus axé sur des aspects techniques simples et des stratégies quantitatives (liens, mots-clés) que sur la qualité de l’expérience utilisateur ou l’intention de recherche. Depuis, les moteurs de recherche ont considérablement évolué, rendant ces méthodes obsolètes ou risquées.
Autres articles :
Réaliser son cahier des charges pour le web
Les avantages de Google Penguin
Les bases du référencement naturel
2 comments
C’est vrai j’ai jamais cliqué sur les liens venant du référencement payant, je sais qu’ils ont payé pour être là, alors ça m’intéresse moins.
Oui le référencement payant est complémentaire ! Mais pas besoin, si vous avez un site internet bien optimisé en référencement, cela vous assure un bon classement sur les moteurs de recherche et une bonne présence sur Internet !