Site icon Agence wordpress | CVMH |

Agence web SEO, référencement de site internet

Agence web SEO

Notre agence web SEO vous propose ci-dessous une liste de définitions pour vous aider à mieux appréhender les termes liés au référencement, à la recherche de trafic et au webmarketing d’une façon plus générale.

 

Optimisation d’un site web en vue de son référencement naturel

Il s’agit d’améliorer et de promouvoir son site internet afin d’augmenter son trafic. On parle de référencement naturel (SEO) au sujet d’un site web qui est « trouvable » dans un moteur de recherche tel que Google et ce dans la zone de résultats dits « naturels » (à différencier des liens sponsorisés ou SEA qui correspondent aux annonces dans les zones dites « payantes » d’une page de réponses d’un moteur de recherche).

Le fait qu’un site web soit « trouvable » car référencé par un moteur ne veut pas dire qu’il sera pour autant consulté : si votre site se retrouve parmi des milliers de sites de nature identique et positionné en 50ème page (par exemple), votre site sera certes référencé mais très peu visible donc très peu consulté. Pour que votre site puisse être consulté, une autre notion devra être considérée: le positionnement

SEA (Search Engine Adverstising)

Souvent appelé « référencement payant » (bien que le SEO soit également payant si l’on fait appel à une agence  spécialisée en référencement, ce qui est la plupart du temps indispensable), le SEA correspond à l’achat d’annonces, de mots-clés, dans les moteurs de recherche. Il s’agit donc de gestion de liens publicitaires qui pour certains aspects, se recoupe avec le référencement naturel. Pour autant, le SEA n’a que peu à voir avec une stratégie de référencement naturel.

SMO (Social Média opimization)

Le SMO correspond à l’utilisation des réseaux sociaux dans une stratégie globale d’acquisition de trafic et de référencement. Parmi les outils incontournables : Facebook, Twitter, Google+, linkedin, Viadéo, Youtube…

SEM (Search Engine Marketing)

Il s’agit ici d’un terme qui regroupe le SEO, le SEA et le SMO. Il s’agit donc des différents leviers à mettre en œuvre dans une stratégie globale de recherche de visibilité, de référencement et donc de trafic.

Positionnement

Si votre site web est référencé par un moteur de recherche ( bing, yahoo, google…) et qu’il est donc présent dans les bases de données du moteur, la seconde étape est de faire en sorte de travailler son positionnement. Le positionnement revient donc, comme dans un grand magasin, à faire en sorte de positionner votre site en « tête de gondole » de façon à lui procurer une véritable visibilité et donc… un trafic suffisant pour générer de la notoriété pour votre marque, des leads, des ventes… Ce point doit être intégré dés la conception de votre site web, surtout s’il s’agit d’un site e-commerce. Une fois la création du site web réalisée, il sera plus difficile de revenir en arrière pour intégrer le travail indispensable d’optimisation pour un bon positionnement.

Adwords

C’est le service de liens sponsorisé de Google (SEA). Pour acheter des liens, vous devrez ouvrir un compte Adwords et gérer vos campagnes. Ces liens s’affichjent dans des zones précises des pages de résultats. Les liens sont payés par l’annonceur sur les bases d’un système d’enchères et d’une facturation au clic.

Index d’un moteur de recherche

Pour pouvoir fonctionner, un moteur de recherche va effectuer une copie régulière de tout ce qui se trouve sur le web. Cela correspond donc à une quantité incroyable de pages web copiées et sur lesquelles il effectuera sa recherche afin de répondre à chaque requête d’un internaute. Donc, une page présente sur votre site et donc accessible via le web doit avant tout être indexée (et donc référencée) pour pouvoir faire partie des réponses potentielles apportées par un moteur comme Google. Ce point d’importance suppose également que votre site internet soit pensé de façon à « servir » ce besoin essentiel d’indexation.

Quality Score

Il s’agit ici d’une formule complexe appliquée par les moteurs de recherche et qui va déterminer l’affichage d’une page web et sa position dans les résultats SEA.

Liens organiques ou naturels

Il s’agit des liens s’affichant dans la zone de résultats naturels (SEO) sur les bases de l’algorithme mathématique de pertinence des moteurs. On les appelle également les « liens bleus »

Mot-clé ou expressions

Il s’agit des termes saisis par les internautes dans le formulaire proposé par les moteurs pour une recherche. Bien sûr, ces mêmes expressions sont « travaillées » par les propriétaires de sites web (ou par les agences web) afin de pouvoir apparaître au mieux parmi les réponses proposées par les moteurs.

SERP

Ce sont les pages de résultats proposées par les moteurs de recherche sur une expression donnée. On estime à 55%, la part des personnes qui utilisant un moteur de recherche afin d’effectuer une recherche sur le web. 32% utilisent les réseaux sociaux (source : Forrester Research – juin 2013). Le premier lien des SERP représente environ 32% des clics.

Ligne de flottaison d’un moteur

La ligne de flottaison correspond à ce que voit un internaute sans avoir à utiliser l' »ascenseur ». L’enjeu majeur est donc de faire en sorte que votre site apparaisse au dessus de celle-ci en première page. Dans certains cas, la visibilité au dessus de la ligne de flottaison est occupée entièrement par des liens sponsorisés ou des résultats issus de Google Maps, ou encore Google Adresses. Il s’agit alors de tout faire pour que votre site web soit présent dans ces outils.

Résolution d’écran

Il s’agit de la taille d’affichage d’une page web déterminée par l’internaute. En fonction de cette taille, l’internaute pourra visualiser plus ou moins d’informations au dessus de la ligne de flottaison. Cette notion de résolution est donc à considérer dans le cadre du référencement et de la visibilité d’un lien dans les SERP.

Triangle d’or de Google

Il s’agit de la zone des pages de résultat la plus lue d’instinct par les internautes. Elle démarre de haut gauche de la page, continue à l’horizontale sur la droite puis redescend en biais vers la gauche, formant ainsi un triangle. Elle intègre donc les résultats SEA de la zone premium (au dessus des résultats naturels)

L’infinite scrolling

De la même façon que Facebook ou Twitter  n’intègrent pas de notion de « pages », il semblerait que Google travaille à l’implémentation d’un système similaire sur son moteur. Ainsi, les pages disparaîtraient et les résultats s’afficheraient lorsque l’internaute descendrait avec l’ascenseur dans la page « unique » de résultats. Bien sûr, cette évolution supposée sera une source de réflexion pour les annonceurs mais également pour Google qui devra trouver un nouveau modèle d’affichage pour ses publicités Adwords.

Recherche universelle de Google

La tendance actuelle de Google (2014) est d’afficher directement des informations répondant à une requête d’un internaute (et non uniquement des liens vers des sites web). Ainsi, pour une requête donnée, Google peut afficher des images, des vidéos, des adresses (pour des hôtels par exemple), un plan Google Maps, des produits issus de Google shopping… Bien entendu, cette tendance repousse les résultats naturels vers la ligne de flottaison, voir au dessous. Ainsi, selon une étude du site JitBit, les résultats naturels au dessus de la ligne de flottaison représentaient moins de 20% des résultats globaux dans cette zone en 2012. A la création de votre site internet ou de votre projet web, intégrez cette donnée de façon à ne pas passer à côté de cette notion et favoriser votre présence dans les outils tels que Google Maps ou Google Adresses

Recherche sémantique ou Knowledge Graph

Cette fonctionnalité vise des recherches ayant un rapport avec des célébrités, des lieux, le domaine de l’art… Sur ce type de recherche, Google affiche directement des éléments d’informations dans la colonne de droite de ses pages de résultats. Plus besoins de cliquer sur un lien pour aller sur le site qui fournira l’information, l’information est tout de suite affichée dans la page de résultat de Google. Ainsi, cette fonctionnalité fait de Google une distination et non un passage vers l’information.

Backlinks

Il s’agit de liens provenant de sites autres que le vôtre et pointant vers votre site. Plus ces liens sont de qualité, provenant de sites traitant d’une thématique équivalente ou proche de celle de votre site web, de site ayant une bonne notoriété, une bonne popularité, plus ces liens vont rendre populaires les pages de votre site visées. Ces backlinks vont donc contribuer à construite votre propre popularité sur le web et ainsi, permettre à votre site internet de mieux se positionner des les pages de résultats des moteurs de recherche. Bien sûr, pour obtenir de bons liens, cela suppose de créer et de proposer des contenus de qualités sur votre site.

Popularité

Pour que Google positionne favorablement votre site web, ce dernier va devoir être considéré comme populaire. Pour cela, il va devoir recevoir des liens à partir de sites eux-mêmes poplulaires. On parle de sites de confiance et d’autorité. La qualités des liens est à privilégier vis à vis de la quantité : proximité avec la thématique ancres de liens, Trustrank, liens de voisinage, fraîcheur des liens, partages des liens… soyez pragmatiques et visez la qualité !

Black hat

Le black hat ou « chapeau noir » (ou encore spamdexing) correspond à une méthode de référencement qui consiste à manipuler les algorithmes des moteurs en utilisant des méthodes non autorisées par ces mêmes moteurs de recherche. Bien sûr, ces techniques vous font prendre un gros risque, un moteur risquant de pénaliser fortement un site web si ces techniques sont décelées. De plus, les moteurs rivalisent d’imagination pour mettre en place des filtres qui vont permettre de déceler ces méthodes et, entre autres, de chasser les liens dits « non naturels », créés massivement pour rendre plus populaire un site internet sur certains mots-clés. Ces techniques peuvent s’avérer particulièrement efficaces et surtout rapide. En revanche, une fois la sanction « tombée », les conséquences pour l’activité du site web et de la société propriétaire sont désastreuses. De plus, beaucoup de « professionnels » du référencement utilisent ces méthodes sans en informer leur client. Parfois, ces mêmes prestataires dits « professionnels » utilisent ces méthodes sans même en avoir conscience ! Donc : prudence quant au choix de votre agence web ou de votre référenceur.

White hat

A l’inverse du black hat, le white hat (ou optimisation loyale) se base sur des méthodes d’optimisation des pages et du contenu, respectant les règles imposées par les moteurs comme Google. En proposant du contenu de qualité et en s’investissant dans ce sens, les sites sont supposés générer de façon naturelle des liens entrants et développer ainsi leur popularité. Bien sûr, ces méthodes étant moins rapides que les méthodes black hat, les agences de référencement ont tendance à tout faire pour provoquer ces liens, sans s’approcher de trop prêt de la « ligne rouge ». On parle alors de grey hat.

Grey hat

Il s’agit de méthodes de référencement qui, à la base, respectent les recommandations d’optimisation des pages et des contenus, recommandations faites par les moteurs de recherche, mais qui, sans aller jusque des méthodes « black hat », vont chercher à accélérer les résultats en intervenant par exemple dans la création de liens entrants (et donc, liens non « naturels » puisque créés spécifiquement dans un objectif de référencement naturel)

Blaklistage

Lorsqu’un moteur constate l’utilisation de techniques black-hat pour favoriser le référencement d’un site internet, il peut aller jusqu’à mettre le site dans une « liste noire » et le site disparaît alors des résultats. Lever cette sanction relève du parcours du combattant et peu prendre beaucoup de temps. Dans ce cas, la solution envisagée est souvent le changement de domaine avec toutes les conséquences désastreuses s’y rattachant. Attention donc au référenceur ou agence SEO avec lesquels vous allez éventuellement travailler : le tout est que les méthodes utilisées soient clairement exprimées et que vous puissiez en mesurer les risques. Il vous appartiendra alors de prendre la meilleur décision sachant que choisir une technique black-hat peu être « défendable » si cela relève d’un vrai choix et d’une vraie stratégie, donc, en toute connaissance de cause.

Netlinking

Le netlinking correspond aux liens entrants partant des autres sites vers votre site. Il participe grandement à la popularité de votre site web (ce sont comme de votes) et donc au positionnement de celui-ci sur les requêtes que vous visez. Ces liens se doivent d’être les moins artificiels possibles. Ils doivent donc être  générés de façon naturelle grâce à un contenu de qualité, à une promotion de ce contenu au travers des réseaux sociaux, des lettres d’information proposées sur le site internet.

Moteur de recherche

Les principaux : Google, Bing et Yahoo !. Un moteur de recherche est un outil permettant à un internaute d’accéder à une liste de liens issus du web et ce, à partir d’une requête précise. Le moteur de recherche dispose de logiciels qui parcourent le web, collectent les informations, les indexent. Il traite les requêtes des internautes et affiche ensuite les résultats sous la forme de listes de liens. Ces liens peuvent être soit organiques (naturels), ou commerciaux (liens sponsorisés). Les résultats naturels sont classés à partir d’un programme de calcul mathématique (algorithme) intégrant plus de 200 critères concernant plus particulièrement Google.

Audience d’un site

Optimiser son site web pour le référencement naturel, c’est avant tout commencer par un travail de définition de l’audience-cible. A qui s’adresse le site ? Pour répondre à quel type de recherche ? Quels types de besoins ? Connaître ses cibles permet de concevoir des contenus et des offres adaptées et de satisfaire ainsi l’internaute. Cela permet également de définir les expressions sur lesquels vous souhaitez positionner votre site internet et éviter un taux de rebond trop lourd lié à des contenus non ciblés.

Recherche des internautes

3 types de recherches sur les moteurs peuvent être distinguées : les recherches liées à une action, à l’accomplissement d’un acte en ligne (acheter une voiture, écouter de la musique…), les recherches liée à un besoin de « savoir » (chercher des informations sur un thème, sur une actualités, trouver un restaurant…), les recherches de sites web (trouver un site précis dont on connait plus ou moins le nom)

Technologie des moteurs de recherche

En France (2014), quatre technologies de recherche sont utilisées par les principaux moteurs. Ce point est important pour organiser la stratégie de référencement d’un site internet. Google utilise sa propre technologie qui est également utilisée par AOL, par Free, par Neuf/Srf et par Bouygues Telecom. Bing utilise sa propre technologie, qui est également utilisée par Yahoo ! et par MSN. Exalead utilise sa propre technologie. Voilà utilise également sa propre technologie de recherche.

Crawlers ou spiders

Les spiders (agents, robots, bots) visitent les pages des sites web et suivent leurs liens afin d’indexer les différentes pages. Sachant que le nombre de pages sur le web est colossal, les spiders ne visitent pas toutes les pages.

Indexation en temps réel

Aujourd’hui (2014), les spiders crawlent le web de façon ininterrompue. Plus un site web renouvelle fréquemment son contenu, plus les spiders vont le visiter. Si votre site est plutôt un site plaquette, de présentation de votre société par exemple, les spiders le visiteront moins souvent. D’où l’importance de faire vivre votre site web de façon régulière. Consultez votre agence web ou votre référenceur afin de mettre en œuvre une stratégie «réaliste » de mise à jour des contenus. A défaut de trouver un axe cohérent, judicieux, vous risquez de vite « sécher » devant votre page blanche, vous demandant ce que vous aller pouvoir raconter de plus que ce que vous avez déjà mis souvent bien du temps à produire.

Googlebot

Spider de Google

Bingbot

Spider de bing

Fichier robots.txt

Ce fichier présent sur les sites indique aux spiders les pages devant être indexées ou non. Ce fichier donne donc des indications aux spiders et favorise ainsi l’indexation des pages de votre site web. Il sera d’autant plus important dans le cadre d’un site présentant de nombreuses pages similaires ou des pages de faible pertinence qui risquent d’induire un taux de rebond important. En gros, n’indexez que les pages qui apportent une réponse de qualité.

Stop words

Il s’agit des mots qui ne sont pas considérés par les moteurs d’indexation. Ces mots sont appelés également « mots vides », (exemples : le, la, et ….). Pour autant, Google, par exemple, ne présentera pas les mêmes résultats pour une requête comme « agence web » ou « agence de web ». Dans le cadre de la seconde requête, Google ne considère pas le « de » mais pour autant, il intègre le fait qu’il existe un mot « vide » de sens entre « agence » et « web ». Par conséquent, les réponses pour la seconde requête vont être différentes et présenteront des pages optimisées sur des expressions contenant « agence » + « autre mot » + « web »

Index principal

L’index principal ou index maître contient toutes les données présentent dans les pages web indexées par le moteur

Index inversé

L’index principal d’un moteur contient toutes les données présentent dans les pages web indexées par le moteur alors que l‘index inversé recense les mots-clés rattachés à ces mêmes pages. Bien sûr, la densité d’un mot-clé dans une page va jouer sur la position occupée par cette page. Ce critère est certes important mais d’autres éléments vont rentrer en ligne de compte pour déterminer la position d’une page web. Exemple : le contenu textuel des liens pointant vers votre site web.

Recherche vocale (Google Voice Search)

Il est désormais possible, sur Google par exemple, de faire une recherche sans « saisir » des mots-clés mais en exprimant vocalement son besoin à l’aide du microphone placé à côté du champ de recherche. Cette fonction rend plus accessible les moteurs de recherche sur les smartphones (sur lesquels la saisie manuel sur un clavier de petite taille n’est pas très pratique). Bien sûr, cette fonction à des conséquence sur l‘optimisation du site : on ne parle pas comme on écrit. Donc, les expressions de recherche vocale vont être de nature différentes et souvent plus longues (expressions de longue traîne). Exemple : je recherche un restaurant à paris dans le 16ème. Dans la zone de saisie de Google, je risque de saisir « restaurant paris 16 ». Dans le cadre d’une recherche vocale, je vais exprimer ce besoin différemment « trouver un restaurant sur paris dans le 16 ème arrondissement ». Dans la mesure où la contrainte de la saisie est supprimée, l’internaute sera moins avare quant au nombre de mots utilisés pour sa requête. Le langage « courant » doit donc être considéré pour optimiser les pages.

Google Now

Google Now est une application disponible sur Google Play et l’App Store qui vous permet de recevoir automatiquement des informations issues de ses outils et index et en liens avec vos centre d’intérêts. Cela permet à Google d’anticiper vos besoins, vous rappeler un RDV chez le dentiste avec affichage de l’adresse sur Google Maps, afficher le score d’un match qui intéresse, la une de votre journal…

Quitter la version mobile