L’importance du contenu dans le référencement naturel

L’importance du contenu dans le référencement naturel

A) Qu’est-ce que le référencement naturel

A travers ce teste, vous comprendrez l’importance du contenu dans le référencement naturel.

Le référencement naturel correspond à l’ensemble des techniques, mécanismes et stratégies visant à mieux positionner un site internet dans les résultats de recherche d’un moteur de recherche. Plus communément appelé SEO (Search Engineering Optimisation), il est un levier incontournable dans la recherche de visibilité, de clics, de conversions et de chiffres d’affaires. L’objectif principal est d’apparaitre en première position dans les résultats de recherche (SERP[1]).

 

De quelle manière le référencement s’instrumentalise ?

Chaque moteur de recherche possède des fichiers robots automatisés, destinés à sonder et parcourir la toile. Ces robots ne prennent en compte que les contenus textuels et HTML. Leur mission est d’enregistrer et d’indexer ces pages dans le but d’enrichir une base de données où seront présentes l’ensemble des pages web sondées : phase de « crawl »

Par la suite, lorsqu’un internaute effectue une requête à l’aide de mots-clés, le moteur de recherche l’analyse et affiche le résultat le plus adéquat à la recherche.

Le moteur de recherche classe les résultats de recherche en fonction de la pertinence des pages trouvées avec la requête de l’internaute grâce à un algorithme. Cet algorithme utilise plusieurs critères afin de déterminer la page la plus pertinente pour l’utilisateur des moteurs de recherches.

C’est ainsi que l’optimisation de ces critères pris en compte par l’algorithme  devient nécessaire au bon positionnement d’un site Internet et devient un enjeu capital.

Il existe deux types d’amélioration: l’optimisation par les critères « in page » et l’optimisation par les critères « off page », (Olivier Andrieu, 2012)[2]

 

1)            Les critères de pertinence « in page »

 

L’analyse des critères internes à une page constitue l’étude de la structure sémantique (la forme) et du contenu textuel (le fond) d’une page web.

 

“Le contenu optimisé est visiblement capital !”

L’algorithme avantage le contenu textuel car il est le plus simple à comprendre et à analyser.

Selon Olivier Andrieu, il est nécessaire d’avoir certes un contenu de qualité, mais surtout pertinent. Le contenu doit informer, indiquer et intéresser suffisamment pour appeler au clic. Pour cela, il doit être en adéquation avec ce que cherche l’internaute, ses besoins, ses attentes et doit faire l’objet d’une étude comportementale. Ainsi, la qualité est synonyme de pertinence.

La qualité d’un contenu se mesure donc par sa compétence à répondre au besoin de l’utilisateur. Mais alors, qu’est-ce qu’un contenu de qualité pour les robots ?

Le contenu de qualité  doit faire l’objet d’une étude réfléchie et d’un choix de mots-clés précis afin que ce contenu devienne le plus unique, original, actuel et bien sûr pertinent possible.

Par ailleurs, il est traduit par une écriture et un codage sémantique rigoureux, clair, accessible et léger.

Ces mots-clés seront placés et structurés d’une certaine manière dans la sémantique du code : il s’agit de les introduire dans les zones dites « chaudes » d’une page.

Dans le référencement naturel, une zone chaude n’est pas une zone géographique mais une partie du contenu où les mots ont plus de poids pour le référencement. Ces zones sont mieux prises en compte par les robots pendant l’indexation et pour le positionnement. C’est pour cette raison qu’il  est intéressant d’y placer des mots-clés.

 

2)            Les critères de pertinence « off page »

 

Nous avons vu précédemment que les moteurs de recherche privilégient le contenu textuel pour positionner un site Internet en analysant la pertinence de ce dernier.

Dans la mesure où l’algorithme ne prend en compte que la logique textuelle, il est apparu certaines dérives notamment avec  la présence de contenu caché et la création de pages satellites[3] destinées à tromper l’utilisateur, constituant des limites à l’optimisation « in page ».

En 1998[4], Google fut parmi les premiers à introduire dans son algorithme des critères basés sur la popularité et le contexte d’une page afin de classer une page : le Page Rank (PR). Pour effectuer ce tri par popularité, l’algorithme prend en compte différents critères appelés critère « off page ».

Parmi l’un de ces critères, le volume de lien entrant appelé « backlink » est extrêmement important dans le calcul de l’algorithme. Ces backlinks correspondent aux différents liens provenant d’autres sites et pointant vers une page. Ce volume va permettre de calculer un indice de popularité (Page Rank).  C’est notamment grâce à cette notion de popularité que Google a su se démarquer des autres moteurs de recherche.

De plus, ce Page Rank est attentif à l’emplacement des liens dans la page de provenance, ainsi qu’aux mots-clés contenus dans l’URL.

Ce type d’optimisation a été baptisé le Netlinking. Cela consiste à créer un maillage de pages qui fera pointer des liens vers la page que l’on souhaite optimiser. Ce maillage de site peut correspondre à des blogs, des sites partenaires, des annuaires, et  réseaux sociaux.

 

Peu de temps après, Google a décidé d’attribuer le principe de diffusion du Page Rank entre les liens de redirection présents sur une page. (Court, 2011[5]).

Chaque page possède une puissance estimée par le Page Rank notée sur 10. Cette puissance se partage équitablement entre chaque lien de redirection. On appelle cela le « jus de lien ».

Plus une page reçoit de la puissance, plus elle sera populaire. Cette popularité entretenue par la note du Page Rank permet un bon positionnement dans les SERP (résultat de recherche).

A contrario, si cette page redirige vers de nombreuses pages, la puissance transmise sera diluée et les pages de destination bénéficieront d’un jus de lien plus faible.

La nouveauté de ce principe est qu’il ne faut pas seulement avoir du backlink, il faut que la page contenant le backlink soit bien notée pour qu’elle reçoive beaucoup de jus. Afin de l’optimiser, il faut idéalement qu’il n’y ait qu’un seul lien sur la page de provenance et qu’elle fasse l’objet d’un choix réfléchi.

Les critères in et off page ont su sans cesse se réinventer au cour des dix dernières années afin de lutter contre le spamdexing[6]. Pour autant, nous ne connaissons pas l’impact réel d’une mise à jour et ses conséquences pour les utilisateurs.

 

 

3)            Le référencement naturel : un levier en constante évolution.

 

Des changements perpétuels

Avec plus de deux millions de caractères, l’algorithme connait plus de cinq cents modifications chaque année. L’objectif est  d’améliorer les résultats dans le but d’offrir un contenu apprécié des internautes[7].

Un mot-clé ne peut être concurrentiel ou avoir un potentiel de recherche indéfiniment. Le nombre de requête varie en fonction des évènements et des saisons. L’optimisation ne peut être complète et pérenne que si elle est suivie.

C’est pour cette raison que les outils de suivi comme Google Analitycs[8], Google Webmaster Tools ou autres logiciels d’audits nécessaires au positionnement sont désormais inévitables pour l’optimisation du référencement naturel.

Google modifie continuellement son algorithme afin d’apporter à l’utilisateur une expérience unique et un contenu de qualité.

Selon Philipe Yonnet, il  a vocation  de devenir « un moteur de recherche syntaxique et sémantique »[9] durant les prochaines années.

 

Les bouleversements de Google Panda : une mise à jour dédiée au contenu.

Depuis les prémices du référencement naturel, Google se différencie par sa capacité à perfectionner son moteur de recherche. Allant du simple crawl jusqu’au classement dans les SERP, ces mises à jours ont toujours apporté des éléments positifs pour l’utilisateur (Florida, Pluto, cafeine, Mayday …[10]).

Pour autant, en  août 2011, une mise à jour de l’algorithme a fortement impacté la visibilité des sites internet dans les SERP : « Google Panda ».

Google Panda désigne un « filtre de nettoyage[11] » ajouté par Google dans le moteur de recherche. Lancé manuellement et aléatoirement, ce filtre a pour rôle de favoriser les contenus de qualité au détriment des contenus de faible qualité. Pour cela, le filtre déclasse tous sites qui hébergent du contenu dupliqué, réécrit et scrappé (détention illégal du contenu). Amit Singhal, responsable du département de Search Quality chez google, explique que   Google « cherche à coder les attentes des internautes en quelque sorte »[12].

 

En se basant sur les paramètres évoqués par Amit Singhal, le contenu de qualité est un contenu :

  • Fiable, non superficiel, écrit avec réflexion sans aucun artifice : il est donc naturel et utile,
  • Unique et non dupliqué entre les pages d’un site ou d’autres sites,
  • Qui donne assez confiance pour que l’internaute effectue un paiement en ligne,
  • Irréprochable au niveau de la syntaxe et de l’orthographe,
  • Répondant au centre d’intérêt du lecteur,
  • Possédant une réelle valeur ajoutée par rapport à un autre contenu,
  • Se basant sur des points de vue différents et demandant un travail d’analyse et de réflexion,
  • Hébergé par un site qui est reconnu dans le domaine abordé,
  • Fournissant une description complète du sujet traité,
  • Ne contenant pas un nombre excessif de publicité empêchant la lecture,
  • Produit avec une sémantique soignée et rigoureuse.

 

C’est un nouveau pas en avant pour google, forçant les éditeurs à améliorer le contenu qu’ils produisent. Alors que les critères off pages sont acutellement mieux considérés par l’algoritme, il est très envisageable que le contenu devienne le « carburant » du moteur de recherche d’ici quelques années.

 

l’état des lieux

En 2010[13], les critères off page constituent plus de la moitié de l’algoritme. Le netlinking devient donc une stratégie nécessaire pour se positionner. Par ailleurs, nous pouvons constater que l’algorithme tient compte de l’autorité de domaine[14] (24% de contribution). Cette autorité se traduit par la confiance accordée par le moteur. On peut l’assimiler à un indice de confiance.

Encore peu présent dans le calcul, mais sérieusement développé par Google, la détection du spam et de contenu piraté devient peu à peu un enjeu majeur pour positionner les pages web.[15]

 

Même si le contenu reste faiblement pris en compte (21%), il est une condition sine qua non en vue d’une optimisation pour le référencement naturel. Sans lui, aucun autre critère ne peut avoir d’effet sur le positionnement.

 

En conclusion, le référencement naturel est soumis à des critères réglementés qui sont centrés sur l’utilisateur. L’objectif étant de fournir un contenu de qualité, pertinent,  et structuré.

Les éditeurs qui ont souvent négligé cet aspect, l’ont aujourd’hui bien assimilé et se concentrent sur l’optimisation du contenu pour s’assurer la meilleure position dans les résultats de recherche. Même s’il n’en constitue que 21% des critères, son optimisation est nécessaire et primordiale  car elle donne accès à l’optimisation d’autres critères.

 

 

 

 

B)  Le contenu : clé de voûte du SEO

 

Le contenu est le premier élément relationnel entre un site internet et son lecteur. Il a pour objectif de l’intéresser, de lui fournir une réponse, de l’inciter au clic, et de favoriser la conversion. Concernant les purs players et brick and mortar, il permet de bénéficier d’un gain de temps et d’argent en apportant des  informations qui ne nécessitent pas l’intervention d’une tierce personne.

92 % des spécialistes en marketing estiment que la création de contenu est très efficace pour  le SEO (Katherine Griwert, 2011[16]).

 

Il faut garder à l’esprit que l’algorithme référence les pages web en fonction de ce qui est  mieux pour l’utilisateur en essayant de se mettre à sa place.

En conséquence, chacun de ces critères est choisi pour aider l’utilisateur dans sa recherche  afin qu’il clique sur le contenu qui saura répondre à sa requête de recherche. Le contenu  rédactionnel constitue l’un de ces critères et est considéré comme la clé de voûte de l’optimisation.

 

 

1)    Pertinence, information et mots-clés d’un contenu optimisé : le fond

 

Dans le cadre de la rédaction de contenu sur le web, ce sont les mots-clés qui évoquent  cette notion de fond. Le contenu doit prouver sa valeur ajoutée et doit marquer sa différence par rapport aux autres : il s’agit d’avoir un contenu qui semble naturel et qui apporte une information. Cela est possible notamment à travers la soumission à certain principes généraux et à une méthodologie rigoureuse.

 

Les principes du contenu sur le web.

Pour qu’une page soit bien référencée  dans les résultats d’un moteur de recherche, son contenu rédactionnel doit respecter certaines règles. Ces règles traduisent les attentes d’un utilisateur lorsqu’il effectue une recherche :

 

 

Cohérence et pertinence : le sujet traité dans une page doit bien être en rapport avec l’ensemble des pages du site et concorder avec la recherche de l’internaute.

 

Lisibilité : La lecture électronique n’est pas équivalente à la lecture sur papier. (Jean Eric Pelet, 2012[17]). Il est recommandé,  d’utiliser un vocabulaire simple, de réaliser des textes courts, de faciliter la lecture en structurant les textes, de titrer les documents, de sélectionner et synthétiser  les informations et enfin d’attirer l’œil de l’internaute.

 

Fraicheur : Actualiser et rafraichir le contenu de la page régulièrement est très apprécié des lecteurs et de l’algorithme. Les moteurs de recherche sont avides d’actualité et de nouveaux contenus. Depuis la mise à jour effectuée en avril 2012 (Matt Cutt, 2011[18]), Google privilégie les contenus nouveaux et actualisés dans les résultats de recherche.

 

Unique et orignal : Ecrire un contenu dont l’auteur est véridique et légitime est très bien vu par l’algorithme. L’originalité du contenu est appréciée par le moteur de recherche qui positionne mieux la page. Il faut donc éviter la rédaction de contenu dupliqué ou réécrit. La mise jour de Google Panda effectuée en avril 2012 sanctionne les pages web hébergeant des contenus similaires (ferme de contenu). Depuis sa mise en place en France le 11 août 2011, ce filtre a impacté 16 % des résultats de recherche.

 

Une fois que ces principes généraux sont pris en compte pour la rédaction du contenu, il doit faire l’objet d’une préparation rigoureuse.

 

La préparation du contenu doit être complète

Le contenu doit donc être utile, utilisable et adapté pour l’utilisateur.

En outre, il nécessite une préparation rigoureuse afin d’être pertinent pour les utilisateurs et donc pour les critères de l’algorithme du moteur de recherche.

 

 

 

 

La rédaction d’un contenu web demande une préparation pour que l’utilisateur s’intéresse et ne rebondisse[19] pas sur la page (Isabelle Canivet, 2012[20]). En effet, le contenu doit résulter d’une élaboration de stratégie éditoriale juste. Il s’agit de se fixer des objectifs, des enjeux, des buts à atteindre.

 

Premièrement, il est conseillé de définir sa cible (Age, sexe, CSP, profession, habitude de navigation…). Dans un second temps, il faut s’intéresser sur ses réelles motivations, besoins et attentes. Réunies, ces informations permettent de construire un profil appelé « persona ». Mieux connaitre les prospects permet de mieux les satisfaire en répondant exactement à leurs besoins.

 

La préparation définie clairement l’axe du sujet que l’on veut traiter et ses limites. Elle est une étape déterminante pour choisir les mots-clés en rapport avec ce que recherche l’utilisateur.

 

Méthodologie de choix des mots clés

Nous avons vu que les robots des moteurs de recherche tiennent compte du contenu des pages HTML et notamment des mots-clés qui s’y trouvent. Ce sont les mots-clés qui constituent le fond du contenu.

Bien que l’ensemble des mots-clés soit en adéquation avec la recherche de l’internaute, cela ne suffit pas. Des millions de page web existent et leur contenu est  bien souvent proche d’une page à l’autre. Alors comment choisir le mot-clé qui génère des visites  et qui se démarque d’un autre ?

 

La réponse est d’adopter une méthodologie de choix de mots-clés qui prend autant en compte l’utilisateur que la concurrence. Cette méthodologie de choix des mots-clés est une des phases les plus importantes dans la rédaction d’un contenu web, optimisé pour le référencement naturel. (Olivier Andrieu, 2012[21])

 

 

Pour analyser l’aspect concurrentiel d’un mot-clé,  il faut analyser le rapport entre le nombre de requêtes d’un mot-clé fait par un internaute, et le nombre de résultats de recherche que génère sa requête. En conséquence, un mot-clé concurrentiel présente un bon rapport : faisabilité/potentialité.
De bons mots clés dans un contenu doivent se mesurer en termes de  pertinence, faisabilité et potentialité.

Pertinence : C’est l’ensemble de mots-clés qui décrit précisément le sujet et qui est susceptible d’être utilisé par les clients potentiels lors de leur requête sur le moteur de recherche.

Faisabilité : il faut constater le nombre de résultats et savoir si la concurrence est forte.
Potentialité : de bons mots clés doivent soit générer du trafic, soit attirer des clients potentiels sur le site.

 

Après analyse, voici ce qu’un mot-clé peut nous révéler :

  • Un nombre de requêtes de recherche et  de résultats de recherche important indiquent que les mots-clés examinés sont concurrentiels. Placer l’un de ces mots-clés va nous permettre d’acquérir une visibilité similaire sur les SERP.
  • Un nombre de requêtes de recherche faible et un faible nombre de résultats de recherche indiquent qu’il n’y a aucun intérêt à les utiliser car ils n’ont pas ou peu de potentiel de recherche.
  • Un nombre de requêtes de recherche faible et un fort nombre de résultats de recherche montrent qu’il n’y a aucune pertinence et utilité à se placer dessus.
  • Un nombre de requêtes de recherche fort et un faible nombre de résultat de recherche signifient qu’il est possible d’être bien placé sur le moteur de recherche. Il possède donc un fort potentiel.

 

Ainsi, les mots-clés forment une requête de recherche. Il existe deux types de requête de recherche :

 

  • La requête de court-traine : cette requête est composée de mots-clés génériques et contient deux mots maximum. Elle génère un très grand nombre de requêtes car correspond aux habitudes de recherche des internautes. Cependant, l’engouement pour ce type de mots a engendré une forte présence de la concurrence.
  • La requête de longue-traine : cette requête est constituée de plusieurs mots-clés : entre trois et cinq. Elle correspond à des recherches d’internautes qualifiés dans la mesure où ils savent précisément ce qu’ils cherchent. Très peu concurrentiel, ce type de requête génère beaucoup moins de trafic.

 

2)    L’écriture sémantique d’un contenu optimisé : la forme

 

L’écriture d’un contenu sur le web est totalement différente de la rédaction traditionnelle. Cette écriture est basée sur le langage informatique HTML[22]. L’utilisation de ce langage est requise pour écrire un contenu sur la toile.

Le rôle du navigateur est d’analyser le code informatique et de l’interpréter de façon à ce que le contenu du code soit lisible pour l’utilisateur.

A aucun moment, l’utilisateur ne perçoit ce code et n’a pas connaissance des rouages qu’il suscite. Il ne voit qu’un simple contenu rédactionnel.

A l’inverse de l’utilisateur, l’algorithme du moteur de recherche prend en compte la totalité du contenu d’une page, qu’il soit visible ou non pour le lecteur.

En conséquence,  l’optimisation de la sémantique du code et du contenu sélectionné (en l’occurrence les mots-clés) dans les zones chaudes[23], permet d’augmenter la visibilité dans les SERP.

Les  travaux d’Olivier Duffez, d’Isabelle Canivet, du blog abondance.com et d’autres experts[24], nous permettent d’analyser les différentes zones chaudes et la manière de les optimiser. Vous pourrez  vous repérez grâce à l’annexe 1 qui indique visuellement où les zones chaudes se trouvent sur une page web.

 

La balise <title>:

Située dans le code HTML non interprétée par le navigateur, cette balise a pour fonction de renseigner les moteurs de recherche sur le contenu de la page. C’est ce même titre qui constitue les liens de redirection dans les SERP.  Il est le premier critère « in page » pris en compte par l’algorithme. En conséquence, y placer tactiquement les mots-clés importants différenciés est un acte d’optimisation. Dans la mesure où c’est la première donnée transmise à Google, il faut que la phrase appelle au clic. La longueur optimale est de 10 mots, ne doit pas dépasser les 68 caractères (afin que Google puisse afficher la totalité du titre) et les mots importants doivent être placés en premier.

 

La structure de la page

La hiérarchisation d’un contenu est un autre critère considéré par le moteur de recherche.  Cet ordonnancement sémantique doit permettre de renseigner l’algorithme sur les différents contenus de la page et lui permettre de le comprendre plus facilement. Le langage HTML propose six niveaux de titres éditoriaux afin de segmenter au mieux l’information pour l’organiser. Ces titres correspondent aux balises de type <hn>, allant de <h1> à <h6>.

Dans ce type de balise et comme pour toutes zones chaudes, les mots-clés ont un poids plus fort que pour l’ensemble du contenu. Ce principe s’applique spécialement à la balise <h1>. Cette dernière doit être unique car permet de titrer et renseigner l’ensemble du contenu. La duplicité du <h1> n’est pas recommandée car son poids serait dilué dans la page. Il est donc évident que ces titres doivent être explicites,  pertinents et différents dans et entre chaque page.

 

L’URL de la page

Le moteur de recherche est sensible aux URL des pages que l’on souhaite optimiser.

C’est pour cette raison qu’il est avisé de réécrire les URL des pages dans le but d’y placer des mots-clés en pertinence avec le contenu de la page. De la même manière que le titre, l’ordre est un facteur déterminant. Les URL courtes, sans caractères spéciaux et séparées  par des tirets sont mieux vue par l’algorithme car facilement utilisable et compréhensible par les robots.

 

Les images

Les images constituent la zone chaude la plus difficile à sonder pour un moteur de recherche. Dénué de contenu textuel, il est très difficile pour l’algorithme de mesurer la pertinence qu’a une image avec ce que cherche l’utilisateur. Auparavant, seul le nom donné à l’image lors de son hébergement permettait de renseigner l’algorithme. Désormais, le W3C  a attribué à chaque image, présente dans un contenu, un attribut <alt> qui a pour rôle de décrire l’image. Cet attribut permet de renseigner les personnes handicapé (malvoyant) sur la nature d’une image et l’algorithme le prend en compte dans son référencement. En conséquence, il semble judicieux de placer des mots-clés pertinents  sur l’attribut comme sur le nom de l’image.

 

Le contenu de la page

L’ensemble du contenu d’une page constitue un zone chaude, certes moins importante mais tout de même essentiel puisque qu’elle abrite la majorité des mots-clés et du texte.

D’après une étude Eyetrack et Isabelle Canivet (2011), 95 % des lecteurs ont vu et lu le texte suivant le titre principal <h1>. Pour cette raison, les mots-clés présents en dessous du <h1> sont valorisés et ont plus de poids pour le moteur de recherche.

Le langage HTML offre la possibilité de donner plus de poids à un mot en utilisant la balise <strong>. Cette dernière va indiquer que le mot est important dans le contenu. On appelle cela une mise en exergue.

Ce même auteur nous explique que l’intégration des mots-clés dans l’écriture est forcément soumise à une syntaxe et une orthographe stricte. Il est tout à fait recommandé de développer ses mots-clés  en utilisant des synonymes et des mots connexes pour que le contenu devienne naturel. Il devient original par rapport aux autres.

Nous avons expliqué que la place des mots-clés est importante. Mais quand est-il du volume ? Olivier Duffez indique qu’il n’existe pas d’indices de densité de mots-clés. Puisque l’algorithme est une formule mathématique, Il ne peut compter que l’occurrence des mots-clés et il ne peut comprendre le sens des mots.

Cependant, il peut par certain mécanisme, s’en rapprocher. Mettre alors des dizaines de mots-clés dans un contenu qui n’a plus de sens n’est enrichissant ni pour l’utilisateur, ni pour le moteur. Ce dernier souhaite un contenu naturel et non artificiel.

Ce concept s’applique aussi pour les url de redirections internes et externes d’une page.

Nous avons évoqué la mise à jour Google Panda auparavant. C’est pour ce type de contenu que le filtre de nettoyage excelle puisque les contenus scrapés, dupliqués et réécrits sont considérés comme des contenus artificiels.

 

Le code sémantique d’une page

Le langage sémantique appliqué par le code est soumis à des usages stricts dans la mesure où il doit être conforme à la norme W3C. Le moteur de recherche favorise les contenus soumis à ces normes fixées.

Dans le cadre du référencement et de l’indexation, il s’agit de trouver une entente entre l’écriture du code optimisé pour le référencement  et  le respect de ces normes qui accordent de l’importance  à l’accessibilité du contenu : un code clair, légé et structuré permet de faciliter l’indexation.

Enfin, il existe des langages informatiques (Flash et JavaScript) permettant d’animer le contenu d’une page. Ces langages ne sont pas pris en compte par l’algorithme car ils n’offrent pas de contenu textuel à valeur informative. Ils ne permettent pas la structuration du contenu et sont parfois difficiles à interpréter par les navigateurs. De plus, ils peuvent ralentir l’indexation car l’animation qu’ils proposent peut être complexe.

Comme nous avons pu le constater, les mots-clés d’une page et la sémantique choisie  pour optimiser les zones chaudes, constituent les réels facteurs d’amélioration du référencement naturel. En perpétuel évolution, le référencement naturel continuera de se développer à travers le contenu car ce dernier est l’élément le plus important pour un utilisateur lorsqu’il effectue sa recherche. C’est pour ces raisons que l’algorithme réagit de la même manière que lui. Pour résumer, le contenu textuel et son écriture sémantique est la clé de voûte du SEO.

 

Sources :

 

[1] Consulter la définition dans le glossaire

[2] ANDRIEU O., (2012), Réussir son référencement naturel, Edition Eyrolles, p. 119-252.

[3] Consulter la définition dans le glossaire.

[4] BUNN A., “The history of SEO, 1993-2010”, gossip.greenlightdigital.com, <http://gossip.greenlightdigital.com/blog/the-history-of-seo-1993-2010/ > 31 janvier 2010

[5] Court., “Link Juice Explained”, Thekeywordacademy.com

<http://thekeywordacademy.com/link-juice-explained>, 5 mai 2009.

[6] Consulter la définition dans le glossaire

[7] “Matt Cutt précise que Google est plus pertinent”, inten-site.ca, <http://www.inten-site.ca/referencement-google/changement-dalgorithme.html#comments>, 28 juillet 2012

[8] DUFFEZ O., “Formation : utiliser Google Analytics pour optimiser son référencement”, webrankinfo.com, <http://www.webrankinfo.com/dossiers/ranking-metrics/google-analytics-referencement>, 30 août 2011

[9] YONNET P., “Google veut devenir un moteur syntaxique et sémantique : quel impact pour le référencement naturel ?”, recherche-referencement.abondance.com, <http://recherche-referencement.abondance.com/2012/05/google-veut-devenir-un-moteur.html>, 15 mai 2012

[10] DUSTIN W., “[Infographic] Google wages war of spam”, seo.com, <http://www.seo.com/blog/google-wages-war-spam/>, 15 about 2011

[11] ANDRIEU O., (2012), Réussir son référencement naturel, Edition Eyrolles, p. 511-519.

[12] SINGHAL A., “More guidance on building high-quality sites”, googlewebmastercentral.blogspot.fr, <http://googlewebmastercentral.blogspot.fr/2011/05/more-guidance-on-building-high-quality.html> le 6 mai 2011

[13] BUNN A., “The history of SEO, 1993-2010”, gossip.greenlightdigital.com, <http://gossip.greenlightdigital.com/blog/the-history-of-seo-1993-2010/ > 31 Javier 2010

[14] Définition du terme « autorité de domaine » dans le glossaire.

[15] CONFOLANT A., “Google change son algorithme pour lutter contre les sites de piratage”, itespresso.fr <http://www.itespresso.fr/google-change-algorithme-lutter-sites-piratage-55617.html>, 13 août 2012.

[16] GRIWERT K., “Introducing Brafton’s Infographic: Why content for SEO?” Brafton.com,   <http://www.brafton.com/blog/introducing-braftons-infographic-why-content-for-seo>, 12 octobre 2012.

[17] PELET J.E., (2012), « Rédiger une contenu orienté web », cours portant sur le marketing relationnel, Université Paris 8 à l’I.U.T de Montreuil, 22 février 2012.

[18] CUTT M., Search quality highlights: 52 changes for April, blog official de Google recherche

<http://insidesearch.blogspot.fr/2012/05/search-quality-highlights-53-changes.html>,  5 avril 2012

[19] Consulter le glossaire.

[20] CANIVET I., (2012), Bien rédiger pour le web : et améliorer son référencement naturel, Edition Eyrolles, p. 23-31.

[21] ANDRIEU O., (2012), Réussir son référencement naturel, Edition Eyrolles, p. 99-104

[22] Inventé par Tim Bernner-Lee en 1991 qui créa par la suite l’autorité mondial chargé de favorisé la compatibilité des langages et l’accessibilité sur le web (W3C)

[23] Rappelons qu’une une zone chaude, est une partie du contenu ou les mots ont plus de poids pour le positionnement et mieux pris en compte par l’algorithme. C’est pour cette raison qu’il  est intéressant d’y placer des mots-clés.

[24] Travaux et analyse sur le référencement naturel des différents auteurs (voir bibliographie)