Skip to main content
Les Petites Histoires Du SEO

Les Petites Histoires Du SEO

By Julien Gourdon Consultant SEO

Les Petites Histoires du SEO est une série de podcasts qui ambitionne de vous dévoiler tous les secrets du monde merveilleux du SEO.
Comment Google fonctionne pour effectuer son classement dans ses pages de résultats. Quels sont les différents algorithmes utilisés pour évaluer une page web, comprendre son contenu et afficher les résultats les plus pertinents pour la requête de l'utilisateur ? Comment optimiser son contenu pour qu'il plaise autant aux internautes qu'aux robots des moteurs de recherche ?
Retrouvez Les Petites Histoires du SEO sur mon site : julien-gourdon.fr/podcast-seo
Available on
Google Podcasts Logo
Pocket Casts Logo
RadioPublic Logo
Spotify Logo
Currently playing episode

Deviens un rédacteur web augmenté avec l'IA de Help Content

Les Petites Histoires Du SEOMar 08, 2024

00:00
24:18
Deviens un rédacteur web augmenté avec l'IA de Help Content

Deviens un rédacteur web augmenté avec l'IA de Help Content

Générez des articles SEO de qualité supérieure : https://www.helpcontent.ai/ (essai gratuit, sans carte de crédit)


Alors que la compétition dans le marketing digital est de plus en plus intense, l’application Help Content est née d'une ambition simple mais audacieuse : transformer le processus de rédaction SEO en une science précise. Grâce à une analyse sémantique préalable, similaire à celle qu’effectue Google pour évaluer et classer les contenus, Help Content vous permet de créer des articles qui visent spécifiquement à plaire aux moteurs de recherche. Bienvenue dans l’ère de la rédaction assistée par IA, où chaque mot compte, chaque phrase est stratégique, et où rien, de la compréhension de l’intention de la recherche, jusqu’à l’identification complète du champ lexical à utiliser pour viser juste, n’est laissé au hasard.


Je tiens cependant à préciser que l'objectif de l’application Help Content n’est pas de dire que les rédacteurs web ne servent plus à rien, l’objectif n’est pas de les remplacer. Bien au contraire, l’application a été conçue pour eux, pour les aider à être plus productif grâce à l’IA. En tant qu’ancien journaliste et rédacteur web, j’ai un profond respect pour cette profession, et pour tous les métiers de l’écrit de manière générale. Non, l’objectif de l’application c’est au contraire de leur apporter un soutien, une assistance, en les aidant dans le choix des expressions à utiliser, dans la compréhension des questions que les utilisateurs se posent et des problématiques auxquelles ils sont confrontées, et en résolvant la problématique de la page blanche : au moins, l’application vous permet de rédiger un premier jet de votre article qui est optimisé pour les moteurs de recherche. Pour autant, je ne pense pas du tout qu’il faille publier l’article tel quel. Je pense au contraire qu’il faut que vous y apportiez une personnalisation, votre human touch si je puis m’exprimer ainsi. Et je vous dis ça parce que c’est précisément les guidelines de Google. Pour contrer la publication massive des contenus générés par l’IA, ce qui lui coûte forcément de l’argent, en termes de crawl, en termes de stockage, Google n’a pas d’autre choix que d’être plus sélectif que par le passé : donc il veut des contenus qui apportent une véritable aide à l’utilisateur, un bénéfice, une valeur ajoutée, un gain d’information par rapport aux contenus déjà en ligne, et/ou des contenus qui reflètent de la part de leur auteur une expérience personnelle par rapport à la thématique traitée. Autrement dit, par rapport aux contenus générés par l’IA qui vont avoir tendance à être impersonnel, puisque générés par des robots, Google veut mettre en avant des contenus qui apportent quelque chose en plus, une humanité si j’ose dire.

Donc pour conclure, l’IA c’est super bien, mais combiné à l’humain c’est beaucoup mieux !

Mar 08, 202424:18
ChatGPT est-il vraiment devenu moins intelligent ? - Ep. 10 - LPHS

ChatGPT est-il vraiment devenu moins intelligent ? - Ep. 10 - LPHS

Retrouvez l'épisode ChatGPT est-il vraiment devenu moins intelligent ? sur mon site.


Depuis quelques jours, quelques semaines ou quelques mois, les passionnés d’IA sont en émoi : ChatGPT serait devenu moins performant qu’à sa grande époque.

Une étude très sérieuse a en effet été publiée sur le sujet. Mise en ligne le 18 juillet dernier par trois chercheurs des universités prestigieuses de Stanford et Berkeley l’étude intitulée “How Is ChatGPT’s Behavior Changing over Time?” souligne à quel point le comportement des deux grands modèles de langage GPT-3.5 et GPT-4 évolue au fil du temps. Et pas toujours pour le mieux...


Jul 31, 202308:40
Mon avis sur Google Bard : que vaut le chatbot comparé à ChatGPT+ ? - Ep. 9 - LPHS

Mon avis sur Google Bard : que vaut le chatbot comparé à ChatGPT+ ? - Ep. 9 - LPHS

En tant que consultant SEO fan des intelligences artificielles génératives et de ChatGPT version GPT-4 en particulier (que j'utilise au quotidien dans mon job), j'ai voulu tester le chatbot de Google afin de comparer ses compétences à celles du robot conversationnel d'OpenAI. Et franchement, pour moi, il n'y a même pas match...


Vous pouvez retrouver cet épisode et l'article associé directement sur mon site : https://julien-gourdon.fr/podcast-seo/mon-avis-sur-google-bard

Jul 19, 202311:46
Quel avenir pour le SEO ? - Ep. 8 - LPHS

Quel avenir pour le SEO ? - Ep. 8 - LPHS

Quelles seront les grandes tendances du référencement naturel dans les prochaines années ?

Le SEO est une stratégie de marketing en ligne qui vise à améliorer le classement d'un site web dans les pages de résultats des moteurs de recherche. Cette technique a vu le jour dans les années 1990, lorsque les premiers moteurs de recherche comme Altavista et Yahoo ont été lancés.

Au début, le classement dans les pages de résultat était principalement basé sur des mots-clés et des liens entrants, c'est-à-dire des liens provenant d'autres sites web pointant vers le site en question. Cette approche était simple et facile à manipuler, ce qui a mené à des pratiques douteuses comme l'achat de liens et le bourrage de mots-clé.

Mais la donne va changer lorsque Google arrive sur le marché en 1998 avec un tout nouvel algorithme, le PageRank. Cet algorithme de classement des résultats tient compte de la qualité et de la quantité des liens pointant vers une page, ainsi que de la qualité des pages qui les font référence. Plus une page a de liens de qualité, plus son pagerank est élevé, ce qui lui permet d'apparaître en haut des résultats de recherche.

Depuis, le pagerank a été constamment amélioré et mis à jour pour tenir compte des évolutions du web et des comportements des utilisateurs. Et de la même façon, le SEO a évolué constamment pour s'adapter aux changements des algorithmes de classement des moteurs de recherche et aux attentes des utilisateurs. Aujourd'hui, le SEO comprend une variété de techniques pour améliorer le classement d'un site, telles que l'optimisation de la structure du site et la génération de liens entrants de qualité, ou encore la création de contenu multi formats visant à occuper un maximum d’espace en fonction des multiples affichages que propose Google dans ses pages de résultats. La création de contenu de qualité peut d’ailleurs aujourd’hui se faire à l’aide de l’intelligence artificielle, les techniques de traitement automatique du langage étant suffisamment matures pour générer en quelques clics et quelques secondes des contenus d’une qualité tout à fait satisfaisante sur des thématiques extrêmement variées. Et si vous en doutez encore, et je ne devrais sans doute pas vous le dire, mais sachez que le podcast que vous êtes en train d’écouter actuellement a été presque entièrement rédigé par l’intelligence artificielle dont tout le monde parle aujourd’hui, à savoir ChatGPT, qui appartient à OpenAI, dont l’un des propriétaires n’est autre qu’Elon Musk.

Et cela ouvre des perspectives immenses pour le futur.

Et l’avenir, justement, parlons-en. S’il est difficile de prédire ce que nous réserve le SEO dans les prochaines années, il y a de fortes chances qu’il soit de plus en plus axé sur les données et l’analyse. Les algorithmes des moteurs de recherche deviendront de plus en plus sophistiqués et capables de traiter des quantités massives de données pour comprendre de manière plus approfondie les requêtes des utilisateurs et le contenu des sites Web. Cela signifie que les stratégies SEO devront être fondées sur des données solides et des analyses approfondies pour être efficaces.

De plus, il y a de fortes chances que le SEO devienne de plus en plus intégré à d'autres stratégies de marketing en ligne, telles que les campagnes publicitaires en ligne, les médias sociaux et les marketing d'influence...

Retrouvez le podcast Quel avenir pour le SEO ? sur YouTube :</>

https://www.youtube.com/watch?v=ek2og7CIORI

Retrouvez le podcast Quel avenir pour le SEO ? sur mon site internet :

https://julien-gourdon.fr/podcast-seo/quel-avenir-pour-le-seo

Dec 10, 202204:05
C'est quoi un bon consultant SEO ? - Ep. 7 - LPHS
May 10, 202204:12
Une entité nommée c'est quoi ? - Ep. 6 - LPHS

Une entité nommée c'est quoi ? - Ep. 6 - LPHS

En réalité, il n’existe pas de consensus réel sur la définition d’entité nommée, puisqu’elle est souvent dépendante de son champ d’application, qui peut être multiple et varié. Toutefois, lorsqu’il s’agit de traitement automatique du langage naturel et de recherche du sens d’un texte ou d’une requête (puisque c’est bien de ça dont nous souhaitons parler dans cet épisode), on peut définir une entité nommée comme un objet textuel (c’est à dire un mot ou un groupe de mots) catégorisable dans des classes qui peuvent être par exemple des lieux, des personnes ou des organisations, auxquelles nous pouvons rattacher des caractéristiques ou attributs.

Le concept de reconnaissance et d’exploitation des entités nommées au sein d’un document textuel est apparu dans le milieu des années 90. Il est aujourd’hui un élément incontournable dans le traitement automatique du langage naturel.

Selon une étude menée par Microsoft en 2010, entre 20 et 30% des requêtes soumises dans Bing, son moteur de recherche, étaient des entités nommées à parts entières, et 71% d’entre elles contenaient au moins une entité nommée dans la question posée. On comprend alors tout l’intérêt pour un moteur de recherche de constituer une gigantesque base de données d’entités nommées permettant de catégoriser des requêtes et des pages web afin de simplifier l’extraction de la bonne information et d’améliorer la pertinence des résultats.

2010, c’est également l’année où Google rachète Metaweb, une société connue pour avoir développé Freebase, une base de données de plusieurs millions d’entités nommées.

C’est avec cette base de données, qui rassemble aujourd’hui 500 milliards de faits au sujet de 5 milliards d’entités selon les dernières informations données par Google en 2020, que le moteur de recherche a déployé son knowledge graph, ou arbre de connaissances, à partir de 2012.

Il faut cependant savoir que la reconnaissance des entités nommées se heurte à plusieurs défis de taille, parmi lesquels nous pouvons en citer 2.

Le premier défi est celui de la désambiguïsation sémantique lexicale. Un même terme peut en effet avoir plusieurs sens différents. On dit alors qu’il est polysémique. L’exemple classique qu’on donne en SEO est le terme jaguar, qui peut à la fois désigner l’animal sauvage mais également la marque de voiture de luxe. Dans le cadre d’une recherche d’information sur un moteur de recherche, lorsque l’utilisateur utilise le terme jaguar (qui est donc une entité qui peut soit avoir pour type “le nom d’une organisation”, soit avoir pour type “le nom d’un animal”) dans sa requête, le moteur de recherche va devoir analyser le contexte dans lequel se trouve le terme (qui peut être les mots entourant jaguar, mais également l’historique des recherches de l’utilisateur ou encore sa position géographique au moment où il effectue sa recherche) pour comprendre le véritable besoin de l’internaute et lui renvoyer les résultats les plus pertinents. Un scoring sera par ailleurs mis en place afin de déterminer la probabilité qu’un utilisateur recherche plutôt telle ou telle information lorsqu’il tape une requête de type “jaguar” dans le moteur de recherche.

Etc.

Retrouvez ce podcast SEO sur mon site :

https://julien-gourdon.fr/podcast-seo/c-est-quoi-une-entite-nommee

Ou retrouvez le podcast Une entité nommée c'est quoi sur YouTube :

https://www.youtube.com/watch?v=DzCTpHNIC-o

Jun 20, 202107:23
Le PageRank c'est quoi ? - Ep. 5 - LPHS

Le PageRank c'est quoi ? - Ep. 5 - LPHS

Comme nous l’avons vu dans un précédent épisode, le PageRank est l’algorithme fondateur de Google, qui fut à l’origine de son succès. Créé par Larry page, un des cofondateurs du moteur de recherche, il est expliqué en détail dans un article en date du 29 janvier 1998, que l’on peut facilement consulter sur le web. Mais comment expliquer le PageRank en quelques mots ?

Pour cela, il faut déjà comprendre la problématique qui se pose à tout moteur de recherche. Comment trouver un modèle qui puisse automatiquement et rapidement fournir les résultats les plus pertinents à l’utilisateur en recherche d’information ?

C’est la base !

Un utilisateur qui juge les résultats qu’on lui renvoie peu pertinents par rapport à sa recherche passera chez la concurrence et ne reviendra pas de sitôt. La qualité des résultats fournis est donc cruciale pour un moteur de recherche.

C’est donc à cet épineux problème que c’est attaqué Larry Page en créant le PageRank.

Son postulat de départ consiste à dire que les pages les plus populaires doivent être les mieux classées dans un moteur de recherche.

Pourquoi ? Parce que si une page est souvent visitée par un grand nombre d’internautes, c’est qu’elle leur plaît et il est donc normal que les moteurs de recherche poussent ces pages web.

Mais le problème est qu’en 1998, il n’existe aucun moyen de mesurer l’audience d’un site web. Rappelons que Google Analytics ne sera lancé qu’en 2005 et qu’il n’existe alors pas encore d’outil pour connaître le trafic d’un site.

Pour autant, une estimation de l’audience ne semble pas insurmontable.

Imaginons pour commencer que le web soit représenté par un graphe orienté, où chaque nœud représente une page web, et chaque arc reliant les nœuds entre eux un lien hypertexte pointant d’une page vers une autre. Intuitivement, on peut aisément se visualiser le fait que plus un nœud A est relié à d’autres nœuds, plus ce nœud A est gros et est donc plus visible que les autres.

Mais encore faut-il donner une base scientifique à cette intuition pour la rendre tangible.

Pour cela, Larry Page va modéliser un visiteur virtuel, appelé “surfeur aléatoire”. C’est l’idée selon laquelle un internaute, lorsqu’il se retrouve sur une page web quelconque, a deux comportements possibles. Soit il clique sur un des liens se trouvant sur la page, soit aucun de ces liens ne l’intéresse et il se téléporte sur une autre page quelconque, en ouvrant un nouvel onglet dans son navigateur par exemple.

Retrouvez le podcast Qu'est-ce que le PageRank sur YouTube :

https://www.youtube.com/watch?v=8kZfwu2CPA0

Jun 06, 202107:14
Le Natural Language Processing c'est quoi ? - Ep. 4 - LPHS

Le Natural Language Processing c'est quoi ? - Ep. 4 - LPHS

Qu’est-ce que le Natural Language Processing ? Et quel est son rapport avec le SEO ?

Le Natural Language Processing a pour objectif de permettre aux machines de comprendre le langage humain, et est notamment utilisé dans la recherche d’information. C’est une technologie utilisée par Google pour traiter, comprendre et classer le contenu des pages web, mais également les recherches des utilisateurs.

D'un point de vue historique, une théorie majeure fut développée au milieu des années 50. Il s’agit de ce que l’on appelle l’hypothèse distributionnelle. Elle pose l’idée que les mots qui se trouvent dans des contextes d’apparition proches tendent à avoir des significations similaires.

Plusieurs décennies plus tard, en 1983, Gerard Salton propose le modèle vectoriel, qui consiste à représenter des documents textuels ou des listes de mots sous la forme de vecteurs, c'est-à-dire de valeurs numériques.

Parallèlement, ce même Gérard Salton propose d’utiliser une méthode statistique de pondération, appelée TF-IDF, pour évaluer l’importance d’un terme, devenu une valeur numérique, dans un document.

A partir des années 2010, on commence à utiliser des réseaux de neurones artificielles en NLP.

En 2013, des algorithmes entraînés par des réseaux de neurones et développés  par les équipes de Google ont permis de mettre au point le système Word2Vec, un algorithme de word embedding, capable d’identifier les relations entre les mots en prenant en compte le contexte dans lequel ces mots, transformés en vecteur, apparaissent.

Mais depuis 2013, Google ne cesse de repousser les frontières du traitement automatique du langage naturel. On peut citer BERT, son algorithme à l'œuvre depuis 2019 pour comprendre encore plus précisément les requêtes des utilisateurs.

Fin 2020, Google annonce que sa mise à jour “passage indexing” lui permet d’identifier un passage précis d’un contenu qui répond selon lui précisément à la requête de l’internaute. De cette manière, Google peut renvoyer à l’utilisateur un extrait d’un contenu en réponse à sa recherche, peu importe que le contenu d’ensemble de la page n’ait qu’un rapport lointain avec la demande de l’utilisateur.

On le voit, la compréhension qu'a Google de votre contenu est précise.

Les avancées en traitement automatique du langage naturel montre qu’aujourd’hui il est totalement improductif de bourrer votre contenu du mot-clé sur lequel vous souhaitez vous positionner.

De la même manière, les longs textes dilués ne servent à rien. Au contraire. Google souhaite mettre en avant des textes précis, allant à l’essentiel, clairs dans l’objectif qu’ils se donnent de répondre à telle ou telle problématique, autant dans leur globalité que dans chacune des sous-thématiques abordées. Gardez toujours à l’esprit. Ce que Google veut, c’est afficher les réponses les plus pertinentes à la requête de l’utilisateur.

Pour optimiser un contenu, il faut donc d’abord et avant tout être clair dans l’intention qu’on se donne de répondre à une problématique rencontrée par vos utilisateurs. Et plutôt que de bourrer votre page du même mot-clé sur lequel vous souhaitez vous positionner, demandez-vous plutôt quels sont les termes et les thèmes qui tournent autour et qui sont régulièrement abordés lorsqu’on parle du sujet sur lequel vous souhaitez prendre la parole. Structurez votre contenu en conséquence. Chacun des sujets connexes à votre sujet principal pourra faire l’objet d’une sous-partie ou d’un paragraphe spécifique.

Cette manière de structurer votre contenu plaira autant aux internautes qu’au moteur de recherche. Et c’est la combinaison gagnante pour vous rapprocher des premières places dans les pages de résultats de Google.

Retrouvez le podcast Qu'est-ce que le Natural Language Processing sur YouTube :

https://www.youtube.com/watch?v=5eGX_aturVM

May 30, 202107:21
Quels sont les 3 piliers fondamentaux du SEO ? - Ep. 3 - LPHS

Quels sont les 3 piliers fondamentaux du SEO ? - Ep. 3 - LPHS

En SEO, on a l’habitude de dire qu’il faut travailler 3 piliers fondamentaux pour maximiser ses chances d’être bien positionnés dans les pages de résultats des moteurs de recherche. Quels sont-ils ?

1 - Le contenu

Le premier pilier fondamental qu’il faut absolument travailler pour une bonne stratégie de référencement naturel est le contenu de votre site. Les moteurs de recherche et vos internautes, veulent des contenus de qualité, qui apportent une réelle valeur ajoutée et répondent à leurs questions. Pour y arriver, vous devez d’abord et avant tout vous concentrer sur l’intention de recherche des utilisateurs. Comment comprendre la réelle intention de recherche des internautes. Tapez un mot-clé de votre thématique dans Google et analysez les résultats affichés en première page. Y a-t-il beaucoup de résultats images ou vidéos ? Est-ce que ce sont surtout des fiches produits ou de longs articles de blogs qui se positionnent sur la requête ? Ce sont autant d’indications sur ce que recherchent les internautes. A vous d’adapter votre contenu en conséquence.

2 - La technique

Le deuxième pilier fondamental du SEO est la technique. L’objectif ici est d’améliorer l’exploration et l’indexation des pages de votre site par les robots des moteurs de recherche. Derrière ces termes techniques se cache en réalité une évidence. Pour que Google puisse bien positionner vos contenus dans ses pages de résultats, encore faut-il qu’il les connaisse.

Il faut donc aider ses robots d’exploration à découvrir vos pages. Comme les robots parcourent un site en suivant ses liens internes, le maillage interne est un élément incontournable d’une bonne stratégie SEO. Tous les contenus ayant un intérêt à être visibles dans Google doivent être accessibles en quelques clics depuis la home. Et toutes les pages parlant de la même thématique doivent être maillées entre elles. C’est utile autant pour les utilisateurs que pour les robots, qui vont d’autant mieux comprendre les différents sujets abordés sur votre site que votre maillage interne sera cohérent. Et si malgré tous vos efforts certaines pages ne sont toujours pas indexées dans Google ? Crawlez votre site et vérifiez s’il n’y a pas des soucis techniques empêchant vos contenus d’être indexés.

3 - La popularité

Le troisième pilier fondamental du SEO est la popularité, c'est à dire le nombre et la qualité des backlinks obtenus par une page web. Il s’agit  du pilier originel du SEO, puisque c’est en identifiant le nombre de liens obtenus par une page que Google a commencé à effectuer son classement. Plus une page recevait de liens externes, plus cela voulait dire qu’elle était populaire et donc pertinente pour apparaître dans les résultats de Google. C’est ce qu’on appelle le Pagerank, le premier des algorithmes de Google. Cet algorithme a évolué et s’est perfectionné au fil des années, et on parle aujourd’hui de pagerank thématique. Ca veut dire que désormais, il est nécessaire de s’intéresser à la thématique de la page qui fait un lien vers une autre page. Plus la thématique d’une page qui contient un lien sera proche de celle qui reçoit ce lien, plus ce backlink aura de la valeur aux yeux de Google. Les SEO vont donc optimiser la popularité d’un site en travaillant ce qu’on appelle le profil de liens de ce site. Le nerf de la guerre est d’obtenir des backlinks de sites déjà populaires aux yeux de Google et traitant de la même thématique que le site qu’on cherche à optimiser. Et tout ça avec des ancres de liens variés pour ne pas que le moteur de recherche suspecte une suroptimisation !

En bref, les 3 piliers du SEO que sont le contenu, la technique et la popularité, sont indispensables à la mise en place d’une bonne stratégie de référencement naturel. Mais ils sont également complémentaires.

Et un bon référenceur est un référenceur qui maîtrise les 3 piliers fondamentaux du SEO.

May 25, 202104:53
Google Penguin c'est quoi ? - Ep. 2 - LPHS

Google Penguin c'est quoi ? - Ep. 2 - LPHS

Qu’est-ce que Google Penguin?

Un an après Google Panda, une nouvelle mise à jour algorithmique est déployée par le moteur de recherche pour pénaliser les sites de mauvaise qualité. Son nom ? Google Penguin.

Officiellement lancé le 24 avril 2012, ce nouveau filtre vise plus précisément à réduire la visibilité des sites qui violent les guidelines de Google en pratiquant des optimisations abusives, telles que par exemple des échanges de liens entre des sites n’ayant aucun rapport thématique entre eux, la suroptimisation des ancres de liens (c’est à dire le fait d’avoir une ancre de liens intégrant un même mot-clé répétée un trop grand nombre de fois), ou encore la duplication délibérée de contenu d’un site depuis un autre site.

En d’autres termes, Google Penguin vise à pénaliser les spammeurs !

Cette mise à jour est complémentaire à Google Panda, mais à la différence de cette dernière qui vise plutôt à sanctionner le contenu interne des sites lorsqu’il est de mauvaise qualité, le filtre Google Penguin lui s’intéresse davantage aux techniques de référencement externe, ce qu’en d’autres termes on appelle le netlinking.

C’est à partir du déploiement du filtre Penguin en 2012 que les experts du SEO ont commencé à utiliser des stratégies de backlinks moins agressives, mais beaucoup plus fines et variées. A partir de cette période, on s’intéresse moins à la quantité des liens qu’un site reçoit, qu’à la qualité de ces liens. Les référenceurs vont désormais chercher des backlinks depuis des sites ayant la même thématique que celui qu’ils cherchent à rendre plus visible dans le moteur de recherche. La course au plus grand nombre de backlinks possibles devient beaucoup moins pertinente que par le passé, voire même dangereuse pour le site qui pourrait se voir infliger une pénalité et baisser de manière vertigineuse dans les pages de résultats de Google.

Ainsi, si le spam sur le Web a toujours existé et existera toujours, à partir de 2012, il est nécessaire de mettre en place des stratégies de netlinking beaucoup plus fine pour passer sous les radars du filtre de nettoyage Google Penguin.

Retrouvez le podcast Qu'est-ce que Google Penguin sur YouTube : https://www.youtube.com/watch?v=E0TXHYK5RA0

May 21, 202102:07
Google Panda c'est quoi ? - Ep. 1 - LPHS

Google Panda c'est quoi ? - Ep. 1 - LPHS

Qu'est-ce que Google Panda ?

Google Panda est le nom donné à une mise à jour de l’algorithme de classement du célèbre moteur de recherche dont la première version a été déployée en février 2011, et ne concernait tout d’abord que les Etats-Unis. Son objectif est de dévaluer les pages proposant un contenu dupliqué, insuffisant ou de faible qualité, pour mettre en avant ceux contenant une information riche, utile aux utilisateurs.

Google Panda est déployé un peu plus d’un an après Google Caffeine, une autre mise à jour majeure de l’algorithme de Google, qui visait à améliorer le processus d’indexation des pages web. L’index de Google s’est alors mis à augmenter de manière exponentielle, mais parmi les contenus indexés, certains étaient de très faible qualité.

Beaucoup de propriétaires de sites se sont alors plaints d’être moins visibles dans les pages de résultats de Google que d’autres sites dont le contenu superficiel semblait n’avoir été créé que dans l’unique but d’être bien positionné dans les pages de résultats de Google, sans apporter la moindre valeur ajoutée aux utilisateurs.

Il était donc important pour Google de régler ce problème, et c’est tout l’objectif de Google Panda.

Fait suffisamment rare pour être souligné, Google publie un billet sur son blog le 24 février 2011 pour annoncer le déploiement de Google Panda, dont il explique qu’il impacte 11,8% des requêtes des internautes.

Google Panda sera déployé partout dans le monde à compter d’août 2011.

En mars 2013, Google annonce que les mises à jour de Google Panda se font désormais en temps réel, et ne sont plus déployées de manière manuelle. C’est ce qu’on appelle le filtre “Panda Everflux”.

Retrouvez le podcast Qu'est-ce que Google Panda sur YouTube : https://www.youtube.com/watch?v=JttaD2UAfxY

May 15, 202101:50