Toulouse networks
Follow
Find tag "Panda"
25.7K views | +5 today
Toulouse networks
Networking in Toulouse - Réseautage de la Ville Rose
Your new post is loading...
Your new post is loading...
Scooped by Jacques Le Bris
Scoop.it!

[Infographie] SEO : les 27 plus grosses mises à jour de Google en 2012 

[Infographie] SEO : les 27 plus grosses mises à jour de Google en 2012  | Toulouse networks | Scoop.it

L’agence marketing e2m solutions, spécialisée dans le SEO, a publié hier une infographie reprenant les principales mises à jour effectuées dans l’algorithme de recherche de Google en 2012.  Au nombre de 27, celles-ci sont accompagnées d’un paragraphe explicatif sur l’utilité de leur mise en place pour la communauté SEO. On y retrouve, entre autres :

 

10 janvier 2012 : lancement de « Search, plus Your World », qui permet, grâce à un bouton situé en haut à droite des résultats, de passer d’un contenu basique à un contenu personne, avec photos, statuts et posts de vos amis Google +.

18 janvier 2012 : une des plus grosses mise à jour de l’année, selon Google, avecPanda 3.2.

27 février 2012 : mise en place de Venice, qui permet de mettre en avant les recherches géolocalisées, et donc d’obtenir des services ou de l’information venant d’entreprises locales.

24 avril 2012 : Après Panda, voici Penguin, le nouvel algorithme de Google pour lutter contre le spam.

27 septembre 2012 : Google met en place un algorithme visant à réduire la visibilité dans les SERP Google des sites dont le nom de domaine contient uniquement des mots-clés (Exact Match Domain) et qu’il considère comme de mauvaise qualité.

21 décembre 2012 : Le filtre Google Panda lance sa 23ème version, avec, selon lui, 1,3% de requêtes impactées.

more...
No comment yet.
Scooped by Jacques Le Bris
Scoop.it!

Pandaranol = Panda + parano + pas de bol -

Pandaranol = Panda + parano + pas de bol - | Toulouse networks | Scoop.it
Daniel Broche :

En pleine crise de paranoïa autour du nouvel algorithme Google nomé Panda, un concours mondial de référencement est lancé sur le mot imaginaire "pandaranol". Un peu comme dans un match de catch, les gentils white hats et méchants black hats vont donc s'affronter jusqu'en juillet pour conquérir les premières places du moteur de recherche sur ce mot clef. Tous les coups sont permis.

A la clef, des lots mais surtout une très belle publicité pour celui qui réussira a gagner la compétition.

[Note du Curateur] Selon des sources intarissables c'est un groupe de lapins sauteurs qui porte ce nom qui aurait provoqué le tremblement de terre le 11 mars dernier au Japon. Je me demande qui a pu les équiper en scaphandre vu qu'il a eu lieu en pleine mer...

http://bit.ly/jqPhaA
more...
No comment yet.
Scooped by Jacques Le Bris
Scoop.it!

Bilan de Google Panda: après les peurs, la polémique

Bilan de Google Panda: après les peurs, la polémique | Toulouse networks | Scoop.it
LExpansion.com fait le point sur l'impact de la mise à jour de l'algorithme de Google sur les résultats de recherche. Accusé de manipuler les classements et de favoriser ses propres services, le n°1 des moteurs répond aux critiques.

Trois semaines après la mise à jour de l'agorithme de recherche de Google, connue sous le nom de Panda, l'heure est aux bilans. Panda, qui avait mis tous les sites français en alerte après les dégâts qu'elle avait causés à certains sites aux Etats-Unis et en Grande-Bretagne, a-t-elle bouleversé en profondeur les classements dans les résultats du moteur en France ? Les premières études de visibilité, qui donnent des indicateurs de tendances, pointaient le portail Wikio et les comparateurs de prix comme les principales victimes de Panda. Certains en ont d'ailleurs déjà tiré les conséquences: Wikio News et Wikio Experts, l'agrégateur et la ferme de contenus du groupe eBuzzing, ont été arrêtés cette semaine.

Le cas de Wikio et des agrégateurs
Après ce qui s'était passé aux Etats-Unis et en Angleterre, et compte tenu de l'attachement de Google à lutter contre la duplication de contenus (reprise de contenus produits par d'autres sites), les agrégateurs et les fermes de contenus étaient désignés comme les premières cibles de Panda. Ca n'a pas loupé. L'audience du portail Wikio a dégringolé de 40%, en France et partout ailleurs. Des sites comme Suite101 et Paperblog ont aussi beaucoup souffert.

"Dans notre chiffre d'affaires, l'apport du portail n'est que de 1% environ, l'impact financier était donc négligeable, explique Frédéric Montagnon, le directeur marketing de eBuzzing. Mais la perte d'audience n'était pas bonne en termes d'image. Comme le portail était en fait une vitrine technologique pour nous, à destination des agences et des blogueurs, nous avons décidé d'intégrer ses fonctionnalités dans le site eBuzzing." Au final, le groupe s'en sort bien puisque dans le même temps, il indique que sa plateforme de blogs Overblog a gagné en visibilité, de l'ordre de +15%.

Les sites produisant leur propre contenu, comme les sites de presse, ont quant à eux profité pour la plus grande part de Panda, selon les analyses préliminaires de l'agence d'e-marketing Resoneo.

Pour le site Commentcamarche, que certains s'attendaient à trouver dans le groupe des perdants, l'impact est positif. Le site a gagné en visibilité, particulièrement en Espagne, au Portugal et en Italie, où l'audience a augmenté de 10%, atteste Benoît Sillard. "En Amérique latine, où nous devions être copiés-collés par beaucoup d'autres sites, la progression est même de 25 à 30%", indique le patron de CCM-Benchmark, qui ne révèle pas quelle part de son trafic est convoyée par Google. Il précise qu'un travail au long cours, consistant à retirer les questions restant sans réponse et celles qui sont trop datées, a contribué à améliorer la qualité du site et donc à satisfaire les critères de Panda.

Le cas de comparateurs et des guides d'achat
C'est la deuxième catégorie de sites la plus touchée. Chez Leguide.com, on ne donne pas de chiffres pour l'instant, trop tôt, mais on indique que l'impact est moindre qu'au Royaume-Uni, où le site avait perdu 25% de ses visites en provenance de Google, sa principale source de trafic et de loin. L'impact serait plus important en Espagne et en Italie qu'en France. Corinne Lejbowicz, son PDG, n'a rien changé à sa stratégie pour autant, puisque cela fait des années que l'objectif est d'être moins dépendant de Google. Elle a tout de même renforcé ses équipes de référencement naturel, en interne et en externe, pour "comprendre et analyser plus vite".

Kelkoo, lui, s'en tire relativement mieux que ses concurrents. Le site ne souhaite pas encore communiquer de bilan chiffré mais indique qu'il retravaille le contenu du site depuis le début de l'année, et "il se trouve que ça plaît à Google".

Mécaniquement, sur les requêtes liées à des produits, les sites de e-commerce profitent de Panda. C'est le cas de RueduCommerce, qui a gagné environ 30% de visibilité et ajoute que "cela s'est traduit en progression de l'audience". Une remontée qui n'est pas seulement due au recul des comparateurs mais aussi à la mort de certains "parasites" comme Wikio Experts, selon Yannick Simon, directeur général adjoint du site. Panda a également été fatal à Zlio, une plateforme qui permettait aux internautes de créer leur boutique en ligne en vendant des produits d'autres sites e-commerce. Par ailleurs, RueduCommerce s'est adapté au nouveau système en faisant en sorte que les listes de résultats vides ne soient pas conservées dans l'index de Google, ou que seule la première page des listes de produits soit indexée.

 

Google a-t-il délibérément "descendu" certains sites ?
Vu l'impact potentiel du référencement sur le trafic et le chiffre d'affaires des sites, on imagine que les sites touchés sont un peu énervés... Le ressentiment vient notamment du fait que le critère principal des bouleversements de classements est celui de la qualité. Une notion difficile à évaluer par un algorithme, censé être neutre et pas "éditeur" de contenus. D'où la tentation de prêter à Google des intentions cachées. Après tout, pourquoi un comparateur de prix serait-il forcément un site de mauvaise qualité ?

"Google a fait le ménage dans certains types de contenus, juge Frédéric Montagnon. Il a privilégié certains types d'acteurs et en a déclassé d'autres." David Degrelle, président du directoire de l'agence de référencement 1ère Position, va plus loin dans une interview sur Petitweb. "Des sites peu connus, comme des plateformes de blogs de grands médias utilisées par des spammeurs pour mettre des liens sur leurs sites ne sont pas tombés (...). Google n'arrive plus à lutter contre le spam de manière algorithmique. Nous sommes convaincus que Google intervient manuellement dans son algorithme. (...) Cette intervention manuelle est la porte ouverte aux manipulations."

Google France dément totalement l'accusation. "Panda est une mise à jour de l'algorithme, qui s'applique à l'ensemble du web, explique un porte-parole. Il n'y a aucune sélection manuelle. Nous n'avons pas non plus ciblé de typologies de sites. L'objectif de Panda est d'identifier les contenus de bonne et de moins bonne qualité. Nous ne nous sommes pas dit : 'tel type de sites est forcément de mauvaise qualité'". De même, Google réfute toute " politique qui aurait consisté à cibler certains sites pour l'exemple". "Si certains sites de mauvaise qualité y ont échappé, ce n'est pas impossible, aucun algorithme n'est parfait, et cela sera rectifié", poursuit le porte-parole.

Si tout le monde n'est pas convaincu d'une intervention manuelle, l'algorithme lui-même suscite toutes les spéculations. Il est vrai que les indices laissés par Google (ici ou là) ressemblent plus à des devinettes qu'à un cahier des charges. Certains sont persuadés que le temps passé sur la page et le taux de rebond font partie des critères de qualité. Yannick Simon émet l'hypothèse que les visites via le nom du site entré sur Google vaudraient davantage que celles via un mot-clé. Exemple: taper "Kelkoo" dans Google donnerait plus de points à Kelkoo que taper "TV Samsung" et se retrouver sur le comparateur.

Mais pour Frédéric Montagnon, le problème n'est pas dans l'intervention manuelle ou la définition des critères de qualité. "Le problème, c'est la position dominante de Google et comment on régule ce marché."

Google en profite-t-il pour favoriser Google Shopping ?
Certains concurrents s'interrogent explicitement sur le conflit d'intérêt entre les produits de Google et son algorithme. Bastien Duclaux, DG du comparateur Twenga, écrit sur Twitter "Google a donc décidé de dégager toutes les plateformes de shopping de ses résultats et de privilégier ses propres services". La plupart des acteurs interrogés par Lexpansion.com ont observé une remontée de Google Shopping sur la première page de résultats. Chez RueduCommerce, sa part dans les ventes "ne cesse d'augmenter", confie Yannick Simon, qui reconnaît que le service lui envoie du "trafic hyper qualifié".

Le porte-parole de Google que nous avons contacté est de son côté formel: "Nos propres services bougent en même temps. Nous n'avons pas de politique qui consiste à afficher nos produits avant les autres. Ils sont soumis aux mêmes règles." "Le problème de Panda, c'est que le sujet a été tellement discuté avant même son déploiement en France qu'il a suscité des spéculations et des peurs hors de proportion", déplore-t-il.

En attendant le verdict de l'enquête de la Commission européenne sur un éventuel abus de position dominante de Google, les sites qui ont des réclamations à faire peuvent toujours le faire auprès de Google. Quant aux internautes, ils auront le dernier mot. Un récent sondage du site LesNumeriques montre qu'un tiers des votants estime que les résultats sur Google sont meilleurs depuis Panda. 60% ne voient pas de différence.

more...
No comment yet.
Scooped by Jacques Le Bris
Scoop.it!

Référencement: conseils à un webmestre pour ne pas se faire écraser par un Panda

Référencement: conseils à un webmestre pour ne pas se faire écraser par un Panda | Toulouse networks | Scoop.it
| Référencement Web | Orénoque interactif, Montréal :

Un nouvel algorithme de Google (High Quality Sites Algorithm) risque d’affecter le référencement des pages de certains types de sites.

En avril 2011 Google a lancé une modification à son algorithme appelée « Panda Update ». Cet algorithme a pour but d’éliminer des pages de résultats de Google les contenus de piètres qualités en provenance de « fermes de contenus », des sites à valeur ajoutée minimale et qui créent des dizaines de milliers de pages de résultats simplement pour gagner quelques dollars avec la publicité affichée sur celles-ci.
Ce nouvel algorithme, qualifié par Google d'algorithme High Quality Sites Algorithm, risque d’affecter particulièrement le référencement des pages de certains types de sites, particulièrement les sites qui comportent plusieurs milliers de pages avec les caractéristiques suivantes :

contenus minces,
recopiés d’autres sites,
sans valeur ajoutée,
à contenu répétitif, dupliqué, indifférencié,
pages de catalogues de sites marchands recopiés des pages des fournisseurs,
pages de type répertoires et annuaires d’entreprises,
pages de type question et réponses (Q&A),
fermes de contenus ou répertoires d’articles (ehow.com, article,
pages avec peu de liens externes,
pages avec peu de liens internes.
Cet algorithme de Google porte une attention particulière aux signaux suivants :

Critères on-page

Grand nombre de fautes d'orthographe
Grand nombre de publicités par page
Faible ratio entre le contenu et la publicité
Critères off-page

Peu d’informations de partage social en provenance de sites tels que Bit.ly ou d'autres outils qui raccourcissent les liens, les likes, les partages, les commentaires et les clics en provenance du Social Graph de Facebook, les clics, Tweets et Retweets en provenance de Twitter, de LinkedIn et de son bouton de partage social, ou en provenance de site de partage de signets comme Delicious.
Faible popularité générale - nombre de visiteurs uniques
Faible portée géographique - nombre de visiteurs en provenance de régions géographiques différentes
Faible temps passé sur le site, taux de rebond
Faible nombre de visites successives, de revisites
Les pages qui satisfont ces critères sont considérées par Google comme étant de peu de qualité, de peu d’intérêt et sont donc envoyées dans l’index supplémentaire de Google (Supplemental index) d’où elles ont peu de chance d’être sélectionnées pour apparaître dans les résultats de recherches. Ce sont les « limbes » de Google, ou du moins son purgatoire, si ce n’est l’enfer pour les sites qui sont affectés.
(...)
more...
No comment yet.