Forum dédié au moteur de recherche et aux techniques d'optimisation par #taggle
Vous n'�tes pas identifi�.
Hors ligne
Hors ligne
bonne nouvelle
par contre on dirait qu'on va devoir se préoccuper des champs optionnels,
ca risque de changer beaucoup de chose dans le référencement non?
comme la notion d'importance du page avec le <priority>
Hors ligne
Je l'avais espéré, historie de pas avoir à refaire d'autres gens
Tant mieux, mais comme le souligne Pagetronic, j'éspère que le but des champs optionnels actuels va pas être emmerdant
Hors ligne
Merci Sid
Pour l'indexation oui ça peut être valable, mais comme ces paramètres sont maîtrisés par l'éditeur du site et pas visibles aux internautes, ils ne devraient pas peser lourd et ça ne devrait pas changer grand-chose au positionnement.
Hors ligne
C'est sympa de leur part car ça permet de pas faire le boulot trois fois, d'autant plus que dans la plupart des cas ca sert a rien de mettre en place un sitemap.. mais si les clients le demandent...
Hors ligne
Ca change pas grand chose pour nous, moi je suis joisse car je genere toujours des sitemaps auto, tant mieux si ca marche pour les 3 moteurs...
Pour le reste faut pas flipper, le champs "priority" par exemple est optionnel, et par defaut toutes les pages ont une priority de 0.5, mettre toutes les priority a 1 ne change rien donc, c relatif au site lui même de toutes facons.
les champs lastmod et frequency sont egalement optionnels, on peut y mettre n'importe quoi ou essayer de rester honnete, a mon avis pour l'instant ca change pas grand chose, apres un mec qui indique que son site change tout le temps et qu'en 3 ans la page a pas changé d'un octet on peut le classer dans la categorie des boulets
en bref, je pense que c le truc qui a terme peut le plus soulager la tache des bots crawlers, mais il ne faut pas esperer des bonus dans le positionnement pour les ceusses qui s'appliquent à bien faire, ce serait trop facile :p
Hors ligne
Je suis toujours dubitatif sur l'intérêt des sitemaps. Y voyez-vous un réel avantage? Indexation plus rapide? Bonus pour le positionnement? Indexation de pages enfouies au plus profond de l'arborescence pour les gros sites (et dans ce cas ces pages sortent-elles vraiment sur leurs mots-clés?)?
De mon côté j'ai eu des problèmes de lenteur d'indexation au moment de la mise en place de big daddy (février mars), mais avec du recul, je pense que c'était dû à la mise en place de big daddy et que les sitemaps n'auraient pas aidé (des sites avec sitemap avaient le même problème). Depuis, je vis sans sitemap et je n'ai aucun problème à faire indexer et à positionner mes pages.
Des exemples dans lesquels les sitemaps vous ont aidés?
Hors ligne
Je pense qu'il faut lire entre les lignes, en fait..
Si j'etais l'un de ces 3 majors, evidemment, je ne ferais pas confiance aux données d'un tel sitemap (quand on vous voit, ca s'comprends )...
Cependant : je travaillerais de concert avec mes 2 partenaires pour établir un certain nombre de données, par site, par page, pour pouvoir classer, trier, indexer le web.
Autrement dit, comme il est écrit, Google a travaillé sur le sitemap, et yahoo s'y met. D'après moi, le sitemap n'est pas celui qu'on trouve sur vos sites, mais sur leur serveur.
A vous lire Google connait la fréquence de rafraichissement d'une page, il a interet à stocker cette information. Tout comme un certain nombre d'infos, d'ailleurs. Mais ils n'ont aucun interet à vous le demander à vous, mais plutot à se l'échanger entre eux.
Hors ligne
Je suis dans le même cas de figure que toi Jan, aujourd'hui le sitemap me laisse dubitatif.
1- Il est clair que ca n'a strictement aucun intérêt pour nous qui maitrisons depuis belle lurette les crawls Googlebot.
2-J'ai pas confiance dans l'utilisation que Google pourrait faire des informations qu'on lui donne, mais également, de sa manière de les interpréter.
D'un autre côté, pour les sites d'annonceurs avec des contraintes fortes (base de données figées dans un système non évolutif et avec lequel il faudrait faire avec par ex.), je peux comprendre qu'on soit tenter par la facilité de ce tools. Mais c'est trop magique, donc faut pas rêver, ca aidera mais que trés peu ..
Ensuite, on trouve de plus en plus d'informations aujourd'hui dans Google Sitemap, je n'ai encore étudié la fiabilité de ces données, mais ca a l'air intéressant pour affiner le référencement et finalement, c'est le seul début d'intérêt que j'ai pour sitemap aujourd'hui.
Hors ligne
Siddartha a �crit:
Ensuite, on trouve de plus en plus d'informations aujourd'hui dans Google Sitemap, je n'ai encore étudié la fiabilité de ces données, mais ca a l'air intéressant pour affiner le référencement et finalement, c'est le seul début d'intérêt que j'ai pour sitemap aujourd'hui.
100% d'accord ! A noter qu'il faut parler des "Webmaster Tools" maintenant Il y a des choses interessantes :
- les mots présents dans les liens qui pointent vers notre site ;
- les mots sur lesquels on est positionné mais qui ne génèrent pas forcément de trafic ;
- les mots sur lesquels on est positionné et qui génèrent du trafic - ce point confirme, si celà était encore nécessaire, que Google connait assez précisément le trafic qu'il apporte à chaque site ;
- choix du NDD canonique : en fait très décevant car on a juste le choix entre les www et pas les www, alors que les vrai problèmes commencent généralement lorsque plusieurs domaines résolvent sur le même site. Mais bon, faut pas trop en demander...
Un autre point négatif : si on veut pouvoir accéder aux infos depuis plusieurs comptes Google, on est obligé de monter autant de fichiers de validation sur le serveur que d'utilisateurs de l'outil. Ca craint un peu à l'heure du single sign on global Surtout qu'avec les autres tools, à commencer par analytics on peut déclarer plusieurs autres utilisateurs directement sur la plateforme...
Hors ligne
Je ne sais pas si c'est vraiment une bonne nouvelle.
Un sitemap peut être intéressant pour un petit site ou un site de taille moyenne... mais pour de gros sites j'ai des doutes... le sitemap favoriserait certaines parties du site en laissant de côté d'autres... ce qui reviendrait à faire comprendre aux bots de laisser de côté ces parties et de les voir mal indexées... alors dans le doute... je m'abstient et je laisse les bots naviguer librement sur le site
Hors ligne