Forum dédié au moteur de recherche et aux techniques d'optimisation par #taggle
Vous n'�tes pas identifi�.
Bonjour à tous,
J'ai fait aussi un paquet de tests, en relation avec le site dont je vous ai parlé récemment (forum privé).
Tout ce que j'ai testé semble confirmer ce que vous dites, et il y a plutôt un faisceau de raisons, amha.
Je crois aussi que le soucis vient :
- de la proportion de contenu significatif par page (reste à définir le ratio)
- de la place de ce contenu dans le code (avec le site en question, une page en pur css présenterait le contenu dès les premières lignes, alors qu'avec cette superbe structure en tableau, il faut plus de 1000 lignes pour passer au contenu significatif !)
Pour Marie, d'accord avec Erazor, je ne vois pas grand chose d'autre que l'utilisation bien appuyée du mot referencement. Peut-être qu'il faut désormais aller plus loin dans l'utilisation de termes connexes et synonymes (combien de temps encore avec qu'une page soit considérée autrement que comme un sac à mots ?)
Maintenant, j'ai parfois l'impression qu'il y a de l'algo et des actions humaines. Pas vous ?
Côté css, c'est sûr qu'il faut s'y coller pour un paquet de raisons. Il me semble avoir lu quelque chose à propos de la démarche de Msn, notamment, parlant de l'analyse des contenus par blocs, permettant d'identifier le contenu significatif par page. Là, c'est intéressant, parce que dans ce cas, ce serait le moteur qui cherche les solutions, plutôt que sanctionner à priori.
Dernière chose. D'autres tests sur divers sites, et pas forcément les miens me questionne. Ce sont des sites avec des classements très intéressants sur de nombreuses requêtes, et de façon harmonieuse sur la plupart des outils ... et disparition des résultats de 0 à 60. Le point commun entre tous ces sites => les référenceurs ont fait un réseau de liens vers leurs propres sites, voire plusieurs. Qu'en pensez-vous ?
Hors ligne
J'ai l'impression qu'il faut un ratio partie spécifique/ partie commune (menus, footers, etc...) plus élevé qu'avant pour éviter ce filtre.
Si c'est le cas , je peux fermer dès à présent toutes mes boutiques en ligne !
Ce que je remarque également, pour aller dans le sens de la théorie de Jan (et ça m'inquiète fortement !!), j'ai 2 sites de para.
L'un est fabriqué avec des frames, mais chaque produit est convenablement référencé :
http://www.google.com/search?q=site%3Ah … S:official
pas une page en mode listing. Ce qui s'expliquerait par le fait que chaque fiche produit, sur mon-pharmacien.com a du contenu "original" dès le début du code html (page très légère), bien que je n'ai fait strictement aucun effort sur les meta et autres.
Alors que monguidesanté est en mode listing à partir de la 10ième page ( http://www.google.com/search?q=site:htt … 0&sa=N ) mais pour le coup, même si de gros efforts on était fait sur les CSS et autres conneries de ce genre, j'ai pas mal de code AVANT le contenu "original". Et ça me fait d'autant plus raler que l'on m'a demandé de soigner les METAs et TITLE !
Tout ça reste quand même à confirmer, car comme contre exemple, j'ai http://www.google.com/search?q=site:htt … 0&sa=N pour musicafond, qui lui pour le coup, est vraiment pas optimisé CSS (javais pas eu le temps), et qui plus est à son contenu "original" planqué dans 10 ko de code dont google doit bien se tapper, mais pourtant est bien référencé (pas une page en mode listing) (musicafond.fr = pr3 à tendance 4)
Vous savez sans doute que je suis pas un pro du référencement, donc je vous dis ça juste à titre indicatif pour faire avancer vos analyses.
à noter que le mon-pharmacien.com est crawlé régulièrement (PR4) et monguidesanté est lui à PR0 mais est tout tout jeune (1mois & demi), donc peu souvent crawlé.
Un dernier mot sur les CSS. C'est certain que les CSS vont "alléger" les pages, mais les CSS ne sont pas interprétés de la même façon avec tous les navigateurs. Je vais pas expliquer les fondamentaux du CSS, mais si c'était un si "beau" standard, les très grosses structures spécialisées dans le commerce électronique, ne se poserait même pas la question des coûts de developpements pour les modification de leur site. Le problème est qu'aujourd'hui, quand on à un site un peu "complexe" en terme d'architecture et de navigation, utiliser les feuilles de styles en toute circonstance est impossible. Et les marchands (dont je fais parti) préfèrent tabler sur une compatibilité maximum, plutot que de privilégier le poid des pages et/ou (avec cette théorie de Jan & Franck), le référencement...
Derni�re modification par Toucouleur (07-12-2005 12:18:28)
Hors ligne
Pour continuer à alimenter le bidule...
http://www.google.com/search?q=site:htt … 0&sa=N
Pixmania qui est un modèle du genre pour le respect du W3C et l'agencement de ses pages se prend un carton rouge aussi....
Alors que le .com (toujours de pixmania pr6) http://www.google.com/search?q=site:htt … p;filter=0 reste dans le vert (pas de listing).
Je commence à croire que les raisons que nous avons évoqué jusqu'alors ne sont pas la cause réelle de ce que nous constatons.
Hors ligne
Jan a �crit:
J'ai l'impression qu'il faut un ratio partie spécifique/ partie commune (menus, footers, etc...) plus élevé qu'avant pour éviter ce filtre.
En clair des sites avec du contenu suffisant et original ?
Hors ligne
Erazor a �crit:
En clair des sites avec du contenu suffisant et original ?
Ou des pages sat' un peu plus étoffées et différenciées les unes des autres. Au choix
Hors ligne
Pour l'instant je n'ai aucun probleme avec des pages dont :
les mettas et titre change a un mot ou 2
une frame comme contenu
et un petit texte ou il y a que le mot clé qui change
le tout sur des requettes ultra concurentiel dont je donne pas le lien içi cause XXX
le listing je l'avais eu sur un site et j'y est remédié grace à la meta dc
et avec ce que je constate sur mes sites
ça marche de mieux en mieux
enfin pour le moment
donc le contenue original je pense que Google s'en balance vraiment
D'ailleur WRI est tres originale pour un forum de référencement
Hors ligne
Je n'ai pas encore fait le tour de tous mes sites mais pour ceux qui rencontrent des problèmes, je ne vois pas de point commun mais un ensemble de points qui pourraient être améliorés.
Je suis plutôt d'accord avec Franck et Jan, il n'y a pas 1 raison mais de multiples raisons à savoir :
franck a �crit:
- de la proportion de contenu significatif par page (reste à définir le ratio)
C'est ce qui doit arriver sur deux de mes sites, pas sur les autres.
franck a �crit:
- de la place de ce contenu dans le code (avec le site en question, une page en pur css présenterait le contenu dès les premières lignes, alors qu'avec cette superbe structure en tableau, il faut plus de 1000 lignes pour passer au contenu significatif !)
Peut être pour un de mes sites.
franck a �crit:
Peut-être qu'il faut désormais aller plus loin dans l'utilisation de termes connexes et synonymes
Je vais essayer cela sur la page de mon site (mais il ne me préoccupe pas vraiment en ce moment.)
franck a �crit:
Maintenant, j'ai parfois l'impression qu'il y a de l'algo et des actions humaines. Pas vous ?
Oh que si!
franck a �crit:
Le point commun entre tous ces sites => les référenceurs ont fait un réseau de liens vers leurs propres sites, voire plusieurs. Qu'en pensez-vous ?
Pas du tout vérifié dans mon cas.
Mon blog perso rencontre ce problème, mais que pour les billets les plus anciens. Les autres blogs se portent bien.
Le plus absurde dans l'histoire c'est que mon annuaire, qui est un ramassis de spam, n'est presque pas concerné par le problème alors qu'il cumule les 3/4 des critères listés ci-dessus
(mais il y a attrapé quand même rassurez-vous!)
J'aime penser qu'il ne s'agit que d'un méga bug
Hors ligne
C'est bien difficile d'y voir clair. C'est vrai que certains résultats font vraiment penser qu'il y a intervention humaine. Pourtant, j'ai du mal à croire que google ait assez de "quality raters" pour s'intéresser à mes petits sites... surtout quand on voit certains mastodontes truster des requêtes commerciales sans souci apparent malgré des techniques plus que rock'n'roll
Ou alors il y a une dose trustrank (si j'ai bien compris, le trustrank, c'est au départ de l'humain et ça se propage par algo). Ca vous semble possible?
Hors ligne
Le phénomène des pages en listing semble avoir disparu sur http://64.233.179.104/
Seul petit problème, les caches sur ce DC datent un peu.
Va-t'il se mettre à jour et règler le problème?
A suivre...
Hors ligne
ah oué je retouve mon cache sur ce DC
Hors ligne
Des fois que dans toutes ces hypothèses, il y ait des pistes fiables, voilà de quoi les mettre à mal
http://piscine.repertoire-web.com/pisci … rbihan.htm pas de cache, Google en veut pas
http://piscine.repertoire-web.com/piscine-10-aube.htm un joli cache, Google aime.
Ces deux pages sont construites pareil, linkées pareil, tout pareil. Celle qui a le plus de contenu (et d'info utile) n'est pas prise, l'autre si.
Pour vous dire si je suis perdu, j'en suis à cette hypothèse : Google regarde, dans la page, la proportion de verbes conjugués. Si la proportion est trop faible, c'est une suite de mots-clés, donc une page spammy. Ca colle avec ce que vous constatez ?
Sinon, même constat que Jan pour le DC en question.
Hors ligne
Lafleur a �crit:
Ces deux pages sont construites pareil, linkées pareil, tout pareil. Celle qui a le plus de contenu (et d'info utile) n'est pas prise, l'autre si.
J'ai bien du mal à en conclure quoi que ce soit, mais j'ai de nombreux exemples similaires.
Mon hypothèse par rapport à ça: google passe en mode listing des pages qui ressemblent à d'autres (tes 2 pages se ressemblent: structure, footer)
Mais en même temps:
Google a toujours son problème d' url canonique (cf 302 ou pages pompées qui "googlewashent" l'original).
Alors quand il pénalise une de tes pages, ce n'est pas toujours celle qui le mériterait
C'est ce que je vois sur mon dotclear: il passe en mode listing certains articles au profit de pages du calendrier (beaucoup moins pertinentes et générées automatiquement par le template de dotclear), qui reprennent le chapô de ces articles.
Hors ligne
Toucouleur a �crit:
Pour continuer à alimenter le bidule...
http://www.google.com/search?q=site:htt … 0&sa=N
Pixmania qui est un modèle du genre pour le respect du W3C et l'agencement de ses pages se prend un carton rouge aussi....
Alors que le .com (toujours de pixmania pr6) http://www.google.com/search?q=site:htt … p;filter=0 reste dans le vert (pas de listing).
Je commence à croire que les raisons que nous avons évoqué jusqu'alors ne sont pas la cause réelle de ce que nous constatons.
Est-ce que là, on n'a justement pas un cas de duplicate ? Deux domaines pour un contenu identique ?
http://www.google.fr/search?hs=enH& … &meta= => 2 140 000 résultats (et bizarrement 2 040 000 sur la requête sans www ?) et des snippets pour tout le monde. (oscillation de 1 830 000 à 7 220 000 [sur 64.233.179.104] suivant les DC !)
http://www.google.fr/search?hs=NqH& … %3Dlang_fr => 963 résultat et des snippets uniquement pour une page fr/ch/, mise à jour mardi.
(par conte, 48 avec des snippets sur 64.233.179.104).
Parmi le faisceau d'hypothèses, rien ne semble constant.
Par contre, est-ce qu'il n'y aurait pas quelque chose fonction de la requête ou du groupe de requêtes ? :
- compétitive ou non, ou considérée comme telle. Et auquel cas, si tous les cas de requêtes compétitives ne sont pas couverts ... c'est qu'il y a peut-être un choix partial qui est effectué.
- et pourquoi pas un groupe de termes à sanctionner ?
C'est peut-être tiré par les cheveux, mais de toute façon je n'en ai plus, ou alors ça manque d'analyse et d'objectivité, ou encore ce sont des remous comme on en a vu auparavant, et parce que Goo... s'enrhume, on éternue tous ...
Derni�re modification par franck (08-12-2005 12:15:10)
Hors ligne
franck a �crit:
Par contre, est-ce qu'il n'y aurait pas quelque chose fonction de la requête ou du groupe de requêtes ? :
- compétitive ou non, ou considérée comme telle. Et auquel cas, si tous les cas de requêtes compétitives ne sont pas couverts ... c'est qu'il y a peut-être un choix partial qui est effectué.
- et pourquoi pas un groupe de termes à sanctionner ?.
J'y ai pensé mais j'ai écarté ça au vu de pages plombées mais qui sont sur des requetes 10 ou 100 fois MOINS concurentielles que d'autres qui ne sont pas en mode listing. En immo je connais tres bien les secteurs de compétion acharnée. Y a pas photo entre des requetes sur Cannes VS Douai (*) par exemple.
(*) pour faire raler les ch'tis mais vous pouvez remplacer par Besançon
Hors ligne
Bon je suis sortie du mode listing avec ma page ici
http://www.google.fr/search?sourceid=na … ent+google
j'ai rien changé à quoique ce soit... et je suis bien contente
Hors ligne