Forum dédié au moteur de recherche et aux techniques d'optimisation par #taggle
Vous n'�tes pas identifi�.
Hola,
J'ai toujours crû que Google (et les autres moteurs) aimaient plutôt les bons gros sites de plusieurs milliers de pages, mais je commence à me poser certaines questions.
C'est notamment la façon dont les Bots crawlent les gros sites de façon assez anarchique qui me laissent à penser que trop c'est trop.
Puis, il y a vraiment beaucoup de dommages collatéraux (Pages Similaires) avec les sites qui balancent des milliers d'URLs en dynamique.
Est-ce qu'on est plus efficace avec un site de 100 à 1000 pages ?
Franchement, je n'ai pas la réponse à ma question...
Hors ligne
je pense aussi qu'il y a une taille critique, pas trop petit, ni trop gros, pour etre crawlé souvent et avoir un peu de poids
Hors ligne
et surtout ne me dis pas quelle est ta taille de prediléction ?
Hors ligne
entre 50 et 100 pages
entre 50 et 100, ce sont es pages "interessantes"/optimisées
toutes les pages interessantes sont accessibles en 2 clics max et 1 semaine sur l'index pour les nouvelles
normalement avec ca en 48h tu vois deja des trucs (qui font plus ou moins plaisirs )
Hors ligne
Je n'avais pas lu ce topic : tres intéressant. Pour ma part j'ai réfléchis a la situtation depuis un petit bout et je me suis orienté pour une thématique a 10 sites de 500 pages plutot qu'un a 5000.
Ca un avantage indéniable en cas de bourbonnage ou autres couillonades googoliennes : rares que tout soit coulé en m^me temps moyennant quelques précautions concernant le cross linking , hébergement sur même IP et autres pièges a cons
Désavantage : c'est plus de boulot c'est clair
Hors ligne
D'ou l'adage: Ne pas mettre tous ses oeufs dans le même panier.
Hors ligne
C'est un peu la politique que nous avons dans notre corporation
C'est clair que ça coute un peu plus cher et que c'est une vrai galere à entretenir a force de multiplication mais y'a pas photo. Non seulement comme le dit Erazor, ça a l'avantage de pas etre trop violent en cas de coup de grisou et un des aspect interressant d'un point de vue de la veille, c'est que tu peux faire le rapprochement ou tout au moins une analyse entre les sites qui montent ou ceux qui dessendent selon les modifs de l'algo etc...
Bref c'est un bon modele pour ma part
Hors ligne
je ne suis pas vraiment d'accord avec vous
au vu des résultats sur de tres nombreuse requettes on trouve pratiquement les meme trés gros site toujours a la meme place alors que les petits navigue constament .
de plus essayez de faire 200 000 vu jours avec un site de cent pages
je pense plutot que l'importance n'est pas la taille du site quel qu il soit mais plutot dans le budget pub qu il lui est consacré 100 0000 € de pub mensuel influence bien plus que 100 000 baclink
mais c 'est sur que 100 site satélite autour d'un tres gros site aide aussi bien .
Hors ligne
D'accord sur la fluctuation mais a mon avis cela n'a pas un lien direct avec la taille du site. Quand t'a un gros site tu t'occupe que de celui la, qd t'a un tas de sites c'est moins évident de repartir la charge.
J'ai montré a salemioche un modèle de site qui possède peu de pages et qui est pourtant toujours en première place sur l'une des requêtes les plus concurrentielles du biz adulte. Pas énormément de liens non plus mais uniquement des liens top qualité...
Hors ligne
La taille d'un site, pour que toutes ses pages soient crawlées avec le même intérêt de la part de Google, dépend du PR (valeur réelle connue par Google) du site, de celui de sa home, et de sa répartition harmonieuse (grâce à une architecture intelligente) sur toutes les pages d'un site.
Un site avec un PR3 sur la home et 100.000 pages derrière...c'est pas logique et surtout Google n'ira pas crawler toutes ces pages, surtout si leur contenu est très similaire, qu'il est composé à + de 70% de liens de navigation interne et de liens externes identiques de type footer.
Ce n'est donc pas qu'une question de taille mais de cohérence de l'ensemble des paramètres qui constituent un site...AMHA
Hors ligne
offman a �crit:
J'ai montré a salemioche un modèle de site qui possède peu de pages et qui est pourtant toujours en première place sur l'une des requêtes les plus concurrentielles du biz adulte. Pas énormément de liens non plus mais uniquement des liens top qualité...
De quel site parle tu ? ça m'interesse
bien sur si tu vise une seul requette avec 4 page c 'est largement suffisant maintenant c 'est pas ça un bon ref celui au quel je pense c 'est plutot d'etre bien placer pas forcement 1er mais sur les 20 premiers sur des milliers de requette et y rester un peu comme avait réussi a le faire ce petit annuaire qui a tomber au champs d'honneur maintenant (l'annuaire poossin) il avait réussi a etre premier sur tout les moteur majeur sur la requette "S..." assez longtemp tres fort quand meme .
Hors ligne
Turulillo a �crit:
La taille d'un site, pour que toutes ses pages soient crawlées avec le même intérêt de la part de Google, dépend du PR (valeur réelle connue par Google) du site, de celui de sa home, et de sa répartition harmonieuse (grâce à une architecture intelligente) sur toutes les pages d'un site.
Un site avec un PR3 sur la home et 100.000 pages derrière...c'est pas logique et surtout Google n'ira pas crawler toutes ces pages, surtout si leur contenu est très similaire, qu'il est composé à + de 70% de liens de navigation interne et de liens externes identiques de type footer.
Ce n'est donc pas qu'une question de taille mais de cohérence de l'ensemble des paramètres qui constituent un site...AMHA
J'ai aussi observé ça: il y a apparement une corrélation entre le PR et la faculté qu'a Google a indexer les pages "profondes" du site.
Donc ça servirait a rien d'avoir un site disproportionné par rapport a son PR.
Hors ligne
l'exemple dont je parle est un gars qui se place sur 80% des grosses requetes et de fait il est tres réactif sur les requetes secondaires, il suffit qu'un mot soit présent dans sa page et hop...
Je te file les liens en MP
Hors ligne
J'aporte ma petite contribution au débat.
Je pense que la taille critique à atteindre est 500 pages.
Avec un bon mapping, du contenu (Sans blague ) ça semble etre le bon "fond de commerce" pour suffir au net-linking interne déja, et à la présence optimale dans GG biensur..
Maintenant j'ai envie de contredire certaine réfélexion, je ne crois pas qu'il y est de taille limite, de "trop c'est trop", si ya des normes minimum de qualité respectées (Et même s'il s'agit de spam indexing !)
De mon coté, je vais pas tarder à dépasser les 100k pages, donc environs 30k pertinentes (Comprennez "bien indéxées").. C'est vrai que la persecution du "page similaire" est frustrante, mais si le site est crawlé correctement, c'est très loin d'etre irreversible.
Il faut partir du principe que la page finir par etre référencé en un temp X1, qu'elle ne sera plus "similaire à", au bout d'un temps X2, qu'elle sera pertinente au bout d'un temps X3, et qu'elle finira par grimper dans les requettes au bout d'un temps X4.. (Biensur il restera tjrs des pages qui ne dépasserons pas l'étape une ou 2, pour des raisons de similarités trop évidentes) Les délai sont 3 à 5 fois plus long que sur un "chti" site, même si le site est crawlé 50fois plus, c'est vrai, mais es-ce que ça serait pas le prix à payé pour avoir un gros site ?
De mon coté, mon traffic GG est issu d'un très grand nombre de requette (environs 30 000 phrases clef différentes / mois)..
Sur les "gros" sites, les pages ne se battent plus avec les pages d'autres sites, elle se battent entre elles !
Du coup, je tempere un peu mon point de vue, il est fort possible que sur 5 000, 10 000, ou 100 000 pages, seules un nombre fixe de pages (et non un pourcentage), peut etre 300 maximum, génèrent réellement du traffic..
Mais je suis pas convaincu pour autant qu'un site à 500 pages et un site à 10 000 se battent à force égale, le nombre de page augmentant la possibilité d'avoir 300 "très bonnes" pages..
Je terminerais en disant que si l'objectif du site est de se placé sur des requettes ultra-concurentielle, je peux remballer mes beaux discours, le grand nombre de pages ne semble pas servir à grand choses..
Hors ligne
Turulillo a �crit:
La taille d'un site, pour que toutes ses pages soient crawlées avec le même intérêt de la part de Google, dépend du PR (valeur réelle connue par Google) du site, de celui de sa home, et de sa répartition harmonieuse (grâce à une architecture intelligente) sur toutes les pages d'un site.
Un site avec un PR3 sur la home et 100.000 pages derrière...c'est pas logique et surtout Google n'ira pas crawler toutes ces pages, surtout si leur contenu est très similaire, qu'il est composé à + de 70% de liens de navigation interne et de liens externes identiques de type footer.
Ce n'est donc pas qu'une question de taille mais de cohérence de l'ensemble des paramètres qui constituent un site...AMHA
Je ne voudrait pas lancer de réfléxion hazardeusement révolutionaires, mais je me demande parfoit si, pour les gros sites, le "Page Rank", censé représenté le nombre de BL donc, n'influe pas avant tout sur le Crawling (ça semble évident..).
Donc plus que la pertinence réelle des pages représenté par le PR, je pense avant tout qu'un site PR3 sera irrémédiablement peu crawlé..
Que ses premieres pages, PR2, PR1, le seront encore moins, et que par conséquence, l'ensemble du site sera en perdition..
Pour rejoindre un petite peu Offman, parfoit, il me suffit que la page soit crawlé, pour qu'elle se positionne dans google (Requette souvent pas très très très concurencielle)..
Je ne fait quasiment aucun net-linking sur des pages interne.. Je me contente de renforcer ma home, et cela influe directement sur des pages de 3eme ou 4eme niveau.. (Que c'es bateau ce que je raconte )
Lorsque je souhaite booster une page, je m'arrange avant tout pour qu'elle soit bien crawlée, et je veux pas jouer les auto-satisfait, mais c'est parfois suffisant. Après la pertinence des pages joue biensur (Je veux pas ré-inventer le référencement hein), mais je crois que le crawling est le gros fond de commerce des "gros sites".. (Si je dit des conneries arretez moi )
Les méthodes de référencements de petits & grands sites sont peut-être finalement très (trop ?) différente..
Hors ligne