Forum dédié au moteur de recherche et aux techniques d'optimisation par #taggle
Vous n'�tes pas identifi�.
On a commencé un vague debut de discussion avant hier soir sur le chat.
Les faits : en prenant un serveur dédié en décembre 2004, salemioche.net a vu son traffic x 4 en 2 mois sans que le contenu change d'un iota (je dormais 3h par nuit les bons jours pour cause de jumeaux, salemioche.net etait pas vraiment ma priorité), ni qu'une soudaine euphorie web lui attribue des millions de BLs
Question : est ce qu'une IP dédiée favorise un site ?
Hors ligne
Quand tu en as parlé sur le chat, les hypothèses auxquelles j'avais pensées étaient que ton ranking dans google avait pû être amélioré après passage en dédié pour une des raisons suivantes:
- Une réponse du site plus rapide. Je n'ai jamais entendu dire que ce critère serait pris en compte par google, mais après tout pourquoi pas. Il participe du confort de l'utilisateur qui visite le site. Je crois qu'Alexa fournit ce critère.
- Le fait qu'en changeant d'IP ton site se retrouvait sur une classe d'IP différente de beaucoup de sites qui lui faisaient des backlinks, ce qui pourrait faire que google donne d'un seul coup plus de valeur à tes BLs (ceci bien sûr à supposer que des sites qui te faisaient des BLs étaient chez le même hébergeur ou sur le même mutualisé que toi)
- Un changement de pays du serveur (à supposer que l'ancien n'était pas en France et que le nouveau l'est, ce qui t'aiderait à te positionner sur google.fr)
Bref, rien que des hypothèses (fumeuses) Mais ça donne envie de prendre un dédié.
Hors ligne
- reponse plus rapide : ma theorie (tout aussi fumeuse) est que le bot alloue aussi un temps de crawl, plus il crawl vite plus il raffraichie de pages, mieux c'est.
- classe C des BL : de facon minime pour mon site
- Toulouse => Paris : meme pays (enfin si on peut dire)
ca reste tout meme etrange, je dispose a présent de 7 IP (bientot 8) et 6 classes C, je vais deplacer un ou deux sites de mon dédié principal vers une IP vierge cet aprem', et je vais voir ce que ca donne :-)
PS: on peut avoir une IP, sans investir enormement avec certaine offre serverur virtuel. par contre faut quand meme se cogner l'admin, mais avec Debian ca roule tout seul ( a part pour Americas ;-P )
Hors ligne
salemioche a �crit:
PS: on peut avoir une IP, sans investir enormement avec certaine offre serverur virtuel. par contre faut quand meme se cogner l'admin, mais avec Debian ca roule tout seul ( a part pour Americas ;-P )
On peut pas être bon partout
Mais je suis prêt à suivre des cours d'administration de serveur dédié
J'avais déjà parlé de cela il y a quelques temps... de pouvoir mutualiser 1 ou 2 dédiés pour y placer des sites secondaires afin de bénéficier d'une autre classe d'IP... faudrait creuser l'idée.
Pour ma part... je vais sans doute prendre un serveur virtuel en Espagne pour y placer quelques domaines avec un contenu en espagnol... il pourrait servir à placer quelques annuaires
Hors ligne
Americas a �crit:
On peut pas être bon partout
c'est juste que nous avions des avis divergents sur la qualité du service Ikoula (cf discussion sur le hub il y a plusieurs mois )
je m'oriente plutot vers 1 ou 2 sites de thematiques differentes / 1 IP si ca se confirme, en choisissant la taille de l'hebergement en fonction des sites. ca demarre a 10€ TTC / mois pour un petit virtuel chez Nfrance. Certes c'est luxe pour les ressources, mais si un site fais pas 100€ de CA dans le mois, c'est peut etre pas la peine de s'attarder dessus. Une activité ou les frais d'infrastructure sont < 5% y en a quand meme pas des masses !
Hors ligne
Je te rappelle que ni Dan, ni Sid n'ont réussi à faire marcher cette machine chez Ikoula... je me suis senti moins bête
Hors ligne
j'ai retrouvé le post
je ne suis pas fan de Redhat (Fedora), j'aurais peut etre pataugé aussi
avec Debian tout est plus facile, oups transparent (comme Alice )
aucun probleme majeur depuis 1 an, juste du tuning un peu fin a faire
a cause de alsacreations qui pompent mes ressources
Hors ligne
salemioche a �crit:
- reponse plus rapide : ma theorie (tout aussi fumeuse) est que le bot alloue aussi un temps de crawl, plus il crawl vite plus il raffraichie de pages, mieux c'est.
ça doit fortement participer au "bad/good ip" de GG
Hors ligne
- Réponse plus rapide : c'est clairement un critère de bonne prise en compte.
Sur un dns qui fonctionne trés bien en terme de positionnement, j'ai rajouté une boutique de 7 000 produits environ un peu à l'arrach' sans optimiser les requêtes SQL et les affichages de ces produits. Résultat, prise en compte de la home et de quelques milliers de pages au début, puis .. désindexation totale de la boutique à cause d'un délai d'affichage de l'ordre de 3/4/5 sec ...
Sans appel ..
Hors ligne
Siddartha a �crit:
Résultat, prise en compte de la home et de quelques milliers de pages au début, puis .. désindexation totale de la boutique à cause d'un délai d'affichage de l'ordre de 3/4/5 sec ...
Sans appel ..
la démonstration est faite... va falloir que je vois les temps de réponse des serveurs de interdominios.com
Et pour limiter les frais sur un serveur secondaire... que pensez-vous de l'offre d'Amen avec son baby ?
http://www.amen.fr/static/index_478.html
39 € HT ... avec une Fedora...
Hors ligne
Siddartha a �crit:
- Réponse plus rapide : c'est clairement un critère de bonne prise en compte.
Sur un dns qui fonctionne trés bien en terme de positionnement, j'ai rajouté une boutique de 7 000 produits environ un peu à l'arrach' sans optimiser les requêtes SQL et les affichages de ces produits. Résultat, prise en compte de la home et de quelques milliers de pages au début, puis .. désindexation totale de la boutique à cause d'un délai d'affichage de l'ordre de 3/4/5 sec ...
Sans appel ..
Ce n'est pas possible qu'un moteur teste les temps de réponse d'un serveur. Ca reste de l'urban legend.
Par contre, après réflexions, il se peut très bien qu'ils imposent un temps maxi, par site, et qu'au delà, les pages ne sont pas indexées. Ca donnerait quelque chose comme ca :
- Bon, les gars ! Aujourd'hui, vous avez 1 gros site, mais seulemnet une minute ! Ramenez moi le max. de pages, je les marques comme 'mises à jour'!!
- Ok, boss GG
...
- Boss, on a un problème, on n'a pu récupérer que 50 pages, qu'est ce qu'on fait ??
- Passez à autre chose, y'a 8 (ou 20) milliards de pages, on n'a pas le temps de s'attarder !
Dans les moteurs open source, il est fait mention du temps entre 2 pages, pour un site. On peut donc configurer le moteur pour qu'il crawle le site à raison d'une page toutes les secondes. Couplé au fait que le moteur n'a pas un temps de crawle infini, ca pourrait être une bonne supposition, non ?
Hors ligne
Je vois pas en quoi cela serait impossible ..
Y'a suffisamment de bots dans tous les sens qui passent et seuls 10% environ de ces bots servent à indexer le contenu. Les autres ont d'autres fonctions dont celle là, au vu de multiples exemples, est évidente pour nombres de référenceurs.
Et bien au contraire, ca rentrent complètement dans le cadre de l'amélioration de la qualité des résultats en proposant des contenus hébergés sur des serveurs de qualité délivrant la bonne information dans les bonnes conditions aux internautes.
Don't be evil !
Hors ligne
Meme economiquement parlant ca me semble tout a fait logique, la capacité de crawl en terme de CPU est finie, un site enorme et lent consommerait trop de ressource et si le moteur lui apportait trop de traffic, il serait HS rapidos.
Cela dis mon mutualisé etait relativement performant, je n'avais pas de degradation de temps de reponse notable... est ce que ce temps de crawl serait aussi pondéré par l'IP ???
Au temps de sorcier glouton et mes 100000 sous domaines, le serveur etait quasi neuf avec peu de charge et GG y allait allégrement de ces 1Go de transfert pendant 4h tous les matins
(jusqu'au moment ou c'est passé à 0 )
Americas > Amen oublie. regarde plutot ca : www.web1.fr
Hors ligne
Sid, Google ne va pas faire passer 3 bots sur une page, pour voir si elle répond. Il perdrait trop de temps. Si c'est pour voir le temps de réponse du serveur, il cherche à en gagner, pas à en perdre.
Non ?
10% Ben... Oui, c'est pas beaucoup
( sur un site 'x', y'en a p'tete 90% qui regardent les images, mais... sur [nom d'un site que vous aimez pas], je vois pas 90% se faire chier à lire tous les textes.
Hors ligne