Forum dédié au moteur de recherche et aux techniques d'optimisation par #taggle
Vous n'�tes pas identifi�.
Salut,
Comme vous le savez peut être c'est en ce moment le SES 2005 à San José, grand évènement organisé par SearchEngineWatch et JupiterEvents.
Et comme d'habitude Barry Schwartz fait ce que personne n'avait fait aussi bien avant lui, un résumé de chaque conférence sur son blgo, Seroundtable.
Lisez les tous, ça a commencé hier, et il a pondu des centaines de lignes de précieux commentaires rien que pour la journée d'hier et ça continue aujourd'hui.
Lisez déja ceci pour commencer:
http://www.seroundtable.com/archives/002331.html
C'est l'analyse des derniers brevets déposés par les principaux moteurs.
Sinon pour les fous d'AdSense que vous êtes il y a aussi ceci:
http://www.seroundtable.com/archives/002333.html
Lisez le reste, c'est de la balle comme diraient mes teupos du 93 !
La totale des articles SES de San José 2005:
http://www.seroundtable.com/archives/ca … _jose.html
Hors ligne
en effet de la balle, ça confirme ce que tu me disais :
His next slide is about how Google may flag a site for spam. It depends on the speed of link gain, source of link gain, and so on. He goes on quickly to talk about identifying doorway and throwaway domains. How long in advance was the domain paid for? DNS Records such as the name of the register, technical contacts, address of the name servers. Google also claims they will use a list of known bad contacts such as ip ranges and so on. Google also considers domain ranking history. Such as sites that jump in rankings may be spamming. Commercial queries may have higher levels of sensitivity to potential spam. Google may monitor the rate at which a was selected over other sites. How fast the site went to the top of the search rankings.
résumé (loin d'etre un expert en anglais :
Chris Sherman explique comment gg peu marquer un site "spam". Cela depend de la vitesse à laquelle il acquiers ces bl et d'ou viennent ces liens etc. Il explique que gg identifie les sites à pages satellites et les "throwaway domains" ?.
Il tiens compte également de la durée pour laquelle le domaine à été reservé ainsi que le noms de la personne qui achete les ndd, le contact technique, l'adresse du serveur de nom.
Gg utiliserai également une liste de "mauvais" contacts sous la forme de plage d'adresse ip etc. Il garderai aussi un historique de positionnement du site, un site avec des pointes subites vers le haut serait identifié comme site de spam. Les requetes commerciales sont bien sur plus sensibles au filtre spam. Gg pourait aussi monitorer la vitesse a laquelle un site atteind les premieres places...
Hors ligne
Super intéressant !!
Ca confirme ce qu'on se disait dans un autre post, la solution pour nous est d'arrêter les moulinettes à spam de 5 015 125 154 de pages, et de se concentrer sur des 'petits' sites de 0 à 5 000 pages en concentrant correctement le contenu et en ciblant mieux.
Un peu plus de boulot clairement, mais en somme, ca va dans la lignée de la philosophie Google qui place l'internaute au coeur de ses préoccupations. (non je suis pas payé pour dire çà mais finalement leur action au niveau de l'algo va en permanence dans ce sens)
Hors ligne
DNS Records such as the name of the register, technical contacts, address of the name servers.
ca, ca va devenir lourd.
Hors ligne
Moi je crois qu'on peut changer de métier. Je vais devenir pianiste de bar; c'est moins risqué et c'est plus cool avec les filles.
Parce que là... on ne fait plus de pages, on n'optimise plus, etc... Bef, on monte comment dans les 3 premiers d'une requête à 1 ou 2 mots clefs ?
Oui je sais, j'achête un Adword
Matt Cutts from Google :
A real issue with meta tags, you can not trust what people say. They have been doing a lot more experiments with the snippets. He said they tried and try things every day and test user experience. He said it will be time until you see standardization.
Et en plus ça ne fait que commencer leurs changements d'algo !
Hors ligne
ThickParasite a �crit:
Parce que là... on ne fait plus de pages, on n'optimise plus, etc... Bef, on monte comment dans les 3 premiers d'une requête à 1 ou 2 mots clefs ?
Il va y avoir un gros décalage entre les vieux sites déjà très présents, sur lesquels les changements d'algo auront une influence limitée, pour peu qu'il n'aient pas le flag "bad site" ou ne se trouvent pas ds une plage ip a la con.
Par contre pour les nouveaux sites j'ai bien peur qu'il faille vraiment penser différemment, penser contenu et pas forcement position. Je sais, ça parait hallucinant de ne pas anticiper les kw sur lesquels on va bosser mais j'ai un exemple de site en tete qui me dit que c'est possible, meme sur des secteurs un peu spécifiques. En résumé un "blog like" avec une news tous les jour sur une thématique bien précise, suffisamment bien ficelé d'un point de vue marketing pour que l'info ne soit qu'un prétexte pour générer du clic... c'est clair qu'avec 10 sites comme ça tu y passes ta vie
Bref rien de vraiment neuf ds mon propos, mais ce qui paraissait trivial il y a encore qq mois deviens/deviendrai une réalité quasi incontournable.
Va falloir fidéliser !
Derni�re modification par offman (10-08-2005 15:02:26)
Hors ligne