Forum dédié au moteur de recherche et aux techniques d'optimisation par #taggle
Vous n'�tes pas identifi�.
Je potasse ça en ce moment : http://patft.uspto.gov/netacgi/nph-Pars … /7,158,961
C'est très interessant, et le sujet est déjà assez difficile en lui même, alors en anglais...
Si un bilingue faisait un petit billet avec une traduction francaise, je serais le premier à buzzer !
Hors ligne
Une application un peu delirante est proposée dans les conclusions : calculer le taux de similarité de deux pages web en ne comparant que les liens ! Un site classique ça reste tout de même un menu et des pages de contenu dans lesquelles il n'y a pas forcement des liens... Ca risquerait de faire beaucoup de contenu dupliqué eheh
Hors ligne
Il parle également d'allèger leur index en se servant de cet algo.
Si tu stockes un contenu quelque part, inutile de le stocker à plusieurs endroits (comprendre par 'endroit' pages web )
Hors ligne
Donc si tu reponpe wikipédia et tu met un max de liens il vire le site mere et te mettent a leur place ????
c'est pas l'effet inverse qu il risqe de faire avec ce filtre ?
par contre adieux les annuaires
Hors ligne
fbparis a �crit:
Une application un peu delirante est proposée dans les conclusions : calculer le taux de similarité de deux pages web en ne comparant que les liens !
tu peux en dire plus, j'ai pas trop compris et j'ai pas encore commencé mes cours d'anglais
Hors ligne
En fait, il faut savoir que ce brevet a été déposé en 2001 et correspond donc aux dernières trouvailles des chercheurs de gg en 2001...
Bref, j'ai encore perdu une occasion de me taire
Hors ligne
fbparis a �crit:
Bref, j'ai encore perdu une occasion de me taire
Non, pourquoi ? C'est clair que Google a déjà commencé à appliquer sa technologie à ses propres algos, mais le fait qu'ils aient finalement obtenu le brevet ne fait qu'en confirmer la validité. D'après moi
Hors ligne