Forum dédié au moteur de recherche et aux techniques d'optimisation par #taggle
Vous n'�tes pas identifi�.
L'autre jour, je discutais avec un mathématicien à propos de l'algo des moteurs. J'évoquais ma théorie que Google ne pouvait pas modifier un algo comme cela car changer une virgule dans une formule mathématique aussi dense devrait tout foutre en l'air. De ce fait, Google travaillait uniquement sur des filtres algorithmiques, mais l'algo de base demeurait inchangé.
Mon mathématicien semblait d'accord avec ma théorie, mais qu'en pensez-vous ?
Hors ligne
Il me semble en effet difficilement concevable que Google casse complètement son algo du jour au lendemain.
D'ailleurs au fil du temps, on voit des changements, mais les "bases" restent les mêmes: backlinks, contenu, poids de certaines balise (title, etc...).
En revanche, il me semble probable que Google soit ammené à modifier les poids relatifs de différents éléments, notamment pour s'adapter face au spam.
Evidemment il y aussi de nouveaux filtres, et on voit régulièrement des sites pénalisés pour cause de suroptimisation.
Enfin je pense aussi que Google "enrichit" son algo au fil du temps, en intégrant de nouveaux critères (sémantique,...)
Hors ligne
Est-ce qu'on a un seul algo ou plusieurs qui se collent les uns sur les autres ? Sans compter les filtres algorithmiques qui viennent aussi se coller sur le(s) algo(s) fondamentaux.
Une formule mathématique peut évoluer, mais au rythme où on prétendrait voir des "updates" ça me paraît difficilement concevable. Les fameux updates ne seraient peut-être que des algos secondaires ?
La question de base est donc : est-ce que GG modifie un seul algo ou est-ce que nous sommes face à un algo de base qui se trouve adjoint d'une multitude d'algos secondaires ?
Hors ligne
On peut imaginer que l'algo de base permettent de sortir les 300 plus gros sites sur une req, et qu'ensuite l'affinage (le classement) se fasse par des techniques plus fines
généralement un site qui sort bien mais se retrouve plombé du jour au lendemain (ca m'est encore arrivé samedi), n'est pas non plus propulsé au dela de la Xeme position (en général, 120/130 pour moi)
Hors ligne
Sur le constat que je fait sur mes habituel pénalités
je penche plutot pour une couche de filtre suivant le trafic d'une requette donné et un systeme de notation par site. mais qu'a la base un seul algo suffit
Hors ligne
[edit=Jeff]
Post supprimé ... en attente
[/edit=Jeff]
Jeff,
Hors ligne
Pour m'y être frotté, a la classification algorithmique de page html, je peux dire:
Tout algorithme est imparfait et des cas particuliers, effet de bord sont toujours present.
Contrairement à Google (qui d'ailleurs en ai revenu..) j'ai toujours pensé qu'il est impossible de totalement automatisé un moteur de recherche. Le fait qu'ls aient changé de fusil d'epaule avec les validateurs humains me fait pensé que :
* Effectivement l'algo ne bouge plus depuis longtemps, pourquoi changer un algo qui apporte autant de satisfactions aux internautes ?
* La mise en place de filtres de penalité et bonus me semble le plus probable.
Hors ligne
Il semble qu'il y ait une multitue d'algorithmes et que de nouveaux soient aglomérés régulièrement (cf le dernier en date our contrer le Google Bombing). Sans doute que même les ingénieurs Google ne savent pas quels seront les éventuels effets de bord de l'implémentation de tel ou tel nouveal algo ou du reserrage/desserrage de vis sur la pertinence globale des résultats.
Tout ca doit certainement faire l'objet de recettage complet avant chaque release sur les DC, et doit se négocier à grand coup de tests de non régression et de roll back. Mais la bête est devenue tellement visqueuse qu'il doit être impossible de déterminer à l'avance les potentiels dommages collatéraux de telle ou telle modification.
Hors ligne
Personnellement, je pense à un espèce d'algorithme pyramidale, l'algorithme tout en haut, le premier, serait la base la plus importante et jamais changée. Au contraire plus on descend dans la pyramide et moins les algoritymes ont de "l'importance", je veux dire que la sensibilité est moindre. Les bouts de la pyramide seraient donc des algorithmes. Les algorithmes seraient aussi des filtres. La pyramide serait donc, si vous comprenez bien ce que je veux dire, construite de haut en bas. Lorsqu'ils ont concu un nouveau filtre/algo, ils leur suffit de l'ajouter en bas de la piramide, de voir ce que ça donne, si c'est OK après test, ils laissent sinon ils enlevent.
Hors ligne
Rottman, j'aime bien ton image de pyramide. Je ne le voyais pas du tout comme cela, puisque c'était plutôt un sorte de Tetris que j'avais en tête.
Hors ligne
Globalement je suis de votre avis sur le fait qu’un algorithme change peu dans le temps et que la moindre virgule à son importance.
Une fois l’équilibre trouver (Acceptation du 80 / 20) en terme de fonctionnalité et qualité de résultats. Les filtres rentrent en jeu en fonction des disfonctionnements observés, afin de les « réparer ».
Pour rebondir sur l’idée de Rottman ; J’ai du mal à croire au système pyramidale global. Vous imaginez la charge machine pour le retraitement de tout un index de la taille de celui de GG quand on rajoute un Algo en bas de pyramide ?
Pour exemple : Le traitement du Google Bombing, qui semble algorithmique, a pris plus d’un an de développement. Et nous savons que le GG Bombing c’est vieux ! 2004 environs.
Je pense plutôt à un système de vases communicants avec l’index principal pour alléger certains traitements spécifiques (Algorithmes ou filtres).
Nous pouvons prendre pour point de discutions l’utilisation d’anciens algorithmes pour détecter du spamindexing. L’idée ici, est d’utiliser les fonctionnalités d’un Algorithm complémentaire comme Hits (Teoma, Inktomi) pour combattre une pratique / faiblesse de notre Aglo avec le temps. L’ago Hits sert à définir des entités influentes dans des Hubs, pour détecter quelques entités influentes des réseaux de spamdexing.
Aujourd’hui des algos de type Hits sont utilisés pour détecter les « nébuleuses » de sites de spam. Il devient concevable que ce traitement spécifique ne peut pas être appliqué à tous l’index, mais après : Une alerte ? Un disfonctionnement (Un peu comme à la bourse quand le graphe sort du trend et des moyennes connues) ? D’où l’idée de vases communicants.
Hors ligne
Elandrael a �crit:
Pour rebondir sur l’idée de Rottman ; J’ai du mal à croire au système pyramidale global. Vous imaginez la charge machine pour le retraitement de tout un index de la taille de celui de GG quand on rajoute un Algo en bas de pyramide ?
En fait, je pense qu'il faut un mix de l'image de Rottman (Pyramide) et la mienne (Tetris). Ca pourrait être une pyramide avec des trous dedans et des blocs de forme et tailles différentes.
Le sommet de la pyramide est l'algo fondamental, puis les blocs représentent les filtres algorithmiques qui sont placés sur des requêtes, des paramètres d'opti spécifiques et autres éléments propices à un filtre.
Hors ligne
ThickParasite a �crit:
Elandrael a �crit:
Pour rebondir sur l’idée de Rottman ; J’ai du mal à croire au système pyramidale global. Vous imaginez la charge machine pour le retraitement de tout un index de la taille de celui de GG quand on rajoute un Algo en bas de pyramide ?
En fait, je pense qu'il faut un mix de l'image de Rottman (Pyramide) et la mienne (Tetris). Ca pourrait être une pyramide avec des trous dedans et des blocs de forme et tailles différentes.
Le sommet de la pyramide est l'algo fondamental, puis les blocs représentent les filtres algorithmiques qui sont placés sur des requêtes, des paramètres d'opti spécifiques et autres éléments propices à un filtre.
C'est aussi mon avis.
Hors ligne