Forum dédié au moteur de recherche et aux techniques d'optimisation par #taggle
Vous n'�tes pas identifi�.
http://www.textalyser.net/
Petit message à l'attention de Berb
C'est possible d'utiliser ton outil pour un site entier et non plus une page ?
Hors ligne
Bon... ca fait un an que j ai des requetes d'amelioration et que je fais rien.... donc : je m engage a bosser dessus, j attend juste qqs autres suggestions
sid, tu vois une liste d'urls ok, ou tu pensais a un spider ?
Hors ligne
spider qui crawlerait l'ensemble des pages d'une url !
Des options pour pouvoir crawler une rubrique uniquement d'un site (avec soit le systeme de dossier ou toutes les pages de la rubrique sont dans ce dossier, ou une page de départ dont tous les liens seraient suivis avec un certain niveau de profondeur) seraient aussi fortement utiles, c'est clair, mais plus complexe. Peux etre que finalement, un système de sitemap pour textanalyser finalement seraient le mieux pour arriver à gérer ts les cas.
T'aurais des billes justement sur ce type d'outils, as tu des bases d'infos sémantiques et cie, ou c'est un tools qui apprend progressivement et qui fait différents calculs ?
Hors ligne
ca prendrait pas mal de ressources a mon petit serveur
semantiquement parlant, c'etait fait de telle facon a pouvoir analyser plus ou moins chaque langue avec un alphabet occidental, avec une analyse un peu plus fine pour le francais ou l anglais. je en suis pas sur que je comprenne bien ta question, mais textalyser ne fonctionne avec aucun dico, seul des bases de donnees de stopwords... j'avais plein de trucs interessants prevus, mais bon, plus bosse dessus depuis longtemps, car il faut si on affine, bosser sur un language particulierement.
il y a de la langue de bois, normal, je ne sais meme plus exactement comment j avais fait
mais j ai assez envie de m y remettre
et puis ca fait longtemps que le NY Times n a pas parle de moi :-p
Derni�re modification par berberber (07-09-2005 16:28:13)
Hors ligne
Bah c'est simple, pour commencer, on bosserait sur du FR et au niveau du serveur, fo se dire que finalement c un logiciel qu'il faut dev et pas une appli web
Mais c'est effectivement plus simple de l'écrire vite !
Hors ligne
C'est vrai qu'il bastonne ton outil !
Ca faisait 1 an que je ne l'avais pas utilisé et je m'y remet avec plaisir
Ca serait pas mal de pouvoir exporter les résultats.
Et c'est vrai que tu devrais surfer sur la vague de la sémantique car ça risque d'être le genre d'outil que vont chercher les webmasters en mal d'analyse de page. Faut dire que la densité de mots clefs a la vie dure (dans le même style que le PR ), mais on peut espèrer que la compréhension sur les véritables paramètres qui compte s'améliore dans le bons sens.
Hors ligne
ThickParasite a �crit:
Faut dire que la densité de mots clefs a la vie dure.
Qu'est-ce que tu veux dire par là que la densité de mots clefs a la vie dure ?
Tu voudrais dire que cela ne sert à rien de placer plusieurs fois les mots clés dans une page pour la positionner correctement ? Qu'il vaut mieux jouer sur la sémantique que sur les répétitions ?
D'après mes constats... il y a tellement de cas différents. Une page peut se positionner en ayant qu'une seule fois le mot clé dans la page et d'autres se positionnent surtout grâce à la répétition visible ou non des mots clés. Quand je parle de répétition non "visible"... je parle de liens vers des fichiers multiples comportant le ou les mots clés visés.
Hors ligne
Americas a �crit:
ThickParasite a �crit:
Faut dire que la densité de mots clefs a la vie dure.
Qu'est-ce que tu veux dire par là que la densité de mots clefs a la vie dure ?
Tu voudrais dire que cela ne sert à rien de placer plusieurs fois les mots clés dans une page pour la positionner correctement ? Qu'il vaut mieux jouer sur la sémantique que sur les répétitions ?
Vi la densité n'est pas une bonne mesure.
Au lieu de répèter ce que j'ai dit sur WRI, voilà le link
-http://www.webrankinfo.com/forums/viewtopic_38560.htm
Hors ligne
Bon... je suis allé lire tes messages.
Tout à fait d'accord avec toi... et j'ajouterais que les mots clés sont également influencés par la thématique du site... ou tout au moins par les pages du site en relation avec la page où se trouvent les mots clés.
Beaucoup recherche des BL à profusions, ciblés ou non ciblés... alors qu'ils devraient commencés par faire bien attention à relationner les pages de leur propre site.
Hors ligne
Americas a �crit:
Bon... je suis allé lire tes messages.
Tout à fait d'accord avec toi... et j'ajouterais que les mots clés sont également influencés par la thématique du site... ou tout au moins par les pages du site en relation avec la page où se trouvent les mots clés.
Beaucoup recherche des BL à profusions, ciblés ou non ciblés... alors qu'ils devraient commencés par faire bien attention à relationner les pages de leur propre site.
Bon, là tu nous pars dans la sémantique appliquée qui est très importante, mais on va essayer de créer un autre thread pour ça car il y en a des tartines à dire et c'est le futur proche selon moi.
Hors ligne
Moi, si j'étais motivé, et si Bernhard me laissait éditer le code, je m'y attelerai bien, pour rajouter en plus de cela une fonctionnalité de classement de texte (le type, le style, la langue, etc). Faut dire que je peux déjà accéder au source, mais j'attends la permission de berni.
Hors ligne
j'avais pensé à y rajouter une webservice, pour transformer celà en logiciel. ce serait assez facile. en tout cas j'aurai bien aimé lancer cette analyse via le menu services de mon mac.
Hors ligne
coder, web services, donc API, valdo, je t'aime
Kler que construire une API avec comme seuls critères une url à analyser et une profondeur de crawl serait déjà énorme, et surtout efficace pour en faire le nouvel outil de ts les webmasters
Hors ligne
Faudra que se fasse une copie du source et qu'on mette ça dans un svn ou un cvs.
Hors ligne