Améliorer le volume et la qualité du trafic vers votre site Web par les moteurs de recherche

L’IIS Search Engine Optimization (SEO) Toolkit permet aux développeurs Web, les fournisseurs d’hébergement, et les administrateurs de serveur Web pour améliorer la pertinence de leur site Web dans les résultats de recherche en recommandant comment rendre le contenu du site plus de moteur de recherche convivial. Le SEO Toolkit IIS inclut le module du site d’analyse, le module d’exclusion des robots, et la Sitemaps et le module Index du site, qui vous permettent d’effectuer une analyse détaillée et des recommandations et offre des outils d’édition pour la gestion de vos robots et les fichiers Sitemaps.

Le module d’analyse de site permet aux utilisateurs d’analyser les sites Web locaux et externes dans le but d’optimiser le contenu, la structure et les URL du site pour les robots des moteurs de recherche. En outre, le module d’analyse de site peut être utilisée pour découvrir des problèmes communs dans le contenu du site qui affecte négativement l’expérience du visiteur du site. L’outil d’analyse de site comprend un grand nombre de rapports prédéfinis pour analyser la conformité des sites avec des recommandations SEO et de découvrir les problèmes sur le site, tels que les liens rompus, les ressources en double, ou des problèmes de performance. Le module d’analyse de site prend également en charge la construction de requêtes personnalisées par rapport aux données recueillies au cours de l’exploration.

Le module d’exclusion des robots permet aux propriétaires de sites Web pour gérer le fichier robots.txt à partir de l’interface du gestionnaire IIS. Ce fichier est utilisé pour contrôler l’indexation des URL spécifiées, en interdisant les robots des moteurs de recherche d’y accéder. Les utilisateurs ont la possibilité de visualiser leurs sites en utilisant un physique ou une vue hiérarchique logique et de l’intérieur de ce point de vue, ils peuvent choisir des fichiers ou des dossiers de l’application Web spécifiques interdire. En outre, les utilisateurs peuvent entrer manuellement un chemin ou modifier un tracé sélectionné, y compris des caractères génériques. En utilisant une interface graphique, les utilisateurs bénéficient d’avoir une compréhension claire de ce que les sections du site Web ne sont pas autorisées et de se soustraire à des fautes de frappe.

  • Affichage des sitemaps et fichiers d’index Sitemap dans une interface utilisateur simple
  • Prise en charge de regroupement et de tri
  • Possibilité d’ajouter / modifier / supprimer sitemap et sitemap fichiers d’index
  • Possibilité d’ajouter une nouvelle URL est de sitemap et sitemap fichiers d’index à l’aide de vue physique ou logique de votre site Web
  • Possibilité d’enregistrer un plan du site ou de l’index de sitemap dans le fichier d’exclusion des robots

 

http://www.iis.net/downloads/microsoft/search-engine-optimization-toolkit

Publicités

Le duplicate content

le duplicate content : le contenu duppliqué est une pénalité appliqué par google lorsqu’une page possède un contenu identique
à une autre. son objectif est de réprimer le plagiat, l’erreur de débutant qui consiste à prendre deux noms de domaine sur un m^site
et la copie initiale. C’est aussi un moyen pour les moteurs de recherche
d’éviter la pollution de leur index.lorsqu’une page est identifiée comme copie d’une autre, elle n’apparait plus dans les
recherches. Elle peut être déclassée sur d’autres pages de recherche (10 voire 100 de pages plus loin).
duplication interne: plagiat
duplication externe:erreur technique (DUST:differents urls same target)

Pour lutter : la balise canonique : <link rel= »canonical » href=url »/> permet au webmaster d’indiquer pour chaque page de
son site quelle est l’url de sont site. Toutes les autres versions seront désormais considérées par les moteurs comme étant
comme la même page. il suffit de mettre le code dans le code source de la page web concerné par le dupplicate content.(dans le header)
A utiliser quand la page est conservée. Demander au site qui a plagié d’introduire la balise canonique avec l’url de notre site.

Vérifier votre positionnement dans le moteurs de recherche grâce à ce petit outil

Incidents février 2013 Merci Google !

12 février 2013

Décidément, Google embête de plus en plus la seo-sphère avec ses différents filtres. Positeo n’en sera pas l’exception. En effet, vous avez surement du vous rendre compte de petits problèmes dans les résultats depuis début février,  on peut lui dire Merci tous en coeur : )

 

Et oui, Google a encore frappé et nous serre la vis de plus en plus. En effet il vient de rendre encore plus strict ses filtres anti-parsing et de plus, partage désormais les résultats spams entre les différents datacenters, ce qui n’était pas le cas avant.

 

Pour le moment j’ai donc limité temporairement les requêtes frénétiques de certains. Pour une même requête vous devrez attendre quelques minutes avant de pouvoir la refaire. J’en profiterai pour afficher le précédent résultat, je ne l’ai pas encore collecté mais ça viendra. J’ai ajouté quelques datacenters et supprimé tout ceux sur la même range d’IP pour n’en garder qu’une. Si vous en trouvez d’autres, n’hésitez pas à me les transmettre, ça ne pourra être que mieux dans l’absolu.

 

Une optimisation du spoofing d’URL et UA, bien que ça ne semble plus servir à grand chose. On dirait que Google regarde principalement le nombre de requêtes pour un même mot clé. Il ne bannit pas complètement une IP mais seulement temporairement sur un mot clé. Google semble avoir plusieurs niveaux de blocage plus ou moins long suivant la fréquence des requêtes. je le soupçonne même d’appliquer le blocage sur la plage d’ip de type X.Y.Z.0 /24 (soit le dernier chiffre de 0 à 255) ce qui n’est très clairement pas une bonne nouvelle.

 

On va donc réduire le nombre de requêtes possibles sur positeo, surtout pour un même mot clé, en utilisant du cache pour vos dernières requêtes. Je ne suis pas vraiment certain que ça améliore grandement les choses mais on a pas trop le choix. Si vous avez d’autres idées. N’hésitez pas ! En attendant, voyons comment cela évolue avec les modifications déjà apportées.

http://www.positeo.com/

http://www.annuaire-info.com