L’interview de Matt Cutts par Stephan Spencer

J’ai déjà évoqué cette interview dans cet article sur le Duplicate Content mais comme elle a duré plus d’une demi heure, de nombreux autres sujets ont été abordés et méritent d’être relevés.

Plutôt que de traduire littéralement 12 pages de discussions à bâton rompu, je vais me contenter de survoler et de résumer les principaux points relevés lors de cet échange.

Sur les résultats supplémentaires.

Google ne communique plus là dessus parce que ce n’est plus important. Auparavant les résultats supplémentaires n’étaient interrogés par les algorithmes de Google que pour certaines requêtes compliquées. Maintenant ces résultat sont systématiquement interrogés (où en passe de l’être).

Sur les sites en Flash.

Google ne peut pas transcrire les fichiers Flash en texte. Par contre avec l’outil SDK de Macromedia Adobe on peut transmettre du texte aux moteurs de recherche. C’est sur cette voie que Google est en train de travailler.

Sur les liens obtenus sur des sites de Social Bookmarking.

Stephan se demande si ce genre de liens, plus facile à obtenir, ne seraient pas traités de manière différente par Google.

Réponse : non la politique de base de Google est qu’un lien est un lien. Les liens issus du social Bookmarking ne pèsent pas moins que les autres.

D’ailleurs, les liens obtenus sur des domaines .edu ou .gov ne comptent pas en eux-mêmes plus que les autres. Il n’y a qu’a voir le nombre de site avec le mot Viagra qui sont des .edu. Les .edu et .gov ont généralement tendance à être de meilleure qualité mais il vaut mieux un bon lien venant d’un site .com qu’un mauvais lien venant d’un site .edu.

Sur les page doorway et les sitemap.

Question : comme Google précise ce qu’est une page Doorway (dans les Guidelines) n’y a-t-il pas de risque que des pages de site map mal codées puissent être considérées comme des pages doorway ?

Réponse : c’est quelque chose où nous faisons très attention parce qu’il arrive que certains fassent un site map à partir de tous les liens cliquables de leur site (We try to be savvy).

Sur les URLs bourrées de mot clefs.

4 ou 5 mots c’est tout à fait normal mais plus cela abouti à ce que notre algorithme accorde moins de poids à ces mot clefs. Si on met 15 mots clefs dans une URL, on peut être signalé par un rapport de spam et alors quelqu’un va venir voir ce qui se passe et cela peut-être considéré comme du spam.

Le conseil de Cutts et de ne pas mettre des tonnes de mots clefs dans l’URL et de ne mettre là que des informations utiles pour les utilisateurs.

Sur l’évolution des moteurs de recherche vers plus d’interventions humaines.

A la base Google ce sont des algorithmes et c’est comme ça que Google s’est développé depuis le début. Cela reste vrai mais un traitement humain a été ajouté pour traiter les spammeurs signalés.

Matt Cutts pense que des projets comme Wikia (un genre de DMOZ ?) est intéressant. Google est ouvert sur des idées d’utilisation de classement faits par des humains. C’est l’idéal pour éliminer les sites des spammeurs.

Bug dans les « Nofollow ».

Le tag rel= »nofollow » permet à Google de ne pas transmettre du PageRank vers le site lié. Cependant certains ont remarqués que l’anchor texte du lien pouvait être associé par Google au site lié. C’est un bug qui a été corrigé. Les liens en Nofollow ne sont pas non plus utilisé pour la découverte du Web par Google.

Sur les achats de liens pour pénaliser un concurrent.

Question : certains sites imaginent d’acheter des liens vers leurs concurrents et ensuite ils envisagent de dénoncer leurs concurrents pour les pénaliser dans Google.

Réponse : Je ne pense pas que des concurrent intelligents puissent essayer cela. Il y a des chances pour que ça leur fasse plus de mal que de bien (more likely to help ?).

Nous faisons très attention, dans toutes nos techniques contre les spammeurs, à ce qu’un site ne puisse saboter un autre site.

Sur le Tag Robot= »nocontent » introduit par Yahoo.

Pour l’instant il n’y a que 500 sites qui utilisent cette balise. Google ne compte pas prendre en compte cette balise dans ces conditions.

Sur la limite des 100 liens par page.

C’est conseillé de ne pas les dépasser mais maintenant que Google indexe plusieurs méga par page ce n’est plus une limite « dure ». Il est toujours préférable de créer plusieurs pages avec moins de liens qu’une page avec plus de 100 liens.

Peut-on s’attendre à ce que les pénalités en Page Rank soient expliquées dans la console WebMaster central ?

Pourquoi pas.

C’est déjà en place pour les sites infectés par des malware.

Pour quelqu’un qui a déjà fait la preuve de ses intentions malhonnête il n’est pas question de le prévenir à chaque foi qu’il franchit la ligne jaune. Par contre pour un site de papa / maman il y a plus de chances pour qu’on essaie de leur faire passer le message que leur site est infesté.

Mon petit commentaire

Voilà ce que je retiens particulièrement de cet entretien et ce que j’en pense.

  • dans ma page sur le référencement d’un lien profond, j’avais exposé le tactique du Social Bookmarking pour améliorer le classement d’une page particulière. Pour moi Matt Cutts valide cette technique.
  • Je retiens qu’il ne faut pas mettre plus de 4 ou 5 mots clefs dans une URL. A la base j’en ai déjà 2 (WordPress et tuto) mais j’espère que c’est dans le titre (balise Title) de la page qu’il ne faut pas utiliser plus de 5 mots. L’affaire n’est pas très claire…
  • Sur l’évolution des moteurs de recherche. Je suis très content de ce qu’énonce Matt Cutts sur les humains. Je ne vois pas trop bien ce que peut apporter Wikia mais DMOZ, dont je suis éditeur, a un slogan qui colle parfaitement à ce que recherche Matt Cutts : « human do it better », ce qu’on pourrait traduire en « faites confiance aux humains ». Pour DMOZ, il s’agit bien d’utiliser des êtres humains pour séparer les sites spammy des sites intéressants (n’en déplaisent à certains…).

Tags : , ,
Commentaires
  • geol dit :

    Merci, très intéressant !

    geol

  • Herve Didier dit :

    Très bon travail de traduction et de synthèse.

    Je repars de ton site avec une « to do list » intéressante, merci!

  • Neoxy dit :

    Article super intéressant, merci moi, je repart avec une « not to do list », lool

  • pagerank dit :

    Très bon travail de traduction et de synthèse.

  • apti7 dit :

    A computer is a necessary gadget which is bought and sold daily all over the world. But there are so many varieties, types and brands out there that a common man may feel muddled when he has to buy a computer.
    So, here are a few things you must consider when buying one:
    1. Desktop versus laptop: Some people still prefer desktops while most opt for laptops. Desktops can be cheaper and that’s another point in its favor. But laptop gives the comfort of taking it to bed and carrying it to any corner in the house or even outside. Desktops are cheaper, safer and are excellent for gamers. Laptops can be more expensive and are more susceptible to theft. However, we also have cheap laptops for sale these days at online stores. So, price is not a big factor as such these days.

  • asacem dit :

    2. Purpose of use: The most important thing to consider is the purpose of your use or the reason that you are purchasing the computer. Are you buying it to play games? If yes, then desktop will still be a better option, despite the fact that it is becoming outdated very fast. If you are looking to use it for general functions like emailing, browsing and chatting, then a laptop or a netbook is a better choice. Laptops are more portable than desktops and have complete features. Netbooks are equally, if not more, portable than laptops but they do not have all the features. So, if you also intend to use the computer for official purpose and have loads of files to backup, then a laptop should be the preferred choice. You can get one easily by browsing through the cheap laptops for sale.

  • asataf dit :

    3. Extras: If you are buying a computer and spending so much money, then it won’t harm your pocket much to put in some more money and grab some extras. However, such a purchase should be driven by need and not by greed. For instance, if you are buying a desktop, then you will have to buy a mouse and a keyboard with the monitor. But you can do away with extra mouse or keyboard for a laptop which already has an inbuilt keypad. Again, if you require the laptop to do some serious bit of typing and to prepare heavy volumes of word files, then you can get an extra keyboard which can be attached to it. Such a step will help you to prolong the life of the in-built keypad.

  • Perfumery, or the art of producing perfumes, started in ancient Mesopotamia and Egypt and was further improved by the Romans and Persians. Perfume and cologne that we know today first became popular in the early 16th Century Paris, when the secrets of its creation was brought to Europe after the returns of the Crusaders from Middle East. Even today, France is still the center of the European perfume design and trade.
    Majority of the perfume and cologne that is retailing in any shop today will only be comprises of about 4 to 10% of actual scented essential oils / extracts and the rest of the 86 to 90% of the bottle will be just alcohol and water. The amount of these scented oil/extracts in a bottle will determines the quality and types of perfume and cologne that are on the retail market today.

  • velvetstudio dit :

    Splash and After Shaves – Fragrances of this category usually does not last and contains about 1 to 3% concentration of essential oil.
    Eau de Cologne – The Eau de Cologne has a relatively short lasting scent and consists of about 3 to 8% concentration of essential oil and because of its weak nature, it is no longer commonly found in modern fragrances.
    Eau de Toilette – This is a widely used concentration in many of the fragrances today. The Eau de Toilette contains about 5 to 15% concentration of essential oil, though not as long lasting as the Eau de Parfum, it is a popular fragrance that people wear in the evening where scents is not needed to last.
    Eau de Parfum – Eau de Parfum comprises of 15 to 20% concentration of essential oil. This is the most common type of concentration available in most brands retailing today. The scent will usually fade after about four hours, however the base notes are known to last for as long as 24 hours. Fragrance with the Eau de Parfum concentration will be your choice if you need an all day coverage.

  • Modern technology has afforded us a somewhat endless range of items geared toward making out lives easier. Indeed, almost every variety of food now has a specially designed preparation tool in order to make the process as simple as possible. In this instance we are looking at rice cookers which are, as the name may well suggest, items of kitchen or catering hardware specifically developed for the cooking of rice.
    While such an item may seem something of an unnecessary or rather extravagant alternative to conventional rice cooking methods, they have become an integral and standard feature of millions of homes and industry environments across the world where they are held with a rather high level of reverence.

  • What would you want to http://www.vivre-a-domicile.fr know, why would you want to know this, when could you see results, where can you find all of the needed information?

Réagissez à asataf