Nouveaux bouleversements des résultats de Google à cause de la recherche sémantique ?

Google a-t-il changé la méthode d’analyse des backlinks de référencement en février 2012 ?
7 mars 2012
referencement naturel Google
6 avril 2012

Nouveaux bouleversements des résultats de Google à cause de la recherche sémantique ?

Un article du Wall Street Journal annonce l’imminence de changements présentés comme révolutionnaires et pouvant impacter « 10 à 20% » des résultats. Certains experts sont sceptiques face à ces annonces.

Nouvelle révolution en vue dans les résultats affichés par Google ? C’est ce qu’annonce le Wall Street Journal, s’appuyant sur une récente interview que lui a accordée Amit Singhal, haut responsable du moteur. Le quotidien affirme que le moteur va « dans les prochains mois », entamer « l’un des plus grands changements de son histoire ». Cette « nouvelle génération de la recherche » pourrait affecter des « millions de sites Web ». Le quotidien précise même que « 10 à 20% » des résultats seraient impactés.

Au cœur de ce « changement majeur » : la recherche sémantique, qui permettrait notamment à Google de mieux comprendre le sens des mots. Ajouté aux informations dont dispose le moteur, ses résultats devraient ainsi pouvoir répondre directement aux questions que posent les internautes et ne plus se contenter d’afficher les liens pouvant y répondre. Ce que Google fait déjà pour certaines requêtes.

Scepticisme

Et c’est d’ailleurs ce qui peut étonner dans cet article du quotidien économique. Certains experts n’ont d’ailleurs pas manqué de faire part de leur étonnement, teinté de scepticisme. Ainsi, Danny Sullivan du site Searchengineland vient tempérer ces annonces en précisant que Google s’appuie sur la recherche « sémantique » depuis 2003. Selon lui, bon nombre d’éléments présentés comme révolutionnaires dans cet article sont loin d’être des nouveautés.

Le Wall Street Journal étaye en tout cas, en évoquant notamment l’acquisition récente, en 2010, de Metaweb Technologies par Mountain View, qui pourrait aider le moteur à faire évoluer ses résultats. Selon Amit Singhal, l’équipe de Metaweb aurait développé des algorithmes d’extraction qui lui permettrait de disposer aujourd’hui de renseignements factuels sur un nombre impressionnant de livres, films, personnages, entreprises, etc. En tout, 200 millions d’entités seraient ainsi renseignées, alors que Wikipédia, compare le Wall Street Journal, n’en aurait « que » 3,5 millions. Une base de données déjà suffisante pour répondre, en effet, à bon nombre de questions.
La rédaction, Journal du Net

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *