Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

  • Il est possible que Google utilise déjà les éléments de feedback implicites

    La priorité N°1 de Google reste la qualité des résultats de recherche organique . Une des premières affirmations de cette partie surprend tout de même un peu : we built our brand on being the best search engine, with the best results, but our competitors have caught up on us. La suite détaille les points sur lesquels Google devra progresser pour obtenir des avantages concurrentiels déterminants. Rapidité Le but est d'atteindre la performance des US pour le reste du monde. Je n'avais pas noté que Google était particulièrement lent, quelles que soient les applications utilisées (sauf Analytics, si on sort du moteur de recherche), mais apparemment c'est normal car les utilisateurs ne réalisent que c'est lent que dès lors qu'on rend les choses plus rapides. Un point intéressant est ajouté avec la mention des investissements matériels et logiciels destinés à atteindre les buts fixés (sur le slide Google Evolution) Exhaustivité et fraîcheur Une des affirmations les plus surprenantes faites par Eric Schmidt au tout début de sa présentation du trafic organique : nous considérons que nous disposons de 5% des informations que nous pourrions indexer. Intéressant si on considère le nombre de documents que Google met à notre disposition, et dont les pages webs ne constituent qu'une partie ! A priori il est possible de faire bien mieux et les commentaires de la slide Lead in Search indiquent les buts suivants : Inclure toutes les pages webs disponibles Deux éléments sous jacents non mentionnés de ce premier but : le web invisible et le rafraîchissement des données. Mais il est probable qu'ils sont implicites. Diversifier les sources de données (images, videos, recherche géographique) Pertinence On arrive à la partie que j'ai trouvée la plus intéressante. Google chercherait améliorer la pertinence des résultats de recherche en utilisant des informations fournies directement ou non par ses utilisateurs. La citation exacte est : leverage implicit or explicit user feedback to improve popular and nav queries. Il y a pas mal de choses dans cette portion de phrase : Implicit user feedback : à priori, il s'agit d'examiner le comportement des utilisateurs pour en tirer des conclusions sur la pertinence d'un document. Plusieurs indicateurs étaient déjà évoqués dans le brevet déposé en mars 2005 : Information retrieval based on historical data. Le choix par les utilisateurs d'une page dans la liste des résultats et le temps passé dessus étaient mentionnés et potentiellement utilisables pour ranker un document et générer du trafic naturel. Ces informations peuvent être recueillies par Google via la toolbar ou les cookies. Explicit user feedback : Google ferait appel directement à ses utilisateurs pour obtenir leur avis sur des documents. Ce point est évoqué une seconde fois sur la slide suivante où est mentionnée la possiblité d'intégrer des commentaires, tags et évaluations sur les documents afin d'améliorer leur évaluation. Un wiki of search est également mentionné, ce qui me laisse un peu perplexe. popular and nav queries : le traitement ci dessus ne peut pas être appliqué à toutes les requêtes. Seules certaines seraient concernées : celles sur lesquelles il y a les plus gros enjeux de trafic et pour lesquelles la pertinence est plus difficile à obtenir. Il s'agit aussi des cas pour lesquels Google pourra obtenir le plus d'avis d'utilisateurs et donc lisser les résultats obtenus. La mise à contribution des utilisateurs du moteur peut être envisagée comme un outil de lutte efficace contre le spam et le trafic organique frauduleux . Les commentaires et ratings ne laisseront pas passer de pages douteuses ou de redirections. Il est possible que Google utilise déjà les éléments de feedback implicites, mais la possibilité de commenter ou de noter une page donnée serait quelque chose de très intéressant si tout le monde joue le jeu ! La slide de "la vache" que je ne résiste pas à la tentation de faire figurer ci dessous vient peut être appuyer ce point : la sagesse collective comme soutien aux algorithmes de ranking ?

  • Plus de trafic naturel

    Google Image est très probablement une des extensions les plus populaires du moteur de recherche de Google. Elle permet de retrouver des photographies via les recherches organiques , des illustrations et des graphiques sur une base d’index comprenant plus d’un milliard de documents. Le principe est le même que la recherche sur les documents texte et l’interface est également très épurée. Ceci assure à ce service une simplicité d’utilisation et une pertinence dans les réponses délivrées, caractéristiques clés des services « made by Google ». Il est également possible d’accéder à un formulaire de recherche avancé afin de spécifier un format d’image particulier ou encore appliquer un filtre de contenu et le trafic organique. Cette banque d’images est accessible gratuitement, via trafic google organique même si l’utilisation faite des documents reste soumise la plupart du temps à la loi sur les copyrights. Google a été la première entreprise à proposer sur Internet un tel service de recherche d’images, idée reprise aujourd’hui par un nombre important d’acteurs Internet, Yahoo et Microsoft en tête. Ce service a été un des premiers outils à démontrer que le modèle de recherche de Google possédait de nombreuses opportunités d’expansion. Il a ainsi contribué à la sortie d’autres services complémentaires répondant à un besoin croissant des internautes qui est de trouver des informations précises et pertinentes dans un flot d’informations toujours grandissant.

  • Difficile alors d'évaluer la qualité du trafic organique quand il s'agit d'estimer son retour sur investissement

    Evaluer la qualité du trafic organique

    La mesure du trafic organique (mesure et analyse de l'audience naturelle) peut être une tache à la fois simple est complexe. En effet l'analyse du trafic provenant des résultats naturels, malgré la personnalisation des sources de recherche naturelle n'a jamais été aussi problématique que depuis la généralisation des mots clés Not Provided dans Google analytics et autres outils de mesure statistiques de trafic. Difficile alors d'évaluer la qualité du trafic organique quand il s'agit d'estimer son retour sur investissement (cf: ROI de l'acquisition de trafic naturel). Mais voilà, le brouillard statistique causé par la haussse du Not Provided (due à a généralisation de cryptage SSL depuis la recherche Google) doit être perçu par les spécialistes du web marketing comme une opportunité et plus comme un problème. Sachant qu'il n'existe aucune méthode miracle pour récupérer les mots clés de recherche perdus, il est préférable d'abandonner les méthodes de bricolage pour tenter de reconstituer des données marketing non fiables. L'analyse du trafic organique a une trop grande importance sur le décisionnel pour la fonder sur des données trop approximatives, il est donc préférable d'accepter la perte des mots clés ayant apportés des visiteurs pour construire de nouveaux indicateurs clés de performance SEO (cf: KPI SEO).