Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

Web

  • Investir dans la bourse

    Maintenant imaginons que vous passiez un ordre au mieux sur un titre peu liquide comme une action de l’eurolist C ou encore d’alternext, pensez à bien regarder le carnet d’ordres car les spreads sont souvent assez énorme, un spread c’est la différence qu’il existe entre le prix proposé par le premier acheteur et le prix proposé par le premier vendeur sur ce site. Ainsi si votre carnet d’ordres dispose d’un acheteur à 0.44 euros et d’un vendeur à 0.48euros, le spread est de 4 cent ce qui fait en l’occurrence tout de même 10 % , ainsi vendre votre action au mieux vous obligera à vendre avec 10 % de pertes. Toutefois si le titre annonce des nouvelles catastrophiques, parfois il vaux mieux perdre au mieux 10% avec un ordre au marché que de voir le carnet d’ordres d’acheteur se vider  sans plus d’espoir de pouvoir vendre. Ordre à double tranchant donc, pensez bien à surveillez les carnets d’ordres avant de vous lancer.

    L’ordre à cours limité : C’est le plus courant, car vous décidez du prix auquel vous voulez voir votre achat ou votre vente exécutée. Vous fixez donc un prix d’achat maximal ou un prix de vente minimal. Vous êtes donc sûr de vendre au prix que vous avez défini, mais si ce prix n’est pas touché par le marché, vous n’êtes donc pas certain d’être exécuté. Il s’agit donc souvent d’un ordre intéressant pour acheter un titre dans une zone de support que vous avez identifiée, mais vous prenez alors le risque soit de ne pas être exécuté si le marché ne touche pas votre support mais en choisi un au-dessus, soit d’être exécuté mais que le support ne tienne pas, et de vous retrouvez directement en moins value.

    Lire la suite

  • Il est possible que Google utilise déjà les éléments de feedback implicites

    La priorité N°1 de Google reste la qualité des résultats de recherche organique . Une des premières affirmations de cette partie surprend tout de même un peu : we built our brand on being the best search engine, with the best results, but our competitors have caught up on us. La suite détaille les points sur lesquels Google devra progresser pour obtenir des avantages concurrentiels déterminants. Rapidité Le but est d'atteindre la performance des US pour le reste du monde. Je n'avais pas noté que Google était particulièrement lent, quelles que soient les applications utilisées (sauf Analytics, si on sort du moteur de recherche), mais apparemment c'est normal car les utilisateurs ne réalisent que c'est lent que dès lors qu'on rend les choses plus rapides. Un point intéressant est ajouté avec la mention des investissements matériels et logiciels destinés à atteindre les buts fixés (sur le slide Google Evolution) Exhaustivité et fraîcheur Une des affirmations les plus surprenantes faites par Eric Schmidt au tout début de sa présentation du trafic organique : nous considérons que nous disposons de 5% des informations que nous pourrions indexer. Intéressant si on considère le nombre de documents que Google met à notre disposition, et dont les pages webs ne constituent qu'une partie ! A priori il est possible de faire bien mieux et les commentaires de la slide Lead in Search indiquent les buts suivants : Inclure toutes les pages webs disponibles Deux éléments sous jacents non mentionnés de ce premier but : le web invisible et le rafraîchissement des données. Mais il est probable qu'ils sont implicites. Diversifier les sources de données (images, videos, recherche géographique) Pertinence On arrive à la partie que j'ai trouvée la plus intéressante. Google chercherait améliorer la pertinence des résultats de recherche en utilisant des informations fournies directement ou non par ses utilisateurs. La citation exacte est : leverage implicit or explicit user feedback to improve popular and nav queries. Il y a pas mal de choses dans cette portion de phrase : Implicit user feedback : à priori, il s'agit d'examiner le comportement des utilisateurs pour en tirer des conclusions sur la pertinence d'un document. Plusieurs indicateurs étaient déjà évoqués dans le brevet déposé en mars 2005 : Information retrieval based on historical data. Le choix par les utilisateurs d'une page dans la liste des résultats et le temps passé dessus étaient mentionnés et potentiellement utilisables pour ranker un document et générer du trafic naturel. Ces informations peuvent être recueillies par Google via la toolbar ou les cookies. Explicit user feedback : Google ferait appel directement à ses utilisateurs pour obtenir leur avis sur des documents. Ce point est évoqué une seconde fois sur la slide suivante où est mentionnée la possiblité d'intégrer des commentaires, tags et évaluations sur les documents afin d'améliorer leur évaluation. Un wiki of search est également mentionné, ce qui me laisse un peu perplexe. popular and nav queries : le traitement ci dessus ne peut pas être appliqué à toutes les requêtes. Seules certaines seraient concernées : celles sur lesquelles il y a les plus gros enjeux de trafic et pour lesquelles la pertinence est plus difficile à obtenir. Il s'agit aussi des cas pour lesquels Google pourra obtenir le plus d'avis d'utilisateurs et donc lisser les résultats obtenus. La mise à contribution des utilisateurs du moteur peut être envisagée comme un outil de lutte efficace contre le spam et le trafic organique frauduleux . Les commentaires et ratings ne laisseront pas passer de pages douteuses ou de redirections. Il est possible que Google utilise déjà les éléments de feedback implicites, mais la possibilité de commenter ou de noter une page donnée serait quelque chose de très intéressant si tout le monde joue le jeu ! La slide de "la vache" que je ne résiste pas à la tentation de faire figurer ci dessous vient peut être appuyer ce point : la sagesse collective comme soutien aux algorithmes de ranking ?

  • Plus de trafic naturel

    Google Image est très probablement une des extensions les plus populaires du moteur de recherche de Google. Elle permet de retrouver des photographies via les recherches organiques , des illustrations et des graphiques sur une base d’index comprenant plus d’un milliard de documents. Le principe est le même que la recherche sur les documents texte et l’interface est également très épurée. Ceci assure à ce service une simplicité d’utilisation et une pertinence dans les réponses délivrées, caractéristiques clés des services « made by Google ». Il est également possible d’accéder à un formulaire de recherche avancé afin de spécifier un format d’image particulier ou encore appliquer un filtre de contenu et le trafic organique. Cette banque d’images est accessible gratuitement, via trafic google organique même si l’utilisation faite des documents reste soumise la plupart du temps à la loi sur les copyrights. Google a été la première entreprise à proposer sur Internet un tel service de recherche d’images, idée reprise aujourd’hui par un nombre important d’acteurs Internet, Yahoo et Microsoft en tête. Ce service a été un des premiers outils à démontrer que le modèle de recherche de Google possédait de nombreuses opportunités d’expansion. Il a ainsi contribué à la sortie d’autres services complémentaires répondant à un besoin croissant des internautes qui est de trouver des informations précises et pertinentes dans un flot d’informations toujours grandissant.