mercredi 28 juin 2006

Google, eBay, MySpace, McAfee : brèves et mises à jour

Google, eBay, MySpace, McAfee : brèves et mises à jour

Google
Google - eBay
MySpace
McAfee - SiteAdvisor

Préparez-vous à être submergés par une myriade de dépêches et d'analyses sur l'actualité dominante des jours à venir, j'ai nommé GBuy !

Google Wallet il y a presque un an jour pour jour, puis G-Money, GPay, Google Checkout (https://checkout.google.com/ renvoie pour l'instant vers votre compte personnalisé)...

[MàJ - 29 juin 2006] Exit GBuy, Google lance Checkout. En cliquant sur le lien ci-dessus que je vous donnais hier, vous arrivez sur la fenêtre de connexion suivante :


Google propose également une vidéo de présentation du service, cliquez sur l'image ci-dessous si vous souhaitez la visionner :


Comme vous pouvez le constater, le petit chariot bleu à gauche de l'URL, symbole de Checkout, indique que ce cybermarchand utilise le service de Google. Une façon supplémentaire de nous dire qu'il s'agit d'un site sécurisé, ce qui aura forcément un impact sur la navigation des internautes dès que le bassin d'utilisateurs prendra de l'ampleur et que le service montera en puissance. En outre, l'exemple choisi par Google nous montre un lien sponsorisé, mais il est à prévoir que les résultats organiques intégreront aussi le petit chariot. À suivre...

Enfin, pour l'instant, Checkout n'est disponible qu'aux États-Unis, même s'il est probable que la localisation (qui est déjà un atout majeur des Adsense) ne tardera pas...

* * *
Donc, voilà plus d'un an que les observateurs, journalistes et blogueurs du monde entier se perdaient en conjectures sur ce qui a toujours été présenté comme une alternative à Paypal, sauf par ... Google :
Mr. Schmidt also denied it would directly compete with PayPal. Mr. Schmidt said Google didn't intend to offer a "person-to-person, stored-value payments system," which many people consider a description of PayPal's service.

(M. Schmidt dément que [ce service] serait en concurrence directe avec PayPal. Selon lui, Google n'entend pas offrir un "système de prépaiment individualisé", une définition que beaucoup considèrent comme une description de ce qu'est PayPal.)
On allait bientôt tout savoir, GBuy décortiqué, examiné sous toutes les coutures, etc. Ne comptez donc pas sur moi pour ajouter à la cacophonie. Je préfère me limiter à rappeler que Yahoo a déjà essayé PayDirect, un service semblable, sans grand succès. Yahoo qui a obtenu il y a peu un brevet dénommé Systems and methods for implementing person-to-person money exchange (à ne pas confondre avec Systems and methods for implementing person-to-person international money exchanges !)...


Après PayDirect, pourquoi pas Pay2PayDirect :-) [Début]

En attendant, Google vient de rendre GMail, Google News et quelques autres services accessibles depuis votre mobile...

(Je ne dis pas "le mien", vu que le service n'est pas encore disponible en Italie...)

En parallèle, je viens juste de m'apercevoir que Google a commencé à mettre des pubs aussi dans ses alertes :

Voilà des mois que je les reçois et jamais aucune pub n'avait précédé les résultats, une situation qui a changé apparamment entre 10h19' et 13h14' aujourd'hui ! [Début]

* * *


Toujours pour ce qui concerne le couple Google - eBay, après la compétition et les infidélités d'eBay avec Yahoo, voici venue l'heure de la coopétition, ou coopération compétitive, puisque Google et eBay financent ensemble FON, afin de vendre des routeurs communautaires à ... 5 $/€ et de promouvoir le Wi-Fi gratuit ! Ça devrait en intéresser plus d'un...

Signalons au passage que Martin Varsavsky, le FON...dateur, fait partie du premier tour de table d'investisseurs qui ont permis de lancer Wikio, aux côtés de Loïc Le Meur, Jeff Clavier, Freddy Mini, Ouriel Ohayon et, bien sûr, Pierre Chappaz. Une affaire qui agite le landerneau du Web francophone pour d'autres raisons... [Début]

* * *

Maintenant, à propos de MySpace, je viens de lire cette déclaration dans une longue interview de Murdoch sur Wired, concernant Google :
I like those guys, but there’s a bit of arrogance. They could have bought MySpace three months before we did for half the price. They thought, “It’s nothing special. We can do that.”

Je les aime bien, même s'ils sont parfois un peu arrogants. Ils auraient pu acheter MySpace trois mois avant nous à moitié prix, mais ils ont dû croire “Rien de spécial, nous pouvons en faire autant.”
Soit moins de 300 millions $ !. Via GigaOm, Search Newz, Search Engine Journal. Même si selon d'autres sources :
According to Michael Nutley of New Media Age Rupert Murdoch was told by Google Chairman Eric Schmidt that acquiring Intermix and MySpace would be “the best deal of his life.”

D'après Michael Nutley, de New Media Age, Eric Schmidt, PDG de Google, aurait dit à Rupert Murdoch que faire l'acquisition d'Intermix et de MySpace pourrait bien être “la meilleure affaire de sa vie.”
Allez savoir s'il y a eu délit d'initié et quel est le vrai du faux ! Donc, apparamment, Google n'aurait pas su saisir à temps le virage "réseaux sociaux" ? Tout comme Microsoft n'a pas compris la portée de l'Internet à l'époque de Windows 95. Juste pour faire un parallèle...

Quant au problème de la protection des enfants et des adolescents sur MySpace et, d'une manière générale, sur les réseaux sociaux, hier à la Chambre des Députés U.S. a eu lieu une audition, pour celles et ceux qui comprennent bien l'anglaisaméricain :-) [Début]

* * *

Ma deuxième mise à jour concerne McAfee - SiteAdvisor dont je vous parlais il y a un mois au sujet de la recherche sécurisée et de la mise en œuvre future d'un possible SafeRank, un avis jugé plausible par Bill Slawski (So, you may be right - some type of saferank could be part of the near future), qui est certainement bien plus expert que je ne le suis.

Or je viens juste de découvrir qu'une extension est disponible au téléchargement pour Internet Explorer ou FireFox. À tester pour une navigation sécurisée, faites-moi savoir vos commentaires si vous l'avez déjà essayé...

[Début]


Tags : , , , , , , , , , , , , ,

lundi 26 juin 2006

Blogs and folks and rock'n'roll

Blogs and folks and rock'n'roll

La genèse de ces mots, c'est un commentaire raté, commencé pour tenter de répondre à cette question : Pourquoi lisez vous Affordance ?, avant de me rendre compte qu'il y avait tellement à dire que mieux valait en faire un billet !

Olivier, pourquoi je te lis ?

Digression liminaire

Qu'on m'excuse le tutoiement, mais chez moi la blogofamille ça crée des liens (ce qui est bien naturel sur Internet), ça marche par affinités, affinités de goûts ou communautés d'intérêts, et d'ailleurs la blogosphère est moins grande qu'il y paraît, puisque sur Internet, le village a beau être global, ça reste quand même un village. Où tout le monde finit par se connaître, voire par se fréquenter, par se rendre visite. Ou pas...

Moi mon blog, c'est chez moi. Et comme chez moi, l'hospitalité y est sacrée, la porte est ouverte à toutes et à tous, je fais ce que je peux pour mettre mes invités à l'aise, favoriser le dialogue, nouer des conversations. Chacune ou chacun doit s'y sentir libre, libre d'y venir aujourd'hui, demain ou jamais, d'y faire une petite halte restauratrice ou de passer outre, libre de parler ou de se taire, voire de me dire t'es nul de chez nul, l'essentiel c'est de me dire pourquoi.

Or « comme dans la vraie vie » je ne reste pas toujours barricadé chez moi, loin s'en faut, j'aime aussi sortir et aller chez les autres, je sors de chez moi et je viens chez toi. Ou alors on peut se rencontrer dans un lieu public ou dans la rue, voire chez un ami ou une amie en commun.

Même si des fois, Machin te présente Truc parce que c'est son ami, et toi tu te dis, oui j'aime bien Machin mais quel con, ce Truc ! À moins que ce ne soit Truc qui pense de toi, oui j'aime bien Machin mais quel con, celui-là. C'est la vie. :-) De toutes façons on est toujours le con de quelqu'un, donc là n'est ni la question ni le problème, non, la question, le problème, c'est que si tu viens chez moi, d'abord tu te nommes et après tu parles, l'anonymat me rend nerveux, les commentaires anonymes c'est comme les lettres du même nom, la corbeille est la seule destination qui leur convient.

Donc, en plus des rencontres voulues, recherchées, il y a aussi les rencontres fortuites. Qui sont souvent les plus belles. Celles auxquelles tu ne t'attends pas et qui te ravissent.

Un jour t'arrive par hasard chez Olivier, chez Joël ou chez Jérôme, chez Jean-Marc ou Jean-Baptiste, chez Didier ou Isabelle, et tu te dis, tiens j'aime bien ce ton, cette conversation, alors ça te donne envie de t'attarder, de revenir, d'approfondir. Au gré du temps et des occasions, sans forcer, sans prétendre, sans idées préconçues, au détour d'un clic, hors des sentiers battus, loin des coteries Web 2.0 ou des salons qui comptent...

Voilà. Pour conclure et finalement répondre à ta question, Olivier, pourquoi je te lis, parce que j'aime bien venir chez toi, je m'y sens à l'aise.

« Dialogue », disent ceux qui brûlent de parler. (Elias Cannetti)

samedi 24 juin 2006

Microsoft pourrait faire l'acquisition de Yahoo ou d'eBay

Microsoft pourrait faire l'acquisition de Yahoo ou d'eBay

Cinq mois plus tard...
Neuf mois plus tard...
Onze mois plus tard...


Hier

Ça commence avec la lecture du billet d'un blog financier, intitulé « Microsoft pourrait faire l'acquisition de Yahoo ou d'eBay, selon Merrill Lynch », qui cite l'info relayée par theflyonthewall d'une étude à peine publiée par Justin Post (qui porte bien son nom...), un analyste de Merrill Lynch.

D'après lui, pour contrer la menace hégémonique de Google (qui continue, imperturbable, à gagner des parts de marché aux États-Unis dans la recherche, depuis 10 mois consécutifs), Microsoft pourrait envisager l'acquisition stratégique de Yahoo (fourchette de prix fixée à 40 - 45$ l'action), voire d'eBay, même si les bénéfices en seraient moindres pour la firme de Redmond.

Bon, ce n'est pas nouveau, l'info circulait déjà début mai (Google vs. Microsoft : la bataille de titans ne fait que commencer) avant de perdre de sa vigueur suite au refus de Yahoo, et je n'y ai accordé qu'un coup d'œil distrait.

Aujourd'hui

Surprise, l'info est déjà reprise par le Washington Post, par Forbes, Reuters, et qui sait par combien d'autres, vu qu'en général les dépêches de Reuters font le tour de l'Internet en moins de 80 jours ;-)

Il est vrai que les anglo-saxons réagissent au quart de tour à ce genre d'info, contrairement aux francophones, mais entre les deux extrêmes, il faudrait peut-être trouver un point d'équilibre...

J'en vois déjà certains qui se disent : « Pourquoi diffuser de tels racontars ? ». Ce n'est plus de l'actualité, c'est de la boule de cristal...

À qui et à quoi je réponds :
  1. Autorité de la source : les analystes de Merrill Lynch ne sont pas à proprement parler des rigolos, et même s'il leur arrive de se tromper, comme tout le monde, en général ils sont beaucoup mieux informés que vous et moi, et disposent d'une vision d'ensemble du business que seules des organisations de cette envergure peuvent avoir.
  2. Nature de la source : les financiers sont toujours les premiers à être au courant de ce qui se passe dans les hautes sphères et que le grand public ne découvre habituellement que bien plus tard, voire jamais. De plus, depuis un an, Merrill Lynch travaille aussi pour Microsoft. L'action de Yahoo a déjà commencé à grimper suite à cette perspective.
  3. La veille est toujours un pari : veiller sur Internet ne signifie pas être plein de certitudes, mais être à l'écoute du moindre signal pour tenter d'anticiper !
Demain

On verra...


P.S. Pour préciser mon affirmation selon laquelle « les financiers sont toujours les premiers à être au courant de ce qui se passe dans les hautes sphères », observons ce qui suit :
  • Les premières rumeurs sur l'acquisition possible de Yahoo par Microsoft ont commencé à circuler début mai suite à un article publié sur le Wall Street Journal (l'article original n'est plus disponible qu'aux abonnés).
  • Le 22 mai, Imran Khan, analyste chez JP Morgan, a publié un rapport de 56 pages intitulé Large Cap Internet Courtships (seule la version cache de Google peut être consultée, vu que le PDF original n'est plus accessible au téléchargement). Ce rapport analyse 6 scénarios possibles de « consolidation » :

    Concernant la faisabilité des scénarios 3 et 4, Imran Khan nous dit :
    1. sur eBay - Yahoo!
      À notre avis, au plan stratégique, un partenariat ou une fusion entre eBay et Yahoo! est l'opération la plus réalisable des six scénarios proposés dans ce rapport, et pourrait aider les deux entreprises à maximiser leurs atouts respectifs...

      (In our view, a partnership or merger between eBay and Yahoo! is strategically the most feasible of the six scenarios we present in this report it could help both companies maximize their respective business strengths...)
    2. sur MSN - Yahoo!
      Un partenariat ? Le PDG de Yahoo!, Terry Semel, a récemment déclaré au Financial Times qu'aucune discussion n'était en cours avec Microsoft concernant l'acquisition totale de Yahoo!, et que Yahoo! avait rejeté la proposition de Microsoft de prendre des parts dans la branche Recherche de Yahoo! Ceci étant, nous pensons qu'une consolidation Microsoft - Yahoo! serait un scénario stratégiquement viable, vu les dynamiques compétitives actuelles. En outre, si les deux sociétés ne réussissent pas à récupérer du terrain sur Google au cours des 12 à 18 mois à venir, nous croyons que les possibilités d'une consolidation potentielle entre les deux pourraient augmenter...

      (Partnership? Yahoo! CEO Terry Semel recently stated in The Financial Times that there have been no discussions with Microsoft regarding an outright acquisition and that Yahoo! rejected Microsoft's proposed stake in Yahoo!'s search business; however, we believe a Microsoft/Yahoo! combination is a strategically feasible scenario, given current competitive dynamics. Additionally, if both companies are unable to alter their trajectories versus Google over the next 12 to 18 months, we believe the potential for consolidation between the two players could increase...)
  • Le partenariat Yahoo! - eBay ayant bien eu lieu entre-temps, cela confirme si besoin était que les analystes financiers sont souvent parmi les gens les mieux informés pour savoir ce qui risque fort de se produire, à plus ou moins longue échéance ! Or s'il est vrai qu'il n'y a pas de fumée sans feu, The Wall Street Journal, JP Morgan et Merrill Lynch... qui dit mieux ?
[MàJ - 4 septembre 2006] La théorie a été reprise aujourd'hui par le ... Financial Times ! Étonnant, mais rien de nouveau jusque là : complémentarités possibles, risques antitrust, etc. Si ce n'est qu'entre-temps nous avons vu un rapprochement tout aussi inattendu : Google + Apple, et Sun qui n'est pas loin. À suivre donc...

Tags , , , , , ,

jeudi 22 juin 2006

Google teste et lance le cout par action sur ses Adsense !

Google teste et lance le coût par action sur ses Adsense !

Dans le sillage d'un précédent billet sur l'avenir des moteurs de recherche, présentant la traduction autorisée d'un billet de Vinny Lingham intitulé The Future of Search Engines?, où l'auteur s'avouait convaincu que le coût par clic n’était qu’une étape vers le coût par action, voilà que la réalité rattrape la prospective, puisque Google teste effectivement le CPA, ou coût par action :
Tarification fondée sur le nombre d'actions effectuées en réponse à votre annonce. Une action peut prendre la forme d'une transaction de vente, d'une acquisition de clientèle ou d'un simple clic. Également appelé coût par transaction. Le CPA peut également se rapporter au coût par acquisition.
L'info a été communiquée hier sur Internet par David Jackson, qui rapporte le message qu'il a reçu de Google :
« L'équipe Google AdSense souhaite vous inviter à tester une nouvelle fonctionnalité, qui vous permettra de générer un revenu sur votre site Web en affichant des pubs rémunérées au coût par action. Ce type de publicité présente des différences notables, puisque vous pouvez choisir parmi une sélection élargie d'une part, et vous bénéficiez d'un modèle de promotion plus souple de l'autre… »

(The Google AdSense team would like to invite you to test a feature that provides you with a new way to earn revenue from your website by hosting ads that are compensated based on a Cost-Per-Action [CPA] basis. These ads are very different in that you will be able to choose amongst a selection and you will also have more flexibility in promoting them…)
Au-delà des conséquences économiques évidentes pour tous les acteurs impliqués dans le marketing d'affiliation, certains observateurs y voient une réponse possible pour résoudre le problème de la fraude au clic (Juan Carlos Perez - IDG News Service, Miami : an ad model that in theory isn’t vulnerable to click fraud), là où d'autres pensent qu'à terme ça va dans le sens d'une plus grande pertinence des résultats (Vinny Lingham : I suspect that Google may start using the data in the CPA Ads to assist in determining relevancy at some point in time, not now but at least it's moving closer to it.)

Par ailleurs, ce dernier va plus loin puisqu'il nous met en garde contre les fraudes éventuelles liées à ce nouveau modèle :
  1. Vous montez un site (Setup a site)
  2. Vous y affichez la pub (Put up the ads)
  3. Vous cliquez sur l'Adsense sur votre propre site, aucune fraude au clic détectable (Click the ads on their own site - no click fraud)
  4. Vous achetez le produit/service en utilisant un carte bancaire volée (Purchase using the stolen credit card)
  5. Vous encaissez le chèque de Google pour les achats effectués, la rémunération au coût par action rapportant bien plus que quelques clics, puisque vous avez un faible taux de clic pour un fort taux de conversion, d'où aucune fraude au clic détectable (Receive a check from Google for purchases on a CPA basis - alot more than a few clicks, because now the clicks are low, but the conversions are high - so no click fraud)
  6. Vous recevez - ou pas - le produit/service acheté (Receive the goods, or not)
  7. Le vendeur en est de sa poche puisqu'il doit payer les frais bancaires tout en ayant perdu le produit/service expédié (Merchant receives chargebacks and is out of pocket for both the credit card charges & the goods.)
Et Vinny de conclure :
Ce n'est là qu'un scénario possible, mais je pourrais vous en proposer des dizaines d'autres !

Un scénario dicté par mon expérience dans le monde du marketing d'affiliation, vu les types de fraudes qui se produisent dans les réseaux d'affiliés. À mon avis, la méthode du CPA ne peut marcher que sur les sites de la galaxie Google et sur quelques sites à très fort trafic de partenaires soigneusement sélectionnés, n'ayant aucun intérêt à frauder. Par contre, si ce système touche un plus vaste public, ça va vite devenir problématique.

(That's one scenario, and I could go into dozens more!

This knowledge really comes from experience in the affiliate marketing world as to the fraud that occurs on the affiliate networks. The CPA method in my opinion would only work on Google's own site and selected high volume partners, as they have no incentive to commit fraud - the moment it's opened up to the broader public, it's becomes problematic.)
En tout cas, au moment où de plus en plus d'observateurs s'interrogent sur l'avenir de la recherche et ses modèles économiques, le lancement par Google du coût par action sur ses Adsense risque de provoquer bien des remous, et je suis sûr de ne pas me tromper en affirmant que nous n'avons pas fini d'en parler...


Lien connexe : La dérive publicitaire sur Internet : les incohérences de Google (entre autres)...

Autres ressources en français : Moteurs News, Orénoque, fil de discussion sur WebRankInfo

Tags : , , , , , , , , , , , , , , , , , , ,

Bidonnage aux noms de domaines : Bob Parsons en remet une couche

Bidonnage aux noms de domaines : Bob Parsons en remet une couche

C'est en train de devenir une chronique mensuelle : dans son dernier billet, publié hier, Domain kiting rages out of control..., Bob Parsons nous dit que sur 35 millions de domaines enregistrés au mois de mai, 92,3 % d'entre eux n'avaient pour but que le domain kiting, soit 32,3 millions de noms qui représentent près de la moitié des domaines actifs sur Internet (chiffres actualisés au 21 juin 2006) :


Des statistiques en phase avec celles du mois d'avril (+32 millions de noms), qui s'ajoutent pour nous donner la somme modique de +64 millions de domaines en deux mois qui exploitent le modèle j'essaie - je prends/je jette. C'est ÉNOOORME !

Pour vous donner un ordre de comparaison, selon des estimations rapportées dans un article de la Tribune à propos de l'extension française en .fr enfin accessible aux particuliers : « Les experts tablent sur le dépôt de 500.000 nouveaux noms de domaine d'ici deux ans. » !!! Ils ont vraiment le sens de la (dé)mesure à l'AFNIC. « L'internet en confiance », qu'ils disent...

Et c'est bien le cas de dire. Comme le Président de Godaddy l'affirme, ce phénomène a désormais un nom, et c'est un excellent début (So the problem now has a name – and that’s an excellent start!), il suffit de googler pour s'en rendre compte :



Il n'empêche ! Je veux bien qu'on l'accuse de travailler à sa réputation et qu'il ne soit pas sans reproches, mais quand même ! Ce qui m'étonne le plus, dans cette histoire, c'est que j'ai l'impression qu'il est seul à crier dans le désert et que les principales instances concernées, c'est-à-dire celles qui pourraient vraiment intervenir, continuent à faire ce qu'elles savent faire le mieux : RIEN (ICANN is doing what they do best — nothing!), et à se taire (I also find it incredibly interesting that VeriSign — who operates the .COM registry — has chosen to remain spooky quiet on the issue of domain kiting as well), vu les implications économiques en jeu, considérables.

Seuls ici et là un article ou un rapport semblent prendre la mesure du désastre, mais il serait peut-être bon que l'ICANN inscrive la question dans son ordre du jour de la conférence de Marrakech, qui se tiendra la semaine prochaine, précisément du 24 au 30 juin. J'en doute, mais sait-on jamais ? Quoi qu'il en soit, ils ne pourront plus dire qu'ils l'ignoraient ! Car s'ils continuent comme ça, l'Internet pour tous, c'est pas pour demain, et le développement de l'Internet et sa gouvernance ont encore un long, long, très long chemin à faire...




Tags : , , , , , , ,

mardi 20 juin 2006

Connaissez-vous le score de probabilité d'effacement ?

Connaissez-vous le score de probabilité d'effacement ?

C'est le concept au centre du brevet n° 20060129534, déposé et obtenu par Yahoo qui s'intitule :
System and methods for ranking the relative value of terms in a multi-term search query using deletion prediction

Système et procédés servant à déterminer la valeur relative des termes d'une requête multi-termes grâce à un indice prédictif d'effacement
Résumé :
The likely relevance of each term of a search-engine query of two or more terms is determined by their deletion probability scores. If the deletion probability scores are significantly different, the deletion probability score can be used to return targeted ads related to the more relevant term or terms along with the search results. Deletion probability scores are determined by first gathering historical records of search queries of two or more terms in which a subsequent query was submitted by the same user after one or more of the terms had been deleted. The deletion probability score for a particular term of a search query is calculated as the ratio of the number of times that particular term was itself deleted prior to a subsequent search by the same user divided by the number of times there were subsequent search queries by the same user in which any term or terms including that given term was deleted by the same user prior to the subsequent search. Terms are not limited to individual alphabetic words.

La pertinence probable de chacun des termes d'une requête de deux ou plusieurs termes est déterminée par leur score de probabilité d'effacement. Lorsque ces termes ont des scores sensiblement différents, le score de probabilité d'effacement peut être utilisé pour proposer au navigateur des résultats contenant des pubs contextuelles ciblées sur le ou les termes plus pertinent(s). Ces scores sont d'abord déterminés en analysant l'historique des logs du moteur relatifs à deux ou plusieurs termes dont un même utilisateur en a effacé un ou plusieurs lors d'une requête successive. Pour fixer le score de probabilité d'effacement d'un terme donné sur une requête précise, on calcule le rapport suivant : au numérateur, le nombre de fois que ce terme a été effacé avant la requête successive par un même utilisateur ; au dénominateur, le nombre de requêtes successives effectuées par ledit utilisateur où il a effacé un ou plusieurs termes contenant le terme donné avant de passer à la recherche suivante. Il est entendu que la parole "termes" ne se limite pas aux mots alphabétiques.
C'est clair ? Non ! Bon, alors voyons un exemple pratique sur le terme Honda.
  • Analyser les fichiers de log du moteur sur les requêtes à deux termes, en isolant toutes celles dont l'un des termes est Honda, le deuxième pouvant être n'importe lequel.
  • Identifer quels sont les internautes qui ont fait plusieurs recherches dont la première contenait Honda + un autre terme et ont effacé ensuite l'un de ces deux termes lors de recherches successives.
  • Pour définir le score de probabilité d'effacement relatif à Honda, compter le nombre de fois qu'un internaute a effacé l'un des deux termes du bigramme contenant Honda lors de recherches successives : disons que cela s'est produit 6 059 fois dans le cas de notre exemple. Calculer ensuite le nombre de fois où Honda a été effacé : 1 874 fois.
  • Mettre 1 874 au numérateur et 6 059 au dénominateur, ce qui nous donne un score de probabilité d'effacement pour Honda de 0,31 sur une requête bi-termes.
D'autres méthodes statistiques, telles que le lissage des données, peuvent aussi être utilisées pour calculer cet indice, appliqué ensuite pour déterminer un score de pertinence (relevance score) des termes d'une requête, avec une pondération alternative, soit des termes effacés (deletion probability of deleted term) soit des termes conservés (deletion probability of kept term) : lorsque ce score est supérieur à un seuil numérique prédéterminé, cela signifie que l'un des termes de la requête est plus pertinent que l'autre, d'où un impact à la fois sur les résultats du moteur proposés à l'internaute et sur le ciblage des pubs et autres liens sponsorisés.

L'estimation de probabilité maximale (Maximum Likelihood Estimate) permet en outre de déterminer la valeur relative des termes d'une requête donnée en établissant différentes listes :
  1. de probabilité d'effacement (Deletion Probability List)
  2. de phrases (Phrases List)
  3. de pubs (Ads List)
  4. d'exceptions (Exception List)
Les listes d'exceptions ont une fonction de filtrage pour mieux cibler l'affichage des résultats et des liens publicitaires.

Sources : Cre8asiteforums.com & Seroundtable.com

Commentaires :

1. L'idée d'origine est qu'on peut restreindre le champ d'une recherche en éliminant un terme après l'autre d'une requête multi-termes sur laquelle on n'obtient aucun résultat jusqu'à ce qu'on en obtienne un : « Queries with no matches can have words deleted till a match is obtained. » Cette phrase est extraite du résumé d'une étude d'Overture, signée par les inventeurs du brevet, qui fut probablement disponible sur le laboratoire de recherche de Yahoo mais dont on ne trouve plus trace aujourd'hui que dans le cache de Google : Query Word Deletion Prediction. La lecture de ce papier est très intéressante, en ce qu'elle explique la genèse du concept à la base du présent brevet.

2. Au-delà de cette technologie, qui se propose d'affiner la monétisation par un meilleur ciblage promotionnel, il est clair que cela impactera aussi les résultats proposés par Yahoo dans un premier temps, et aura en outre des retombées probables dans un futur plus ou moins proche pour les autres moteurs de recherche...



P.S. À noter qu'un autre brevet, le n° 20060129910, déposé pour Google à la même date que celui de Yahoo, semble décrire la fonction Autolink de Google, qui avait fait en son temps l'objet de critiques et de protestations. Il s'intitule « Providing useful information associated with an item in a document » (Fournir des informations utiles associées à un élément contenu dans un document). Via SEO by the SEA.

[MàJ - 23 juin 2006] Suite de mon P.S. : après avoir initialement fait observer à Bill Slawski que les deux brevets portaient les mêmes dates, il s'en est suivi un échange de messages fructueux, qui a débouché hier sur la publication d'un article de Bill intitulé Mining Searchers’ Queries for Information (du genre : dépouiller les requêtes des internautes pour en extraire des informations), où il retrace l'historique des études connexes, documents à l'appui. Excellente recherche, vraiment un travail de qualité. Bravo Bill !

Voici les premières lignes :
Search engines, and the people who constantly improve and update them are getting smarter and smarter when it comes to finding ways to make the results of those search engines more relevant.
One area they are paying more attention to is in search engine log files, watching how searchers interact with the search engines. I wanted to do some more research on how researchers might be looking at queries, and collected some citations to a number of pages involving that type of research.
This is by no means the canonical list of search engine/user behavior papers, but it’s a start…

(Les moteurs de recherche, de même que les gens chargés de constamment les améliorer et les actualiser, font preuve de toujours plus d'intelligence lorsqu'il s'agit de trouver des moyens de rendre les résultats des moteurs plus pertinents.
L'un des secteurs qu'ils analysent de plus près est celui des fichiers de log pour étudier comment les internautes interagissent avec les moteurs. Voulant en savoir plus sur la façon dont les analystes tirent profit des requêtes des internautes, j'ai rassemblé ici un certain nombre de documents qui abordent ce type de recherches.
Ce n'est certes pas la liste absolue de toutes les études traitant de l'interaction internautes/moteurs de recherches, mais c’est un début…)
Je vous laisse découvrir le reste, en anglais. Une fois n'est pas coutume, je vais même aller contre mes convictions et mes intérêts, mais si vous avez des difficultés avec la langue de Shakespeare, suivez ce lien... Après ça, vous comprendrez mieux pourquoi la traduction automatique a encore des progrès à faire !

Tags : , , , , , , , , , , , , , , , ,

lundi 19 juin 2006

MySpace met GYM sur les rangs : qui sera le mieux-disant ?

MySpace met GYM sur les rangs : qui sera le mieux-disant ?

Voilà déjà plusieurs semaines que les rumeurs enflent autour de MySpace. À première vue il semblait que Yahoo était hors-jeu et que la lutte n'aurait concerné que Google et Microsoft. Or comme je l'analysais récemment dans un article consacré au repositionnement des principaux acteurs de l'Internet :
À l'intuition, je dirais juste que tout n'est peut-être pas encore joué, vu que Murdoch aime beaucoup l'argent et que Microsoft a beaucoup d'argent. Ne jamais sous-estimer la cupidité dans les affaires. Mais bon, Google a les poches pleines aussi, suffisamment en tout cas pour satisfaire l'appétit du patron de MySpace, qui ne va pas se priver de faire levier sur sa position confortable pour faire monter les enchères de tout accord éventuel. D'ailleurs l'action de News Corp. est en hausse ces derniers jours, un signe qui ne trompe généralement pas...
Ça n'a pas manqué, et même Yahoo! serait repêché ! Par ailleurs il est probable que ces enchères ne concerneront que la fonction recherche sur MySpace, qui croît quand même à un rythme soutenu, le moins qu'on puisse dire : plus de 51 millions de visiteurs uniques aux États-Unis le mois dernier, 240 000 nouveaux utilisateurs par jour (via TechCrunch), avec à la clé, j'imagine, l'exclusivité pour le moteur adjudicataire et un modèle économique à inventer (voir ici une orientation). Ou bien on ne voit pas pourquoi Murdoch continuerait à investir dans des opérations complémentaires...

Quoi qu'il en soit, il a d'ores et déjà réalisé une excellente opération financière, certains de ses dirigeants n'hésitant pas à évaluer la société à ... 3 milliards $ ! (contre un peu moins de 600 millions $ à l'achat, il n'y a pas un an) : comme l'observe le toujours très attentif Didier Durand, « le contenu généré par l'utilisateur (UGC, ou user-generated-content), pourrait bien lui rapporter gros » ! Espérons-le pour lui, car pour se payer l'Internet (cf. Rupert Murdoch sur son blog MySpace :

J'ai acheté MySpace.com il y a peu, mais je ne vais pas tarder à posséder tout l'Internet !)
il a encore du chemin à faire... En attendant, il prévoit déjà d'internationaliser MySpace en localisant sa plate-forme en 11 langues : après les États-Unis et la Grande-Bretagne, les premiers pays identifiés seraient la France, l'Allemagne, puis à venir la Chine et l'Inde...




Create polls and vote for free. dPolls.com


P.S. À la fin, ce qui est sûr, c'est qu'on aura un mieux-disant et deux médisants... :-) (à moins que d'autres s'invitent à la noce, Ask par exemple !)

Résultats définitifs au 19 juillet 2006 sur 65 votants :


Lien connexe : Google s'adjuge la recherche sur MySpace pour 900 millions $

Tags , , , , , , , , , ,

samedi 17 juin 2006

L'avenir des moteurs de recherche : interaction-consommateur et monétisation des résultats organiques

L'avenir des moteurs de recherche : interaction-consommateur et « monétisation » des résultats organiques ?

Il y a quelques jours, à l'occasion de la rédaction d'un billet sur les stratégies pour les moteurs de recherche, j'ai découvert une personnalité du Web dont on entendra beaucoup parler, j'en suis sûr. Il s'appelle Vinny Lingham, il a tout juste 27 ans, c'est un champion d'échecs et un génie des maths et il est déjà à la tête de plusieurs Web-entreprises sur lesquelles j'aurai l'occasion de revenir.

J'ai appris beaucoup de choses en lisant ses articles, mais il y en a un qui m'a particulièrement impressionné par les idées qu'il développe. Publié le 15 novembre 2005, il pourrait bien s'avérer « prophétique » à plusieurs égards... Son approche est 100% axée business, mais qu'on le veuille ou non, c'est probablement la dimension qui influencera le plus nos expériences d'internautes dans le futur, pour le meilleur et pour le pire. C'est un billet plutôt technique, mais expliqué en termes simples, ce qui fait que même un profane comme moi a réussi à en saisir le sens. Enfin, j'espère ! Il s'intitule The Future of Search Engines? et en voici la traduction autorisée :

L'avenir des moteurs de recherche

« D’une manière générale, je crois que les moteurs de recherche doivent sérieusement s’interroger sur : 1) quelles sont les motivations qui poussent les internautes à chercher sur le Web, et 2) comment maximiser leurs revenus, afin de créer un cycle vertueux : plus vous gagnez d’argent grâce aux requêtes d’utilisateurs satisfaits, plus le cycle tend à se répéter et ainsi de suite. S’ils veulent vraiment concurrencer Google, les moteurs de recherche émergents (A9, MSN, etc.) devront mieux appréhender en amont les facteurs qui impulsent leurs revenus (réels ou planifiés), et appliquer ces facteurs au développement de leurs services pour pouvoir pénétrer plus profondément la psychologie des consommateurs (et leurs portefeuilles par la même occasion).

Je crois en une fusion potentielle du coût par clic (CPC) et de la recherche organique, où les moteurs proposeraient des liens aux revenus partagés.

Les risques de fraude aux clics, véritable plaie pour les annonceurs, pourraient ainsi être éliminés grâce au partage des revenus. Le fait que le coût au clic continue de grimper est un signal que les annonceurs sous-paient leur trafic sur les moteurs fournissant des résultats CPC, ce qui permet à des agents d’affiliation tels que nous de gagner beaucoup d’argent en faisant un travail d'arbitrage.

Voici une stratégie alternative pour les moteurs :

John Battelle
a défini dans son livre, Search, les 3 clés de voûte d'un moteur :

1. L’indexation par robots
2. L'index
3. L'interface utilisateur


Or à mon avis il y en a une quatrième : l'interaction consommateur.

Les sites Web et les résultats de piètre qualité tendent à générer plus de recherches semblables et moins de revenus par utilisateur. Donc en assurant un suivi de l'interaction entre l’utilisateur et un site Web, vous pouvez augmenter à la fois la qualité des résultats et les revenus du moteur. Les acteurs majeurs de la recherche ne passent pas assez de temps à étudier les statistiques post-conversions générées par les résultats organiques, or c’est là une occasion en or d’extraire des pépites d’un vaste gisement d’informations largement inexploité par l'industrie des moteurs.

(…)

Pour mieux comprendre l'interaction consommateur, il faut distinguer les intentions de trafic de l'utilisateur entre intentions commerciales et non-commerciales.

Je vais me concentrer sur les résultats de la recherche organique répondant à une logique commerciale, mais ces principes d’usabilité peuvent également s'appliquer aux résultats de nature non-commerciale.

Si un suivi de la qualité des sites Web indexés par un moteur était assuré en tenant compte de l'interaction utilisateur par rapport au mot-clé recherché, vous verriez que tous les résultats produits par le spam de moteur
(technique de positionnement d’un site dans les résultats des moteurs sur des quantités de mots-clés non pertinents – NdT) seraient rapidement et organiquement relégués tout au fond des résultats.

Or le spam de moteur est quasi-identique au spam de courriel : gros volumes, faibles taux de conversion et beaucoup d’énervement.

Le trafic normal se positionnerait indépendamment du spam, en fonction de l'expérience utilisateur sur un mot-clé donné. Pour autant, positionnement indépendant ne signifie pas nécessairement non-monétisation du trafic organique.

Il fut un temps où Inktomi générait des résultats organiques « Trusted Feed »
(système automatisé permettant de soumettre aux moteurs des données complémentaires - NdT), mais le problème c’est que les annonceurs n’avaient aucun contrôle sur les mots-clés pour lesquels ils payaient.

Le marché est passé ensuite au CPC, même si je suis convaincu que le coût par clic n’est qu’une étape vers le coût par action, l’outil d’analyse dont se servent les marketeurs intelligents qui vendent du CPC.

À l’heure actuelle, Snap essaie de mettre en place la plupart des solutions décrites ici, mais je ne crois pas qu'ils connaissent suffisamment l'espace marketing de l'affiliation pour mener à terme une telle stratégie, ou alors il leur faudrait des années pour nouer des relations directes avec chaque site Web.

Le point central consiste plutôt à réaliser une plate-forme ad hoc et s’en servir pour développer des opportunités d’affaires. Vu le taux de croissance de Google, les moteurs de recherche concurrents tels que Yahoo auraient besoin d’une stratégie de pointe robuste pour inverser la tendance, or je suis convaincu qu'une telle stratégie réside dans « l'interaction consommateur ».

Le PageRank est mort.

Les liens deviennent de moins en moins importants, vu l’émergence des fils RSS. Les sites Web ne pointent plus les uns vers les autres, ils en syndiquent le contenu sur leur propre site.

Beaucoup des résultats de Google sont générés par du spam de moteur, qui résulte la plupart du temps de la duplication de contenu des fils de syndication : peut-on encore se fier à l’indice de popularité des liens ? L'utilisation des liens entrants pour déterminer l'autorité d’un site commence à décliner et s’érodera toujours plus.

Un autre problème avec les liens est qu’en utilisant les CSS, dont la reconnaissance n’est arrivée qu’après le PageRank, il suffit de mettre un seul lien sur votre site Web et de le propager dans tout le site de façon totalement transparente.

Il est notoire que les spammeurs de moteur achètent des liens PR9 et PR10 pour augmenter leur PageRank.

Donc, en qui pouvons-nous avoir confiance ?

Et pourquoi ne pas laisser le client décider ce qu'il juge plus pertinent et adéquat...

Imaginez le scénario suivant :
Un utilisateur recherche « DVD de Star Wars » dans Google. Les trois premiers résultats sont Amazon, Buy.com e eBay. Pour l’instant, vous ne savez pas chez lequel des 3 l'internaute va acheter son DVD. Or c'est là une info cruciale absente de votre base de données : imaginez un instant le potentiel énorme derrière l’optimisation des résultats en fonction de l'interaction utilisateur.

Un : vous trouveriez tout en haut des résultats la plupart de ceux qui sont pertinents ; deux : vous pourriez finalement commencer à monétiser le marché de la recherche organique, chose que le grand Google lui-même n'a pas encore réussi à faire.

Attention ! Je ne dis pas qu’il faille changer les résultats de l'index, au contraire, mais plutôt proposer les meilleurs résultats en premier, y compris des sites n'ayant aucun programme de monétisation (c.-à-d. aucun dispositif prévu de gestion des transactions commerciales). Pour autant, si vous redirigez du trafic vers Amazon, il est essentiel de le faire avec un lien affilié pour collecter à la fois les données et la commission afférentes.
Il y a plusieurs moyens de réaliser ce qui précède sans impacter la qualité des résultats.

1. Intégrer les programmes d’affiliation dans les résultats organiques commerciaux

Plus facile à dire qu’à faire, certes. Mais imaginons par exemple qu’un internaute recherche « Blink Malcom Gladwell Book » sur Google.

Normalement, le premier lien est celui d’Amazon. Donc, au lieu de rediriger gratuitement l’internaute vers Amazon en essayant de deviner si c’est bien là qu’il veut aller, vous le faites cliquer sur un lien affilié intégré à leur API (chose que notre serveur de catalogue réalise déjà aisément, et plutôt bien).

Là un cookie est attaché à la navigation de l’internaute et en fonction du retour d’info qu’Amazon vous renvoie, vous vérifiez si l’interaction client a bien eu lieu.

Ainsi vous pouvez améliorer vos résultats lorsque vous savez qu’au lieu de prendre son livre chez eBay, l’internaute va l’acheter chez Borders, et le moteur de recherche devient de fait un partenaire de recherche et d’achat personnalisé, ce qui devrait être l’objectif ultime de ce qu’est la recherche commerciale.

Nous savons aujourd’hui qu’eBay et Google collaborent étroitement, mais sans aucune rémunération sur les résultats organiques – imaginez un instant si les choses changeaient ?

Le concept n'est pas de construire deux index séparés, mais plutôt de réaliser des redirections affiliées pour permettre un partage des revenus en fonction des clics sur les résultats organiques correspondant à un vendeur donné.

2. Gain par clic

En assurant une traçabilité des gains au clic
(contrairement au coût par clic, payé par l'annonceur, le revenu par clic est versé à l’éditeur du site – NdT) liés au taux de clic sur un mot-clé donné, les moteurs de recherche pourraient observer que le trafic sur certains de leurs résultats organiques (apporté via des programmes d’affiliation) augmente de pair avec le niveau d'interaction client et génère un rendement supérieur à celui des résultats au CPC ; ils pourraient ainsi forcer les annonceurs CPC à payer plus pour se positionner, ou alors intégrer les liens sponsorisés aux résultats organiques.


3. Bases de données de partenariats

Les moteurs de recherche pourraient et devraient commencer à développer des bases de données incluant des partenaires de recherche. Il suffirait simplement aux partenaires n’ayant aucun programme d’affiliation d’ajouter des extraits de code Javascript à leurs pages (comme Urchin, par exemple), pour permettre aux moteurs de tracer la navigation de l'internaute sur leur site.

Ce qui améliorerait considérablement la compréhension de l'interaction consommateur et augmenterait le niveau de détection par les bots/spiders.

Vous pouvez également hiérarchiser les sites Web à forts volumes de trafic en leur donnant la priorité, voire en instaurant certaines formes de rémunération ad hoc. Cela permettrait en outre d’identifier des sites hier anonymes, qui profitent généralement de leur anonymat pour pratiquer le spam ou le phishing, etc.

Conclusion

Je n'ai fait que survoler quelques-unes des innombrables possibilités offertes à notre industrie, dont certaines peuvent être considérées farfelues ou pas, mais si la formule de Snap réussit, je serais curieux de voir combien les résultats seront proches ou non des théories de cet article. Dont l’idée générale est que les moteurs de recherche devraient positionner un site Web dans leurs résultats en tenant davantage compte de son usabilité, et qu’il y a sûrement là une excellente occasion de monétiser les résultats organiques sans pour autant impacter leur pertinence. »



Qu’en pensez-vous ?

Commentaires :
  1. Affirmer que le coût par clic n'est qu’une étape vers le coût par action me rappelle le coût à la conversion déjà anticipé par Eric Schmidt pour donner de la profondeur au système publicitaire de Google ;
  2. « ...aujourd’hui eBay et Google collaborent étroitement, mais sans aucune rémunération sur les résultats organiques – imaginez un instant si les choses changeaient ? » - Nous ne devrions pas tarder à le savoir...
  3. Je ne suis pas particulièrement ferré sur les questions techniques, aussi j'espère que des personnes plus compétentes que moi voudront bien nous éclairer de leurs lumières...

P.S. Ressource connexe : Understanding Searcher Behavior

Tags : , , , , , , , , , , , , , , ,

mercredi 14 juin 2006

Blog Teflon ou blog addictif : longue traine et valeur ajoutee

Blog Teflon® ou blog addictif : longue traîne et valeur ajoutée

Certains billets ont plus de valeur que d'autres. Des billets qui jouent davantage sur le registre de l'affectif pour moi qui les écris que pour vous qui les lisez - ou pas, en leur préférant des articles factuels. Mais bon, je suis pas journaliste ! Le propre d'un blog, c'est ça aussi, se sentir libre de dire ce qu'on veut (plus ou moins :-).

Le 100e billet publié, billet-bilan par excellence, est indubitablement l'un de ceux-là. Il en va de même pour le premier et, sans aucun doute, pour le dernier... Probable que le jour viendra, mais hic et nunc j'espère le plus tard possible !

Vous me direz, cent billets depuis mars 2005, tu t'es pas foulé le poignet. En fait, la rédaction de ce blog se répartit de la façon suivante : 1/5e des billets publiés en mars 2005 (voir un petit récapitulatif), 10 mois d'interruption pour cause de boulot intense (gros projets les uns à la suite des autres), et les 4/5e restants depuis janvier, ce qui représente grosso modo 80 billets en 5 mois, accompagnés d'un début d'audience pour ce blog :


Pour la première fois, j'ai dépassé les 100 abonnés à mon fil (Atom) grâce à mon dernier article sur la dérive publicitaire sur Internet et le double langage de Google. Je sais bien que ce chiffre est très fluctuant et qu'il suffit que je ne publie pas pendant quelques jours pour qu'il tombe au ras des pâquerettes, mais quand même, franchir le cap des 100 lectrices et lecteurs pour le 100e billet, c'est bon signe, qu'en pensez-vous ?

Question bilan, disons que je suis satisfait du dialogue qui s'instaure avec vous qui me faites l'amitié de me rendre visite, qu'en 5 mois mon blog est passé de PR0 à PR3 (ça fera sourire les professionnels qui ne vous jettent qu'un coup d'œil distrait en dessous de PR5), que j'ai même un billet historique PR6 !!! (rectius : probablement la Google Dance, il n'est plus que PR4, mais reste par ailleurs à l'origine d'une belle aventure), et que mon blog ressort presque toujours très bien positionné dans les résultats des moteurs, sur pratiquement tous les sujets que j'aborde. C'est donc encourageant.

Maintenant, vu que je préfère me tourner vers l'avenir plutôt que vers le passé, que dire de l'évolution d'Adscriptor telle que je peux l'imaginer aujourd'hui ?

[ ERREUR DE TIMING : j'ai cliqué par inadvertance sur PUBLIER, et c'est parti tout seul. À mon avis Blogger devrait proposer une confirmation, ça éviterait ce genre de désagrément. Bon, et bien il ne me reste plus qu'à rédiger la deuxième partie du billet, que j'avais prévu de publier ... ce soir, patience donc ! ]

* * *

[MàJ - 22h, 2e partie]

Un billet lu il y a quelques jours sur le blog de Performancing m'a fait réfléchir à la question. Signé Chris Garrett et publié sous licence Creative Commons, je vous en propose une synthèse :
Ce matin, en tombant sur un blog photo dans mon fil de syndication, j'ai été saisi par une évidence, à savoir que le concept de composition photographique est assez proche de la façon de bloguer. Attendez que je vous explique, ç'est peut-être moins étrange que ça en a l'air. J'espère.

Le point central du billet, c'est d'ajouter des couches d’intérêt. Un bon conseil pour la photo, qui selon moi vaut également pour les blogs. En photographie, on vous apprend à focaliser un objet dont l'intérêt pourra capter celui de votre audience. En y ajoutant des zones supplémentaires d'intérêt, vous pouvez retenir plus longtemps vos visiteurs et générer davantage de valeur dans la durée. L'alternative étant de proposer une image superficielle, un visuel eye-candy, où tout est dans l’apparence, un plaisir évanescent qu’on oublie dans la seconde. Or dans l'art, la plupart des chefs-d'œuvre qui ont traversé l'histoire peuvent être contemplés à l’infini, on ne s’en lasse jamais.

Idem pour les blogs, il faut trouver quelque chose pour capturer l'intérêt de son audience, quelque chose d'utile ou qui fascine, le but étant d'abord se faire remarquer, puis de retenir l'attention. Plusieurs scénarios possibles :
  • Un titre accrocheur ou un linkbait qui aimante l’attention de vos visiteurs
  • Un premier article pour les capter et leur river l’œil à l'écran
  • Des archives riches en substance pour leur montrer qu’il y en a aussi sous le vernis
  • Des billets porteurs et pertinents pour alimenter vos fils quotidiens, RSS ou autres
Ou que se passe-t-il si le lecteur appâté par votre accroche arrive sur un billet dépourvu d’intérêt ? Ou encore s’il ne trouve qu’un seul article digne de ce nom égaré dans un blog bonace, plat comme une mer d’huile.
(mes origines bretonnes qui remontent :-)

Un super article, et puis plus rien. Voilà ce que j’appelle un blog Teflon®.
Aucune rétention de vos visiteurs, même s’il y a différents degrés de rétention, avec deux pôles extrêmes : le blog Teflon® d'un côté, et le blog hyper-addictif de l’autre, il nous faut notre ration quotidienne…

Quant à publier un seul billet qui impacte, cela se traduit par un pic de trafic qui ne sera plus jamais atteint, alors que ce qu’on veut ce sont des statistiques en constante amélioration, une belle courbe d’évolution qui monte, grâce à de nombreux billets qui font mouche
(la mouche, c’est excellent pour la pêche… NdT), pour un double gain : fidélisation de votre lectorat et diffusion du bouche-à-oreille…
Voilà. Ce que j’aime avec les anglo-saxons quand ils parlent de marketing, c’est qu’à les lire on a l’impression qu’ils débitent des évidences les unes à la suite des autres, mais au moins ils ont le mérite de les dire, de les rédiger, les conceptualiser, et ce qu’on avait dans la tête de façon un peu confuse prend forme et clarté sous nos yeux de lecteurs.

Ce billet m’amène plusieurs réflexions :
  • D’abord, trouver un juste milieu entre les deux extrémités signalées ci-dessus, en opposant la longue traîne des blogs à l’instantanéité du blog Teflon®. Par exemple, mes statistiques me révèlent que les billets écrits en mars 2005 ne sont presque jamais lus, ce que je trouve dommage. À mon avis, un sujet tel que les travailleurs de la connaissance est toujours d’actualité, même si aujourd’hui il vaudrait peut-être mieux nous qualifier de travailleurs de l’information.
    Toujours à propos de longue traîne, l'indexation complète de ce blog par Atomz donne aujourd'hui 111 pages indexées pour un total de 308 706 mots. Ça fait quand même de la lecture ! D'ailleurs, s'il y a des téméraires, j'ai tout regroupé en un seul PDF de presque 15 Mo et 900 pages, il suffit de demander...
  • À l’opposé, plutôt que de pondre un billet tous les jours au risque de finir par publier n’importe quoi, je préfère écrire moins et fouiller un peu plus mes analyses. Pour moi la valeur ajoutée de ce blog, ce sont mes analyses. Je ne veux pas dire par là qu’elles sont irréprochables, au contraire, mais je peux vous assurer qu’elles sont personnelles, et documentées autant que faire se peut. Avec le plus de liens possibles en complément, conseil toujours valable, pas question d’être auto-référentiel (néologisme emprunté à l’italien qui signifie qu’on ne fait référence qu’à soi-même, or à l’instar de la gare de Perpignan, seul Dali pouvait se croire le centre du monde, et encore…). Juste pour donner un exemple, aux antipodes de l’Atelier, 100% nombriliste (essayez de trouver dans leurs articles un seul lien qui ne pointe pas vers… l’Atelier !), ma bête noire depuis un fâcheux épisode que je ne suis pas prêt d’oublier.
Pour conclure, mon métier de rêve : profession, blogueur. Ça manque à ma panoplie, mais je désespère pas de l’y accrocher un jour…



Tags : , , , , , , , ,