dimanche 29 juin 2008

Le point Paris sur l'AFNIC

Le point Paris sur l'AFNIC

[MàJ - 4 juillet] Réponse de l'AFNIC à la consultation publique...

Cela fait longtemps que je voulais faire un billet sur l'AFNIC, et l'occasion m'en est donnée à la lecture d'un article d'Antony Van Couvering sur son blog, qui adopte une attitude très critique vis-à-vis de l'AFNIC, et notamment sur la gestion des extensions françaises autres que le .fr, plus d'une dizaine à ce jour :

DOM
.re / Île de la Réunion
.mq / Martinique
.gp / Guadeloupe
.gf / Guyane française

TOM
.tf / Terres Australes et Antarctiques
.nc / Nouvelle–Calédonie
.pf / Polynésie française
.wf / Wallis et Futuna

Collectivités territoriales à statut particulier
.pm / Saint-Pierre et Miquelon
.yt / Mayotte

Futures extensions
.bl / Saint Barthélemy
.mf / Saint Martin

Pour un total de 14 ccTLD français, en y ajoutant le .fr et le .fx qui devait être réservé à la France métropolitaine, avant d'être abandonné et retiré de la liste officielle IANA.

J'ai donc demandé à Antony son autorisation avant de faire la traduction qui suit, adaptée (car les chiffres qu'il donne ne correspondent pas avec ceux de l'AFNIC) :
L'AFNIC détient plusieurs extensions “coloniales” qu'elle garde dans l'obscurité et qui ne sont pas opérationnelles. Au moins quatre de ces extensions ont déjà fonctionné avant d'être arrêtées sous la pression de la France. Leur absence d'activité sur Internet empêche leurs habitants de faire valoir leur identité distincte.

En septembre 2007, la liste ISO-3166-1 dont sont extraits les codes pays pour les extensions génériques, fut remaniée, et deux nouvelles extensions françaises ajoutées (.bl / Saint Barthelemy, et .mf / Saint Martin, la partie française), ce qui augmente le nombre d'extensions “dormantes”.

Il est clair que l'AFNIC peut compter sur des gens compétents, même si je ne suis pas très fan de leur politique en matière de nommage, ce que j'ai déjà eu l'occasion de préciser, autant en qualité de panéliste lors de l'atelier ICANN sur les nouvelles extensions que dans un précédent billet.

Durant les débats, j'ai souligné que ces nouvelles extensions étaient une expérimentation, qui devait prévoir une certaine marge d'erreur pour être validée. Bertrand de la Chapelle, représentant français auprès du GAC (Governmental Advisory Committee), est intervenu en disant :
Croyez-vous vraiment que le meilleur service à rendre à la sécurité et la stabilité d'Internet soit de laisser une marge d'erreur au cadre de développement des extensions, avec certaines en situation d'échec et d'autres non ? Ce n'est pas mon avis.
Ayant déjà vu toutes sortes d'indignations à l'ICANN, notamment avec le GAC, je n'aurais peut-être pas dû être surpris. Mais là, je dois dire que mon sang n'a fait qu'un tour.

Les extensions coloniales françaises sont des échecs, par définition. Elles ne marchent pas du tout. Quatre d'entre elles (.gf, .mq, .gp et .pm) ont d'abord été gérées par des opérateurs locaux avant d'être arrêtées. Même si, sous une forme ou une autre, elles font officiellement partie de la France d'Outre-Mer.

(...)

On peut donc se montrer sceptiques, puisque rien ne garantit que ces extensions pays seront gérées au bénéfice des communautés Internet locales, conformément aux exigences inhérentes aux délégations visées dans RFC 1591, le document fondateur qui énonce les responsabilités des opérateurs pour les extensions de premier niveau, pas plus qu'aux exigences d'IPC 1, tentative de l'ICANN de remplacer RFC 1591.

Une bonne nouvelle cependant ! Dans un apparent volte-face, l'AFNIC a entrepris une consultation publique, afin de voir quelles devraient être les conditions (s'il y en a) pour que les extensions de ces territoires puissent être activées. Je ne peux que spéculer sur leurs intentions. La consultation est “ouverte”, ce qui signifie que tous peuvent donner leur avis, mais, malheureusement, la date butoir pour recevoir les commentaires était le 24 juin, or je n'ai découvert cette consultation que la veille, lors de l'atelier de l'ICANN.

Voici le but de cette consultation :
Le ministère de l’économie, de l’industrie et de l’emploi organise une consultation publique
sur les modalités de gestion des domaines internet concernés par l’article L.45 du code des
postes et des télécommunications (CPCE) et par son décret d’application 2007-162 :
« .fr » France ;
« .gf » Guyane Française ; « .gp » Guadeloupe ; « .mq » Martinique, « .re » Réunion
« .pm » Saint Pierre et Miquelon ; « .wf » Wallis et Futuna ; « .yt » Mayotte ;
« .tf » Terres Australes et Antarctiques Françaises ;
ainsi que les futurs domaines « .bl » Saint Barthelemy et « .mf » Saint Martin.
J'ai passé plus de temps que n'en justifie mon salaire en cherchant sur le site de l'AFNIC et sur des sites connexes, mais j'ai été incapable de tomber dessus. Pourquoi donc ? Voici l'URL dans son intégralité :

http://www.telecom.gouv.fr/rubriques-menu/organisation-du-secteur/
textes-reglementaires/consultations-appels-candidatures/
consultations-ouvertes/modalites-gestion-du-domaine-
internet–dot-fr-extensions-outre-mer-1652.html

Il est clair que les Télécoms français n'apprécient pas la navigation directe (type-in). Il est également significatif que cette consultation ne se trouve pas sur le site de l'AFNIC, sur lequel je n'ai d'ailleurs pas pu trouver le lien.

Donc il semble bien que, pour la première fois, les autorités françaises envisagent d'ouvrir presque une dizaine de ces extensions pays. (Il serait inexact de dire que ces extensions n'ont pas du tout été prises en considération auparavant, puisque l'exploitation d'au moins quatre d'entre elles a déjà été arrêtée, sans consultation aucune.) Cela dit, nous devons applaudir ce processus de consultation, quand bien même il reste bien caché, tardif et aux conséquences incertaines. Une telle action pourrait inciter les autorités états-uniennes (.um) et norvégiennes (.bv, .sj) à suivre l'exemple en vue d'ouvrir elles aussi leurs extensions captives.

Difficile pour moi de dire de quoi il retourne vraiment, mais je me demande pourquoi, vers le mois de septembre 2007, un regain d'activité de l'ISO a concerné exclusivement les territoires français. Mises à part les deux extensions (.bl et .mf), il y a eu différents remaniements d'un code ISO à l'autre. Le point de vue charitable, c'est que la France souhaite augmenter sa contribution financière à l'ICANN, qu'elle s'est donc arrangée pour ajouter deux nouvelles extensions, qu'elle a reçu ensuite deux factures supplémentaires, en ajoutant ainsi sa contribution de façon quasiment anonyme, de sorte à pouvoir échapper à toute insinuation sur des buts autres que charitables. C'est possible… En revanche, le point de vue cynique, c'est que la France veut seulement obtenir deux votes de plus au sein du CCNSO. À moins que cela n'ait absolument aucun rapport avec les noms de domaine.

Mais quelle que soit la raison, je félicite les autorités françaises de faire au moins un premier geste, quand bien même ténu.

Ceci dit, j'espère bien qu'à l'avenir, on m'évitera les discours sur les dangers induits par le fait de permettre qu'une extension puisse être un échec.
Espérons donc, cher Antony, que le futur lancement du .paris sera pour le moins un franc succès. :-)




Partager sur Facebook

P.S. À vrai dire, je n'ai pas épuisé le sujet sur l'AFNIC, mais ce sera pour une autre fois. En outre, je vais être éloigné pendant 4 jours de mon bureau, donc c'est sur ce billet que je termine le mois de juin et vous donne rendez-vous vers le week-end prochain. Bonne semaine :-)

, , , , , ,

samedi 28 juin 2008

Crowdsourcing : contribution communautaire

Le crowdsourcing, ou la contribution communautaire

Dans le cadre de la réflexion que je mène sur Web 2.0 et modèles économiques, et notamment sur la nécessité d'inverser la traîne, le crowdsourcing occupe une place de choix.

Il est difficile de traduire ce terme, souvent influencé par le contexte dans lequel il se trouve, au croisement de l'externalisation (outsourcing) et de la foule (crowd), même s'il me semble que sa signification et sa portée s'étendent de plus en plus.

Personnellement, je le définirais par "contribution communautaire", vue comme apport de contenu volontaire, plus ou moins gratuit ou intéressé, c'est selon. En outre cela touche un nombre considérable d'activités sur Internet, de la photographie à la cartographie, en passant par la traduction, l'encyclopédie et l'innovation au sens large, etc.

En fait, je pense que s'estompent chaque jour davantage les contours entre contenu généré par l'utilisateur (UGC), contribution communautaire (crowdsourcing), pro-am, Internet participatif et Web social dans leur ensemble, autant de concepts qui témoignent cependant d'une tendance commune, d'une orientation partagée, de plus en plus destinées à jouer un rôle clé dans l'évolution d'Internet.

J'aime assez le modèle FLIRT créé par Sami Viitamäki en deux versions successives :


FLIRT signifie :
  • Focus
  • Languages
  • Incentives
  • Rules
  • Tools
Focus, Langues, Incitations, Règles, Outils, voilà tout un outillage des coopérations qui ne saurait nous faire oublier que le Web coopératif, il faut le vouloir !

D'abord et avant tout. Comme l'observe Narvic :
Les outils sociaux du Web 2.0 sont très utiles pour cela, mais il faut des volontaires... et des volontés. Où va-t-on les trouver ?
Et de proposer de redonner la voix aux créateurs, ce qui me rappelle un excellent billet de Josh Catone, où il constate que les foules sont meilleures pour valider les contenus que pour les créer (Crowds are better at vetting content than creating it).

Un avis contrastant apparemment avec celui de Chris Sherman sur la recherche sociale, qui « fait de plus en plus parler d'elle, mais (qui) en dépit de cet engouement (...) n'est pas prête à remplacer la recherche algorithmique traditionnelle ».

Ici la question des créateurs est centrale, même si la fameuse règle des 1% tend à confirmer la théorie d'Hubert Guillaud et Daniel Kaplan, selon laquelle un web massivement relationnel n'annonce pas par définition un monde massivement coopératif.

Il n'empêche, l'homme est un animal social...

* * *

Pour ma part, je pense que tous ces concepts sont à la fois très riches et trop nouveaux, très riches et porteurs d'implications de toutes sortes, mais trop nouveaux pour qu'on puisse encore bien en saisir les degrés, les interdépendances et ... les conséquences !

Tant à court terme qu'à moyen-long terme.

À noter enfin que le pendant du crowdsourcing serait le slavesourcing cher à Nicholas Carr, dans une confluence « vers un monde meilleur, où les machines externalisent l'universel slavesourcing crowdsourcing de l'intelligence et du travail humains » (en attendant The One Machine...), une variante de ce que Narvic appelle en bon français la sagesse du troupeau.

De quoi se demander si la sagesse des foules appartient vraiment aux foules...

Donc pendant que je tente de progresser dans ma vision des choses (c'est quand même assez compliqué, tout ça), laissez-moi vous proposer la lecture d'un document intitulé Le crowdsourcing, une intermédiation hybride du marché, par Cédric Pélissier, dont je vous livre la conclusion en espérant vous donner l'envie de lire le PDF (25 pages) :
Le crowdsourcing est un de ces nouveaux phénomènes issus du web 2.0, une nouvelle organisation qui se développe et s’implante sur la toile. Le modèle crowdsourcing compose aussi avec les outils du web. Cet univers est un prolongement des communautés web, de l’open source, de l’open innovation, etc. Cette nouvelle construction sociale nécessite désormais d’intégrer ces nouvelles formes d’échanges dans les constructions théoriques autour de l’open source, de l’open innovation et plus généralement autour des processus de collaboration et de gouvernance. Ces premiers résultats nous montrent qu’il faut dépasser les logiques dualistes entre marchandisation des entreprises et militantisme des communautés, mais plutôt prendre en compte l’ensemble des dimensions et rationalités qui s’entrecroisent dans ces nouveaux univers. Il est nécessaire de penser d’emblée ces modèles comme des modèles hybrides.
« Dépasser les logiques dualistes entre marchandisation des entreprises et militantisme des communautés » : vaste programme...


Partager sur Facebook

, , , , , ,

vendredi 27 juin 2008

Turning the Tail: from Long Tail to Big Tail

Turning the Tail: from Long Tail to Big Tail

Inverser la traîne - Passer de la longue traîne à la grande traîne (French version)

Turning the tail...

* * *

In a seminal article titled The Long Tail, published in October 2004 on Wired, Chris Anderson described a new niche strategy where it became possible to sell large numbers of unique items in relatively small quantities.


In fact, what would have been uneconomic in brick and mortar businesses was becoming possible AND profitable thanks to the Internet.

This concept of the “long tail” flourished and now applies to many other situations, such as domain names, for example, as well as (and especially) advertising. In particular since Google’s impressive conceptual – and commercial – innovation with the famous pair AdWords-AdSense.

In an interesting post on this matter, Scott Karp does an excellent job explaining wherein lies the innovation: factoring relevance into the auction model!

Let me explain: from 1999 to 2001, AdWords operated on a CPM basis, or cost per thousand impressions, the fee structure in fashion at the time, where advertisers were billed based on the number of impressions of their ads.

However, as Sergey Brin himself said, “It didn’t generate much money”.

In his book, The Search, John Battelle tells us that income from AdWords rose to about $85 million in 2001, while Overture earned $288 million the same year with its auction model operating on a CPC basis (cost per click, or the amount an advertiser pays for each click on its ad).
An auction system enables the advertiser to determine the cost per click incurred when users visit its site as a sponsored link. The starting bid is set at 0.15 $ per click. When the visitor enters keywords that were bid on, the search engine results page offers sponsored links, with the highest bidder’s site at the top of the list.
But Google couldn’t simply use Overture’s business model, unless they wanted a lawsuit. Even so, the lawsuit still happened and lasted more than two years, until the parties came to an agreement and dropped the suit.

However, it’s the essential difference between the two systems that enabled Google to defend itself and avoid a sentence: where Overture automatically linked the top ranking in the results to the highest bid value, Google introduced the idea of relevance, or rather popularity, with clickthrough rate (CTR), whose official definition is:
the number of clicks your ad receives divided by the number of times your ad is shown (impressions).
In other words, the bid value now became just a component, factored by the applicable clickthrough rate. John Battelle explains it the most clearly:
(A)ssume further that Accountant One is willing to pay $1.00 per click, Accountant Two $1.25, and Accountant Three $1.50. On Overture's service, Accountant Three would be listed first, followed by Accountant Two, and so on. The same would be true on Google's service, but only until the service has enough time to monitor clickthrough rates for all three ads. If Accountant One, who paid $1.00 per click, was drawing more clickthroughs than Accountant Three, then Accoun- tant One would graduate to the top spot, despite his lower bid.
A tiny innovation, but it took Google from $85 million in revenue in 2001 to billions just 7 years later!

And that’s not all: since apparently no one as improved upon it, most of the major Internet players are still looking for a decent business model.

In fact, this notion of relevance is also at the source of PageRank, at the heart of Google’s success. They go hand in hand. A search marketer cuts to the chase: If you don't provide the results, you don't get the money...

Now, the other reason for mass adoption of Google’s advertising services is... the long tail, as John Battelle rightly describes (emphasis mine):
You think Amazon's got scale? You think eBay is huge? Mere drops in the bucket. Amazon's 2000 revenues were around $2.76 billion. But the Neil Moncreifs of the world, taken together, drove more than $25 billion across the Net that same year, according to U.S. government figures. That's the power of the Internet: it's a beast with a very, very long tail. The head-eBay, Amazon, Yahoo-may get all the attention, but the real story is in the tail.
The power of the Internet is in the tail!

This is how Google achieved such amazing success. It was the only one to match advertisers’ needs with the fuel they required in abundance on the Internet: RELEVANT content. With an innovative ad server that enables millions of small sites and blogs to monetize their content, or at least to hope to...

But where Yahoo! had a presence since the beginning – since well before Google and before running astray – today Jerry Yang's abdication hands Google 90% of the advertising pie practically on a silver platter (if antitrust authorities accept it... even as advertisers already devote about 70% of their search budgets to Google!). All the other ad servers combined share the remaining 10%.

Even so, in 2008 no one has any illusions anymore (as Emmanuel Parody commented caustically: AdSense paying for content? That’s a joke...) and UGC, even if it continues to be created at full tilt, is no longer monetized like it should be (has it ever been?). Leaving millions of content creators fed up with their content be reused and monetized by the Web giants without any satisfactory form of payment or revenue sharing. [Top]

* * *

Turning the tail

A disruption in this success story is possible, however: it would just require turning the tail, to move from the long tail of UGC to the big tail, represented by the yellow part in the graph:


(no, This is not a pipe!)

To illustrate my idea, in a predictable imbalance predicted indeed by Clay Shirky in 2003, the analysis of 433 blogs ranked by number of incoming links illustrated the concept of the long tail nicely, with at the head:
  1. top two sites accounted for fully 5% of the inbound links between them,
  2. top dozen (less than 3% of the total) accounted for 20% of the inbound links, and
  3. top 50 blogs (not quite 12%) accounted for 50% of such links.

Now imagine an analysis of not 433 blogs, but tens of millions of blogs, sites, social network pages, etc.

Then you will understand that the head (the green part), which we will arbitrarily say equals 30% of sites/blogs/pages that would form the network’s core in the good old bow-tie theory (i.e., the core of most interconnected sites where the most links and traffic converge and are shared), no longer cuts it when the UGC mainstream now forms not the long tail, but the big tail of the Web, rather predominant today.

There is the real issue for UGC and the creators behind it: they lack representation: Everyone is mooching off their content to monetize it better than everyone else, but nobody really monetizes it at its fair value.

In fact, currently only the head attracts advertisers, while the tail is left to Google, which takes full advantage of it without fearing the inconsistencies...

My prediction is that the first player who succeeds in doing what Google did five years ago with AdSense, this time adapting relevance and fair revenue sharing for UGC, will introduce an even more formidable break with the past, with the added blessing of content creators, who are obviously the most harmed in and by the current system.

Turning the tail, moving from the long tail to the big tail, is the Internet’s next big challenge. Steve Ballmer himself says nothing less :
At the end of the day, this is about the ad platform. This is not about just any one of the applications. The most important application for the foreseeable future is search.
So we have all the data for the problem, and the first ad server that creates the RELEVANT mix to match advertisers’ needs on one side with the legitimate monetization expectations of content creators on the other side (matching the inventory of the latter based on the message of the former), will win the jackpot. Even if there are still a few unknowns.

It just has to be an ad... equate match! ;-) [Top]


Partager sur Facebook

, , , , , , , , , ,

jeudi 26 juin 2008

ICANN et nouvelles extensions

ICANN et nouvelles extensions

Annonce officielle...

C'est approuvé ! Après la désinformation, comme quelqu'un le disait en commentaire, voici venir le temps de « la réflexion technique et argumentée ».

J'aurai l'occasion d'y revenir... et je ne serai pas le seul !

Pour l'anecdote, vu que les nouvelles extensions ne devront avoir aucune proximité avec celles qui existent auparavant, vous pouvez vous entraîner ici (via CircleID) pour connaître votre score de similarité (clin d'œil à Pierre Chappaz, quand il disposera de son extension perso... :-) :


L'ICANN approuve également l'introduction d'un nombre d'IDN limités pour les codes pays (cf. modalités d'application) et espère mettre un terme au domain tasting, selon les recommandations du GNSO.

Trois changements majeurs - ou tout au moins qui devraient l'être - pour l'évolution d'Internet...


Partager sur Facebook

P.S. Dans une première analyse sur Read Write Web, Frederic Lardinois écrit :
The .com domain has become so ingrained in our Internet culture that it has practically become synonymous with domain names and the Internet as a whole.
La culture Web est si imprégnée du .COM que l'extension est devenue synonyme de noms de domaine et de l'Internet comme un tout par antonomase.

Nous verrons. Les habitudes peuvent changer très très très vite sur le Net...

, , , , , ,

Statistiques, trafic et mesure d'audience : l'exemple de Wikio

Statistiques, trafic et mesure d'audience : l'exemple de Wikio

L'annonce rapprochée du lancement de Google Trends Websites et de Google Ad Planner (voir ici également) fait couler beaucoup d'encre, notamment sur la mise à mort programmée des Comscore, Nielsen, etc.

Il y a quelques jours, une infographie du Monde sur les 15 premiers sites d'information français, proposait un classement où les deux premiers étaient lemonde.fr (3,125 millions de VU) et lefigaro.fr (3,115 millions de VU), où l'on entend par VU (Visiteur Unique), un "individu ayant visité un site au moins une fois", sans cumul sur le mois (ceux qui sont venus à plusieurs reprises ne sont comptés qu'une fois).

Source : Nielsen Net Ratings, sur un échantillon de 9954 personnes représentatives de la population française.

Or aujourd'hui, je vois apparaître dans mes flux ce top 100 des sites français selon Google, où les valeurs équivalentes sont respectivement 2,1 millions de VU pour lemonde.fr (soit un bon tiers de moins) et 1,4 millions de VU pour lefigaro.fr (soit plus de la moitié en moins) !

Première question : au-delà de la différence des critères pris en compte, que croire ? Et qui croire ? Voir un premier élément de réponse (via Emmanuel).

Deuxième découverte surprenante, tout au moins pour moi, Wikio.fr est absent du top 100 ! Tout comme de l'infographie du Monde, alors que Wikio se définit "portail d'information". Bizarre, vous avez dit bizarre ?

J'associe immédiatement cette absence à des déclarations récentes de Laurent Binard sur le modèle économique de Wikio et son trafic :
Laurent estime l’audience pour mai 2008 à 8 millions de VU dont 3 millions sur la France, à 4 pages vues par Visiteur Unique. L’audience se répartit sur 265 000 thématiques et ils en visent 1 000 000 d’ici la fin de l’année. Calculez la croissance potentielle, ils peuvent facilement atteindre fin 2008 plus de 12 millions de VU et de 5 millions de VU sur la France.
Vérifications.

Wikio France : moyenne de 100 000 VU/j x 31 = 3,1 M


Wikio Italie : moyenne de 50 000 VU/j x 31 = 1,55 M


Wikio Espagne : moyenne de 40 000 VU/j x 31 = 1,24 M


Wikio Allemagne : moyenne de 20 000 VU/j x 31 = 0,62 M


Wikio en langue anglaise : moyenne de 20 000 VU/j x 31 = 0,62 M


Pour un total de 7,3 millions de visiteurs uniques sur l'ensemble du réseau Wikio le mois dernier, ce qui corrobore totalement et parfaitement les estimations (le billet a été publié le 20 mai) de Laurent Binard.

Dont 3,1 millions pour wikio.fr, qui n'est pourtant pas présent dans le Top 100 alors qu'il devrait être en 25e position, à égalité avec voila.fr et juste devant infos-du-net.com, ce qui représente environ 8% de l'audience totale des internautes français.

Donc deuxième question : pourquoi cette différence de valeurs entre Google Trends Websites et Google Ad Planner ?

Enfin, pour en revenir à Wikio, sur les espérances de Laurent Binard d'atteindre globalement plus de 12 millions de VU par mois fin 2008, dont 5 millions de VU uniquement sur la France en décembre 2008, je serais plus prudent, vu que la tendance des 5 sites sur les 12 derniers mois ne permet pas d'extrapoler une telle montée en puissance d'ici la fin de l'année.


Je parierais davantage sur 10 millions de VU fin 2008, soit une quarantaine de millions de pages vues en décembre prochain, quoi qu'il en soit un très très beau score et une belle réussite pour le réseau Wikio : actuellement +235 000 VU et environ 1 million de pages vues par jour !

Si vous voulez participer au sondage sur le niveau de monétisation journalier de Wikio, cliquez sur l'image :


Même si ça reste encore un peu en-deçà des stats d'Adscriptor, qui sont tellement énormes que j'ai réussi à faire sauter le compteur de Google... :-)




Partager sur Facebook

P.S. Suite au commentaire d'Arnaud, qui me faisait observer que la réponse à la première question tient au fait que l'on a les visiteurs uniques mensuels dans un cas, et les visiteurs uniques journaliers cumulés sur un mois dans l'autre, d'où l'absence probable de Wikio des deux classements.

En fait, si l'on prend l'exemple de lemonde.fr sur le même mois de mai 2008, admettons qu'une moyenne de 800 000 visiteurs uniques par jour donne seulement 3,125 millions VU par mois, comme si chaque visiteur unique revenait 8 fois dans le mois :


Donc si l'on applique la même aune à Wikio, cela ferait une moyenne inférieure à 1 million de VU mensuels (912 500 pour être précis).

, , , , , , , ,

Facebook gagne contre ConnectU !

Facebook gagne contre ConnectU !

J'ai déjà expliqué sur ce blog quelle était l'histoire de Facebook à propos de ConnectU et quels étaient les points litigieux.

En fait, il semble que Zuckerberg ait piqué l'idée à l'origine de Facebook à ConnectU, et qu'il ait préféré l'exécuter pour son compte plutôt que pour celui des frères Winklevoss qui l'avaient contacté dans ce but.

Les différents procès s'étaient terminés par un règlement entre les parties.

Or début juin ConnectU avait tenté une nouvelle action, en argumentant qu'ils auraient été trompés par Facebook sur différents points lors du précédent règlement "à l'amiable", et qu'ils apportaient de nouveaux éléments (notamment des courriels de Zuckerberg prouvant son intention frauduleuse).

Facebook a contre-attaqué en demandant au juge de faire appliquer ce fameux règlement amiable, censé mettre fin à cette histoire.

Ce que vient d'ordonner le Juge du Tribunal de San Jose, en démontant un à un les arguments de ConnectU, qui se plaignait notamment d'avoir accepté un règlement partie en cash et partie en actions, avec un prix des actions calculé sur la base de la valeur de Facebook déclarée dans le communiqué de presse publié lors de la prise de participation de Microsoft. Soit sur une évaluation globale de 15 milliards $ de la société.
All ConnectU stock in exchange for [REDACTED] in cash & [REDACTED] common shares in Facebook. The terms of the shares shall include a requirement that all votes related to the shares will be voted in accordance with the Board of Director’s recommendations and be subject to the same anti-dilution protections afforded to Series D preferred stock. Facebook will determine the form & documentation of the acquisition of ConnectU’s shares (Consistent with a stock and cash for stock acquisition). Facebook represents that it currently has [REDACTED] fully diluted shares outstanding.
Or c'est là où ça devient intéressant : selon ConnectU, le CdA de Facebook serait revenu ensuite sur cette valeur, en la rabaissant. En gros, le juge considère que c'est pas son problème, que personne n'a sérieusement contesté la valorisation de 15 milliards $ déclarée dans le communiqué de presse, que le "règlement amiable" a été signé par les représentants légalement autorisés des parties et par leurs avocats, et donc que ce règlement doit être appliqué.

Il n'en demeure pas moins qu'on aimerait bien savoir à combien le CdA de la société estime aujourd'hui la "vraie" valeur de Facebook ! Un indice (un autre) ?

Est-ce que cette victoire de Facebook sera définitive ? Est-ce que ConnectU va de nouveau contre-attaquer ? À suivre...


Partager sur Facebook

, , ,

mercredi 25 juin 2008

ICANN et domain tasting

ICANN et domain tasting

Après mon premier volet sur la désinformation d'un journalisme caricatural, carrément démenti par l'interviewé lui-même, venons-en à des choses plus sérieuses puisque c'était hier que l'ICANN affrontait le problème du domain tasting et des abus caractérisés de l'AGP.

J'ai déjà consacré de nombreux billets à ce sujet, dont je rappelle brièvement que le principe consiste :
à enregistrer des domaines, à les tester pour voir leur potentiel en navigation directe (tasting), à les monétiser s'ils valent la peine (kiting) et à les rendre de nouveau disponibles à l'enregistrement dans le cas contraire. Sans rien payer, bien sûr, dès lors qu'ils sont restitués durant les cinq premiers jours...
Ces 5 jours correspondent à la "période de grâce" (Add Grace Period, AGP pour les intimes), et c'est l'un des deux piliers sur lesquels s'appuie le "domain tasting" ; l'autre étant les Adsense, puisque c'est grâce aux revenus Adsense générés durant ces 5 jours que les spéculateurs peuvent estimer si un domaine sera rentable ou non. Sur le graphique suivant, la flèche rouge en bas à gauche indique à quelle étape du cycle de vie d'un nom de domaine intervient ce processus :


Je répète le graphique car c'est important pour bien comprendre, vu que même le document traduit en français par l'ICANN sur la monétisation des noms de domaine prête à confusion, en rendant l'AGP par période de rédemption, alors que ça n'a rien à voir puisque la RGP (Redemption Grace Period) correspond à un moment différent du cycle de vie d'un domaine, c'est-à-dire à l'avant-dernière étape avant qu'un nom ne puisse être de nouveau disponible à l'enregistrement public, tel qu'indiqué sur le graphique.

Nous avons vu aussi que ce bidonnage de très grande ampleur était surtout le fait de trois registreurs :
  • Capitoldomains, LLC
  • Domaindoorman, LLC
  • Belgiumdomains, LLC
impliqués pratiquement depuis le début, et responsables de près de 3/4 des domaines "testés", selon Jay Westerdal :
...d'après des données internes, ces trois registrars sont responsables de 72,5% de l'ensemble des domaines testés au cours des 6 derniers mois (soit 185 650 068 sur 255 212 260 domaines testés).
Or les temps changent. Car si l'on regarde le dernier rapport mensuel de Verisign disponible à ce jour, on s'aperçoit vite qu'il y a un furieux turnover autour des effacements de domaines avant le terme de l'AGP.

En outre, depuis leur interdiction de tasting par le tribunal, les 3 compères ci-dessus ont été vite remplacés par de nouveaux entrants. Ça va, ça vient au gré des mois. Toutefois, si l'on compare sur un an, on voit que le phénomène semble régresser : les données de mars 2008 ne sont pas encore disponibles, mais la comparaison d'une année sur l'autre (uniquement sur les .COM) donne 52 119 513 domaines testés en février 2007, contre 15 804 124 en février 2008, soit une division par 3 !


Voir ce document détaillé sur les 10 plus gros testeurs en 2007 pour mieux comprendre. Autre chose étrange, le mois dernier, le 11e était Network Solutions, mais c'est peut-être lié à ses pratiques de front-running, auxquelles il s'est engagé à mettre un terme (avec un peu d'hypocrisie quand même...), si l'ICANN met un frein au tasting.

Comment ? En appliquant sa commission de 0,20 cent par nom enregistré même s'il est supprimé durant l'AGP.

À observer également que parmi les autres registreurs de la liste, sont nommément désignés comme spammeurs des noms aussi connus qu'eNom et Moniker, ce qui m'étonne quand même un peu...

En tout cas, ce qui est clair, tout au moins pour moi, c'est que la résolution du tasting n'est en rien un problème technique, mais plutôt politique et au final, tout simplement, de volonté. Donc demain le budget de l'ICANN sera voté en intégrant probablement la commission de 0,20 cent, même si l'ICANN nous prévient sobrement :
Il n’est pas certain que cela aboutira à la disparition de la pratique de l’essai de domaines, mais cela devrait au moins avoir le mérite de l’atténuer.
Donc ajoutez dans un tel contexte le déploiement des IDN et la libéralisation des nouvelles extensions, et vous finissez par obtenir ... un beau bordel !


Partager sur Facebook

, , , , , , , ,

lundi 23 juin 2008

Correctif : l'ICANN et le lancement de nouvelles extensions

Correctif : ICANN et nouvelles extensions

[MISE À JOUR - 24-06] Paul Twomey nuance ses propos :

C'est absolument faux, je n'ai jamais dit ça...

New gTLD Program : What kind of Internet do you want? (+ un aperçu en français sur ces nouvelles extensions)

* * *

C'est aujourd'hui qu'a commencé la 32e réunion internationale de l'ICANN à Paris. Beaucoup d'arguments importants sur le tapis, comme toujours, notamment le lancement de nouvelles extensions, le domain tasting et les IDN. Je n'ai pas le temps de tout traiter, surtout les deux derniers sujets qui me tiennent à coeur, aussi commencerais-je par la désinformation dans le plus pur style médias 1.0, avec les Echos (déjà épinglés par Adscriptor) qui dit du grand n'importe quoi :
La Toile est en passe d'être chamboulée. A partir du premier trimestre de 2009, l'Icann (...) permettra à tous les internautes de créer l'extension d'adresse Web de leur choix. Ils pourront déposer une infinité de noms. Par exemple .paris ou .cocacola.

La perspective de tels bouleversements suscite d'ores et déjà critiques et inquiétudes...
Et blabla et blabla, et je t'en fous une couche sur la grande pagaille qui « pourrait accompagner l'arrivée massive de nouveaux noms de domaine », et une autre sur les sociétés qui vont, de fait, devoir rapidement se protéger contre le cybersquattage (vous pensez bien, ma pov' Madam Michu, rien que l'an dernier, un nombre record de 2.156 plaintes, « (s)oit une augmentation de 18 % par rapport à 2006 et de 48 % par rapport à 2005 du nombre de litiges »...), etc. etc., le tout assaisonné de 2 ou 3 témoignages sans aucun doute pertinents mais totalement décontextualisés, juste histoire de donner plus d'intensité au propos et de renforcer toujours davantage le sentiment diffus chez le beauf moyen que l'Internet, décidément, est bien un espace de non-droit.

C'est signé L. N'. K. et E. P., alors voilà, L. N'. K. et E. P., mon avis c'est que vous avez pondu (voir en commentaire) un torchon, une honte pour votre profession et un grand foutage de gueule vis-à-vis de votre public.

Après ça, aux journalistes qui s'inquiètent de savoir comment assurer le virage Internet, je ne peux que conseiller de commencer par le commencement : apprendre à écrire des articles sérieux, documentés et recoupés. Et non pas un tas de conneries alignées les unes à la suite des autres pour se faire mousser. Car quand la mousse finit par se dissoudre, il ne reste que l'encre sale.

Et puis tiens, puisque je suis en veine, j'en profite pour vous apprendre qu'une info de cette qualité ne pouvait qu'être immédiatement reprise, et démultipliée dans la foulée. Ça se passe chez Réseaux-Télecoms.net (pourtant, rien qu'au nom, on pourrait penser à du sérieux) (actu maintenant pondérée par celle-ci...), sous la plume de David Lentier (pour écrire ça, ce cher David a dû tellement chatouiller la clavier que les touches n'en finissent plus de se gondoler), et la désinformation monte d'un cran (mais quel cran ;-) :
(L)'Icann annonce qu'à partir de 2009, il sera possible à tous les internautes de demander la création de noms de domaines de leur choix. On pourra ainsi demander la création d'un « .navire », « .sexe », ou « .dupont ». Cela préfigure de futurs conflits autour de l'affectation de ces noms de domaines, et une difficulté croissante pour la protection des marques sur internet. (...) Et l'on pourra voir surgir des « FranceTelecom.sexe », « FranceTelecom.ventes », ou "Orange.ventes", etc ... l'Icann prévoit de confier le contrôle de ces noms de domaines à un organisme qui devra faire régner le bon droit. Il semble toutefois que le nombre de litiges ne puisse qu'exploser.
Reconnaissons à David qu'il cite ses sources (Selon notre confrère les Echos...), ce dont son lectorat lui saura gré. J'aime particulièrement le FranceTelecom.sexe, c'est du plus bel effet. Je suis certain que Didier Lombard appréciera. ;-)

Espérons quand même que les reprises vont s'arrêter là et que ça ne finisse pas à la Une du JT ou d'une quelconque radio, et qu'un terme soit naturellement mis à la nullité journalistique galopante. À suivre...

[MàJ - 18h15'] En fait, je crois bien que c'est tout le contraire qui va se passer, l'info a déjà été reprise telle quelle par plus de 100 sources "officielles" et va se répandre comme un feu de poudre. Les télés et les radios vont prendre le relai, et tout le monde croira qu'en 2009 chacun/e aura son petit domaine perso. Je trouve ça désolant. Mon opinion en commentaire.

* * *

Donc, Messieurs, si je suis votre raisonnement, dès le premier trimestre 2009, nous aurions potentiellement plus d'un milliard d'extensions, disons à peu près autant qu'il y a d'internautes, et d'ailleurs j'en profite pour signaler à celles et ceux qui me lisent qu'à partir du 1er avril 2009, l'adresse de ce blog ne sera plus http://www.adscriptor.com mais www.jmleray.adscriptor, c'est plus reconnaissable, je vous le concède.

Quelques bémols toutefois sur ces assertions inconsidérées quant à la frénésie de personnalisation annoncée.

Il se pourrait effectivement que l'ICANN s'oriente vers la création de "milliers" de nouvelles extensions génériques (TLDs), mais cela ne sera jamais sans contraintes fortes, de nature à calmer les ardeurs.

Sur la création d'un .paris, par exemple, il faudrait d'abord obtenir l'avis favorable du gouvernement français sur l'utilisation d'un domaine géographique de premier niveau. C'est ainsi que le gouvernement espagnol a donné son aval à la création du .cat pour la Catalogne.

Sans compter que la création d'extensions de villes ou de régions pourrait bien faire de l'ombre à certaines extensions pays, qui n'en ont déjà pas besoin vu le peu d'engouement des populations nationales...

Maintenant, sur la création d'un .cocacola ou d'un .ebay, il est clair qu'il s'agit là de très grosses entreprises et que cela ne serait jamais à la portée de tout le monde.

Citons entre autres la nécessité de présenter un dossier sérieux pour appuyer la création d'une nouvelle extension (voir ce billet pour le .sport, par exemple). Nos journalistes en herbe pourront peut-être lire avec intérêt le point 8 des recommandations inhérentes (et les autres aussi, d'ailleurs) :
Applicants must be able to demonstrate their financial and organisational operational capability.
Il n'y a qu'à voir le flux d'évaluation d'une nouvelle extension pour s'en rendre compte :

flux d'évaluation des nouvelles extensions
Sans oublier qu'avec un ticket d'entrée coûtant entre 25 000 et 250 000 euros, ça limiterait quand même considérablement les vélléitaires. Mais bon, c'est juste un détail...

En tout cas, ceci pour dire que c'est pas demain la veille que le pékin moyen ira réserver son .pékin en IDN, à moins qu'il ait l'aval du gouvernement chinois. Auquel cas, je m'inclinerai volontiers devant la sagesse et la clairvoyance de nos journaleux du dimanche.

Perso je réserverais bien le .con, au moins on est sûr qu'il y aura des candidats !

Liens connexes :

Partager sur Facebook

P.S. (20h30') Cette affaire est tellement énorme que je n'arrête pas d'y penser. Apparemment elle n'a pas encore dépassé les frontières, mais dès que l'info va exploser outre Atlantique ça va faire l'effet d'une bombe. Il semble quand même que la presse commence à expliquer que ça ne va pas se faire comme ça, même si je nourris de gros doutes sur l'applicabilité immédiate d'une telle mesure. Il y aura en effet derrière tout ça des problèmes politiques, voire géopolitiques immenses qui vont bien au-delà de la propriété intellectuelle, et je doute que l'ICANN ait vraiment l'autorité d'imposer une telle aberration sans que personne n'y trouve rien à redire.
En outre, l'un des premiers mandats de l'ICANN étant d'assurer "la sécurité et la stabilité d'Internet", il me semble qu'une telle décision va carrément dans le sens opposé.
Enfin, maintenant que l'affaire a démarré, nous verrons sur quoi ça va déboucher. En espérant que les médias grand public auront quand même l'honnêteté d'approfondir les choses...

, , , , , ,

samedi 21 juin 2008

Turning the Tail - Inverser la traîne

Inverser la traîne : passer de la longue traîne à la grande traîne

Turning the Tail: from Long Tail to Big Tail (Version anglaise)

Inverser la traîne...

* * *

Dans un article fondateur publié sur Wired en octobre 2004, intitulé The Long Tail (opportunément traduit en français par la longue traîne), Chris Anderson décrivait une nouvelle stratégie “de niche” où il devenait désormais possible de vendre un grand nombre d'articles uniques en relativement petites quantités.


En fait, ce qui aurait été anti-économique dans une économie traditionnelle devenait possible ET profitable grâce à Internet.

Ce concept de “longue traîne” a fait florès et s'applique désormais à de nombreuses autres situations, comme les noms de domaine, par exemple, mais aussi et surtout à la pub. Notamment depuis la formidable innovation conceptuelle – et commerciale – apportée par Google avec le fameux binôme AdWords-AdSense.

Dans un billet intéressant sur la question, Scott Karp explique très bien où est l'innovation : la factorisation du modèle d'enchères par la pertinence !

Explication : de 1999 à 2001, les AdWords fonctionnaient au CPM, ou coût pour mille impressions, modèle de tarification en vogue à l'époque, où les annonceurs étaient facturés en fonction du nombre d'impressions de leurs annonces.

Or selon Sergey Brin lui-même, ça ne générait pas beaucoup d'argent (“It didn’t generate much money”).

Dans son livre, The Search, John Battelle nous dit que les revenus tirés d'AdWords se sont élevés à environ 85 millions $ en 2001, alors qu'Overture réalisait 288 millions $ sur la même année avec son modèle d'enchères au CPC (coût par clic, ou montant payé par l'annonceur pour chaque clic sur son annonce):
Un système d’enchère permet ensuite à l’annonceur de déterminer lui-même le coût par clic engendré par la visite de son site en tant que lien sponsorisé. La mise à prix est fixée à 0,15 euros par clic. Lorsque le visiteur obtient la page de résultats du moteur de recherche en ayant entré des mots clés faisant l’objet d’enchères, des liens sponsorisés sont proposés, avec en tête le site du meilleur enchérisseur.
Google ne pouvait pas non plus se contenter de reprendre tel quel le modèle économique d'Overture, puisque c'était le procès assuré. Procès qui a d'ailleurs eu lieu et a duré plus de deux ans, jusqu'à ce que les parties se mettent d'accord entre elles et abandonnent l'action en justice.

Or c'est cette différence essentielle entre les deux systèmes qui a permis à Google de se défendre et d'éviter la condamnation : là où Overture liait automatiquement la première place dans les résultats à la valeur d'enchère la plus haute, Google a introduit la notion de pertinence, ou plutôt de popularité, avec le taux de clics (clickthrough rate – CTR), dont la définition officielle est la suivante :
Le taux de clics correspond au nombre de clics effectués sur votre annonce divisé par le nombre d'affichages (impressions) de celle-ci.
En clair, la valeur d'enchère n'était plus qu'une composante, factorisée par le taux de clics applicable. John Battelle l'explique de façon plus intelligible :
Sur trois annonceurs, le premier paie 1 $ le clic sur un mot clé, le deuxième 1,25 $ et le troisième 1,5 $ sur ce même mot. Sur Overture, c'est l'annonceur 3 qui se positionne automatiquement en premier. Tandis qu'avec Google, si l'annonceur 1 a un meilleur taux de clic que les annonceurs 2 et 3, il se positionnera devant les deux autres bien que sa valeur d'enchère soit plus basse que la leur.
Une innovation toute petite, toute simple, mais qui a quand même permis à Google de passer de 85 millions $ de recettes en 2001 à des milliards 7 ans plus tard !

Et ce n'est pas tout : puisque apparemment, personne n'a fait mieux depuis, la plupart des acteurs majeurs de l'Internet se cherchant encore un modèle économique décent.

En fait, on retrouve dans cette notion de pertinence la même qui est à l'origine du PageRank, au coeur du succès de Google. En outre, l'un ne va pas sans l'autre. Comme disent les américains avec leur pragmatisme habituel : If you don't provide the results, you don't get the money...

Maintenant, l'autre raison de l'adoption massive des services publicitaires de Google, c'est ... la longue traîne, comme le décrit justement John Battelle (c'est moi qui graisse) :
You think Amazon's got scale? You think eBay is huge? Mere drops in the bucket. Amazon's 2000 revenues were around $2.76 billion. But the Neil Moncreifs of the world, taken together, drove more than $25 billion across the Net that same year, according to U.S. government figures. That's the power of the Internet: it's a beast with a very, very long tail. The head-eBay, Amazon, Yahoo-may get all the attention, but the real story is in the tail.
La puissance d'Internet est dans la traîne !

C'est ainsi que Google a connu sa formidable réussite, seul à avoir su mettre en adéquation les nécessités des annonceurs avec le carburant dont ils avaient besoin en abondance sur Internet : du contenu PERTINENT. Avec une régie novatrice qui a permis à des millions de petits sites / blogs de monétiser leur contenu, ou pour le moins d'espérer...

Mais là où Yahoo! était présent depuis le début, c'est-à-dire bien avant Google et avant de s'égarer ensuite, aujourd'hui l'abdication de Jerry Yang apporte pratiquement sur un plateau 90% du gâteau publicitaire à Google (si les Autorités compétentes l'acceptent... et alors même que les annonceurs accordaient déjà environ 70% de leurs budgets « recherche » à Google !). L'ensemble des autres régies se partageant grosso modo les 10% restants.

Pour autant, en 2008, tous ne se font plus d'illusions (comme l'observe caustiquement Emmanuel Parody : croire qu'Adsense paye les contenus c'est une plaisanterie...) et l'UGC, même s'il continue d'être créé à plein régime, n'est plus monétisé comme il se devrait (l'a-t-il jamais été, d'ailleurs ?). D'où le ras-le-bol de millions de créateurs de contenus repris et monétisés par les grands du Web sans aucun reversement ni partage des revenus qui serait satisfaisant. [Top]

* * *

Inverser la traîne...

Une rupture dans cette histoire à succès serait pourtant possible: il suffirait d'inverser la traîne, pour passer de la longue traîne à la grande traîne de l'UGC, représentée par la partie jaune.


(non, ceci n'est pas une pipe !)

Pour illustrer ma pensée, dans un déséquilibre prévisible et prévu par Clay Shirky en 2003, l'analyse de 433 blogs classés par nombre de liens entrants illustrait bien ce concept de longue traîne, avec en tête :
  1. le top 2 représentant 5% des liens entrants
  2. le top 12 (soit moins de 3% du total) 20% des liens entrants
  3. le top 50 (soit moins de 20% du total) 50% des liens entrants

Donc imaginez maintenant une analyse portant non plus sur 433 blogs, mais sur des dizaines de millions de blogs, de sites, de pages de réseaux sociaux, etc.

Vous comprendrez alors que la tête (partie verte), à laquelle nous ferons correspondre de façon tout à fait arbitraire l'équivalent des 30% de sites / blogs / pages qui formeraient le cœur du réseau dans la bonne vieille théorie du nœud papillon (c'est-à-dire les entités plus interconnectées qui se partagent et où converge un maximum de liens et de trafic), ne fait plus le poids à l'heure où le mainstream de l'UGC forme, non plus la longue traîne, mais la grande traîne du Web, largement prépondérante.

Or là est le véritable problème de l'UGC et des créateurs qui sont derrière, c'est qu'ils manquent de représentativité : tout le monde tape dans leur contenu pour le monétiser à qui mieux-mieux, mais personne ne le monétise vraiment à sa juste valeur.

En fait, à l'heure actuelle, seule la tête attire les annonceurs tandis que la traîne est laissée à l'emprise de Google qui en profite au maximum sans craindre les incohérences...

Donc je prédis que le premier acteur qui réussira à refaire ce qu'a fait Google il y a cinq ans avec les AdSense, mais en adaptant cette fois la pertinence et un juste partage des revenus à l'UGC, introduira une rupture encore plus formidable vis-à-vis de tout ce qui a précédé, avec en plus la bénédiction des créateurs de contenu, qui sont évidemment les plus lésés dans et par le système actuel.

Inverser la traîne, passer de la longue traîne à la grande traîne, voilà le prochain défi à relever sur Internet. D'ailleurs Steve Ballmer lui-même ne dit pas autre chose :
At the end of the day, this is about the ad platform. This is not about just any one of the applications. The most important application for the foreseeable future is search.
Au bout du compte, la seule chose qui compte vraiment, ce sont moins les applications que la plateforme publicitaire. Et dans un avenir prévisible, la première des applications est la recherche.

Nous avons donc toutes les données du problème, et la première régie qui créera le mix PERTINENT pour faire coïncider les nécessités des annonceurs d'une part, avec les attentes légitimes des créateurs de contenus en termes de monétisation de l'autre (en matchant l'inventaire des seconds en fonction des messages des premiers), décrochera le jackpot. Même si la bonne équation a encore plusieurs inconnues.

En fait, c'est une ad... équation ;-) [Top]


Partager sur Facebook

, , , , , , , , , , ,