Pages

vendredi 26 décembre 2008

Ecrire pour le Web : optimiser le contenu des infos en ligne


Lee Odden, dont j’avais déjà traduit il y a 3 ans Stratégie de liens pour les blogs, vient de publier une présentation intitulée Writing for the Web: SEO for News Content, dans laquelle il prodigue quelques conseils sur la façon d’optimiser le contenu des infos en ligne, en s’appuyant notamment sur les résultats d’une étude menée en octobre 2008 par sa société, TopRank Online Marketing, sur l’utilisation que font les journalistes de la recherche dans le cadre de leur travail.

Il m’a gentiment donné l’autorisation de l’adapter en français en me fournissant le PPT. Voici ma traduction/adaptation :

Quelques précisions sur les diapos :

N° 2

SEO signifie Search Engine Optimization, une formule englobant les stratégies de référencement et de positionnement grâce à l’optimisation du contenu pour les moteurs de recherche.

Lee Odden place donc le SEO à la confluence du contenu et des liens, qui sont désormais les deux mamelles du journalisme sur Internet.

N° 3

À présent que les interactions entre les différents acteurs de l’info se modifient en profondeur, les stratégies de push-pull doivent évoluer en conséquence.

La communication « push » du journaliste doit se faire vers l’extérieur en direction des agences de presse (traditionnelles et « web natives ») et autres réseaux à l’œuvre sur le Web. Sur le pitching, approfondir avec la lecture du chapitre « The Art of Pitching » de Guy Kawasaki, riche en indications précieuses. Quant aux différentes manières d’utiliser la syndication, ce ne devrait plus être un secret pour personne.

Dans l’approche « pull », les concepts de Newsroom et de Media Coverage – récurrents dans la présentation – ne doivent pas être pris au sens de « rédactions » et « couverture médias » traditionnels, mais respectivement comme « Espace presse d’un site Web » et « couverture rich media », à l’instar des communiqués de presse 2.0 qui prennent aussi en charge les images, les podcasts, les vidéos, les documents pdf/word/ppt, etc., les nouveaux canaux de communication comme Twitter ou Seesmic, ou encore l’optimisation via les réseaux sociaux.

N° 6 et 7

À noter que le contenu des communiqués de presse est le moins recherché, alors qu’ils pullule d’infos de première main, et que le taux de 91% accordé au mode de recherche standard peut signifier deux choses :
  1. soit que les journalistes se satisfont de la recherche standard car ils y trouvent leur bonheur ;
  2. soit qu’ils ne maîtrisent pas suffisamment les autres modes de recherche, qui sont pourtant largement complémentaires ;
à chacun sa réponse…

Pour le reste, la présentation fournit un mix de techniques SEO traditionnelles en les adaptant à la problématique infos – presse – journalisme/journalistes, qu’il vaudrait peut-être mieux d’éviter de balayer d’un revers de main en tombant dans la caricature superficielle, pour essayer d’en extraire la substantifique moëlle.

Sur ce, bonne fêtes de nouvel an, et à la revoyure en 2009, pour une année que je souhaite heureuse et fructueuse à toutes et à tous, et plus particulièrement à Pierre Chappaz.


Partager sur Facebook

, , , , , , , , , , , ,

vendredi 19 décembre 2008

Les dinosaures, les autruches et les lézards


On va encore m'accuser de m'acharner, mais la métaphore me semble particulièrement parlante.

Les dinosaures, ce sont les journaux et les organes de presse qui croient peut-être que leurs dimensions et leurs appuis vont les protéger encore longtemps de l'extinction s'ils n'évoluent pas.

Les autruches (les lézards, c'est pour la chute...), ce sont les journalistes qui préfèrent mettre la tête dans le sable pour nier ce qui se passe autour d'elles et d'eux en faisant semblant de ne pas le voir, comme Aliocha à qui un commentateur de son blog fait observer :
Lorsque des “bloggueurs” inconnus viennent faire la leçon aux journalistes, avec un pseudo-mépris de vainqueurs virtuels, on peut en sourire ou s’énerver. Mais lorsque c’est Alain Joannes, journaliste, qui crucifie l’ “aveuglement” de la presse, son incapacité chronique à se réinventer et à évoluer, vous en pensez quoi ?
et auquel elle répond :
la même chose, comment vous expliquer, je retrouve le même ton que je n’aime pas, le même esprit négatif, la même inexplicable rage. Soit on a des idées, on monte un projet et on n’a pas le temps de taper sur les autres, soit on se désintéresse du sujet, mais je ne m’explique pas cette agitation stérile et agressive. Franchement. Cela étant, je crois que je vais purement et simplement m’en désintéresser.
C'est moi qui graisse, car cette non-réponse témoigne avec beaucoup de clarté de l'état d'esprit de nombreux journalistes, qui préfèrent se retrancher derrière une déontologie improbable, voire introuvable, plutôt que de se remonter les manches pour affronter les problèmes à bras-le-corps.

Car mettre en avant des truismes factieux (le même ton que je n’aime pas, le même esprit négatif, la même inexplicable rage) évite surtout d'aller voir ce qu'il y a derrière : où elle pourrait découvrir, par exemple, que le soi-disant "ton qu'elle n'aime pas" ou les mêmes "esprit négatif" et "inexplicable rage" peuvent dissimuler l'amour d'un journaliste pour son métier ou d'un simple citoyen pour le sens et la valeur des mots, et que l'un se désespère de constater « L'aveuglement "radical et persistant" » de sa profession (si la presse n'aime pas Google, qu'elle fasse sans...), l'autre étant las de voir que ceux-là même qui brandissent l'écu de la déontologie à tout-va sont souvent aussi ceux qui prennent les gens pour des cons.

Et si je poursuis le raisonnement d'Aliocha, pour peu qu'elle en ait un qui se tienne, en quels termes faudrait-il lui présenter la situation désastreuse de la presse aujourd'hui pour que ses chastes oreilles ne soient point trop troublées par un ton qui dérange ou par un esprit négatif inexplicablement rageur ? Je m'interroge !

En Italie, 68% des gens pensent que les journalistes sont des menteurs ! Outre 60% qu'ils sont peu ou pas du tout informés, 55% qu'ils ne sont pas préparés à l'information (très mal préparés pour 32% et mal préparés pour 23%), 52% qu'ils ne sont pas indépendants, 48% qu'ils sont partiaux, 40% qu'ils sont corrompus, etc.

C'est la faute aux blogueurs, peut-être ? Et bien non, c'est une étude de journalistes ! Réalisée par des journalistes, pour des journalistes. Vous ne manquerez pas de me rétorquer que ce n'est pas en France, non, c'est clair, en France on en est loin, et pourtant c'est quand même en Europe, vous savez, l'Europe, là où ça va bien, pas comme aux États-Unis...

C'est pourtant aux États-Unis que je vois le plus de réactions, où des rapports nous disent que les rédactions doivent s'activer et les journaux américains tenter de s'adapter aux nouveaux usages induits par Internet (via Techcrunch) :
  • De plus en plus de journaux expérimentent le contenu généré par l'utilisateur : 58% autorisent les utilisateurs à publier des photos, 18% des vidéos et 15% des articles.
  • En 2008, 75% des sites de presse ont permis aux utilisateurs de commenter les articles, soit plus du double par rapport à l’année précédente.
  • 10% des sites de presse ont des fonctionnalités de réseaux sociaux : profils d'utilisateurs, possibilité de lier ses "amis", etc. Il est d’ailleurs surprenant que ce taux ne soit pas plus élevé.
  • 76% des journaux en ligne mettent en avant les contenus plus populaires sous une forme ou une autre (articles plus partagés par courriel, plus blogués, plus commentés, etc.). Contre 51% en 2007 et 33% en 2006.
  • Sans surprise, tous les journaux en ligne affichent des pubs : 100% ont des publicités contextuelles et 43% des annonces interstitielles.
  • Depuis deux ans, presque tous les sites de presse ont des liens d’intégration avec les sites de social bookmarking tels que Digg ou Delicious : 92% des journaux en ligne vs. 7% en 2006 !
  • Parmi les nouvelles fonctionnalités examinées cette année, l’étude constate que 57% des journaux en ligne ont une édition PDF, 20% des options de chat, 96% fournissent des infos sur la météo locale, 40% utilisent les alertes par SMS et 70% les calendriers événementiels communautaires.
  • Le nombre de sites qui exigent une inscription pour voir davantage de contenus (gratuits ou payants) a diminué depuis 2007.
  • Sur 100 journaux, tous ont une forme ou une autre de flux RSS. Ils étaient trois en 2007 !
Or donc, tendre et douce Aliocha, rendre compte de ça, est-ce faire preuve d' "agitation stérile et agressive" ? De même que proposer un modèle d'évolution aux dinosaures et aux autruches ?

Comme les lézards de la famille Podarcis sicula, dont l'on pourrait résumer la devise par l'adage suivant : s'adapter ou mourir. Extrait :
Cependant pour retourner à nos propres capacités d’adaptation, (...) j’en viens à me demander si la brillante intelligence dont l’homme est pourvu ne serait pas un simple ornement ne jouant aucun rôle dans sa capacité à s’adapter à un nouvel environnement. Car à voir l’entêtement que nous mettons à ne pas voir les changements (...), on est bien obligé de constater que notre belle intelligence et notre gigantesque culture, n’est qu’un ornement.
S'adapter, évoluer ou mourir :


Et puisqu'il faut bien conclure, la seule chose sur laquelle je suis d'accord avec vous (comme quoi...), c'est que si les journaux et les journalistes qui les font disparaissent, cela ne signifiera jamais que les blogueurs auront gagné, mais que « tout le monde sera perdant ». Triste, non ?


Partager sur Facebook

P.S. En parlant de vivre ou mourir...



Via Martin Lessard, interview vidéo de Jean-Claude Guillebaud. De même que celle-ci, d'un journaliste, Dominique de Montvalon, qui n'a pas peur des mots...



, , , , , , , , , , , ,

jeudi 18 décembre 2008

Spam : rapport Cisco 2008


Selon Cisco, le spam en un chiffre : 200 milliards de messages/jour, soit environ 90% des échanges de courriels dans le monde !

Outre une progression de 90% des menaces de spam, les attaques sont de plus en plus sophistiquées, croisées, ciblées, et toujours plus difficiles à détecter.

À noter que le premier pays pourvoyeur de spam, ce sont les États-Unis !


Vue d'ensemble du rapport :



Les botnets :



L'usurpation de réputation :



Pour télécharger le rapport, c'est ici, après enregistrement.

Via CircleID.




Partager sur Facebook

, ,

mercredi 17 décembre 2008

Noms de domaine : nouvelles extensions en 2009 - II

I. Coûts des nouvelles extensions
II. Combien de candidatures ?

Nous l'avons vu, l'ICANN prévoit de renflouer ses caisses à hauteur de 92,5 millions $, en tablant au minimum sur 500 candidatures (500 x 185 000 $), même si d'autres prévisions font état de 10 fois plus...

Or nous avons vu aussi, compte tenu des coûts "accessoires", qu'un ticket d'entrée aurait probablement une fourchette basse comprise entre 300 et 350 000 $, si tout se passe bien, avec ensuite, en étant très optimistes, des frais de gestion autour de 100 000 $ par an (les coûts de registre sont renouvelables chaque année), ce qui représente des sommes importantes. Pas pour tout le monde, certes, mais quand même !

Sans compter les aléas stratégiques pour les marques, dont le plus rédhibitoire est sans aucun doute que cette nouvelle extension ne se substituerait pas aux autres mais s'y ajouterait. Une nuance de taille, au sens où cela ne résoudra en rien les problèmes traditionnels de propriété intellectuelle (typosquatting & co.), et que toutes les marques devront continuer de se protéger comme si de rien n'était sur toutes les autres extensions (globalement, pas loin de 300).

À ce compte-là, le budget "noms de domaine" des marques risque vite de prendre des proportions considérables. Au point que seules certaines multinationales pourront se permettre un tel luxe !

Donc, pour en revenir à l'ICANN, si l'on fait le compte des candidatures actuellement déclarées, elles n'atteignent pas même la cinquantaine, et ce sont essentiellement des GeoTLDs, c'est-à-dire des extensions villes, régions, cultures, langues...


En France, nous avons par exemple les candidatures du .Paris et du .bzh pour la Bretagne.


Sous l'impulsion du .CAT catalan (24 000 noms de domaine enregistrés en un an), plusieurs extensions régionales ont décidé de se regrouper.

Mais l'histoire du .SCO, à l'heure où 59 % des écossais préféreraient un .SCOT, illustre bien les problèmes de trésorerie de toutes les villes et régions autres que Paris, Berlin ou New York...

Dans un message adressé à l'ICANN, SCO soulève plusieurs points, et notamment la question des coûts, en demandant un ajustement (de 185 000 $ à 50 000 $) et en proposant un plafond de 10 000 $ pour les coûts d'exploitation annuels de registre :
The draft guidebook states that the estimated application fee for a new gTLD will be (US)$185,000. We continue to work to ensure that a Scots community will be able to adequately meet this cost – but we are extremely concerned that this fee is very high for bidders for community/city TLDs.

In short, a community TLD will operate on a model which is considerably more restrictive than any open TLD and will have the overriding aim of serving their respective communities interest – not necessarily sell huge volumes of domains. We would propose that the application fee should be reduced (or at very least be reduced significantly for applications for community TLDs) in order to recognise their purpose as servants of their communities. To reflect this, an application fee for community applications that was closer to (US) $50,000 would be welcome.

dotSCO contends that application fee reduction is necessary if ICANN is to meet its aspirations for online communities to have a more democratic, global, multicultural and multilingual Internet.

The annual Registry ICANN fee of (US)$75,000 is a huge cost to a not-for-profit community registry that dotSCO is seeking to establish. A variable registry operation fee may be a more equitable way to operate the annual ICANN fee. Our proposal would be that community TLDs pay a small percentage of their annual surplus/profit to ICANN – up to a maximum ceiling of (US) $10,000 per year. Should a community TLD be taken up in large volumes (on a par with strings such as BIZ) then there may be a case for a revision of the annual fee beyond the (US) $10,000.
Comme quoi le problème des coûts reste sensible pour de nombreux candidats, et en ces temps de récessionite aiguë, l'ICANN ferait peut-être bien de ne pas avoir les yeux plus gros que le ventre.

Car avec moins d'une cinquantaine de dossiers prévisibles, il ne lui reste plus qu'à trouver et motiver les 9/10e des candidatures manquantes... Pour ce faire, une opération de communication massive est prévue courant deuxième trimestre 2009, mais cela suffira-t-il ? Et en direction de qui ?

De fait, les extensions géographiques font partie de ce que j'appelle les extensions communautaires (“community-based”), l'un des deux types de nouvelles extensions génériques (gTLDs) définies par l'ICANN. Les autres étant les extensions ouvertes (“open”).

Dans le premier cas, seules des communautés clairement identifiées, établies et organisées pourront gérer ces domaines. Plusieurs types sont possibles, outre les communautés géographiques :

- des communautés industrielles (.car, .pharma, .sport, .bank, .hotel, etc.)
- des sociétés (Corporate ou Brand TLDs)

Dans le second cas, celui des communautés ouvertes, les extensions pourront être gérées par tout type de candidat. Exemple : .blog, .kids, etc.

Et dans les génériques, pourra-t-il y avoir des concurrents proches, du genre .kid et .kids (singulier, pluriel, masculin, féminin, IDNs, ...) ?

Apparemment, oui :


Perso, je trouve que la distinction n'est pas toujours évidente, voyez les .sport ou .hotel, par exemple, comment déterminer s'il s'agit d'une communauté ouverte ou précisément définie ? Et comment réagiraient les détenteurs de marques dont "sport" ou "hotel" est l'une des composantes de leur marque ?

On peut d'ores et déjà se poser d'autres questions : que se passera-t-il avec les extensions .xxx, .sex ou .porn, compte tenu des antécédents de l'ICANN, dont l'on peut gager qu'elles seront parmi les premières applications ?...

En outre, chaque candidat devrait être son propre registre (je mets ça au conditionnel car ça reste à voir, et j'imagine déjà que les registres et registrars actuels se frottent les mains pour sous-traiter leurs compétences techniques à des candidats qui ne sauront même pas par où commencer...), et il y aura des registres ouverts et fermés. Ouverts lorsque le domaine sera disponible à l'enregistrement des déposants lambda, fermés lorsque le domaine ne sera réservé qu'à la communauté de référence.

Vous le voyez, le pari de l'ICANN est très très ambitieux, trop peut-être. Personnellement, je pense qu'ils ont placé la barre trop haut et que le gros du marché "naturel" de l'ICANN dans les nouvelles extensions, à savoir les entreprises, pourraient ne pas suivre. À moins que l'ICANN ne cherche vraiment à mettre en place une politique raisonnable, où les nouvelles extensions ne s'ajouteraient plus, mais remplaceraient les extensions existantes.

Faute de quoi toute cette histoire pourrait bien n'être qu'un coup dans l'eau. À moins que l'ICANN ne réduise ses prétentions...



Partager sur Facebook

, , , , , ,

Aliocha, pourquoi tant de bêtise !?

Aliocha, pourquoi tant de bêtise !?

Réponse à un texte idiot d'Aliocha intitulé "pourquoi tant de haine ?" qui rentre bille en tête et plume au vent dans une poignée de blogueurs, dont moi, qui attendraient impatiemment, selon elle, la mort de la presse écrite et du journalisme, pour des raisons que Madame ou Mademoiselle peine encore à s’expliquer, laquelle poignée « s’agite » (normal, avec les plumes) pour démontrer elle ne sait trop quoi.

Ce qui nous a énervés ? Que la presse observe avec circonspection notre idole, Madame, ou Mademoiselle, a nommé St Google, le Grand, l’Unique, le Seul maître-étalon du web. La référence absolue, celui devant qui il convient de s’incliner et dont les règles sont les nouvelles tables de la loi. Voui.

Et de reprendre quelques-uns de "nos" arguments :
  • Internet va tuer la presse écrite
  • les éditeurs de presse se braquent contre Internet
  • les éditeurs de presse n’ont pas trouvé de modèle économique viable sur Internet
  • Internet a permis l’accès gratuit à des nouveaux canaux d’information plus riches et plus intéressants que les groupes de presse traditionnels : vaste fumisterie
  • Il faut supprimer la presse
en saupoudrant son tissu d'âneries de réflexions du genre :
- Pourquoi tant de rage ? Entre nous, je n’ai guère d’estime pour les gens qui tirent sur les ambulances.

- En réalité, ces gens ont une fâcheuse tendance à tout mélanger : le journalisme et les vecteurs de diffusion de celui-ci, leurs rêves et la réalité. Que cela vous plaise ou non le journalisme est un métier. Il consiste à se colleter aux événements et aux gens sur le terrain, pas à tripatouiller le mulot bien assis dans son fauteuil en se prenant pour Albert Londres.

- Au fond, je vais vous dire quelle est la logique qui soutend ce combat, à mon avis. Ces gens observent les difficultés de la presse et se disent “nous ferions de bien meilleurs journalistes, à nous le pouvoir”. L’information circule désormais en partie sur le web, nous écrivons sur le web, donc nous sommes journalistes. J’ai connu des syllogismes plus convaincants.

- Amis blogueurs, vos rêves de voir mourir la presse sont aberrants et je dirais même dangereux pour notre société. Je vais vous confier au fond ce qui me choque le plus : la manière dont vous niez absolument et totalement le rôle démocratique de la presse pour limiter vos analyses à des questions de plomberie. Parlons-nous de déontologie, vous hurlez au corporatisme, de fiabilité de l’information, et là vous ricanez. Entre nous, il faut être vachement gonflé pour s’opposer le plus sérieusement du monde aux tentatives actuelles d’imposer une déontologie dans l’information. Voilà qui me laisse rêveuse quant à la nature de vos motivations.
(...)
Conclusion, nous n’avons jamais eu autant besoin de professionnels de l’information et de déontologie. Ne vous en déplaise.
Je m'arrête là pour l'instant, mais il y a d'autres perles.

Donc pour résumer, la solide argumentation qui précède est écrite par une journaliste, Madame ou Mademoiselle, mais journaliste quand même, probablement habituée « à se colleter aux événements et aux gens sur le terrain, pas à tripatouiller le mulot » (elle, ce serait plutôt la plume, nous l'avions compris), et qui en connaît probablement aussi un rayon question "déontologie". D'ailleurs, ça se voit tout de suite à la manière dont elle traite un sujet.

Elle semble toutefois oublier quelques détails en chemin :

- Le déclin annoncé de la presse n'est pas un constat de blogueurs mais de la profession elle-même, ainsi que de tous les analystes qui se penchent à son chevet. Et de tous les rapports sénatoriaux, députoriaux (ça se dit pas ? ah bon !) et gouvernementaux dont j'ai tenté de dresser une liste probablement loin d'être exhaustive.

- Qu'il faille supprimer la presse, je me demande où elle a lu ça, la pauvre, là où je ne parle que d'adaptation et d'évolution. Encore une qui lit à l'emporte-pièce, convaincue de son bon droit autant que de sa mauvaise foi et pas le moins du monde intéressée par répondre aux arguments.

« Amis blogueurs, vos rêves de voir mourir la presse sont aberrants », amis, amis, c'est vite dit ! C'est quoi, ces privautés. Mes amis, je les choisis, et nous ne devons pas appartenir aux mêmes cercles.

Moi j'aime qu'on réponde à ce que je dis, pas à côté de la plaque. Ainsi lorsque vous affirmez :
Au fond, je vais vous dire quelle est la logique qui soutend ce combat, à mon avis. Ces gens observent les difficultés de la presse et se disent “nous ferions de bien meilleurs journalistes, à nous le pouvoir”
vous me faites pensez à votre confrère outre Atlantique qui invente un peu n'importe quoi (vous vous connaissez peut-être, qui sait ?) et voudrait suggérer aux blogueurs des règles sans "aucune valeur coercitive" mais interdisant par exemple « la publicité trompeuse, la diffamation, le vol du droit d’auteur, la fraude… » et l'adoption d’un guide de déontologie imposant :

- de s’assurer de la véracité des faits
- de ne pas induire en erreur avec des titres trompeurs
- de départager clairement l’opinion des faits
- de ne pas publier de rumeur
- de ne pas plagier
- de rendre compte des réalités sans préjugé
- de ne pas harceler les sources qui viennent de vivre un drame personnel
- etc.


Ah, ces blogueurs, ils font tout le contraire ! Et, de fait, je m'en rends bien compte en lisant votre texte, qui illustre la plupart de ces principes à la perfection, puisque vous les pratiquez vous-même avec tant de bonheur.

Ah que j'aurais aimé être journaliste, chère Aliocha, et comme je vous envie de n'avoir absolument rien, personnellement, « contre une redéfinition du journalisme intégrant les blogueurs au sein d’une déontologie et de règles de traitement de l’information communes. »

Oh, douce Aliocha, vous osez l'avouez : « Je l’ai déjà proposé, ça n’a interessé personne. Dont acte. », c'est tout à votre honneur, et croyez bien que je compatis, moi qui ne suis qu'un vil "harangueur de foule", "qui ricane quand les journalistes réfléchissent à leur avenir et qui se délecte des malheurs de la presse en croyant préparer mon prochain triomphe", moi, pauvre erre dont "l’inconséquence du discours le dispute à la sottise", incapable de dissimuler "la joie sadique avec laquelle j'observe le phénomène en tentant de démontrer que mon modèle non rémunérateur est drôlement plus malin que le modèle en difficultés de la presse", inapte à saisir "la nuance du problème" et tellement ignare et impardonnable de n'avoir pas encore compris que "si ça va mal aux US, ça va bien dans nombre de pays européens" !

Ô Aliocha, merci de m'avoir ouvert les yeux sur la grandeur du journalisme, vous voyez, finalement, même les blogueurs les plus crasses sont capables de faire amende honorable. Allez, sans rancune...


Partager sur Facebook

, , , , , , , , , ,

mardi 16 décembre 2008

Noms de domaine : nouvelles extensions en 2009

I. Coûts des nouvelles extensions
II. Combien de candidatures ?

En juin dernier à Paris, l'ICANN annonçait le lancement de nouvelles extensions, en prenant par surprise les internautes du monde entier. Car si les observateurs s'attendaient grosso modo à un millier d'extensions, l'ouverture potentielle à un nombre "infini" de suffixes avait de quoi surprendre. Sans oublier que les IDN étaient inclus.

L'ICANN précisait le jour même qu'elle prévoyait de recevoir les premiers dépôts de candidature au second trimestre 2009.

Des lignes directrices étaient publiées en octobre, accompagnées de "notes explicatives" sur les différentes étapes et les coûts probables. Ces notes ont ensuite été soumises aux commentaires du public, jusqu'à hier.

Commence donc maintenant la phase de rédaction de la version définitive du guide d'application des candidatures, censé tenir compte des différents commentaires.

Concernant les coûts prévisibles des nouvelles extensions, dans un premier temps, l'ICANN a arbitrairement fixé à 185 000$ le seul coût d'évaluation de chaque candidature, ainsi réparti :
Le processus d’évaluation a ainsi été divisé en 6 phases, 24 étapes principales et 75 tâches distinctes. Vingt-sept résultats possibles différents ont été identifiés dans le processus de candidature ; ont également été évalués les probabilités d’atteindre chacun de ces résultats, ainsi que leurs coûts associés. Il est vraisemblable que ce type d’estimations détaillées fournisse un degré d’exactitude supérieur aux estimations générales résumées.

L'ICANN s'attend à recevoir 500 candidatures dans un premier temps :
Cette hypothèse de volume se base sur plusieurs sources, notamment le rapport d’un économiste consultant, des estimations publiques disponibles sur le Web, des commentaires oraux formulés lors de réunions publiques ainsi que des commentaires confidentiels émanant d’acteurs du secteur.
Tout en précisant :
Si le nombre réel de candidatures s’avère nettement inférieur à 500, il existe un risque financier pour l’ICANN de ne pas recouvrer les coûts de développement du programme ou les dépenses prévues pour la première session. Une prévision de dépenses plus élevées pourrait entraîner par ailleurs un coût par candidature supérieur au coût estimé.
Donc, approximativement 185 000 $...

Décomposés de la manière suivante : 25 000 $ au titre des frais déjà supportés par l'ICANN dans cette affaire, 100 000 $ pour les frais fixes d'évaluation, et 60 000 $ pour les frais variables.

Si tout va bien. Pour 80% des dossiers selon l'ICANN, qui prévoit aussi que 20% des candidatures devront faire l'objet de vérifications approfondies, auquel cas la note s'alourdira.


Parmi ces 20%, 40% pourraient être soumises à des litiges :


ou des objections techniques :


Différents coûts seraient donc à prendre en considération : 50 000 $ pour la revue des services de registre, 5 000 $ par résolution de litige, entre 40 000 et $130 000 $ en cas de mise aux enchères, etc.

Et enfin, cerise sur le gâteau, il y aura les coûts annuels de registre : 75 000 $ au bas mot, et plus si 5% du volume des enregistrements générés avec la nouvelle extension dépasse ce chiffre. Coûts renouvelables chaque année...
Donc si tout va bien, sans objections ni problèmes d'aucune sorte, un candidat aux nouvelles extensions paiera 260 000 $ sur la première année.
Mais comme il est difficile qu'un candidat réunisse en son sein toutes les compétences nécessaires, il pourrait être obligé de faire appel à des consultants externes qualifiés : par exemple, TLD Managers propose ses services pour 10% du montant du dossier. Calculez vous-mêmes...

Ainsi, en incluant les petits à-côtés, nous pouvons vraisemblablement avancer une fourchette basse comprise entre 300 et 350 000 $ pour la mise en place d'une nouvelle extension et son exploitation durant la première année. Si tout se passe bien, répétons-le !

Combien de candidatures ?

Nous l'avons vu, l'ICANN table sur 500 candidatures, j'y reviendrai dans un deuxième billet...



Partager sur Facebook

, , , , , ,

lundi 15 décembre 2008

Facebook : dix millions de francophones ?

Facebook : dix millions de francophones !?

Depuis plus d'un an, de temps en temps je fais le point sur la progression de Facebook, qui atteint aujourd'hui plus de 133 millions d'utilisateurs ! (140...)

Soit 550% de croissance en un an et demi, depuis les 24 millions d'utilisateurs actifs recensés le 24 mai 2007...

Pulvérisée, la croissance dépassant 300% en un an...

Et pulvérisée, ma seule prévision pour 2008...

Par contre, avec désormais plus de 6 millions de français inscrits, cinquième présence après les États-Unis, le Royaume-Uni, le Canada et la Turquie, la France connaît à son tour une hausse supérieure à 300% en 6 mois, depuis le cap des deux millions franchis fin mai dernier.


Entre-temps, nous sommes passés de 31 pays recensés en octobre 2007, à 47 en janvier 2008, 54 début mai, 81 fin mai, 93 en août et 95 à présent :


Pour estimer le nombre de francophones inscrits, j'ai procédé comme suit.

Canada : 10 654 500 inscrits

En me basant sur les dernières statistiques que j'ai pu trouver (En 2001, 22,9 % des Canadiens ont déclaré avoir le français comme langue maternelle), j'ai supposé une répartition identique sur Facebook : 22% = 2 343 990.

Puis en prenant les autres pays ayant la francophonie en partage ou dont j'ai estimé qu'au moins 50% des inscrits parlaient probablement le français :
  1. Belgique : 1 581 960
  2. Suisse : 1 071 220
  3. Liban : 397 560
  4. Maroc : 326 980
  5. Tunisie : 200 000
  6. Luxembourg : 84 800
  7. Île Maurice : 55 360
Soit 3 717 880 : 50% = 1 858 940 .

Total : 6 147 020 + 2 343 990 + 1 858 940 = 10 349 950 !

Ce qui ne représente que 7,5% des +133 millions d'inscrits sur Facebook, la chose paraît vraisemblable !

Alors, plus de 10 millions de francophones sur Facebook, qu'en dites-vous ?




Partager sur Facebook

P.S. Sur Scoopeo, un trollesque hurluberlu m'a accusé de manipulation. Je ne vois pas trop où elle serait !

Car penser qu'il y a plus de 6 millions de français, plus 2 millions de canadiens francophones, plus 2 millions d'autres inscrits ayant la langue française en partage, soit globalement 10 millions de personnes et plus, au vu des chiffres officiels communiqués par Facebook, je ne vois pas vraiment où est l'arnaque. Ou alors, si manip il y a, ce serait plutôt Facebook qu'il faudrait accuser de truquer les chiffres !

Si vous voulez des stats plus fines...



, , ,

dimanche 14 décembre 2008

Jurassic Presse et Google

Jurassic Presse et Google

Réaction inspirée par la lecture de trois billets :
  1. Vive la gougueulitude !
  2. États Généraux : Google en position d’accusé
  3. Google sous le feu des États généraux
Selon moi toute l'histoire de l'opposition presse / Google repose sur un gigantesque malentendu, entretenu à l'envi par les tenants de monopoles et de modèles qui ne tiennent plus la route, mais qu'il importe de préserver le plus longtemps possible et par tous les moyens, vu ce qu'ils rapportent - moins encore par leur pouvoir économique déclinant que par leur pouvoir d'influence toujours vital pour le pouvoir tout court...

Commençons par le billet d'Aliocha, qui trouve opportun de préciser :
Heureusement que je n’ai pas lu cette merveille sous la plume réjouie d’un blogueur anti-journaliste et pro-web, sinon je crois que ce blog se serait instantanément auto-détruit sous l’effet de la colère.
Sous la plume d'un blogueur certainement pro-Web mais en aucun cas anti-journaliste (quand bien même il faudrait s'entendre sur le sens et les implications du terme "journaliste" en 2008...), elle aurait peut-être pu lire avec plus grand profit une "vieille" réflexion sur certains changements de paradigme et l'émergence de la règle G + 2H + 5W.

Car en fait, donner dans la caricature tant dans les propos rapportés (« déformer la langue française pour répondre aux exigences d’un algorithme de langue anglaise c’est tout de même un peu gênant ») que tenus (« je ne serais pas non plus webesquement correcte, et je m’insurge contre l’internetitude », ..., « quel respect devrais-je à un système qui encourage toutes les dérives orthographiques, grammaticales et autres, simplement pour faire plaisir aux publicitaires ? »), ça fait certainement sourire le gogo, mais ça ne donne en rien une idée du "vrai" problème, qui est celui d'adapter aux nouveaux usages ce que devraient être une presse et un journalisme modernes. Et donc ça enlise le débat plutôt que de la faire avancer.

Car personne ne saurait sérieusement nier que le Web induit de nouveaux usages d'un côté, et que l'on a une impérieuse nécessité de voir l'émergence d'une presse et d'un journalisme modernes de l'autre.

Et si vous me demandez ce que devraient être "cette presse et ce journalisme modernes", je vous renverrais à différents billets que j'ai écrit sur la question, sans pour autant me prétendre exhaustif : Etc.

Car comme l'observe si justement Narvic, s’attaquer à Google, « c’est s’attaquer à des conséquences, pas à des causes ».

Remarquez, il n'y a pas de quoi s'étonner : s’attaquer aux causes, cela voudrait dire prendre acte des vrais problèmes, parfaitement identifiés (ce ne sont pas les rapports qui manquent...), pour les résoudre. Or il est bien plus facile de cacher tout ça derrière la grande mascarade des états généraux de la presse, pour au final faire cracher le contribuable au bassinet et le traire à volonté afin de perpétuer des rentes de privilèges...

Pourtant, lorsque l'on a des dialogues avec d'un côté Josh Cohen, patron de Google News :
- « Chaque page est désormais une Une »
- « Nous devons mieux trouver vos contenus ».
- « Personne, pas même Google, ne peut renverser cette tendance. Votre modèle d’affaires doit changer »
et de l'autre des arguments tels que :
- « Et actuellement, avec la crise, des gens sont en train de mourir. Nous ne faisons pas assez d’argent pour vivre en ligne ».
- « Et ce que nous entendons aujourd’hui signifie que nous sommes donc livrés à nous-mêmes, malgré les déclarations d’Eric Schmidt. Vous acceptez donc la fin des news comme nous les avons connues ».
- « Vous avez une responsabilité sociale à assumer vis-à-vis des organes de presse. Vous devez prendre cela au sérieux »
il est clair que les interlocuteurs ne sont pas sur la même longueur d'onde...

L'un parle d'évoluer et de s'adapter, les autres de mourir et d'assistanat (les grabataires de l'info :-). Tout prêts à invoquer l'ombrelle souveraine de l'État-Providence d'un côté, et de l'autre la responsabilité sociale de Google vis-à-vis de qui va mourir. De suite les grands mots. Je vous dis pas, ils en rigolent encore à Mountain View : - « qu'est-ce qu'ils sont cons, ces français ! »

En anglais dans le texte.

Qu'il y ait un problème de partage des revenus publicitaires, c'est évident. Mais comme l'observe justement Vanch, la situation est tout à fait comparable à celle de la distribution en France et des grandes centrales d'achats, et c'est juste un rapport de force entre différents acteurs de la chaîne. Il y en a d'autres...

Du reste il n'y a pas que Google dans la pub : outre les différentes régies établies par pays, Microsoft, AOL et Advertising.com, Yahoo!, Federated Media, Commission Junction, Glam Media, etc.

L'histoire et l'exemple de Glam Media, qui continue d'évoluer et de s'adapter, seraient d'ailleurs très riches d'enseignements pour nos quémandeurs de profession...

Pour autant, si vous n'êtes pas contents de Google, allez chez les autres. Ou créez la vôtre (votre propre régie publicitaire, j'entends), ce ne sont ni les moyens qui vous manquent, ni les chiffres, ni les ressources, ni les contacts, ni les appuis... Et lorsque Bruno Patino constate : « L’écosystème des news est en train de mourir », c'est tout simplement faux !

C'est juste un écosystème dépassé qui refuse de s'adapter et d'évoluer qui est en train de mourir. Ce n'est pas la même chose. L'autre écosystème, l'écosystème des news sur Internet, est en pleine croissance. Avec des budgets pubs qui ne cessent d'augmenter.


Voir également ici, puisqu'on parle d'écosystème...

Donc face à des monopolistes mastodontes sans la moindre agilité ni inventivité, d'autres acteurs et alternatives voient le jour pour créer de toutes pièces de nouveaux écosystèmes de news : Wikio et Techmeme, Aaaliens et Publishing 2.0, Drudge Report ou Huffington Post, des réseaux de blogs nouveaux médias (Techcrunch, Read Write Web, etc.), une concurrence jeune, qui en veut et ne va pas manquer d'asseoir et consolider ses positions pendant que les autres pleurent...

Non, la réponse se dissimule en partie dans les propos de Josh Cohen :

- « Chaque page est désormais une Une »
- « Nous devons mieux trouver vos contenus ».
- « Votre modèle d’affaires doit changer »


Et j'ajouterais :
- Apprenez les nouveaux usages, ne croyez plus que vos journaux-marques sont le centre du monde, car le nouvel écosystème de news se met en place et évoluera avec ou sans vous. Donc soit vous prenez le train, soit vous le ratez, or il me semble que vous avez déjà loupé pas mal de gares... Mais de grâce ne vous trompez plus de sens, ni l'info ni le lectorat ne vous attendront davantage !
Prenez-en acte ou mourrez ! Un avenir que vous semblez appeler de tous vos vœux et de toutes vos ultimes forces. Honte à vous !


Partager sur Facebook

P.S. Si vous souhaitez une formation ou un coaching, contactez-moi :-)

, , , , , , , , , , , ,

Le Web 08 - le retour !

Le Web 08 - le retour !

Je vous avais dit que j'y allais, me voici de retour.

Commençons tout d'abord par quelques instantanés pris sur le vif : Paulo Coelho, Pierre Chappaz, Chris Anderson (TED), Nicolas Charbonnier, Maurice Lévy, PDG de Publicis, Marissa Mayer interviewée par Michael Arrington et Loïc Le Meur, des Mariachis qui chantent Besame mucho et la remise des prix aux start-ups par Christine Lagarde en personne.



La qualité est pas super, mais bon, si vous voulez du pro, voyez les vraies vidéos...

Beaucoup de photos (plus de 5 000 !) également sur Flickr et Fotonauts.

À part ça, que dire ? Laissons de côté les inévitables polémiques (prix du billet, le froid, la disette, LLM vs. MA, etc.) pour quelques impressions d'ensemble.

I. L'amour

Le thème du Web 08, c'est le business, pas l'amour. Les gens vont à cette conférence, incontournable, pour y faire des affaires, c'est tout. Le reste c'est bien gentil, mais l'essentiel est moins dans ce qui se dit sur scène que dans ce qui se passe autour.

D'ailleurs les conférences, d'une qualité fort inégale, ne sont suivies que par une minorité de participants, la majorité préférant réseauter à qui mieux mieux.

II. Les rencontres

Heureusement que le public est international, car un tel congrès franco-français serait insupportable ! Avec l'establishment des gens qui comptent ne daignant pas même jeter un œil condescendant sur l'illustre inconnu que vous êtes... Quant à vous adresser la parole, n'y pensez pas !

Plusieurs rencontres sympas : Chauffeur de Buzz, Nicolas Charbonnier, Franck Perrier, quelques membres des Explorateurs et de Twiger, d'autres encore. Plus une certaine jubilation lors de la soirée MySpace, de voir Eric Dupin s'en donner à cœur joie en dansant sur un tube de ... Kelly Minogue !

Enfin, des discussions prometteuses avec Laurent Binard, qui m'a invité à déjeuner dans un cadre vraiment super (qualité du lieu et des mets), et l'équipe de Freddy Mini, puisque l'Italie intéresse fortement aussi bien Wikio que Netvibes...

L'Italie, tiens, ça me dit quelque chose :-)

Et pour finir, bravo à Loïc Le Meur d'organiser un tel événement, d'ailleurs je partage beaucoup des mots prononcés dans cette vidéo :

À l'année prochaine ... j'espère !


Partager sur Facebook

, , , , , , , ,

vendredi 12 décembre 2008

The search page is defined by...

La page de résultats est définie par...

Par qui ? Par l'utilisateur ou par le moteur ?

Par les deux dirais-je, par les intentions de l'un mixées aux algorithmes de l'autre. Dans l'exemple donné sur son blog :


Olivier Andrieu remarque :
l'espace réellement visible (...) est entièrement accaparé par des liens issus de "la maison Google"...
Oui et non : car pour neuf liens sponsorisés (trois en position "premium" et six dans la barre latérale), la liste des 10 liens issus de Google Maps est bien à mettre au compte des résultats organiques. Google le précise clairement :
L'inclusion dans Google Maps et dans les résultats de recherche du site Google est gratuite. Si vous désirez ajouter votre entreprise à Google Maps, suivez les directives ci-dessous. Votre fiche s'affichera automatiquement dans les premiers résultats de recherche sur le site Google lorsque nos algorithmes la jugeront pertinente par rapport à la requête effectuée. Nous n'avons pas d'informations supplémentaires à vous communiquer au sujet du classement de votre fiche.
Donc je trouve arbitraire cette affirmation :
Google everywhere... et aucune place pour les autres si ce n'est un demi-résultat peu visible en bas d'écran, à peine au dessus de la "ligne de flottaison"... Bien sûr, on objectera - avec raison - que sur un écran plus grand, les résultats organiques (...) apparaissent.
et je m'étonne qu'Olivier Andrieu, fin référenceur, fasse naître une telle confusion dans l'esprit de son lectorat, en donnant à croire que ces 10 liens "Google Maps" ne seraient pas issus de l'index "organique".

D'autant que, personnellement, tels quels, je les trouve encore plus visibles que les liens sponsorisés.

Sans compter que la métaphore du triangle d'or invoquée par Olivier Andrieu comme seul "espace réellement visible", ne fonctionne pas dans le cas présent, comme l'ont démontré les études de ... Gord Hotchkiss, toujours lui :
L'attention de l'œil étant d'abord capturée par l'image (encore faut-il qu'elle remplisse le critère de la pertinence par rapport à la recherche de l'internaute), cela déplace le "centre de gravité" du point d'entrée, c'est-à-dire là où se pose le regard en premier, d'où il commence ensuite à balayer la page.
En fait, c'est très exactement ce qui se passe avec la carto de Google Maps de la capture ci-dessus, puisque l'œil, fortement attiré par l'image, va d'abord naturellement se poser sur les liens à droite de l'image (et qui plus est au centre de la page).

Donc que dire là encore, sinon que le critère de la pertinence par rapport à la recherche de l'internaute est ici pleinement rempli...

Dans le même billet il était d'ailleurs question des révolutions qui attendent la traditionnelle page de résultats, tant sur la forme que sur le fond :
  • sur la forme, avec une présentation des liens non plus linéraire mais intégrant, ou, pour mieux dire, amalgamant (blending) photos, vidéos, cartes géographiques, commentaires, etc. (côté pub on peut très bien envisager la présence de widgets interactifs en plus des habituels liens contextuels, d'autres formats riches...) ;
  • sur le fond, avec l'émergence de la recherche universelle (celle qui va puiser dans les différents index, ou inventaires), de la personnalisation (celle qui tient compte de vos préférences et de votre profil) et de la verticalisation (celle qui décide des thématiques auxquelles appliquer personnalisation et recherche universelle).
En fait, si je devais hiérarchiser, je dirais que c'est cette dernière qui passe en premier et subordonne les deux autres, avec par ordre d'importance :
  1. Verticalisation
  2. Personnalisation
  3. Recherche universelle
Or la personnalisation est fortement mise en avant par Google, Marissa Meyer le dit depuis un moment déjà et l'a encore répété au Web 08 :
  • search needs to be more dynamic and more personalised
  • talks about personalised search... usual caveat about being careful with users' data
  • "we don't know what will fuel personalised search, but we think it will be one of the traits of the successful search tools of the future"
  • "another part of personalisation is the social aspect"
Voilà pourquoi je trouve l'analyse d'Hotchkiss s'interrogeant sur Who Owns The Search Page? nettement plus propice à la réflexion (ne se demandait-il pas déjà l'année dernière, vu la façon dont les moteurs de recherche innovent, pourquoi les Web marketers n’en font-ils pas autant ?) : une réflexion que devraient mener tous ceux qui ont des services à vendre sur Internet, puisque de plus en plus ces trois composantes de la recherche - verticalisation, personnalisation et recherche universelle - offrent des alternatives aujourd'hui TRÈS largement sous-exploitées, en termes de présence optimisée :
  • par les images
  • par les vidéos
  • par les cartographies
  • par les médias sociaux
  • par les widgets
  • multiforme et multiformats (blogs, sites, pages de réseaux sociaux, sites de partages de favoris, de documents...)
  • par la publicité
Etc.

Donc en conclusion, la page de résultats est définie par les trois composantes qui la font :
  1. par les requêtes saisies,
  2. par l'imagination et l'inventivité de ceux qui décident de leurs stratégies de liens, de trafic, de référencement / positionnement, de mots clés, de pages clés, de noms de domaine, etc.,
  3. et par la pertinence des algorithmes...
Comme quoi il reste de la marge si on veut bien s'en donner la peine, et ce n'est pas encore réservé uniquement à ceux qui paient le plus ! Quant à savoir où va la recherche...


Partager sur Facebook

P.S. Réponse à TomHtml, qui me dit en commentaire :
Parmi les résultats de Google Maps (et par conséquent de sa onebox), il y a des pub "adwords", c'est à dire que des annonceurs paient pour que le marqueur positionnant leur entreprise apparaisse toujours sur la carte quand on fait une recherche à proximité.
C'est une minorité, mais elle existe... Donc Olivier a en partie raison puisque ces résultats ne sont pas tout à fait naturels.
Depuis le début, Google a toujours mis un point d'honneur, me semble-t-il, à ne jamais induire en erreur ses utilisateurs entre résultats naturels et sponsorisés, ces derniers étant toujours distingués de façon claire et sans équivoque par rapport aux premiers. Voilà pourquoi je dis que dans l'exemple choisi par Olivier Andrieu, les 10 liens issus de Google Maps sont des liens naturels qui compensent autant de liens sponsorisés.

Chose que je vais essayer de démontrer. Si le commentaire de Tom est une probabilité, il y aurait trois hypothèses. Nous aurions en effet, parmi les liens qui jouxtent la carte :
  1. soit 10 liens sponsorisés ;
  2. soit des liens sponsorisés mélangés à des liens naturels ;
  3. soit 10 liens naturels.
1. Dix liens sponsorisés

Non seulement la chose n'est signalée nulle part, mais en plus cela nous donnerait toute la partie de la page au-dessus de la ligne de flottaison, comme dit Olivier, truffée de liens sponsorisés, une vingtaine pour être précis. Inacceptable. Et même impossible. Si Google faisait ça, ce serait le déclin assuré de son utilisation par la masse des internautes. Et si Google voulait scier seul la branche sur laquelle il trône, il n'y aurait pas de meilleure solution !

2. Mix de liens sponsorisés + liens naturels

Idem. Inacceptable sans signaler la chose aux internautes. De plus, à ma connaissance, Google n'a jamais fait ça. J'ai testé la même requête directement dans Google Maps, et l'on voit bien dans la colonne latérale gauche, où s'affiche la liste des hôtels, que les liens commerciaux sont clairement mis en évidence en tête et en pied de colonne. Voir la capture :


On peut d'ailleurs constater que les marqueurs ne sont pas les mêmes entre liens naturels (tous identiques) et liens sponsorisés (personnalisés), différence qui se retrouve sur la carte :


Voilà pourquoi je pense que nous avons au final :

3. Dix liens naturels

Que l'on retrouve d'ailleurs mélangés dans les 20 liens naturels présentés directement sur Google Maps (avec un seul lien d'écart).

, , , , , , , , , , , , ,