Retour sur l’amendement Fillon de 1996

Les actes de François Fillon ministre de la communication du gouvernement Chirac suscitent un regain d’intérêt. Les débats autour de son amendement de 1996 méritent un peu de recontextualisation. Non François Fillon  n’a pas créé Internet, mais 8 ans avant la LCEN, c’est sous sa responsabilité que la première tentative de législation a été mise en place. Je republie ci-dessous un article que j’ai co-signé en juillet 1996  (magazine Planete Internet n°10) et qui expose les enjeux et les grandes manoeuvres politiques de l’époque autour de l’amendement Fillon. Pour mémoire François Fillon avait directement répondu à ses détracteurs sur Usenet, réseau de groupes de discussions qui préexistait au Web…)

*************************

L’Internet sous tutelle

Le 7 juin dernier, faisant fi des promesses de consultation des acteurs de l’Internet français, le Sénat adoptait l’amendement 200, un texte donnant compétence en matière de surveillance de l’Internet au Comité supérieur de la télématique (CST). Cette version remodelée du Conseil Supérieur de la Télématique qui officiait sur les 25000 serveurs Minitel, sera rattaché au Conseil supérieur de l’audiovisuel (CSA). Mais derrière les démonstrations de bonne conscience, l’amendement Fillon est en réalité le fruit des compromissions politiques et l’aboutissement d’une véritable opération de lobbying tous azimuts.

« On ne saurait tenir un transporteur d’informations responsable des informations qu’il transporte », déclare François Fillon le 10 mai, suite à la mise en examen des patrons de FranceNet et de WorldNet. Le ministre des télécommunications avait finement pressenti ces évènements lorsqu’il a, conjointement avec Philippe Douste-Blazy, son collègue de la rue de Valois, chargé Isabelle Falque-Pierrotin, maître des requêtes au Conseil d’Etat, de diriger un groupe interministériel en vue de la rédaction d’un rapport sur les nouvelles technologies de l’information et de préparer une possible adaptation du dispositif législatif. Le rapport doit être rendu à la mi-juin. Parmi les différentes initiatives dans le cadre de cette étude, le chapitre français de l’Internet Society (ISOC-France) est chargé d’une consultation des internautes à travers une liste de distribution.

Cette opération, dont le modérateur n’est autre que Bruno Oudet, le président de l’ISOC-France, ne dure que peu de temps (du 3 au 7 juin) et reste assez confidentielle, puisqu’elle n’est annoncée que dans les pages du site web de l’organisation. Stupeur, le matin du 5 juin, François Fillon annonce sur LCI qu’il va déposer sans attendre un amendement au projet de loi sur la réglementation des télécommunications. « Ce que nous essayons de faire, c’est de responsabiliser les utilisateurs en leur donnant des moyens de filtrer les serveurs et deuxièmement de clarifier la notion de responsabilité» justifie le ministre. Bruno Oudet, malgré sa déception, tente de donner un sens au débat : « A quoi sert notre débat, qui pourtant est connu de M. Fillon ? A faire entendre notre voix. C’est en effet une proposition d’amendement qui doit être discutée par le Parlement. A nous de déterminer nos positions et de les relayer dans ce débat. »

Meryem Marzouki, présidente de l’Association des utilisateurs d’internet (AUI), est furieuse. D’autant que son association n’a été consultée qu’à travers la fameuse liste de distribution. « Nous n’avons jamais été contactés par ce comité interministériel, commente-t-elle. C’est l’ISOC-France qui a organisé cette consultation, en disant dans son communiqué de presse que les conclusions de la consultation seraient remises au comité, qui en tiendrait compte avant de rendre ses conclusions aux ministres concernés le 15 juin. Il n’a jamais été clair pour moi si cette consultation était officiellement ou officieusement demandée par le comité interministériel. » Bref, les internautes participant à cette consultation ont l’impression d’avoir été trompé par Fillon. La pilule est d’autant plus difficile à avaler que Libération révèle le 7 juin que l’AFPI s’est vue soumettre le texte de l’amendement en question dès le 3 du mois. En fait de consultation, François Benveniste, Président de l’AFPI et de Calvacom, a été convoqué par François Fillon pour se prononcer en 24h sur le texte en question. Il est vrai que François Benveniste était devenu depuis quelques temps le conseiller technique officieux du comité interministériel. « J’ai renvoyé une note exprimant mes plus profondes réserves sur la méthode utilisée » nous a-t-il expliqué. Mis à part la procédure expéditive employée, l’AFPI regrette simplement l’imposition de la tutelle du CSA. Il faut dire que les intérêts de la corporation des prestataires ont été bien défendus : les fournisseurs d’accès sont déresponsabilisés de la nature des informations qu’ils transportent, à condition de fournir un logiciel de filtrage à leurs abonnés. Un shareware de plus à insérer dans les kits de connexion, et la garde à vue honteuse est évitée.

Mais l’histoire de l’ « amendement Fillon » est plus complexe. Car s’il y a bien eu volonté de la part du ministre de statuer sur la responsabilité des fournisseurs d’accès, d’autres intérêts sont en jeu. L’amendement 200 est en fait l’amendement Fillon-Larcher. Le rapporteur de la commission des Affaires économique, Gérard Larcher, est le véritable instigateur du volet le plus important, celui qui vise à donner compétence au Comité supérieur de la télématique sur le contenu d’internet et des services en ligne. « Il s’agit d’éviter que des enfants puissent se connecter sur des services choquants ou que des messages portant atteinte à la dignité de l’homme puissent circuler en toute impunité », explique un proche du sénateur des Yvelines. Depuis plusieurs semaines, des sénateurs et des députés se sont en effet inquiétés après l’affaire FranceNet/WorldNet et celle des enfants adoptables en ligne. L’occasion est trop belle. En passant, les sénateurs décident de légiférer pour mettre un peu de morale là-dedans. Mais à qui donner compétence ? La solution d’étendre le pouvoir du Comité supérieur de la télématique semble évidente pour ces élus dont la culture des médias en ligne se limite au Minitel – et encore. « L’idée de l’institution est née des institutions déjà existantes sur le réseau télétel », continue ce porte-parole officieux du rapporteur de la commision ». Reste à déterminer à quelle autorité rattacher ce CST révisé ? Les sénateurs hésitent un court moment entre le ministère des Télécommunications et le Conseil supérieur de l’audio-visuel. Mais le choix est vite fait. « La soustraction de certaines compétences au CSA heurtait la sensibilité de certains sénateurs », confie-t-on au Sénat. Les sages de l’audio-visuel grincent en effet un peu les dents depuis qu’il est question de leur retirer le pouvoir d’attribution des fréquences de transport des services audio-visuels. On décide alors de faire plaisir à tout le monde, et au CSA en passant, en lui donnant la tutelle du CST.

L’amendement Fillon-Larcher est né, et il est rapidement voté par la Haute Assemblée. Et tant pis pour le rapport d’Isabelle Falque-Pierrotin… Le week-end passe, mais le lundi, la contre-attaque commence. L’Association française de la télématique multimédia (AFTEL), présente un rapport sur « Le droit du multimédia, de la télématique à Internet ». Le rapport, réalisé sous la présidence d’un conseiller d’Etat honoraire, Pierre Huet, recommande justement que le CST et le CTA, le Conseil de la télématique anonyme, ne soient pas placés sous la tutelle du CSA. L’AFTEL prône plutôt « une concertation internationale et la conclusion d’un accord sur les règles du jeu essentielle ». De son côté, Myriem Marzouki fourbit ses armes. La présidente de l’AUI, d’autant plus furieuse que son association a elle aussi pondu un rapport approfondi le 7 juin et engage une campagne de protestation par fax qui inonde les présidents des groupes concernés d’un communiqué sévère, demandant « le retrait immédiat de l’amendement Fillon ». Interrogé par Planète Internet le 12 juin, Philippe Douste-Blazy, l’un des commanditaires du pavé, avoue sa surprise lors du dépôt de l’amendement. «Cela ne vient pas de moi », ajoute-t-il. Le ministre de la Culture renvoie la balle à François Fillon. Les sénateurs, eux, ne voient pas de contradiction dans le fait d’avoir légiféré alors qu’un rapport était en cours de rédaction. On les comprend : ils ont donné leur biscuit à tout le monde : l’AFPI a obtenu de déresponsabiliser les prestataires de services, et le CSA a obtenu une parcelle de pouvoir qu’elle réclamait depuis longtemps. « Une structure telle que le CST est lourde, et ce ne sont pas des gens très actifs sur Internet, s’indigne Bruno Oudet. Ces gens-là n’ont pas de crédibilité. Combien d’entre eux ouvrent régulièrement leur boîte à lettres électronique ? ». En attendant, l’Internet français est peut-être brutalement passé à l’âge adulte en faisant les frais d’un moment ordinaire de politique tricolore.

Arnaud HUBERT
Emmanuel PARODY

(Publié dans Planete Internet n°10 Juin-Juillet 1996)

 

Umberto Eco et Internet – entretien 1996

Umberto Eco et Internet

Entretien avec Umberto Eco – Arrêt sur Images (La Cinquième) – 18 mars 1996

Le 18 mars 1996 Umberto Eco* était accueilli sur le plateau de l’émission Arrêt sur Images (diffusée sur La Cinquième et dirigée par Daniel Schneidermann) et à laquelle je collaborais. Le thème de l’émission était consacré au réseau Internet. Peu après, hors caméra, Umberto Eco s’est attardé sur certaines critiques que lui inspire, d’après son expérience d’utilisateur passionné, le développement du réseau mondial.

eco-asi-18mars1996

Internet privilégie les réponses instinctives au détriment de la réflexion :

U.E. : Avec les messages électroniques le risque est de répondre trop rapidement, alors qu’avant on aurait pris le temps de réfléchir, puis on aurait décroché le téléphone pour répondre. Internet c’est trop facile, on a un message, on clique sur « reply » et on écrit tout de suite la réponse. »

Les effets pervers de l’écriture électronique :

U.E. : avec l’ordinateur et le courrier électronique, on a tendance à ne plus rédiger de transition entre les idées. Les « pourtant », « mais », « c’est pourquoi » disparaissent des textes électroniques. C’est parce que l’on sait qu’avec les fonctions de couper-coller on peut toujours déplacer un bloc de texte après l’avoir rédigé, si ça nous arrange. En le faisant on laisse souvent derrière ces transitions qui n’ont alors plus de signification. Du coup il vaut mieux les supprimer. Les textes électroniques perdent ainsi tout ce qui permettait de suivre le raisonnement pour devenir une suite d’idées, les unes après les autres… »

E.P. : Finalement vous confirmez ce que dit le sociologue Philippe Breton (cf : L’Utopie de la Communication – ed La Découverte) lorsqu’il accuse Internet de remplacer le raisonnement et le savoir structuré par la notion d’information ?»

U.E. : C’est surtout le propre d’une philosophie et d’un certain mode de pensée anglo-saxon. On donne des idées et c’est à vous d’en faire la synthèse, d’en déduire quelque chose. Cela vient aussi de la langue anglaise, on ne pourrait pas faire la même chose en allemand. »

Sur l’anonymat du réseau et la difficulté d’identifier ses interlocuteurs :

U.E. : un jour une discussion s’était développée sur une question de sémiologie. Un sémiologue dont le nom n’est pas connu du grand public y exposait quelques idées. Un étudiant qui ne l’avait pas reconnu lui a alors répondu avec agressivité en tournant en ridicule ses propos. Ce professeur était pourtant un des plus grand spécialiste de sémiologie. C’est tout le problème d’Internet, il n’est plus possible de connaître quel type d’autorité s’exprime derrière plusieurs interlocuteurs. Internet va supprimer la différence entre professionnel et amateur.»

Ces anonymes qui bâtissent Internet

U.E. : Je trouve incroyable de voir ces gens qui consacrent autant d’énergie et de temps pour construire des « homepages » pour finalement parler de leur chien, de leurs lectures préférées et de leurs goûts cinématographiques. »

Le rôle des émoticons :

U.E. : Parfois pour éviter les malentendus on utilise des émoticons, pour exprimer un sentiment ou pour montrer que l’on plaisante »

E.P. : Justement, on voit se développer un nouveau code d’écriture et de langage propre à Internet. Qu’en pensez-vous ? »

U.E. : Il est encore trop tôt pour en parler. On ne sait pas encore comment cela va évoluer, si cela va donner lieu à un nouveau langage. »

Sur la prétendu richesse des ressources du réseau Internet

U.E. : J’ai une collègue russe qui me parle tout le temps du réseau Internet. Elle m’explique, à chacune de nos rencontres, qu’elle récupère tous les jours sur Internet de nouveaux logiciels qui permettent de faire plein de choses. Je lui ai demandé à quoi ces logiciels lui servaient. Elle m’a alors répondu qu’ils servaient à naviguer plus facilement sur Internet et à découvrir d’autres serveurs et d’autres logiciels ! Internet, c’est finalement un système qui tourne en rond pour s’autogénérer. »

Sur la qualité inégale des ressources disponibles

U.E. : Si on prend l’exemple de la sémiologie, j’ai cherché les serveurs Internet consacrés au sujet. Mis à part ceux de quelques universités, deux ou trois, pas plus, les autres ne sont pas sérieux et contiennent des erreurs. Il y a des gens inconnus qui rassemblent beaucoup de documents sur le sujet sans toujours comprendre, en mélangeant les bons et les mauvais. Celui qui ne connaît pas le sujet ne peut les différencier. »

La censure sur Internet

U.E. : Cela me fait penser aux murs des églises où, à l’époque, on affichait les titres des films que l’on pouvait voir et ceux qui étaient interdits. »

Internet, une immense encyclopédie ?

U.E. : C’est comme certaines encyclopédies sur CD-Rom : il y a beaucoup d’images pour illustrer et en fait tout cela est conçu pour distraire plus que pour apprendre »

Propos recueillis par Emmanuel PARODY

*Umberto ECO enseigne la sémiologie à l’Université de Bologne. Il utilise Internet depuis plus d’un an sous l’influence, avoue-t-il, de ses étudiants. Il est aussi un des premiers intellectuels à avoir porté sa réflexion (dans ses chroniques, publiées dans les colonnes du magazine italien L’Espresso) sur l’utilisation de l’ordinateur, le développement du multimédia et l’hypertexte. Parmi ses ouvrages les plus connus : Le nom de la Rose (1985), Le Pendule de Foucault (1990) et le dernier, L’Ile du Jour d’avant (1996), tous parus aux éditions Grasset.

Iran et Internet une vieille histoire depuis 1997

Alors que tout le monde a les yeux braqués sur l’Iran et l’usage de Twitter j’ai pu lire ça et là dans certains commentaires que beaucoup pensent  que le régime iranien et les factions religieuses qui le composent ne comprenaient pas Internet et en conséquence ne pouvait que subir son influence. Rien de plus faux.

Sur ce blog j’ai déjà publié quelques articles de mes archives personnelles et publiés sur le magazine Planete Internet entre 1996 et 1998. Je me suis souvenu que nous avions publié en 1997 un reportage étonnant sur l’Internet en Iran signé par deux journalistes de France 3 qui s’étaient rendus (à leurs frais) à Qom, la ville sainte interdite aux étrangers. L’objectif : y découvrir comment certaines factions religieuses avaient entrepris d’utiliser le réseau, alors tout juste naissant, pour en faire un instrument de propagande.

J’ai enfin retrouvé cet article (je le reproduis ici, j’espère que les auteurs ne m’en voudront pas, Internet en Iran, le dilemne des Ayatollahs déjà en 1997), il montre comment le réseau a été considéré très tôt par le régime iranien comme un instrument de propagande. Il montre aussi comment certaines factions religieuses s’y sont opposées. Enfin un encadré nous rappelle une anecdote méconnue: comment les USA ont tenté (et réussi un court laps de temps) de couper les liaisons Internet de l’Iran !

Téléchargez l’article original en PDF

internet-iran1997-pdf

Retrouvez les autres archives du magazine Planete Internet (1996-1998)  ici

internet-iran1997

Payant vs gratuit: l’info généraliste cherche sa stratégie

Payant vs gratuit: l’info généraliste cherche sa stratégie

La crise favorise les solutions extrèmes, c’est compréhensible, mais on ne peut que s’étonner de la différence des niveaux de réflexion stratégique d’un pays à l’autre. Côté France je découvre avec stupéfaction (pour ne pas dire plus) l’existence d’un projet de taxation des FAI, soutenu par la direction de Liberation, pour financer la presse généraliste, grosso modo la licence globale appliquée à la presse.

Cela prête à sourire mais je crois volontiers que l’absence de perspectives puisse conduire à ce genre de réflexe désespéré, en particulier quand on a la charge de sauver des emplois. Je n’aime pas du tout en revanche que l’on brandisse l’argument de la démocratie en péril pour justifier des avantages économiques . Je soutiens une grande partie des mesures issues des Etats Généraux concernant les droits d’auteur des journalistes et le statut d’éditeur en ligne, je suis extrèmement réservé vis à vis des mesures destinées à créer un sous-statut pour la presse « d’information générale et politique « . En pratique elle vise à délimiter très arbitrairement le petit cercle de la presse « utile à la démocratie » qui se partagera les aides de l’Etat. La ficelle est grosse, faut-il pour autant y ajouter le produit d’une taxation des FAI. Le raisonnement me laisse pantois. Je passe sur la répartition calculée « sur la fréquentation et  la taille des rédactions ».  Quelle sorte d’aveuglement ou d’arrogance (ou de désespoir) peut soutenir un tel raisonnement ?

Côté US, le vent de résistance de la presse accouche d’un document probablement discutable mais à l’argumentation calculée. Issu d’une réflexion menée par les directions de plusieurs journaux américains ce document intitulé « Newspaper Economic Action Plan » résume les grandes lignes d’une stratégie consistant à généraliser la formule payante pour la presse d’information généraliste. A noter que ce livre blanc reprend les données des modèles économiques soumis par l’ami Jeff Mignon sur son blog  (voir ici directement les hypothèses de calcul). Je ne partage pas la volonté récurrente d’en découdre avec Google News mais il faut reconnaitre que le scénario est moins caricatural que l’approche binaire tout payant contre tout gratuit. En particulier il intègre l’usage des API, c’est à dire la necessité d’associer au payant une stratégie de distribution des contenus tenant compte des avancées technologiques des dernières années. En particulier une volonté de faire payer les usages plutot que les contenus (je reste farouchement hostile au paiement à l’acte article par article mais après tout chacun peut établir ses propres recettes).

Pour être complet voici une première critique de ce document sur le blog de Scott Rosenberg (co-fondateur de Salon.com). Ses arguments basés sur ses propres échecs me paraissent valables mais il me semble que si une grande majorité des journaux adoptent de concert une stratégie payante il peut se créer un écosystème plus favorable qu’au cours des dernières années (où envisager le payant semblait une erreur face à un marché publicitaire en croissance rapide). Tout cela bien sûr au prix d’une décroissance de l’audience des sites de news généralistes, c’est tout le point. Autrement dit renoncer aux revenus incrémentaux de la longue traîne pour privilégier une hausse du revenu par utilisateur et une audience qualifié.

L’approche des journaux US appliquée au raisonnement de Joffrin reviendrait non pas à taxer les FAI mais au contraire travailler avec eux c’est à dire les utiliser pour ce qu’ils sont: des canaux de distribution. Une piste: faire financer par Orange l’accés aux contenus payants du quotidien des abonnés Orange. Techniquement l’accès et l’authentification des abonnés peut s’effectuer en toute transparence via les API Orange Connect (injustement méconnues, semblable au dispositif Facebook Connect – voir le dispositif Orange Connect que nous avons installé sur CNETFrance.fr – cliquer sur « Identification » en haut à droite puis le logo Orange). Un accord de régie avec Orange peut permettre de compenser tout ou partie des coûts grâce au ciblage publicitaire spécifique de ces abonnés. La qualification des profils peut également générer de nouvelles sources de revenus, on me pardonnera de ne pas les détailler ici.

Avantage: c’est la valeur de l’abonnement ou de l’accès payant, contrôlé par l’éditeur, qui fixe le niveau de valorisation de l’opération et non les conditions volatiles du marché publicitaire sur des audiences non qualifiées. Certes  celà pose la question de l’indépendance vis à vis des opérateurs mais c’est une autre histoire. Un scénario négociable n’est-il pas préférable à des conditions commerciales imposées ou un impôt?

MAJ 04/06/09 via Eric Scherrer: la stratégie mixte du Wall Street Journal où Google News n’est pas bloqué mais est utilisé comme vecteur de recrutement.

SFR HTC Magic sous Android: quelques trucs à savoir

SFR HTC Magic sous Android: quelques trucs à savoir

Petit intermède Geek. Je viens de recevoir mon HTC Magic via SFR pour remplacer un vieux Nokia à bout de force. J’étais aussi curieux de tester Android l’OS de Google.  A noter que la redac de CNET Asie a déja effectué un comparatif avec le prochain mobile Android de Samsung qui sortira chez Bouygues en juillet.

L’ergonomie est impressionnante et l’utilisation de l’écran tactile rivalise vraiment avec l’iPhone ce qui n’était pas cas de la plupart des modèles tactiles que j’ai pu voir passer jusqu’à présent. Toutefois il y a plusieurs surprises qui attendent les acheteurs comme j’ai pu le vivre moi même et le constater sur les différents forums. D’où ce petit post pour donner au moins deux truc essentiels.

Première surprise: le service client de SFR affirme qu’il est indispensable de souscrire à l’option Full Internet Illimythics pour utiliser le HTC Magic. Initiative qui fait râler pas mal de monde sur les forums et freine l’achat des HTC Magic. Oui et non, en réalité ce forfait permet d’accdéder à l’ensemble des fonctions internet dont le téléchargement, l’android market mais n’est pas nécessaire pour naviguer sur le web et utiliser les webapps. Il suffit d’activer la liaison Wifi pour accéder aux services bloquée (un peu comme avec l’iPod Touch). Donc on peut parfaitement utiliser le HTC Magic avec un forfait Illimytics de base mais il faudra passer par le Wifi pour activer les fonctions Google. L’explication figure (bien cachée) sur le site de SFR. Cliquer ici pour suivre la méthode pour utiliser le HTC Magic sans forfait Full Internet.

Deuxième surprise, assez déroutante: impossible d’installer les applications sur la Carte SD de 8Go fournie avec l’appareil. Celle-ci ne sert qu’à stocker les images et videos. Pire, impossible de visualiser son contenu même en connectant le HTC Magic à son PC avec le câble USB. Du coup on est limité par la memoire résidente pour les applications soit autour de 280 Mo, suffisant pour installer une vingtaine d’applis pas trop gourmandes.

Pour transférer de la musique ou des videos sur la carte SD il y a quand même une astuce: allez sur Android Market et téléchargez l’application gratuite « MountUSB » (effectuez une recheche sur le nom). Connectez l’appareil au PC avec le câble USB et cliquez sur l’icone MountUSB, elle permet de simuler la présence d’une carte USB et vous verrez apparaître le contenu de la carte. Suffit de copier vos fichiers musicaux dans le dossier « Music » et les videos dans le sous dossier « camera ».

MAJ: merci aux commentaires ci-dessous, la procédure pour faire apparaître le contenu de la carte SD sur votre PC est effet plus simple (mais mal documentée). Une fois le cable  USB relié au PC, pressez du doigt la barre de notification en haut de l’écran et un nouveau menu apparaît vous proposant de « monter » le disque.

Pour le reste chacun pourra se débrouiller avec les nombreuses appli d’Android Market mais celle-ci est probablement une des plus indispensable (conseil téléchargez aussi une des petites applis destinées à activer d’un clic la fonction Wifi, tres pratique. Enfin Twidroid est probablement la meilleure appli pour Twitter sur Android.

Découvrez d’autres applications Android sur la logithèque de BusinessMobile.fr.

Voilà c’était le quart d’heure bidouille et partage, quelque chose me dit que ce n’est pas fini…

Scoop: l’audience d’Emule en déclin en 2009, effet Hadopi?

Après plusieurs mois d’hibernation je me réveille dans la France d’après Hadopi. Pour être franc j’ai eu un peu de mal avec l’hystérie pro et anti Hadopi qui a littéralement laminé tout débat constructif  (je me reconnais un peu dans le constat désabusé de JM Planche par exemple). On en reparlera.

A l’occasion d’un contrôle de routine des stats Nielsen je découvre que l’audience du plus populaire service p2p en France est en net déclin depuis janvier 2009.  Du coup la question se pose: ne serait-ce pas un début d’effet Hadopi? Sur la courbe ci-dessous extraite des données de l’ancien panel de Nielsen, j’ai ajouté l’audience de PirateBay, beaucoup plus modeste et en hausse légère pour montrer que le report de trafic ne s’est pas fait de ce côté. Ceci malgré une notoriété dopée par la couverture médiatique de son procès.

La courbe montre qu’Emule a perdu près d’un million d’utilisateurs en quatre mois, de 5 millions à 4 millions de visiteurs uniques.  (Les données sont exprimées en visiteurs uniques)

Audience Nielsen 2009 de Emule et Pirate Bay en France

Audience Nielsen 2009 de Emule et Pirate Bay en France

(Emule est depuis longtemps dans le collimateur des FAI, certains filtrant les ports utilisés par ce logiciel pour communiquer mais ces filtrages existaient en 2008 rien ne prouve qu’ils soient à l’origine du déclin)

Où l’on reparle de Mediamétrie et Nielsen

Donc on en reparle, le patatage entre concurrents est malheureusement un phénomène cyclique qui dure depuis des années mais, c’est nouveau, la crise échauffant les esprits la presse s’en préoccupe. C’est bien dommage, le marché a plutôt besoin de sang froid en ce moment à mon avis mais, comme chacun sait, quand il faut purger mieux vaut y aller de bon coeur. Au menu les querelles des mesures d’audience du Monde.fr et du Figaro.fr au coeur de plusieurs articles, celui du Monde d’abord inspiré de celui d’Electronlibre (et la suite ici avec des commentaires bien informés) et enfin la  synthèse de Rue89.

Les lecteurs de ce blog ont pu lire de nombreux articles sur ce sujet sensible. Il se trouve que je participe depuis plusieurs années aux travaux autour des mesures  de Mediamétrie/Netratings comme client et comme représentant du Geste c’est à dire des éditeurs de presse en ligne. En parallèle je participais aussi aux travaux de l’OJD. Pour être bien clair, je ne suis pas neutre dans ce débat et proche des différents acteurs cités. Au cours de ces années je crois bien avoir vu de près la plus belle collection de tripatouillages qu’on puisse imaginer en matière de manipulation d’audience (de la part de certains sites sans que Mediamétrie ne soit en cause), pourtant, c’est paradoxal, la situation me semblait plutôt apaisée . Je veux dire que chacun a eu le temps de prendre la mesure de l’aspect très technique de ces questions ce qui contribuait à rendre moins violentes les polémiques. L’autorégulation se met en place. Devenu public ce débat donne lieu à pas mal de fantasmes auxquels il convient de répondre.

Pourquoi les mesures d’audience de Mediamétrie/Netratings diffèrent-elles de l’OJD? L’OJD ne mesure pas des « audiences » mais certifie les mesures de trafic réalisées sur les sites (site centric). On y parle donc de visites, de volumétrie. Mediamétrie mesure des audiences à partir d’un panel d’internautes (user centric), on y parle de visiteurs uniques, de parts de marché. Si vous visitez un site deux fois dans la journée à partir de deux PC différents l’OJD vous comptera deux fois, Mediamétrie essayera de vous compter une fois. L’OJD prendra en compte le trafic du monde entier, Mediamétrie uniquement en France. Conclusion : ces deux types de mesures ne peuvent donc pas être comparées.

Pourquoi utiliser Nielsen ou Mediamétrie/Netratings? Parce que les régies publicitaires, les annonceurs et les acteurs en charge du media planning ont besoin de connaître les « audiences » des sites pour la pertinence du ciblage publicitaire. La proportion d’hommes et de femmes, les revenus des ménages, les CSP ne peuvent pas être fournies par l’OJD ou les mesures dites « site centric ». Calculer la meilleure affinité d’un type d’audience avec un site est une donnée fondamentale pour les campagnes.

Ben où est le problème alors? Ben on ne peut jamais connaître avec certitude le nombre de lecteurs d’un site. Rien que ça…

La fraude existe-t-elle? Oui, quand certaines techniques permettent de modifier la proportion de panélistes lecteurs d’un site. En extrapolant la mesure d’audience d’un site à partir à partir d’une fraction de panélistes toute variation du nombre de panélistes fera varier la mesure de l’audience totale de façon disproportionnée (100 panelistes de plus sur votre site vaudront comme 10 000 visiteurs uniques supplémentaires, par exemple) . Tout est là. Attirer 100 panélistes sur votre site aura donc le même effet que 10 000 lecteurs côté OJD. Sauf que ça coute moins cher et que rien ne dit que les 10 000 lecteurs supplémentaires  contiennent des panélistes… Ce qui explique pourquoi vous pouvez voir votre trafic en hausse côté OJD et en baisse côté Nielsen et inversement. Comme les régies publicitaires ont avant tout l’oeil sur Mediamétrie c’est là que la « créativité » prend tout son intérêt.

C’est quoi ces histoires de jeux concours? L’astuce est simple. Mediamétrie doit constamment renouveler son panel en le recrutant sur Internet. Elle a commis l’erreur d’en recruter aussi via des sociétés spécialisées dans le marketing direct et les jeux concours (dont l’objet est essentiellement de constituer des bases de profils). C’est aussi une population qui répond positivement aux sollicitations par email. Certaines sociétés de jeux concours contiennent donc une proportion accrue de panélistes, lesquels sont en plus particulièrement réactifs aux sollicitations marketing. En clair des gus qui se gavent de concours à longueur de journées. Certaines de ces sociétés ont compris le truc et démarchent directement les sites en mal de dopage. Suffit d’héberger les pages du concours et pour améliorer le rendement il suffit d’obliger à cliquer sur des liens ou bannières afin de valider les réponses au concours (quand je dis que les gars du porno ont tout inventé…).

Alors pourquoi certains disent que les jeux concours ca rapporte « peanuts » côté trafic? Parce que côté OJD 1000 gus qui répondent « Michel Sardou » pour gagner un appareil photo numérique et bien ça fait 1000 visites, donc peanuts. Sauf que ça peut faire 100 000 VU côté Nielsen qui comptent finalement en parts de marché.

Que fait la police? Ce n’est pas illégal. Pas mal de jeux concours permettent aussi de recruter réellement des utilisateurs, des abonnés, des lecteurs ou simplement animer un site. C’est un outil de prospection légitime simplement l’usage peut en être détourné. Au passage je remarque que certains critiquent l’achat de mots clés comme technique de fraude. Non c’est une technique légitime pour recruter de nouveaux lecteurs il n’y a pas de raison de s’en priver, le budget est la seule limite ainsi que le retour sur investissement parfois hasardeux (non je ne vise personne).

Pourquoi Mediamétrie ne fait rien? Mediamétrie protège avant tout l’intégrité de ses méthodes de calcul, les règles definissant le périmètre d’une marque, d’un site, la définition des infractions éventuelles doit faire l’objet d’un consensus de ses souscripteurs. Voilà pourquoi on retrouve autour d’une table: les régies, les associations des annonceurs et des éditeurs, bref les clients. Les règles évoluent mais chaque modification peut avoir des conséquences insoupçonnées. En vérité un gros travail a été fait par Mediamétrie pour maintenir le principe d’une autorégulation malgré les querelles incessantes. La pratique des sites under a ainsi pu être régulée correctement (intéressant tout de même de savoir qui en abusait à l’époque, mais je ne vise personne, ah si en fait).

La confusion du périmètre des marques? C’est un point clé pour comprendre une partie des querelles de chiffres. Beaucoup jugent évident de penser que quand on parle de « l’audience » online du Figaro ou du Monde il s’agit du trafic du Figaro.fr et Lemonde.fr. La plupart des journalistes des rubriques medias, de bonne foi, ont ainsi été roulés dans la farine par des communiqués de presse ambigus. En réalité il s’agit de l’audience des « marques » (ou Brand dans la terminologie Nielsen). Toute la question est de définir le périmètre de cette marque, c’est à dire en y incluant sous-domaines, pages co-brandée avec des partenaires etc… C’est ce qui explique par exemple l’évolution de l’audience de l’Express en décembre qui intègre désormais celles de l’Expansion et L’Entreprise, par le choix commercial assumé de ses éditeurs (les critiques oublient d’ailleurs de noter que pendant des années le Nouvelobs.com a aussi regroupé plusieurs marques)

C’est nouveau comme astuce? Et bien non, ce n’est rien d’autre que la variante internet de la stratégie consistant par exemple à vous livrer un supplément magazine papier dans votre journal du week end.  Les plus grands tirages de la presse TV doivent leur « audience » à ce mode de distribution. Pas méchant si c’est transparent pour les annonceurs.

Alors on fait quoi? Je ne vais quand même pas vous le dire ici alors qu’on doit en causer dans quelques jours…
Le paradoxe de cette polémique récente c’est qu’elle survient alors qu’un grand nettoyage a justement été entrepris par Mediamétrie en accord avec ses clients à l’occasion de la mise en place du nouveau panel, en particulier autour de la définition des marques. Ainsi la notion de « réseau de marque » (Brand Network) a disparu des classements Nielsen, ils permettaient d’agréger des audiences de différentes marques afin de constituer un package commercial plus visible. Toutefois la notion de cobranding (sites ou pages comportant deux marques) est désormais au coeur de la question en permettant de fusionner des audiences de sites différents. Le cobranding est par ailleurs tout à fait légitime quand il s’agit d’intéger un service d’un partenaire ou isoler un environnement thématique (tiens, Eco89 et Rue89 par exemple ou E24 et 20minutes.fr). Pas simple d’interdire ou de fixer des règles strictes. C’est tout le point des prochaines discussions.

J’essayerai dans un prochain billet d’expliquer pourquoi ce débat est malheurusement très contre productif et pourquoi il est important de revenir à une stratégie de construction d’audience cohérente, propre à tout media soucieux de sa marque (bien résumé ici par P. Jannet). Aussi parce que tout ceci n’aurait pas eu lieu si la course au trafic à tout prix n’avait été la réponse insensée à la chute des CPM et des revenus publicitaires. On récolte aussi ce qu’on mérite…

Crise de la presse: moins une question de qualité des contenus que de clivages sociaux

A l’occasion de la lecture sur Mediacafé d’un nième article sur le mal de la presse et tout le gnagnagna sur la qualité des contenus et la misère de la presse d’opinion je me suis fendu d’un long commentaire que je crois assez en décalage avec ce qui se dit habituellement pour juger qu’il a sa place ici.  Je me permets de le reproduire ci-dessous et de l’enrichir un peu , il tiendra aussi lieu de réponse tardive aux conclusions des Etats généraux .

***

Pour commencer, même si je partage avec d’autres une vision critique sur la qualité des contenus il me semble utile de relever les paradoxes suivants:

– Si c’était une crise du contenu pourquoi les mêmes journaux en ligne battent des records d’audience. Avec une grande part de l’audience sur des dépêches d’agence réécrites et parfaitement interchangeables d’un media à l’autre.

– Si c’est un problème de presse d’opinion comment expliquer que sur Internet c’est justement l’opinon et la subjectivité qui triomphent au travers des blogs (et que tout le monde acclame)

– Pourquoi toujours critiquer la stratégie internet des grands titres de presse alors qu’ils ont pour la plupart atteint des niveaux d’audience tout à fait respectables.

Mes conclusions:
Question contenu c’est moins une question de fond que de nouveaux usages et d’adaptation des contenus aux nouveaux modes de lecture.

La vraie question de fond: une lutte pour le pouvoir et la friction entre classes sociales. L’internet permet l’expression d’une communauté qui ne se sent pas représentée par ses élites, ses journaux. La fracture s’étend jusqu’au coeur des rédactions, elle cisaille les partis politiques etc…

Internet est l’instrument de la revanche des classes moyennes qui voient s’éloigner les perspectives de progression sociale. C’est le media des cols blancs qui se découvrent en voie de prolétarisation et vont s’allier très naturellement avec les professions intellectuelles de plus en plus marginalisées vis à vis du pouvoir économique.
Parmi elles, une grande partie des…journalistes.

Ce qui explique que la fracture passe au beau milieu des rédactions et que certains aient besoin de mettre en avant plus que de nécessaire la question d’un contenu devenu « illégitime » (je ne dis pas que cette critique est totalement infondée).

En vérité c’est une bataille pour la prise de pouvoir autour des fonctions d’intermédiation. Et comme toute lutte qui se veut révolutionnaire, ceux qui la mènent le font au nom du peuple et de la démocratie pour n’instaurer, au final, qu’un système équivalent mais rénové.

La presse traditionnelle menée par des générations ayant précédé l’âge du numérique s’accroche à l’ancien système de pouvoir politique et reçoit une juste rétribution de sa peine. Un salaire bien mérité rendu possible parce que la balance économique leur est encore favorable. Pas sa tendance…

Moralité : pour parvenir à accomplir a révolution numérique au sein de l’industrie de la presse il faut le faire avec l’appui de forces politiques représentatives des aspirations des classes moyennes (pour le moment aucun parti politique ne répond à ce cahier des charges) mais également construire de nouveaux circuits de financement dégagés des influences de l’Etat et de l’industrie traditionnelle.

On est encore loin du compte et le risque est grand de découvrir que de tout cela émergera un ordre économique qui renforcera en réalité la précarité de ses acteurs. En grande partie parce que les nouveaux circuits de financement servent directement les intérêts marchands et n’offrent à l’industrie de l’information que la perspective d’une économie de survie tout en encourageant un mode individualisé de production de l’information. Mode hautement précaire et soumis au risque juridique.

Au final on accouchera d’une industrie qui relèvera plus de la production agricole et dont la matière première servira essentiellement à nourrir le pouvoir des véritables nouveaux infomédiaires, l’industrie des telecoms, Google et tous les services relevant de la distribution des biens numériques. Pour le moment rien n’est encore irréversible.

Déjà 4M$ de pertes financières en 2008 pour Digg

Beaucoup citent Digg.com comme une des meilleures réussites du web dit 2.0 et je constate en discutant ça et là  que de nombreux commentateurs entretiennent l’illusion que Digg est une activité rentable. C’est faux. J’en suis le premier surpris. C’est ce que révèle BusinessWeek qui s’est plongé dans les comptes de la société. Digg.com accuse 4 M$ de pertes sur les trois premiers trimestres 2008 pour 6.4M$ de chiffre d’affaires. Un résultat en nette dégradation puisque le service accusait déjà 2,8M$ de pertes en 2007 (pour 4,8 M$ de CA).

A lire aussi un article intéressant de Techcrunch US qui anticipe en estimant les pertes totales de Digg pour 2008 à 5,3M$ pour 8,5 M$ de CA.

Pub: comment la technique du reciblage détourne la valeur des sites éditoriaux

Lisez  très attentivement cet article d’Australian IT qui révèle un petit scandale sur certaines pratiques d’agences de pub en Australie.

En résumé: certaines agences ont compris comment exploiter le différentiel de CPM entre des sites éditoriaux à forte valeur ajoutée et des sites ou services à faibles CPM. Pour cela elles diffusent des campagnes sur les premiers, destinées à recueillir les données de navigation et de comportement des internautes. Ces informations sont stockées dans des cookies exploités par les adservers (les serveurs chargés de diffuser les campagnes publicitaires). Si l’internaute est identifié plus tard, par la présence sur son PC de ce cookie,  sur un site ou des réseaux à faibles CPM on lui sert alors une publicité ciblée et evidemment moins couteuse à diffuser que sur le premier site.

En clair on utilise les informations recueillies sur le site à forte valeur ajoutée pour qualifier l’audience sur un autre site à faible valeur ajoutée. C’est le but  du ciblage comportemental destiné clairement à valoriser les immenses inventaires des grands portails par exemple sur les pages des boites aux lettres électroniques. Sauf qu’ici on n’achète qu’un minimum d’espace sur le site de l’éditeur, voire même des espaces insignifiants, peu performants et à faible coût, le but n’étant pas en réalité de diffuser la campagne mais de générer un maximum de cookies qualifiés. Le gros de la campagne est dépensé ailleurs à moindre coûts mais en la justifiant par une audience qualifiée sur des sites!

Tout ceci à l’insu de l’éditeur du premier site et surtout à l’insu de l’utilisateur lui même. Pour faire court imaginez qu’un lecteur de LesEchos.fr se voit proposer de la publicité pour des services financiers quand il navigue sur un site de voyage. Pas scandaleux en soi, sauf que tout  le bénéfice de la stratégie consistant à proposer des contenus exigeants à une audience très ciblée est détourné à l’insu de l’éditeur pour enrichir un autre service. Autrement dit sur l’éditeur pèse l’ensemble des côuts permettant de qualifier une audience tandis que le bénéfice est collecté ailleurs. Les réseaux à faible CPM parasitent les sites à forts CPM… CQFD.

Ce que vient de rendre public cet article, et qu’on appelle le « retargeting » (reciblage) n’est ni plus ni moins qu’un vol. Au centre de la polémique: le rôle des ad-servers (les serveurs qui diffusent techniquement les campagnes) qui sont au coeur du système sur chaque page des éditeurs,  captent l’information et peuvent être manipulés en acceptant l’ajout de système de tracking de sociétés tierces.

Une question simple: qui contrôle les ad servers ?

La question compliquée: ce détournement de la valeur de l’audience est un vol car il s’effectue à l’insu des éditeurs et des utilisateurs. Mais comment le qualifier si on obtenait l’autorisation de l’une ou l’autre des parties?

Comment?

En rendant le processus cool
En rendant le processus utile

En le baptisant Open social ou Open Id, par exemple…

(Qu’on se rassure pour ça aussi il y a une réponse, une réponse négociée basée sur la reconnaissance du déséquilibre de l’échange de valeur. Encore faut-il la mesurer)

Google sous le feu des Etats généraux

Cette fois il semble que les passions se lâchent: « Il y a encore six mois nous pensions y arriver, mais aujourd’hui, avec la crise actuelle, nous vous considérons comme notre pire ennemi », Pierre Conte, patron de Publiprint (Figaro). Selon la retranscription des échanges de la dernière session du pôle 3 des Etats Généraux il est clair que Google est désormais dans la ligne de mire des éditeurs français. Les propos sont violents et adressés à Josh Cohen en charge de Google News qui était l’invité du jour. J’assisterai demain matin à la prochaine rencontre entre Google et les éditeurs, cette fois dans le cadre du Geste, j’espère que le sang froid sera au rendez-vous.

Cette fois il ne s’agit plus de reprocher à Google la reprise des contenus sur Google news (assumée par tout le monde ou presque depuis le dernier étripage en 2003 que j’ai raconté ici) mais son rôle dans l’effondrement des tarifs publicitaires. Un débat complexe mais qui prouve que tout le monde a désormais bien identifié la nature du problème qui mine la presse en ligne: l’impossibilité de monétiser correctement l’information. Je ne suis pas sûr que Google soit le seul responsable sur un marché français où les CPM sont depuis longtemps très inférieurs aux voisins (lire aussi ici). Mais avec un cpm largement  inférieur à 10 euros sur Youtube et et un Google qui se met à proposer de la publicité vendue à la performance (cpc) dans les formats de type carré ou bannière (le display qui assure l’essentiel des revenus des medias) force est de constater qu’il participe activement à vider la baignoire.

Je verrai demain comment s’orientent les débats et la réponse de Google mais je doute que Josh Cohen soit le meilleur interlocuteur pour discuter de ces questions. A mon sens la question du démantèlement de Google se posera nécessairement tôt ou tard non pour remettre en cause le coeur de son activité mais parce que sa position dominante à la fois dans la distribution (search) et comme régie publicitaire constitue désormais une aberration économique qu’on n’aurait toléré d’aucun acteur économique dans une économie traditionnelle.

J’apprécie comme beaucoup la puissance du moteur de recherche et sa contribution à l’ouverture de l’économie des savoirs mais je pense que son modèle économique, du fait de sa position outrageusement dominante, relève désormais plus de la taxation des échanges économiques plus que des mécanismes du commerce. Google ponctionne la valeur ajoutée du commerce en ligne plus qu’il ne le facilite. Je l’écrivais en 2005 en comparant cette domination à celle des banquiers Lombards au Moyen-Age:  « l’enjeu c’est le pouvoir, celui qui contrôle les routes du commerce, filtre les échanges, les ponctionne, fixe les règles ». En clair parce que Google contrôle les routes du commerce il est en situation de contrôler les mécanismes de fixation des prix. C’est la question.

MAJ 15/12/08
Quelques nouvelles  réactions des témoins à lire absolument:

Google en panne d’algorithme politique par Frederic Filloux sur E24.fr

« Google Chahuté » par Sophie Gohier, éditrice de L’Express.fr

Mediawatch avec (encore) Eric Scherer en version anglaise mais qui enrichit son compte rendu de la session qui s’est déroulé avec le GESTE le lendemain.

(Note: j’ai décidé de m’abstenir de faire le récit de la session du vendredi, nettement moins polémique de toute façon mais ayant un caractère privé. J’attends surtout pour commenter de savoir quel sera le texte final qui sera publié à l’issu des Etats Généraux).

Où l’on reparle de taxer les revenus de la publicité en ligne

On ose à peine y croire mais c’est authentique. Tentative dejà écartée une fois fin 2007, plusieurs amendements surprises au projet de Loi Audiovisuel relancent l’idée de taxer les revenus publicitaires des services en ligne. L’amendement 844 de Frederic Lefebvre vise directement les plateformes d’hébergement de videos afin de contribuer au financement désespéré du marigot télévisuel.

Réactions imméditates:

De l’ASIC : « Alors que le plan Numérique 2012 présenté il y a à peine quelques semaines vise à faire de la France un pays leader sur la scène de l’Internet mondiale, cet amendement constituerait un frein brutal au développement des acteurs de l’économie numérique française. « 

– Du GESTE (dont je suis membre): « Le GESTE (Groupement des éditeurs de contenus et de services en ligne) dénonce le racket orchestré dans le projet de loi relatif à la communication audiovisuelle qui sacrifie les acteurs de l’économie numérique » (Téléchargez ici le communiqué du GESTE)