Opinions Libres - Le Blog d'Olivier Ezratty

Les enjeux de la neutralité des réseaux

Post de Olivier Ezratty du 19 avril 2010 - Tags : Economie,Entrepreneuriat,France,Google,Haut débit,Internet,Loisirs numériques,Politique,Technologie,TV et vidéo,USA | 7 Comments

J’ai assisté mardi 13 avril 2010 au colloque sur la “neutralité des réseaux” organisé par l’ARCEP (disponible en vidéo et en photos). Il s’insère dans un débat compliqué et multidimensionnel sur la structure et la régulation de l’Internet. Et notamment, sur le besoin d’indépendance de choix du consommateur entre tuyaux, services et contenus et la garantie d’un accès “non discriminatoire” à tous les services et contenus. Je ne suis pas un spécialiste de ces questions mais ce colloque m’a donné l’occasion de les creuser.

Colloque ARCEP Neutralité des réseaux Apr2010

L’actualité justifiant ces débats ? Le souhait du gouvernement de légiférer dans le domaine, une prochaine transposition du “Paquet Télécom” de l’Union Européenne dans le droit français et différentes négociations en cours autant à l’échelle étatique qu’à l’échelle des contrats privés entre les acteurs du secteur. Sans compter le chapelet de lois qui touchent au numérique, la menaçante LOPSSI étant la dernière en date.

Comme l’ont bien expliqué les différents intervenants, nous sommes au croisement de questions techniques, économiques, politiques, géographiques et aussi sociétales. Eléments créateurs de forts clivages : l’économique serait menaçant vis à vis du sociétal. Il peut ainsi empêcher une pleine couverture géographique du haut débit voire menacer certaines libertés fondamentales. Des risques extrêmes sont mis en avant : la congestion des réseaux mise en avant par les opérateurs télécoms ou bien les entraves à libre circulation des contenus avec la délicate notion de “contenus légaux” mise en avant par certains.

D’autres que moi ont déjà bien couvert le colloque de l’ARCEP : Pierre Coll qui en fait un très bon résumé et Jean-Michel Planche, qui y a assisté en webcast, et pousse un coup de gueule sur l’objet même du débat qui serait de remettre en cause certains fondements et de générer des renoncements.

Qu’ajouter donc à tout cela ? En reprenant les débats du colloque de l’ARCEP, je vais investiguer ici le sujet sur trois angles :

  • La question de la répartition de la valeur, mise en avant par les opérateurs télécom et les fournisseurs de contenus. Elle est plus économique que de l’ordre des libertés fondamentales mais occupe pas mal l’espace du débat sur la neutralité des réseaux.
  • Avec des exemples concrets de non respect ou de menaces sur la neutralité des réseaux, notamment dans les couches applicatives/contenus et autour de standards de facto privés. Google et Apple sont aussi devenus de véritables régulateurs privés du secteur. J’évoquerai aussi le cas spécifique de la télévision numérique.
  • Les enjeux et le processus politiques derrière les débats en cours et selon les pays et régions.

La répartition de la valeur entre tuyaux et contenus

Un participant demandait si Internet était un “bien collectif”. L’Internet englobe beaucoup de choses : la connectivité, des infrastructures publiques et surtout privées, des services en ligne, des contenus, des logiciels, etc. C’est une construction collective, associant pour l’essentiel des entreprises privées, quelques institutions internationales ou dominées par les USA (le DNS), et l’ensemble des Internautes qui créent et publient des contenus.

Mais l’Internet est surtout contrôlé par des entreprises privées et il a entrainé des glissements de valeur significatifs. Les gagnants sont les opérateurs télécom, les constructeurs, les entreprises qui savent profiter du commerce électronique, les utilisateurs qui ont accès à une abondance de contenus et les géants comme Google. Les perdants ? Ce sont essentiellement ceux qui ont tardé à transformer leur métier à l’ère de la numérisation des contenus et des services : les métiers des contenus (presse, musique, bientôt l’édition de livres) mais aussi les services que l’Internet permet de délocaliser plus facilement (centres d’appels, services informatiques, traduction, design, etc).

On peut observer deux types de débats : celui qui oppose les “winners” entre eux et celui qui oppose les “losers” vis à vis des “Martin Rogard (DailyMotion)winners”.

Ainsi, le principal équilibre de la valeur évoqué pendant le colloque opposait les opérateurs télécoms et les grands acteurs de l’Internet. Les services en ligne doivent-il payer les telcos pour la bande passante qu’ils consomment ? Ce n’est qu’une affaire commerciale qui n’a pas grand rapport avec les besoins des consommateurs tant que cela n’affecte pas la qualité des services. Les opérateurs mettent en avant le coût du trafic généré pour leurs infrastructures par des services comme YouTube et DailyMotion (leur DG, Martin Rogard, à droite). S’il arrivent en France à “taxer” le dernier, après d’âpres négociations voire coupure ou filtrage de leurs services, ils sont bien en mal de faire la même chose avec Google. Ces négociations commerciales privées relèvent pour l’instant du rapport de force.

A cela, Yves Gassot de l’IDATE (ci-contre à droite) soulignait que les infrastructures de l’Internet sont très distribuées et pas spécialement concentrées chez les opérateurs télécom. Il y a les CDN qui prennent enYves Gassot (IDATE) charge le trafic et arbitrent les routes retenues (cf Akamai), les grands data centers des moteurs de recherche et autres réseaux sociaux, les services de cloud computing, etc. Et les infrastructures les plus coûteuses des opérateurs sont plutôt situées à la bordure des réseaux qu’au centre, dans la boucle locale près des utilisateurs. Et ce n’est pas elle qui sature, tout du moins dans le fixe. C’est lorsque le média est partagé et limité que la question se pose, à savoir avec les mobiles.

Sur le fixe, l’argument des FAI serait donc spécieux. Ils voudraient finalement faire payer l’accès à la fois en amont et en aval ? Par le consommateur et par l’émetteur ? Le fait est que le consommateur paye en général un prix fixe. Et, selon Matthew Kirk, le représentant de Vodafone du colloque, 1% des utilisateurs consommeraient la majorité du trafic et dégraderaient l’expérience des autres utilisateurs. La vidéo à la demande et le peer to peer représentaient 72% du trafic en 2008 mais 8% du revenu des FAI. Mais 100% des abonnés, comme le rappelait Benjamin Bayart, le président du French Data Network, un FAI associatif de longue date (ci-dessous). Benjamin Bayart

Parfois, les FAI s’abritent derrière l’autre migration de valeur, dont ils bénéficient, et qui est préjudiciable aux créateurs de contenus payants. Pourtant, les FAI sont plutôt des bénéficiaires des migrations de valeur en cours. Ce sont des entreprises généralement très rentables. Le graphe ci-dessous montre le niveau moyen de marge nette des grands acteurs du secteur (présents dans le Forbes 2000). On y voit surtout que la marge du secteur des médias est chroniquement basse, sauf en 2007. Et celle des telcos est à la hausse. Ce qui explique l’énervement du représentant de l’UFC Que Choisir, Hervé Le Borgne, lorsque son voisin, Maxime Lombardini d’Iliad, se plaignait des taxes qui pèsent sur les FAI.

Marge par secteur

Ce débat conduit à celui de la différentiation de la qualité de services et des pratiques acceptables de gestion de trafic. Il est une des conséquences de la généralisation de l’accès illimité à l’Internet proposé par les FAI.

Pour Stéphane Richard, le DG de France Télécom (ci-contre), le modèle de financement des services en ligne par la publicité a bouleversé les sources de financement des contenus. Il faut préservStéphane Richard (France Telecom) (3)er les créateurs de contenus ! Est-ce que la concurrence est équitable ? Les opérateurs ne pas oubliés par les régulateurs mais il aspire à ce que ce rôle (de régulateur) s’exerce sur tous les acteurs de la chaine de valeur. L’économie sans frontières de l’Internet est le vrai problème. Il est bien facile de contrôler les telcos, il en va autrement d’Apple ou de Google ! Richard Whitt, le chef lobbyiste de Google répondait en bottant en touche, misant sur le besoin d’ouverture de l’Internet et sur le développement du haut débit. L’enfer, c’est les autres !

Stéphane Richard évoquait aussi les frontières floues entre les métiers : Google qui fait de l’accès, Microsoft des téléphones (et d’ailleurs, Orange aussi…), etc. Le monde est donc incertain et difficile à réguler.

En fin de dernière table ronde sur la régulation, Elisabeth Flüry-Hérard, Vice Présidente de l’Autorité de la Concurrence résumait bien l’impuissance des pouvoirs publics : son Autorité ne se prononce pas sur la répartition de la valeur ! L’Etat joue cependant un rôle de redistributeur : en inventant taxes sur taxes portant essentiellement sur les télécoms et destinées à financer les industries des contenus.

Table Ronde (1)

Au bout du compte, on en est réduit à entendre des recommandations sur la nécessaire transparence sur les contrats qui lient les uns et les autres, et notamment les consommateurs aux FAI et opérateurs mobiles.

Quelques violations et menaces sur la neutralité des réseaux

Les débats du colloque de l’ARCEP portaient de manière explicite sur les menaces à la neutralité des réseaux le plus souvent au niveau des réseaux physiques, de leur filtrage par les pouvoirs publics pour soit protéger les ayant droits (HADOPI, qui à vrai dire ne fait pas de filtrage) soit assurer la sécurité (LOPSSI pour la lutte contre la pédophilie etc).

Mais la neutralité des réseaux est sans cesse bafouée par les nouveaux régulateurs privés que sont les grands acteurs du marché, le plus souvent supra-étatiques, Google et Apple en tête. Ils sortent pour l’instant de la zone d’intervention des pouvoirs publics. Qui se grattent la tête et se demandent comment ils pourraient bien intervenir. On a bien entendu parler de taxe Google, mais il était difficile de la mettre en place d’un point de vue pratique, et sans pénaliser des acteurs locaux du secteur de l’Internet.

Evoquons donc ces cas de figure où la neutralité des réseaux n’est pas entière voire est bafouée, en allant des couches basses aux couches hautes :

  • La symétrie des réseaux : l’un des principes de l’Internet est que chaque utilisateur peut être émetteur de contenus. Il est respecté, mais avec de sérieuses limites. Nous vivons depuis longtemps avec le A de l’ADSL, pour “asymétrique” qui limite fortement le débit montant à partir des consommateurs. Mais quid des objets connectés dits “intelligents” à base de capteurs divers (RFID, caméras, etc) ? La généralisation de leur connectivité est porteuse de risques importants. Limiter ces risques suppose qu’ils soient tous sous le contrôle de l’utilisateur ! Donc, à partir d’un certain stade, la symétrie des réseaux tant demandée sera plutôt rejetée par les intervenants soucieux de la protection de la vie privée.
  • Le non respect des standards sur le web qui avait notamment cours dans les anciennes versions d’Internet Explorer. IE s’est progressivement rapproché de ces standards mais le “legacy” créé par les anciennes versions a créé un casse tête pour les développeurs web. J’en ai fait l’amère expérience en faisant évoluer le template de ce blog. L’Internet aurait du favoriser l’innovation collaborative, promue notamment par les logiciels open source, mais cela n’a pas empêché la prolifération de standards propriétaires tels que le Flash ou Silverlight sans parler de divers Codecs vidéos.
  • L’Internet mobile qui n’est ni universel ni véritablement illimité. Mais la neutralité des réseaux est-elle en cause ? Il s’agit plutôt de mauvaise information, voire de tromperie du consommateur comme le relève l’AFUTT. Cela se corse lorsque des services facturés indépendamment du débit consommé. Benjamin Bayart ne comprend pas ainsi pourquoi le régulateur permet que le mégaoctet ne soit pas au même prix dans la vidéo que pour l’email. On pourrait rétorquer que la tarification d’un service ne dépend pas que de la quantité de données envoyées. Tout comme le prix d’un logiciel n’est pas forcément proportionnel au nombre de lignes de code (il l’est très rarement car il dépend aussi de facteurs comme le volume de ventes, sinon Windows couterait 50K€) ! Cela se corse aussi avec la VOIP qui est limitée ou interdite sur les mobiles chez certains opérateurs, évoquée – naturellement – par un représentant de Skype dans la salle du colloque. C’est le cas chez SFR et Bouygues Télécom. Chez Orange, il faut payer, en fait, deux fois pour la même chose (le service et le débit). C’est une sorte de droit de passage. Peut-on innover sans de telles barrières ? Toujours selon le gars de Skype, le droit à la concurrence est trop limité en Europe et cela freine l’innovation.
  • Apple qui Lawrence Lessing Code and Other Laws of Cyberspace coverdécide quelles applications qui peuvent tourner sur l’iPhone et l’iPad (ci-dessous, brandi par Timothy Wu de l’université Columbia pendant le colloque). Apple joue ainsi un rôle de régulateur privé intransigeant doté d’un pouvoir de censure exorbitant. Tout comme l’interdiction de développer des applications sur une quelconque couche logicielle qui se situerait au dessus des outils proposés par Apple ! Le comble ? Cette clause 3.3.1 de leur accord de licence pour les développeurs qui fait partie d’un contrat qui est censé être confidentiel et dont on doit la divulgation à l’Electronic Frontier Foundation (ci-dessous)! Dans le monde Apple, c’est ce dernier qui décide de ce qui est bon pour l’utilisateur. Peu de médias le dénoncent d’ailleurs. Bravo à Rue89 pour l’avoir fait en détail. Le comportement d’Apple est accepté ou toléré passivement par le régulateur tant qu’il n’atteint pas une position dominante sur l’un de ses marchés. Comme l’avait présagé Lawrence Lessig dans son classique “Code and other laws of cyberspace” en 2000, cette “termofservicesisation” de l’Internet joue un effet régulateur bien plus fort que tout ce qui provient des pouvoirs publics. Timothy Wu de l’Université Columbia indiquait avec raison que l’on traversait des cycles d’ouverture et de fermeture et que la tendance était aux plateformes fermées ou tout du moins propriétaires.

Apple SDA 3.3.1

Timothy Wu (Columbia) (2)

  • Google et le black listing des sites web par son moteur de recherche. Cette pratique est bien connue des web masters : pour un moins que rien, Google peut déréférencer un site web de son moteur de recherche. Il s’abritera toujours derrière les évolutions de l’algorithme du Pagerank mais certains assurent que du tuning manuel intervient pour notamment déréférencer des sites web qui seraient concurrents de Google. Et Google utiliserait ce moyen de pression pour augmenter les revenus des liens sponsorisés, les AdWords. Des anecdotes inquiétantes d’entrepreneurs abondent dans ce sens. Comme les moteurs de recherche constituent en général la première source de trafic des sites, le black listing est l’asphyxie quasi-assurée. Pour Google, c’est un droit de vie ou de mort économique qui va au delà du rôle même des Etats. En Europe, Google disposerait de largement plus de 80% voire 90% de pars de marché. On n’est donc pas loin de l’abus de position dominante, ce qui explique les plaintes déposées à Bruxelles. Google est aussi un régulateur de fait de l’Internet avec sa politique agressive de numérisation des livres ce qui vaut des débats et des négociations avec les grandes bibliothèques nationales.

  • Les différents signes de verticalisation des offres dans la télévision numérique. L’exemple le plus connu et commenté sont ces chaînes TV premium du bouquet ADSL d’Orange. Aucun autre opérateur (tuyau) ne peut les diffuser. La logique commerciale de l’exclusivité parfaitement compréhensible d’un point de vue marketing s’oppose à la liberté de choisir son tuyau indépendamment des contenus. D’autres exemples existent tel que cet anecdotique impossibilité de regarder TF1 et M6 via le logiciel VLC chez Free, imposée par les chaînes qui ont peur de voir leurs contenus copiés. Ils sont pourtant “free to air” et un tuner TNT à 30€ permet l’enregistrement. On n’est pas loin de la stupidité marketing à ce stade ! D’autres verticalisation ont pointé du nez : l’intégration des services en ligne d’Orange dans les TV de LG Electronics tout comme les services de TF1 dans ceux de Samsung. Au moins n’il y a-t-il pas d’exclusive dans ces cas là. On peut remarquer qu’au contraire, les contenus de Canal+ sont disponibles dans presque tous les tuyaux (satellite, ADSL, câble, TNT). Mais leur situation de quasi-monopole dans la diffusion de contenus TV premium rend impossible une autre conduite. Et cela ne les empêche pas de lier leur offre de TV HD à la location d’un terminal (le Cube) dont on pourrait bien se passer !

Dans presque tous ces cas de figure, les pouvoirs publics sont impuissants !

Processus politique autour de la neutralité des réseaux

Face à ces enjeux, la position des pouvoirs publics est délicate : le sujet est multidimensionnel et l’Internet est mondial.

Dans son discours, Nathalie Kosciusko-Morizet nous a prodigué une explication de texte des cNathalie Kosciusko-Morizet (4)omplexités du dossier dont le “coût à l’entrée” serait significatif. En signalant au passage que l’Internet ne détruit pas la valeur mais qu’il la diffuse différemment et impacte toute l’économie mondiale. Et que l’Etat doit certes s’intéresser aux infrastructures mais aussi aux usages. Une conviction incarnée dans le grand emprunt qui est équilibré entre ces deux pôles, l’Etat se voulant “investisseur avisé”. En plus du Grand Emprunt, NKM envisage sérieusement d’utiliser l’autre instrument qui est à sa disposition : la législation. Il n’est pas question pour elle de condamner la puissance publique à l’impuissance. La tentation d’absence totale de l’Etat sur Internet créerait des tensions inutiles. Mais prudence oblige, elle a lancé une consultation publique complétée par les travaux d’une commission d’experts (à laquelle participe @tariqkrim) sur le sujet et on est à deux mois de la remise au parlement du rapport associé. Donc, wait and see.

Pour NKM, la liberté ne va pas sans responsabilité et devoirs. Elle souhaite un équilibre, on imagine, entre libertés et considérations économiques et sécuritaires. Le tout sous-tendu par un point qui fait hérisser les cheveux de certains : tout va bien tant que l’on parle de “contenus légaux”. Tout en reconnaissant que la technologie évolue plus vite que la loi, elle refuse d’utiliser cette réalité pour rester passifs. Il faut donc identifier les techniques acceptables pour lutter contre les crimes et délits et ce qui va trop loin. Elle compte sur la vigilance du public ! Reste à savoir si l’Etat en tient compte. On ne peut pas dire que les lois HADOPI et LOPSSI soient rassurantes de ce point de vue là, le gouvernement ayant été particulièrement autiste, n’écoutant même pas les propositions des députés et sénateurs de son propre camp !Neelie Kroes (Commission Européenne) (4)

Nous avons aussi eu droit à une intervention de Neelie Kroes (ci-dessous, avec son sac à main…), Vice-Présidente de la Commission Européenne en charge de la société numérique. Elle était précédemment en charge de la concurrence et c’est à elle que Microsoft doit ses lourdes amendes liées à la procédure antitrust Européenne. Cependant, Neelie Kroes est une libérale, et donc très “pro-économie”. On le sentait bien dans son intervention qui donnait dans les généralités (“avoid rushed answers”, “examine potential problems linked to proposed solutions”, “avoid measures who could prevent new business models to emerge”, “putting police offer at cross roads can slow down trafic”, “Foster investment in efficient and open networks”). Elle aussi lance d’ailleurs une consultation publique dont on se demande toujours si c’est un véritable gage de démocratie ou un nuage de fumée (non volcanique…).

En introduction et clôture du colloque, Jean-Ludovic Silicani de l’ARCEP (ci-dessous) évoquait aussi les considérations générales du sujet, les yeux rivés au texte qu’il lisait tant chaque mot doit être pesé et sous-pesé. Jean-Ludovic Silicani ARCEP (1)Quand on pense qu’il fut major de sa promo de l’ENA, on se demande ce qu’il est advenu de l’éloquence dont il faut parait-il faire preuve pour entrer d’abord et puis sortir bien classé de cette école ! En résumé, il faut un “degré variable de régulation, aborder la dimension internationale, poursuivre une tradition de régulation équilibrée, …”. 

Alors, que fait l’Etat ? En France, il rivalise surtout de créativité pour créer des taxes qui touchent surtout les telcos et qui permettent de financer les contenus :

  • La taxe des opérateurs mobiles et FAI de 0,9% créée en 2009 pour compenser la fin de la publicité en prime time sur France Télévision, mais déclarée invalide par Bruxelles. Un contentieux est en cours.
  • La taxe de 5,5% qui finance le COSIP (compte de soutien à l’industrie audio-visuelle), la taxe de 3,75% qui finance les ayant-droits (Sacem, Sacd, Scam et Adagp), et les 0,70% qui financent Angoa et Agicoa (tout est détaillé ici).
  • La redevance sur la copie privée qui taxe notamment les disques durs et à qui l’on doit un certain ralentissement de la diffusion des enregistreurs numériques et set-top-boxes dotées de la fonction. Les FAI qui diffusent des set-top-boxes avec disque dur payent donc cette taxe.
  • Une augmentation est envisagée de la TVA des mêmes FAI pour financer la carte “musique en ligne” suite au rapport Zelnik.
  • La taxe sur la vidéo à la demande qui augmenterait, et a donné lieu à un écharpage entre Maxime Lombardini et Jacques Toubon présent dans la salle. Pour ce dernier, la contrepartie de cette nouvelle taxe est un assouplissement de la chronologie des médias. Assouplissement qui ne dépend pas seulement de la règlementation mais aussi du bon vouloir des majors du cinéma ! Et un bien curieux marchandage pour un marché encore en éclosion. Pour Maxime Lombardini, on se coupe l’herbe sous le pieds en faisant le lit des américains. Ayant déjà abandonné l’idée de taxer Google, l’Etat préfère ponctionner les FAI. A chaque besoin de financement, l’Etat invente une nouvelle taxe, moyen habile d’en pérenniser le budget.

Maxime Lombardini (Iliad) (1) Jacques Toubon

Les grands acteurs américains que sont Google, Apple, Amazon, eBay, Facebook et Twitter sont des régulateurs privés des usages de l’Internet tant ils y sont dominants. C’est lorsque leurs modèles économiques évoluent que se situent les plus grandes menaces. Pas forcément envers la neutralité des réseaux, mais plus vis à vis de la vie privée. Le nouveau modèle publicitaire de Twitter est ainsi inquiétant puisqu’il va subrepticement créer une source de spam ciblée pas forcément voulue par l’Internaute. Face à cela, que peut la régulation ? Aujourd’hui, pas grand chose à part exiger une bonne information du consommateur.

En se focalisant sur les acteurs locaux, FAI en premier, l’Etat limite-t-il les capacités d’innovation ? Réduit-il encore plus les chances déjà bien maigres de voir émerger de grands acteurs mondiaux de l’Internet dans notre pays. Pas forcément parce que les FAI et telcos sont plutôt des acteurs éminemment locaux, et pas exportateurs de services et technologies (à l’exception peut-être de France Telecom). Mais le rôle redistributeur de l’Etat préserve des positions acquises et ne pousse pas (assez) à la remise en cause des industries des contenus.

Aux USA, représentés par plusieurs intervenants (deux universitaires, un lobbyiste de Google et un représentant de la FCC), les choses sont assez différentes :

  • Les juges y jouent un rôle structurant. Exemple récent : la décision de la FCC de réguler Comcast cassée par un Tribunal à Washington. Une décision prise par des républicains cassée pendant une administration démocrate et par un juge progressiste ! Le juge ne traitait pas du fond, mais simplement du droit : la FCC ne pouvait pas se mettre à la place du législateur. La Cour Suprême va arbitrer ce point de droit et si elle maintient l’invalidation, c’est tout le pouvoir de régulation de la FCC qui s’effondrera ! Quoi qu’on en dise ou en pense, les USA sont plus un Etat de Droit que la France !
  • En Europe et en France, le débat porte plus sur les libertés publiques et fondamentales. Aux USA, l’approche est plus économique. Et parce que les libertés fondamentales y sont mieux protégées par la constitution et son premier amendement ! Le filtrage du contenu est impensable aux USA (la NSA le fait tout de même sous le capot pour des raisons de sécurité nationale et avec la complicité des opérateurs télécoms US, cf James Bamford) !
  • Les opérateurs télécoms sont principalement organisés en duopoles locaux avec un opérateur mobile et un câblo-opérateur tandis qu’il y a plus de concurrence en Europe. La neutralité d’accès aux contenus est donc de facto acquise, faute de choix !
  • Et les industries américaines de l’Internet et des contenus sont dominantes à l’échelle planétaire.

L’intervention politique la plus remarquée et tranchée du colloque était finalement celle de Catherine Trautmann (ci-contre), Catherine Trautman (Parlement Européen)députée européenne à qui l’on doit le “paquet télécom” voté en 2009, contradictoire avec la riposte graduée de la loi HADOPI. Le paquet télécom régule surtout les offres des opérateurs télécoms en augmentant les droits des consommateurs. Catherine Trautmann milite pour une meilleure cohérence législative et réglementaire qui protège la liberté des utilisateurs et des citoyens. En aparté, elle soulignait les positions difficiles à concilier des extrêmes : les ultra “pro-libertés” qui la spamment régulièrement tout comme les intransigeants lobbies des contenus. Ces positions extrêmes rendent très la création de consensus très difficile.

Et pendant que l’on discute de neutralité, de quasi-neutralité, de contenus licites et illicites, les régulateurs privés supra-étatiques que sont Google et Apple mettent la main sur le droit d’un point de vue pratique en régulant une bonne part du fonctionnement de la toile. Seul le statut de monopole avéré, qui pourrait affecter Google, permet une vague régulation de leur rôle. Sinon, c’est une grande part du fonctionnement et de la neutralité de l’Internet qui sont constamment remis en cause.

On peut remarque pour conclure le contraste entre l’enjeu international du numérique et le fait que sa régulation mondiale soit quasiment inexistante à l’échelle des Etats. Il existe des conférences et organes de régulation internationaux sur presque tout : le commerce (OMC), la pêche, l’aviation (OACI), la finance (G20), l’environnement (Copenhague, …), la santé (OMS)… mais rien sur le numérique ! Un symbole d’un laisser-aller ? Une mécompréhension des enjeux ? L’absence de génération Y chez nos gouvernants, qui risque de perdurer encore quelque temps ?  Il y a un bug dans cette histoire !

RRR

 
S
S
S
S
S
S
S
img
img
img


Lien du blog Opinions Libres : https://www.oezratty.net/wordpress

Lien de l'article : https://www.oezratty.net/wordpress/2010/enjeux-neutralite-des-reseaux/

(cc) Olivier Ezratty - http://www.oezratty.net