Contre la neutralité du Net : les effets d’éviction dans un Internet « neutre »
Pour l’essentiel, l’infrastructure Internet est neutre au regard des contenus transportés, mais certains groupes font pression pour une législation qui protège la « neutralité du Net ». Ce billet soutient qu’une transmission des données strictement neutre serait cause d’inefficacités et réduirait la disponibilité et la qualité des services Internet. Il se prononce en faveur d’une priorité accordée aux paquets de données qui ont une exigence de qualité et fait valoir qu’une législation imposant la neutralité du Net serait un âge d’or pour les avocats et les lobbyistes.
Après des mois de controverses sur le nouveau paquet télécom, la Commission, le Conseil et le Parlement de l’UE semblent désormais proches d’un compromis. « Il y a accord sur environ 95% de l’enveloppe », a déclaré Viviane Reding, commissaire chargée de la société de l’information et des médias, après le dernier round de négociation entre les trois organes de l’UE. Un amendement raisonnable de la réglementation de l’Internet et des télécoms en Europe pourrait ouvrir la voie à davantage d’investissements dans l’infrastructure mobile et haut débit – qui en a grandement besoin –, à davantage d’innovations, à une plus grande disponibilité des applications et des services à valeur ajoutée, à une plus forte croissance dans le secteur des TIC et, ce n’est pas le moindre, à un renforcement de la concurrence.
Cependant, le débat sur la « neutralité du Net » est en cours, dominé par des groupes de pression concurrents. Bien que le débat européen ait été un peu plus équilibré et moins féroce qu’aux États-Unis, il a trouvé un nouvel élan au cours des deux dernières semaines, à l’initiative de certains députés de gauche et Verts et de grands fournisseurs de contenu. Pour que la discussion se fasse sur des bases simples, il est nécessaire de démêler l’embrouillamini actuel des arguments sur la neutralité du Net.
Premièrement, la stricte neutralité du Net est un mythe et n’a jamais existé au sens étroit. Ni le traitement des paquets de données, ni l’utilisation et l’accès à Internet n’ont été strictement neutres dans le passé et ne le seront à l’avenir. Pour ne donner qu’un exemple, le télédéchargement de données (downloading) a toujours été privilégié par rapport au chargement (uploading), étant donné sa plus grande largeur de bande. Compte tenu des préférences et des habitudes d’utilisation de la grande majorité des utilisateurs, ce régime de « discrimination » a un sens : même dans le Web 2.0, la plupart des utilisateurs télé-déchargent beaucoup plus de contenu qu’ils ne téléchargent.
Deuxièmement, et plus important, un traitement strictement neutre de chaque paquet de données peut entraîner des inefficacités et réduire la disponibilité et la qualité des services Internet. Il ne fait aucun doute que les applications Internet transmettent des paquets de données qui ont tous des caractéristiques et des exigences de livraison différentes : en matière de débit requis, de consommation de bande passante, de priorité, de sensibilité à la qualité de service et de valeur économique. C’est pourquoi il est raisonnable d’un point de vue économique et technique de traiter différemment ces différents paquets. Comme l’augmentation massive des flux de données cause déjà des congestions sous forme de retards, d’instabilités et même de perte de données, il faut prendre en compte les caractéristiques des paquets de données.
De façon simple, on pourrait distinguer entre les paquets qui sont très sensibles aux caractéristiques de qualité et de vitesse de transmission, et ceux qui sont bien plus élastiques. Par exemple, la navigation web normale, les mails ou le peer-to-peer (P2P) ne subissent aucune perte de qualité s’ils sont retardés de quelques millisecondes. Même une perte de donnée n’est guère dommageable sur le service final puisque les paquets de données perdus seront livrés à nouveau par la source d’origine sans même que l’utilisateur s’en rende compte. À l’autre bout du spectre, il y a des applications – diffusion en direct, conférences interactives, conversations vocales en temps réel, jeux en ligne – où la qualité du service souffre de manière significative en cas de retard ou de perte de données. Le tableau ci-dessous présente les caractéristiques de différentes applications Internet.
Service |
Sensibilité à la qualité |
Consommation de bande passante |
Valeur / disposition à payer |
P2P file sharing |
basse |
Très haute (pas de limite) |
basse |
YouTube |
basse (protégée) |
moyenne (320 ou600 Kbps) |
basse |
basse |
très basse |
basse |
|
VoIP |
moyenne-haute |
basse (de 30 à 80 Kbps) |
moyenne |
Jeux en ligne |
haute |
basse – moyenne |
moyenne |
E-lectures |
haute |
moyenne |
haute |
Télémédecine |
haute |
moyenne-haute (jusqu’à 8.000 Kbps) |
haute |
Dans un Internet strictement neutre, les applications à faible valeur et élastiques telles que le partage de fichiers P2P ou des vidéos de YouTube sont susceptibles d’évincer des services sensibles à la qualité parce que la demande pour de tels services diminuera si la qualité de service se dégrade en raison de congestions.
Des capacités excédentaires sont bien-sûr nécessaires pour gérer le trafic des données aux heures de pointe, mais ils sont très coûteux et, au-delà d’un certain niveau, économiquement inefficaces. Et même d’énormes surcapacités ne peuvent pas entièrement résoudre le problème de la congestion parce qu’une qualité à 99% ne suffit pas pour certaines applications. Une tarification selon les heures de pointe ou selon le volume pourrait partiellement remédier au problème des services moyennement sensibles à la qualité, mais pas pour ceux qui sont hautement sensibles. De plus, les modèles de tarification adéquats deviendraient extrêmement complexes et surtout très malcommodes pour les consommateurs. Par conséquent, un traitement des différents paquets de données selon leur sensibilité à la qualité et leur valeur économique pourrait être la solution efficace. On appelle cela des modèles à qualité de service garantie ou bien des modèles de gestion de trafic.
Le graphique ci-dessous montre comment un tel modèle pourrait fonctionner. Les paquets de données du service « sensible » (en rouge) sont étiquetés. Ils ont priorité quand il s’agit d’interconnexions entre fournisseurs ou lors de transmission via routeurs. Les paquets moins sensibles (bleu) attendraient quelques millisecondes si à un moment donné le routeur est très occupé. On éviterait ainsi les pertes de qualité. L’application concernée n’est pas mise à l’écart ; elle n’est que retardée. Dans la plupart des cas, l’utilisateur final de cette application ne saura même pas reconnaître la perte de qualité, qui, soit dit en passant, advient également dans un mode de gestion strictement neutre du type first-in / first-out.
Graphique. Donner la priorité aux paquets de données sensibles à la qualité
Dans un régime first-in / first-out, au vrai assez stupide, les applications « sensibles » risquent d’être évincées en cas de congestion. Comme on assiste à une croissance énorme du trafic de fichiers P2P et vidéos, ce risque va augmenter. Il faut des modèles d’affaires prenant en compte intelligemment les besoins spécifiques des différentes applications pour éviter efficacement les congestions.
Toute réglementation ex-ante dans le sens de la neutralité du Net ou toute norme concernant la qualité du service ne ferait qu’ajouter un nième chapitre à la ridicule sur-réglementation du secteur et ouvrirait la boîte de Pandore de litiges interminables et coûteux. Qui saura définir les normes minimales et sur quelle base? Qui va surveiller ces normes? Comment ces normes seront-elles adaptées aux continuels changements technique et économique du secteur des TIC ? Une telle réglementation ne serait rien d’autre qu’une mesure de création d’emplois pour des centaines de bureaucrates et avocats. Les coûts de ce type de réglementation seraient considérables et les avantages économiques et sociaux seraient au mieux nuls à court terme et, dans une perspective dynamique, très certainement négatifs.
C’est pourquoi nous n’avons besoin d’aucune réglementation sur la neutralité du net, mais simplement d’une politique de concurrence efficace capable d’assurer un niveau de compétition suffisant sur toute la chaîne de valeur des TIC. L’amendement en discussion à Bruxelles et l’actuelle réglementation anti-trust de l’UE peuvent être la bonne base légale pour l’investissement, l’innovation et la croissance dans le secteur des TIC. Les négociations sur le paquet télécoms entre le Parlement, la Commission et le Conseil devraient prendre fin très bientôt afin de donner aux investisseurs et aux consommateurs une certitude sur la réglementation de l’Internet de demain en Europe et d’encourager l’investissement dans les infrastructures et les applications sophistiquées qui font cruellement défaut, tout spécialement en ces temps de crise financière et économique.
Vos réactions
Bravo ! Sur ce sujet qui a tendance à crisper certains, enfin un exposé responsable de la différence des besoins du Net. Désolé pour le commentaire tardif, je n’avais pas vu votre article auparavant.
Report comment