Entre février et mars 2013, j’ai eu l’occasion de visiter deux laboratoires de recherche Bell Labs d’Alcatel-Lucent en France : celui de Villarceaux et celui de Marcoussis. Ils m’ont permis à la fois de voir comment fonctionnaient certaines équipes de recherche et leurs liens avec le monde extérieur, mais surtout de découvrir les technologies généralement inconnues du grand public et qui permettent à l’Internet d’absorber des volumes de données sans cesse grandissant.
Les analystes et fournisseurs comme Cisco n’ont en effet de cesse de nous rappeler le poids grandissant de la vidéo dans le trafic Internet, qu’il s’agisse de VOD, de SVOD, de TV de rattrapage et bien évidemment de la consommation de contenus sur YouTube, DailyMotion et leurs équivalents. On nous prédit aussi d’année en année la saturation d’Internet, qui ne serait plus capable d’absorber les débits associés. En France, les chaines de TV sont également inquiètes au sujet de la capacité des réseaux à absorber ne serait-ce que la TV de rattrapage, de plus en plus populaire.
Cette visite d’Alcatel-Lucent permet d’éclairer notre lanterne sur quelques questions clés : quels sont les débits actuels supportés par les réseaux Internet, quel est le besoin pour absorber la croissance du trafic due notamment à la consommation de vidéo, et est-ce que les progrès technologiques anticipables permettront d’absorber cette croissance ?
Alcatel-Lucent est particulièrement en pointe sur deux technologies clés : les systèmes de transport à base de fibres optiques et les composants électroniques et optroniques très spécialisés que l’on y trouve et qu’il fabrique lui-même en petites quantités. Malgré tout, Alcatel-Lucent se définit comme étant plutôt un intégrateur. Il conçoit une part des technologies critiques de ses produits ce qui lui permet de se différentier par rapport à la concurrence. Celle-ci est toutefois très active, notamment chez le chinois Huawei, qui dispose de ressources énormes dans la R&D. La bataille de l’innovation dans ce secteur s’articule comme dans de nombreuses industries autour d’une part d’une R&D de qualité et de l’autre dans la capacité à en industrialiser rapidement les résultats pour créer des produits ayant le bon “time to market” et aussi à un prix compétitif.
La fractale des réseaux IP
Depuis la fin des années 1980, le débit des réseaux de télécommunication et celui d’Internet (après 1993) dépend étroitement des technologies de transport à base de fibres optiques. Elles seules sont capables de transporter de gros volumes de données et sur de longues distances.
Dans les routes de l’Internet, il faut distinguer :
- Les autoroutes qui sont les liaisons longue distance reliant les continents entre eux via des câbles sous-marins comprenant en général huit paires de fibres optiques. Ils se poursuivent sur terre dans des câbles enterrés qui relient les grandes agglomérations. Ces réseaux relient les opérateurs télécoms entre eux à l’échelle mondiale. Aux USA, ce sont les RBOC (Regional Bell Operating Companies) issues du démantèlement d’AT&T en 1982) qui relient le pays au reste du monde, et évidemment via les côtes Ouest et Est des USA. Les débits de ces autoroutes peut être de plusieurs Tera-bits/s pour les liaisons les plus récentes.
- Les nationales, avec, dans chaque pays, les liaisons et infrastructures de communication des opérateurs télécoms, aussi à base de fibres optiques. Elles relient entre eux les centraux télécoms des opérateurs, notamment dans les centraux de France Télécom qui hébergent les NRA (Nœuds de Raccordements d’Abonnés) et les NRO (Nœuds de Raccordements Optiques). C’est là qu’aboutissent d’un côté les réseaux IP internes des opérateurs et de l’autre les terminaisons des utilisateurs. Les nationales sont bien moins rapides que les autoroutes en France : les liaisons se font avec des tuyaux qui démarrent à 10 Gbits/s et peuvent aller jusqu’à plusieurs Tera-bits selon l’importance des nœuds de réseaux des opérateurs.
- Les échangeurs, avec l’interconnexion entre opérateurs, reliés entre eux pour assurer leur interopérabilité et un bon écoulement du trafic. On appelle cela le “peering” ou appairage. Il existe une vingtaine d’acteurs du peering en France, établis souvent en associations comme France IX ou SFINX qui est un service opéré par le réseau universitaire Renater. Les gros opérateurs télécoms ont des points de peering à Paris et dans quelques grandes villes de France comme Lyon et Marseille. Les débits du peering varient de 1 à plusieurs centaines de Gbits/s.
- Les départementales, avec des infrastructures déportées sur le terrain des centraux télécoms, comme des répartiteurs et autres DSLAM. En ville, un DSLAM typique pour l’ADSL va être connecté d’un côté à 1008 abonnés et de l’autre par une liaison de 10 Gbits/s au réseau. Ce qui donne un débit moyen disponible de 10 Mbits/s par abonné ce qui est théoriquement bien dimensionné pour que tout les foyers connectés puissent regarder un flux TV HD non-linéaire par foyer (6 Mbits/s) en même temps.
- Les rues, avec les terminaisons de boucle locale qui aboutissent dans les immeubles, maisons et entreprises. Les entreprises louent parfois des “fibres noires” pour relier entre eux plusieurs sites, mais sans passer par le réseau ouvert de l’Internet. Elles ont donc leur “rue” privatisée. Ces boucles locales sont en paire de cuivre torsadée (la ligne de téléphone classique, pour la voix analogique et l’ADSL) ou en fibre (pour le FTTH, la fibre qui va jusqu’aux abonnés). Il y a aussi le coaxial en cuivre du câble mais qui ne passe généralement pas par les infrastructures de France Télécom. Le câble est aussi relié à de la fibre dans les infrastructures des câblo-opérateurs.
- Les stations service, pour poursuivre l’analogie routière, que sont les CDN, Content Delivery Network, qui bufferisent les contenus lourds comme les vidéos pour en accélérer l’accès aux consommateurs. Ils sont téléchargés une fois pour toute sur des serveurs proches des consommateurs à l’échelle régionale voire départementale pour ce qui est de la France. Cela limite le trafic sur les nationales et les autoroutes.
Les câbles sous-marins
Ce sont les plus grosses artères de l’Internet. Les câbles sous-marins font transiter le débit Internet entre continents et pays. Il est colossal même si une bonne part du trafic est local dans chaque pays. Au quotidien, nous utilisons souvent des services en ligne hébergés à l’étranger. De France, les points d’accès les plus proches de Google Search ou YouTube sont ainsi en Irlande ou en Belgique. Autre exemple, les serveurs 1&1 de ce blog sont en Allemagne et on transite par la Hollande pour y parvenir.
Il y a environ un millier de points de départs et d’arrivée de câbles sous-marins dans le monde. Ils sont inventoriés ici. En France, nous avons notamment Ajaccio et l’Ile Rousse en Corse, Basse-Terre et Pointe à Pitre en Guadeloupe, Saint Barthélémy et la Guyane. En métropole, nous avons Penmarch et Lannion en Bretagne, Cayeux sur Mer, Saint Valery en Caux et Dieppe en Normandie, Dunkerque et Sangate dans le Nord et Cannes, Marseille et Martigues dans le Sud-Est. En tout, ce sont plusieurs Téra-bits/s qui nous relient aux autres pays.
Les câbles sont posés en mer par des navires câbliers. Il y en a environ 35 dans le monde dont 4 d’Alcatel-Lucent et 4 de France Télécom Marine (des rumeurs courent depuis quelques temps sur le rachat de l’activité d’Alcatel-Lucent par France Télécom). Ils sont complétés par des navire spécialisés dans la réparation des câbles – qui sont 3 pour Alcatel-Lucent (ci-dessus le Lodbrog) – mais certains sont à la fois adaptés à la pose et à la réparation des câbles. Les trois principaux câbliers d’Alcatel-Lucent sont Ile de Brehat, Ile de Sein et Ile de Batz. Ils font 140 m de long, 23 m de large et 8 m de tirant d’eau. Construits en 2002, ils contiennent deux cuves de 1500 m3 de câbles.
Les câbliers utilisent un système tracté de 25 tonnes et 10,4 m de long pour l’enterrement des câbles sur fonds marins à 3m en dessous du fond de la mer (ci-dessous, photo Alcatel-Lucent). Ces systèmes d’enfouissement fonctionnent jusqu’à 1500m de profondeur. En dessous, les câbles sont simplement posés sur le fond de la mer, jusqu’à 8000m de profondeur ce qui permet de bien couvrir la plupart des routes sauf les fosses les plus profondes comme celles des Mariannes.
L’enterrement des câbles réduit d’un facteur 12 les dégâts non naturels provoqués notamment par les chaluts de pêcheurs. Dans les navires câblier, les cales de stockage font 7 m de haut et 19 m de diamètre et peuvent chacune contenir environ 3 000 km de câble, donc 6000 Km au total, ce qui permet de couvrir une bonne partie des routes sans revenir au port. Ce d’autant plus que faire le plein des câbliers est un travail très minutieux. C’est un test de patience pour les ouvriers puisqu’il dure environ un mois ! Les câbliers font évidemment le plein à proximité des usines de fabrication de câbles, sur les côtes comme dans celle de Calais. La cadence de chargement est de 14 km de câble par heure, qui soigneusement enroulé (voir cette vidéo)
Pour les longues distances, les câbles posés sont dotés de répéteurs tous les 40 à 100 km selon la technologie utilisée. Pour les courtes distances et les trajets le long des côtes comme en Afrique, les câbles peuvent ne pas avoir de répéteurs.
Les répéteurs fonctionnent à base d’amplificateurs optiques alimentés par un courant électrique qui parcourt tout le câble sous-marin. Ces amplificateurs sont à base de lasers utilisant des fibres en verre dopées à l’Erbium. Un câble sous-marin moderne est doté de huit paires de fibres. Les fibres sont en effet unidirectionnelles.
Comment répare-t-on les câbles ? Tout d’abord, il faut détecter où se situe la coupure ou l’usure. Cela se fait à terre avec des outils de mesure électrique qui utilisent la technique du SSTDR, pour “spread-spectrum time-domain reflectometry”. En gros, cela consiste à envoyer un signal optique dans un sens et à mesurer celui revient et à calculer sa distance en fonction du temps d’aller et retour. Ensuite, on envoie un navire de réparation qui va récupérer le câble en le coupant à l’endroit approximatif de la panne. Les deux extrémités sont sorties de l’eau et on les relie par un bout de câble de plusieurs centaines de mètres de long avec un système d’épissure adapté aux fibres optiques. Puis on rebalance le tout en mer avec ou sans enterrement selon la profondeur.
Les leaders de la pose de câbles sous-marins sont l’américain Tyco, le japonais NEC et Alcatel-Lucent. Mais en plus de France Télécom, une vingtaine de sociétés sont présentes sur ce marché, dont Mitsubishi, Ericsson, Nokia, Hitachi, Siemens, Pirelli et Nexans.
Ces câbles sous-marins aboutissent à terre dans des salles techniques qui font jusqu’à 2000 m2. Elles sont dotées de tous les équipements électroniques et optroniques pour démultiplexer les signaux numériques transmis et les envoyer dans les réseaux terrestres et les “nationales”.
Comment augmente-t-on le débit sur la fibre optique ?
Quand on sait que les processeurs en technologie silicium CMOS les plus rapides ne dépassent pas 4 GHz, on peut se demander comment on arriver à gérer des bandes passantes de plusieurs Téra-bits/s dans les fibres optiques.
Cela repose sur deux composantes technologiques clés qu’Alcatel-Lucent maitrise particulièrement bien :
D’un côté, des composants électroniques utilisant des semi-conducteurs dits III-V, qui combinent des éléments des groupes 13 et 15 du tableau des éléments de Mendeleïev (en pointillé rouge ci-dessous), correspondant aux groupes III-A et V-A dans l’ancienne numérotation romaine du tableau périodique des éléments. On y trouve notamment l’aluminium, le Gallium, le Phosphore et l’Arsenic qui se combinent par paire III+V avec par exemple de l’arséniure de gallium. Ces composants présentent la caractéristique de pouvoir tourner à très haute fréquence, jusqu’à environ 50 GHz. Nous y reviendrons plus tard. Ces composants servent à générer le signal électrique avec des 0 et des 1 qui sera ensuite converti avec des diodes laser en lumière à faire transiter par les fibres. Mais on ne peut pas aller au-delà de 40 GBits/s avec cette technologie. Le laboratoire de Marcoussis d’Alcatel-Lucent qui est commun avec Thalès et le CEA-LETI est dédié à la recherche et à la fabrication en petites quantités de semi-conducteurs pour ces applications d’optronique permettant de gérer des débits énormes dans les fibres optiques.
De l’autre, nous avons des techniques de multiplexage consistant à faire passer plusieurs ondes lumineuses distinctes dans la même fibre optique. Ce sont des voies (lanes) de données indépendantes des autres dans les fibres optiques. En s’alignant sur une fréquence gérable par électronique (genre 25 GHz), on envoie plusieurs bits en simultané sur une même fibre optique avec plusieurs types de multiplexage qui sont exploités simultanément :
- De la polarisation de la lumière avec deux polarisations, une verticale et une horizontale, qui double le débit. Cette technique prend l’appellation de DP pour “Dual Polarization”.
- De la modulation de phase, qui permet aussi de doubler la capacité. En gros, on décale ou pas un signal d’une demi longueur d’onde pour les bits de deux flux. On double ainsi la capacité avec cette technique dite QPSK pour “quadrature-phase-shift keying”. Combinée à de la polarisation, cela donne le DP-QPSK.
- De la modulation d’amplitude multi-niveaux de la lumière, qui permet de doubler voire de quadrupler la capacité. Elle est combinée à la modulation de phase. On appelle cela le QAM pour “quadrature amplitude modulation”. Une modulation QAM64 combine quatre niveaux de luminosité et deux phases. On représente alors les 64 combinaisons de 4 bits dans le diagramme suivant en nombre complexe (le X et le Y représentent deux phases décalées d’une demi-longueur d’onde). A noter que le QAM est aussi utilisé dans l’encodage d’ondes électromagnétiques, comme dans le Wi-Fi, dans la 3G et la 4G. Dans le spectre-électromagnétique, on peut aller jusqu’à du QAM256, comme dans le câble coaxial, encodant ainsi 8 bits sur un Hertz au lieu de 4 dans le cas de la fibre optique.
- Enfin, l’usage de plusieurs longueurs d’ondes différentes avec le WDM (Wavelenght Division Multiplexing). Les liaisons longue distance s’appuient sur une longueur d’onde autour de 1,55 microns avec une largeur de spectre disponible d’environ 10 THz. La bande de fréquences autour de 1,55 µm est dénommé “bande C”. C’est celle qui génère le moins d’atténuation sur la distance. Elle est d’environ 0,2 dB par kilomètre. C’est ce qui fait la différence avec la transmission sur cuivre qui génère une atténuation de plus de 10 db par km dans le cas de l’ADSL ! A raison de 25 GHz par canal, cela donne une capacité théorique maximale de 400 ondes par fibre. Mais il faut laisser une marge de sécurité pour éviter les effets de bord entre chaque bande de fréquence. En pratique, on peut faire passer jusqu’à deux cent longueurs d’ondes différentes dans une fibre optique. C’est une technique très puissante mais couteuse car elle nécessite beaucoup de filtres en amont et en aval de la fibre.
Vers quel débit maximum ?
Si on cumule toutes les techniques de multiplexage, on peut ainsi obtenir un coefficient multiplicateur de débit de 2x2x4x200 = 3200. Appliqué à un débit de base de 25 Gbits/s, cela donne une capacité théorique maximale d’environ 80 Tbits/s pour une fibre mono-cœur. Mais cette capacité théorique est atteignable sur des distances moyennes de quelques dizaines de kilomètres. Plus on allonge la distance, notamment au niveau de celle des câbles sous-marins, plus il est difficile de gérer ces ultra-haut débits.
Avec 8 paires de fibres mono-cœur dans les câbles sous-marins ou terrestres, on obtient en tout cas une capacité théorique maximale de 640 Tera-bits/s par câble. Une capacité voisine, de 1000 tera-bits/s, a été expérimentée fin 2012 par le japonais NEC avec une fibre à douze cœurs et sur une distance de 52 km. Chaque cœur transportait 84,5 Tbits/s avec 380 Gbits/s sur 222 longueurs d’ondes différentes. De son côté, Alcatel-Lucent travaille sur une technologie voisine, atteignant 400 Gbits/s par longueur d’onde mais capable de fonctionner sur de plus grandes distances, de plusieurs centaines de km. Mais les roadmaps technologiques des constructeurs laissent penser que l’on pourra aller encore plus loin.
Tout cela semble fournir une belle marge de progression par rapport aux câbles actuels qui supportent entre 1 et une quinzaine de Téra-bits/s.
La marge de manœuvre technologique semble assez confortable, sur la papier, pour faire grandir le débit de l’Internet et supporter notamment l’augmentation de la consommation de vidéos non-linéaires. Il subsiste cependant une variable non technique primordiale : le dimensionnement économique de ces solutions. Les techniques de multiplexage sont couteuses sans compter les techniques de routage qui vont avec pour dispatcher les signaux de ces fibres dans les réseaux. Et l’augmentation des coûts demande des modèles économiques qui tiennent le coup aussi bien pour les opérateurs télécoms que pour les autres maillons de la chaine de valeur de la diffusion des contenus vidéo.
L’impact sur la télévision numérique via Internet
Faisons un petit calcul simple. Supposons que 22 millions d’abonnés à l’ADSL consomment en simultané des flux vidéo HD de 6 Mbits/s non linéaires (tous différents, donc pas optimisés avec du multicast) provenant de la même origine, genre un data-center en Irlande pour un Google TV ou un Apple TV. Cela représenterait un débit total de 132 Tbits/s. Mettons-nous maintenant dans dix ans dans la perspective d’un usage généralisé de la vidéo UHD (Ultra-HD, ou 4K, avec le quadruple de la résolution du Full HD), couplé à l’usage du codec HEVC. Cela donnerait un débit d’environ 24 Mbits/s et ne fonctionnerait bien qu’avec une généralisation du FTTH ou du câble. Avec 20 millions de foyers en simultané et en unicast, cela donnerait un besoin de 480 TBits/s. Mais ceci est le “worst-case scenario” car même avec une généralisation de la consommation de TV en mode linéaire, on peut estimer que la consommation de TV linéraire restera majoritaire. Tablons sur 60% des foyers avec une consommation linéaire. La taille du tuyau nécessaire pour relier l’Irlande à la France est alors divisée par deux. Mais il faudrait remultiplier par deux le débit pour tenir compte du multiécrans dans les foyers avec l’hypothèse de deux écrans connectés par foyer en simultané en moyenne.
J’ai pris l’Irlande comme exemple car les américains s’y installent souvent pour des raisons pratiques et fiscales. A moins que la France change beaucoup de choses, il y a peu de chances que Google ou Apple y installent leurs data-centers.
A terme d’une dizaine d’année, ces différents débits (132 à 480 TBits) semblent envisageables d’un point de vue technologique du côté des “autoroutes” de fibres optiques entre pays. Ces débits alourdiraient certainement tout autant les “nationales” des opérateurs du pays. Mais cela donne une idée du domaine du possible. Une bonne manière de faire de la prospective consiste toujours à évaluer l’impact potentiel de la loi de Moore et de ses dérivés sur les infrastructures de télécommunications. Une autre loi est immuable : si le débit augmente, il sera utilisé tout comme un disque dur se remplit toujours, quelle que soit sa capacité !
Ceci répond à une question clé plus qu’intéressante : à terme d’une douzaine d’année, les flux IP pourront potentiellement remplacer les flux broadcast traditionnels (satellite, TNT) pour une grande partie des usages. A modèle économique iso, les opérateurs américains horizontaux (Google, Apple mais aussi Amazon ou Netflix) pourraient nous alimenter en contenus vidéo linéaires et non linéaires jusqu’à la 4K. Ce, d’autant plus, que le très haut débit (FTTH ou câble) sera en principe généralisé dans les foyers français à cet horizon.
Mais tout cela est évidemment très théorique. Cela fait fi d’un tas de facteurs : la montée en puissance réelle des infrastructures, l’intérêt des acteurs économiques à les mettre en place, l’impact sur le coût des services et des contenus pour les usagers, l’évolution de la règlementation et tout le toutim. Cela néglige aussi les autres usages que la TV HD ou UHD, mais cet usage est un bon étalon car c’est celui qui reste le plus consommateur de bande passante.
Sur ce, cette mise en bouche est terminée. Dans l’article suivant, je me penche un peu plus en détails sur les travaux de recherche d’Alcatel-Lucent de Marcoussis et Villarceaux sur les technologies que nous venons de couvrir rapidement.
Reçevez par email les alertes de parution de nouveaux articles :
L’analogie routière pour décrire les réseaux de communication : http://t.co/0O8WxedFvI
@michellondon tu as un nouveau fan ! “Comment Alcatel-Lucent augmente les débits d’Internet – 1” de @olivez sur http://t.co/2K58YZZX0W
Merci pour cette tres eclairante vulgarisation a propos des reseaux internet ! Vivement la suite de l’article.
Bonjour,
Peut être un petit oubli de lien, cf “(vidéo)”.
Concernant “L’impact sur la télévision numérique via Internet”, dans le calcul prédictif de la bande passante nécessaire, je pense que l’on peut également ajouter un facteur de 0.8 (ou moins) car à un instant t, tout le monde ne consommera pas un contenu linéaire (même aux heures de pointes , tout le monde ne regarde pas le TV). De plus, une consommation linéaire n’interdit pas l’utilisation des CDN. D’où un débit revoir encore à la baise.
Et ce calcul suppose donc que Google TV et Apple TV doivent être capable de diffuser ces centaines de TBits de flux linéaire, et là j’ai quand même des doutes.
PS: merci pour vos articles toujours d’un bon niveau et qui traduise bien la curiosité dont nous sommes friand.
Bonjour Laurent,
Merci d’avoir relevé l’oublie du lien sur la vidéo, qui est maintenant ajouté.
Concernant mon calcul, c’était une sorte de “worst-case scenario” qui présente l’intérêt, une fois que l’on applique toutes les optimisations imaginables (CDN et autres), de montrer que le broadcast à très grande échelle de la TV numérique sur IP et via la fibre est envisageable, y compris pour de la vidéo de très haute qualité (Full HD puis UHD/4K).
Côté data-center, le défi serait significatif, mais est-ce le plus difficile à réaliser ? Là-encore, c’est surtout une question de coût et d’équilibre économique. Aujourd’hui, la diffusion de la TV linéaire par TNT ou satellite revient bien moins cher que par IP. Cela restera le cas encore quelques années !
Beaucoup de pédagogie pour expliquer les infra numériques par @olivez sur http://t.co/8dmuRDla9a
“Comment Alcatel-Lucent augmente les débits d’Internet – 1” de @olivez sur http://t.co/8dmuRDla9a
@fadouce En 2012, des Japonais avaient déjà atteint 84,5 Tbits/s sur une seule fibre. La nouveauté ici est le compo… https://t.co/3o5YJDhLbc