Comment Alcatel-Lucent augmente les débits d’Internet – 1

Publié le 8 avril 2013 et mis à jour le 29 avril 2014 - 7 commentaires -
PDF Afficher une version imprimable de cet article

Entre février et mars 2013, j’ai eu l’occasion de visiter deux laboratoires de recherche Bell Labs d’Alcatel-Lucent en France : celui de Villarceaux et celui de Marcoussis. Ils m’ont permis à la fois de voir comment fonctionnaient certaines équipes de recherche et leurs liens avec le monde extérieur, mais surtout de découvrir les technologies généralement inconnues du grand public et qui permettent à l’Internet d’absorber des volumes de données  sans cesse grandissant.

Les analystes et fournisseurs comme Cisco n’ont en effet de cesse de nous rappeler le poids grandissant de la vidéo dans le trafic Internet, qu’il s’agisse de VOD, de SVOD, de TV de rattrapage et bien évidemment de la consommation de contenus sur YouTube, DailyMotion et leurs équivalents. On nous prédit aussi d’année en année la saturation d’Internet, qui ne serait plus capable d’absorber les débits associés. En France, les chaines de TV sont également inquiètes au sujet de la capacité des réseaux à absorber ne serait-ce que la TV de rattrapage, de plus en plus populaire.

Cette visite d’Alcatel-Lucent permet d’éclairer notre lanterne sur quelques questions clés : quels sont les débits actuels supportés par les réseaux Internet, quel est le besoin pour absorber la croissance du trafic due notamment à la consommation de vidéo, et est-ce que les progrès technologiques anticipables permettront d’absorber cette croissance ?

Alcatel-Lucent est particulièrement en pointe sur deux technologies clés : les systèmes de transport à base de fibres optiques et les composants électroniques et optroniques très spécialisés que l’on y trouve et qu’il fabrique lui-même en petites quantités. Malgré tout, Alcatel-Lucent se définit comme étant plutôt un intégrateur. Il conçoit une part des technologies critiques de ses produits ce qui lui permet de se différentier par rapport à la concurrence. Celle-ci est toutefois très active, notamment chez le chinois Huawei, qui dispose de ressources énormes dans la R&D. La bataille de l’innovation dans ce secteur s’articule comme dans de nombreuses industries autour d’une part d’une R&D de qualité et de l’autre dans la capacité à en industrialiser rapidement les résultats pour créer des produits ayant le bon “time to market” et aussi à un prix compétitif.

La fractale des réseaux IP

Depuis la fin des années 1980, le débit des réseaux de télécommunication et celui d’Internet (après 1993) dépend étroitement des technologies de transport à base de fibres optiques. Elles seules sont capables de transporter de gros volumes de données et sur de longues distances.

Dans les routes de l’Internet, il faut distinguer :

  • Les autoroutes qui sont les liaisons longue distance reliant les continents entre eux via des câbles sous-marins comprenant en général huit paires de fibres optiques. Ils se poursuivent sur terre dans des câbles enterrés qui relient les grandes agglomérations. Ces réseaux relient les opérateurs télécoms entre eux à l’échelle mondiale. Aux USA, ce sont les RBOC (Regional Bell Operating Companies) issues du démantèlement d’AT&T en 1982) qui relient le pays au reste du monde, et évidemment via les côtes Ouest et Est des USA. Les débits de ces autoroutes peut être de plusieurs Tera-bits/s pour les liaisons les plus récentes.
  • Les nationales, avec, dans chaque pays, les liaisons et infrastructures de communication des opérateurs télécoms, aussi à base de fibres optiques. Elles relient entre eux les centraux télécoms des opérateurs, notamment dans les centraux de France Télécom qui hébergent les NRA (Nœuds de Raccordements d’Abonnés) et les NRO (Nœuds de Raccordements Optiques). C’est là qu’aboutissent d’un côté les réseaux IP internes des opérateurs et de l’autre les terminaisons des utilisateurs. Les nationales sont bien moins rapides que les autoroutes en France : les liaisons se font avec des tuyaux qui démarrent à 10 Gbits/s et peuvent aller jusqu’à plusieurs Tera-bits selon l’importance des nœuds de réseaux des opérateurs.
  • Les échangeurs, avec l’interconnexion entre opérateurs, reliés entre eux pour assurer leur interopérabilité et un bon écoulement du trafic. On appelle cela le “peering” ou appairage. Il existe une vingtaine d’acteurs du peering en France, établis souvent en associations comme France IX ou SFINX qui est un service opéré par le réseau universitaire Renater. Les gros opérateurs télécoms ont des points de peering à Paris et dans quelques grandes villes de France comme Lyon et Marseille. Les débits du peering varient de 1 à plusieurs centaines de Gbits/s.
  • Les départementales, avec des infrastructures déportées sur le terrain des centraux télécoms, comme des répartiteurs et autres DSLAM. En ville, un DSLAM typique pour l’ADSL va être connecté d’un côté à 1008 abonnés et de l’autre par une liaison de 10 Gbits/s au réseau. Ce qui donne un débit moyen disponible de 10 Mbits/s par abonné ce qui est théoriquement bien dimensionné pour que tout les foyers connectés puissent regarder un flux TV HD non-linéaire par foyer (6 Mbits/s) en même temps.
  • Les rues, avec les terminaisons de boucle locale qui aboutissent dans les immeubles, maisons et entreprises. Les entreprises louent parfois des “fibres noires” pour relier entre eux plusieurs sites, mais sans passer par le réseau ouvert de l’Internet. Elles ont donc leur “rue” privatisée. Ces boucles locales sont en paire de cuivre torsadée (la ligne de téléphone classique, pour la voix analogique et l’ADSL) ou en fibre (pour le FTTH, la fibre qui va jusqu’aux abonnés). Il y a aussi le coaxial en cuivre du câble mais qui ne passe généralement pas par les infrastructures de France Télécom. Le câble est aussi relié à de la fibre dans les infrastructures des câblo-opérateurs.
  • Les stations service, pour poursuivre l’analogie routière, que sont les CDN, Content Delivery Network, qui bufferisent les contenus lourds comme les vidéos pour en accélérer l’accès aux consommateurs. Ils sont téléchargés une fois pour toute sur des serveurs proches des consommateurs à l’échelle régionale voire départementale pour ce qui est de la France. Cela limite le trafic sur les nationales et les autoroutes.

Submarine Cables Map 2012

Les câbles sous-marins

Ce sont les plus grosses artères de l’Internet. Les câbles sous-marins font transiter le débit Internet entre continents et pays. Il est colossal même si une bonne part du trafic est local dans chaque pays. Au quotidien, nous utilisons souvent des services en ligne hébergés à l’étranger. De France, les points d’accès les plus proches de Google Search ou YouTube sont ainsi en Irlande ou en Belgique. Autre exemple, les serveurs 1&1 de ce blog sont en Allemagne et on transite par la Hollande pour y parvenir.

Il y a environ un millier de points de départs et d’arrivée de câbles sous-marins dans le monde. Ils sont inventoriés ici. En France, nous avons notamment Ajaccio et l’Ile Rousse en Corse, Basse-Terre et Pointe à Pitre en Guadeloupe, Saint Barthélémy et la Guyane. En métropole, nous avons Penmarch et Lannion en Bretagne, Cayeux sur Mer, Saint Valery en Caux et Dieppe en Normandie, Dunkerque et Sangate dans le Nord et Cannes, Marseille et Martigues dans le Sud-Est. En tout, ce sont plusieurs Téra-bits/s qui nous relient aux autres pays.

Cablier Alcatel-Lucent (photo Alcatel-Lucent)

Les câbles sont posés en mer par des navires câbliers. Il y en a environ 35 dans le monde dont 4 d’Alcatel-Lucent et 4 de France Télécom Marine (des rumeurs courent depuis quelques temps sur le rachat de l’activité d’Alcatel-Lucent par France Télécom). Ils sont complétés par des navire spécialisés dans la réparation des câbles – qui sont 3 pour Alcatel-Lucent (ci-dessus le Lodbrog) – mais certains sont à la fois adaptés à la pose et à la réparation des câbles. Les trois principaux câbliers d’Alcatel-Lucent sont Ile de Brehat, Ile de Sein et Ile de Batz. Ils font 140 m de long, 23 m de large et 8 m de tirant d’eau. Construits en 2002, ils contiennent deux cuves de 1500 m3 de câbles.

Les câbliers utilisent un système tracté de 25 tonnes et 10,4 m de long pour l’enterrement des câbles sur fonds marins à 3m en dessous du fond de la mer (ci-dessous, photo Alcatel-Lucent). Ces systèmes d’enfouissement fonctionnent jusqu’à 1500m de profondeur. En dessous, les câbles sont simplement posés sur le fond de la mer, jusqu’à 8000m de profondeur ce qui permet de bien couvrir la plupart des routes sauf les fosses les plus profondes comme celles des Mariannes.

Systeme enfoissement de cable sous-marin

L’enterrement des câbles réduit d’un facteur 12 les dégâts non naturels provoqués notamment par les chaluts de pêcheurs. Dans les navires câblier, les cales de stockage font 7 m de haut et 19 m de diamètre et peuvent chacune contenir environ 3 000 km de câble, donc 6000 Km au total, ce qui permet de couvrir une bonne partie des routes sans revenir au port. Ce d’autant plus que faire le plein des câbliers est un travail très minutieux. C’est un test de patience pour les ouvriers puisqu’il dure environ un mois ! Les câbliers font évidemment le plein à proximité des usines de fabrication de câbles, sur les côtes comme dans celle de Calais. La cadence de chargement est de 14 km de câble par heure, qui soigneusement enroulé (voir cette vidéo)

Pour les longues distances, les câbles posés sont dotés de répéteurs tous les 40 à 100 km selon la technologie utilisée. Pour les courtes distances et les trajets le long des côtes comme en Afrique, les câbles peuvent ne pas avoir de répéteurs.

Les répéteurs fonctionnent à base d’amplificateurs optiques alimentés par un courant électrique qui parcourt tout le câble sous-marin. Ces amplificateurs sont à base de lasers utilisant des fibres en verre dopées à l’Erbium. Un câble sous-marin moderne est doté de huit paires de fibres. Les fibres sont en effet unidirectionnelles.

Comment répare-t-on les câbles ? Tout d’abord, il faut détecter où se situe la coupure ou l’usure. Cela se fait à terre avec des outils de mesure électrique qui utilisent la technique du SSTDR, pour “spread-spectrum time-domain reflectometry”. En gros, cela consiste à envoyer un signal optique dans un sens et à mesurer celui revient et à calculer sa distance en fonction du temps d’aller et retour. Ensuite, on envoie un navire de réparation qui va récupérer le câble en le coupant à l’endroit approximatif de la panne. Les deux extrémités sont sorties de l’eau et on les relie par un bout de câble de plusieurs centaines de mètres de long avec un système d’épissure adapté aux fibres optiques. Puis on rebalance le tout en mer avec ou sans enterrement selon la profondeur.

Les leaders de la pose de câbles sous-marins sont l’américain Tyco, le japonais NEC et Alcatel-Lucent. Mais en plus de France Télécom, une vingtaine de sociétés sont présentes sur ce marché, dont Mitsubishi, Ericsson, Nokia, Hitachi, Siemens, Pirelli et Nexans.

Ces câbles sous-marins aboutissent à terre dans des salles techniques qui font jusqu’à 2000 m2. Elles sont dotées de tous les équipements électroniques et optroniques pour démultiplexer les signaux numériques transmis et les envoyer dans les réseaux terrestres et les “nationales”.

Comment augmente-t-on le débit sur la fibre optique ?

Quand on sait que les processeurs en technologie silicium CMOS les plus rapides ne dépassent pas 4 GHz, on peut se demander comment on arriver à gérer des bandes passantes de plusieurs Téra-bits/s dans les fibres optiques.

Cela repose sur deux composantes technologiques clés qu’Alcatel-Lucent maitrise particulièrement bien :

D’un côté, des composants électroniques utilisant des semi-conducteurs dits III-V, qui combinent des éléments des groupes 13 et 15 du tableau des éléments de Mendeleïev (en pointillé rouge ci-dessous), correspondant aux groupes III-A et V-A dans l’ancienne numérotation romaine du tableau périodique des éléments. On y trouve notamment l’aluminium, le Gallium, le Phosphore et l’Arsenic qui se combinent par paire III+V avec par exemple de l’arséniure de gallium. Ces composants présentent la caractéristique de pouvoir tourner à très haute fréquence, jusqu’à environ 50 GHz. Nous y reviendrons plus tard. Ces composants servent à générer le signal électrique avec des 0 et des 1 qui sera ensuite converti avec des diodes laser en lumière à faire transiter par les fibres. Mais on ne peut pas aller au-delà de 40 GBits/s avec cette technologie. Le laboratoire de Marcoussis d’Alcatel-Lucent qui est commun avec Thalès et le CEA-LETI est dédié à la recherche et à la fabrication en petites quantités de semi-conducteurs pour ces applications d’optronique permettant de gérer des débits énormes dans les fibres optiques.

Periodic elements and III-V

De l’autre, nous avons des techniques de multiplexage consistant à faire passer plusieurs ondes lumineuses distinctes dans la même fibre optique. Ce sont des voies (lanes) de données indépendantes des autres dans les fibres optiques. En s’alignant sur une fréquence gérable par électronique (genre 25 GHz), on envoie plusieurs bits en simultané sur une même fibre optique avec plusieurs types de multiplexage qui sont exploités simultanément :

  • De la polarisation de la lumière avec deux polarisations, une verticale et une horizontale, qui double le débit. Cette technique prend l’appellation de DP pour “Dual Polarization”.
  • De la modulation de phase, qui permet aussi de doubler la capacité. En gros, on décale ou pas un signal d’une demi longueur d’onde pour les bits de deux flux. On double ainsi la capacité avec cette technique dite QPSK pour “quadrature-phase-shift keying”. Combinée à de la polarisation, cela donne le DP-QPSK.

QPSK

  • De la modulation d’amplitude multi-niveaux de la lumière, qui permet de doubler voire de quadrupler la capacité. Elle est combinée à la modulation de phase. On appelle cela le QAM pour “quadrature amplitude modulation”. Une modulation QAM64 combine quatre niveaux de luminosité et deux phases. On représente alors les 64 combinaisons de 4 bits dans le diagramme suivant en nombre complexe (le X et le Y représentent deux phases décalées d’une demi-longueur d’onde). A noter que le QAM est aussi utilisé dans l’encodage d’ondes électromagnétiques, comme dans le Wi-Fi, dans la 3G et la 4G. Dans le spectre-électromagnétique, on peut aller jusqu’à du QAM256, comme dans le câble coaxial, encodant ainsi 8 bits sur un Hertz au lieu de 4 dans le cas de la fibre optique.

qam64

  • Enfin, l’usage de plusieurs longueurs d’ondes différentes avec le WDM (Wavelenght Division Multiplexing). Les liaisons longue distance s’appuient sur une longueur d’onde autour de 1,55 microns avec une largeur de spectre disponible d’environ 10 THz. La bande de fréquences autour de 1,55  µm est dénommé “bande C”. C’est celle qui génère le moins d’atténuation sur la distance. Elle est d’environ 0,2 dB par kilomètre. C’est ce qui fait la différence avec la transmission sur cuivre qui génère une atténuation de plus de 10 db par km dans le cas de l’ADSL ! A raison de 25 GHz par canal, cela donne une capacité théorique maximale de 400 ondes par fibre. Mais il faut laisser une marge de sécurité pour éviter les effets de bord entre chaque bande de fréquence. En pratique, on peut faire passer jusqu’à deux cent longueurs d’ondes différentes dans une fibre optique. C’est une technique très puissante mais couteuse car elle nécessite beaucoup de filtres en amont et en aval de la fibre.

Fibre optique frequence et perte en ligne

Vers quel débit maximum ?

Si on cumule toutes les techniques de multiplexage, on peut ainsi obtenir un coefficient multiplicateur de débit de 2x2x4x200 = 3200. Appliqué à un débit de base de 25 Gbits/s, cela donne une capacité théorique maximale d’environ 80 Tbits/s pour une fibre mono-cœur. Mais cette capacité théorique est atteignable sur des distances moyennes de quelques dizaines de kilomètres. Plus on allonge la distance, notamment au niveau de celle des câbles sous-marins, plus il est difficile de gérer ces ultra-haut débits.

Avec 8 paires de fibres mono-cœur dans les câbles sous-marins ou terrestres, on obtient en tout cas une capacité théorique maximale de 640 Tera-bits/s par câble. Une capacité voisine, de 1000 tera-bits/s, a été expérimentée fin 2012 par le japonais NEC avec une fibre à douze cœurs et sur une distance de 52 km. Chaque cœur transportait 84,5 Tbits/s avec 380 Gbits/s sur 222 longueurs d’ondes différentes. De son côté, Alcatel-Lucent travaille sur une technologie voisine, atteignant 400 Gbits/s par longueur d’onde mais capable de fonctionner sur de plus grandes distances, de plusieurs centaines de km. Mais les roadmaps technologiques des constructeurs laissent penser que l’on pourra aller encore plus loin.

Tout cela semble fournir une belle marge de progression par rapport aux câbles actuels qui supportent entre 1 et une quinzaine de Téra-bits/s.

La marge de manœuvre technologique semble assez confortable, sur la papier, pour faire grandir le débit de l’Internet et supporter notamment l’augmentation de la consommation de vidéos non-linéaires. Il subsiste cependant une variable non technique primordiale : le dimensionnement économique de ces solutions. Les techniques de multiplexage sont couteuses sans compter les techniques de routage qui vont avec pour dispatcher les signaux de ces fibres dans les réseaux. Et l’augmentation des coûts demande des modèles économiques qui tiennent le coup aussi bien pour les opérateurs télécoms que pour les autres maillons de la chaine de valeur de la diffusion des contenus vidéo.

L’impact sur la télévision numérique via Internet

Faisons un petit calcul simple. Supposons que 22 millions d’abonnés à l’ADSL consomment en simultané des flux vidéo HD de 6 Mbits/s non linéaires (tous différents, donc pas optimisés avec du multicast) provenant de la même origine, genre un data-center en Irlande pour un Google TV ou un Apple TV. Cela représenterait un débit total de 132 Tbits/s. Mettons-nous maintenant dans dix ans dans la perspective d’un usage généralisé de la vidéo UHD (Ultra-HD, ou 4K, avec le quadruple de la résolution du Full HD), couplé à l’usage du codec HEVC. Cela donnerait un débit d’environ 24 Mbits/s et ne fonctionnerait bien qu’avec une généralisation du FTTH ou du câble. Avec 20 millions de foyers en simultané et en unicast, cela donnerait un besoin de 480 TBits/s. Mais ceci est le “worst-case scenario” car même avec une généralisation de la consommation de TV en mode linéaire, on peut estimer que la consommation de TV linéraire restera majoritaire. Tablons sur 60% des foyers avec une consommation linéaire. La taille du tuyau nécessaire pour relier l’Irlande à la France est alors divisée par deux. Mais il faudrait remultiplier par deux le débit pour tenir compte du multiécrans dans les foyers avec l’hypothèse de deux écrans connectés par foyer en simultané en moyenne.

J’ai pris l’Irlande comme exemple car les américains s’y installent souvent pour des raisons pratiques et fiscales. A moins que la France change beaucoup de choses, il y a peu de chances que Google ou Apple y installent leurs data-centers.

A terme d’une dizaine d’année, ces différents débits (132 à 480 TBits) semblent envisageables d’un point de vue technologique du côté des “autoroutes” de fibres optiques entre pays. Ces débits alourdiraient certainement tout autant les “nationales” des opérateurs du pays. Mais cela donne une idée du domaine du possible. Une bonne manière de faire de la prospective consiste toujours à évaluer l’impact potentiel de la loi de Moore et de ses dérivés sur les infrastructures de télécommunications. Une autre loi est immuable : si le débit augmente, il sera utilisé tout comme un disque dur se remplit toujours, quelle que soit sa capacité !

Ceci répond à une question clé plus qu’intéressante : à terme d’une douzaine d’année, les flux IP pourront potentiellement remplacer les flux broadcast traditionnels (satellite, TNT) pour une grande partie des usages. A modèle économique iso, les opérateurs américains horizontaux (Google, Apple mais aussi Amazon ou Netflix) pourraient nous alimenter en contenus vidéo linéaires et non linéaires jusqu’à la 4K.  Ce, d’autant plus, que le très haut débit (FTTH ou câble) sera en principe généralisé dans les foyers français à cet horizon.

Mais tout cela est évidemment très théorique. Cela fait fi d’un tas de facteurs : la montée en puissance réelle des infrastructures, l’intérêt des acteurs économiques à les mettre en place, l’impact sur le coût des services et des contenus pour les usagers, l’évolution de la règlementation et tout le toutim. Cela néglige aussi les autres usages que la TV HD ou UHD, mais cet usage est un bon étalon car c’est celui qui reste le plus consommateur de bande passante.

Sur ce, cette mise en bouche est terminée. Dans l’article suivant, je me penche un peu plus en détails sur les travaux de recherche d’Alcatel-Lucent de Marcoussis et Villarceaux sur les technologies que nous venons de couvrir rapidement.

RRR

S
S
S
S
S
S
S

fullimg

Publié le 8 avril 2013 et mis à jour le 29 avril 2014 Post de | Haut débit, Internet, Technologie | 24799 lectures

PDF Afficher une version imprimable de cet article          

Les 7 commentaires et tweets sur “Comment Alcatel-Lucent augmente les débits d’Internet – 1” :

  • [1] - @camilleri72 a écrit sur Twitter le 8 avril 2013 :

    L’analogie routière pour décrire les réseaux de communication : http://t.co/0O8WxedFvI

  • [2] - @pdewost a écrit sur Twitter le 9 avril 2013 :

    @michellondon tu as un nouveau fan ! “Comment Alcatel-Lucent augmente les débits d’Internet – 1” de @olivez sur http://t.co/2K58YZZX0W

  • [3] - Berguin a écrit le 9 avril 2013 :

    Merci pour cette tres eclairante vulgarisation a propos des reseaux internet ! Vivement la suite de l’article.

  • [4] - laurent a écrit le 10 avril 2013 :

    Bonjour,

    Peut être un petit oubli de lien, cf “(vidéo)”.

    Concernant “L’impact sur la télé­vi­sion numérique via Internet”, dans le calcul prédictif de la bande passante nécessaire, je pense que l’on peut également ajouter un facteur de 0.8 (ou moins) car à un instant t, tout le monde ne consommera pas un contenu linéaire (même aux heures de pointes , tout le monde ne regarde pas le TV). De plus, une consom­mation linéaire n’interdit pas l’utilisation des CDN. D’où un débit revoir encore à la baise.

    Et ce calcul suppose donc que Google TV et Apple TV doivent être capable de diffuser ces centaines de TBits de flux linéaire, et là j’ai quand même des doutes.

    PS: merci pour vos articles toujours d’un bon niveau et qui traduise bien la curiosité dont nous sommes friand.

    • [4.1] - Olivier Ezratty a répondu le 10 avril 2013 :

      Bonjour Laurent,

      Merci d’avoir relevé l’oublie du lien sur la vidéo, qui est maintenant ajouté.

      Concernant mon calcul, c’était une sorte de “worst-case scenario” qui présente l’intérêt, une fois que l’on applique toutes les optimisations imaginables (CDN et autres), de montrer que le broadcast à très grande échelle de la TV numérique sur IP et via la fibre est envisageable, y compris pour de la vidéo de très haute qualité (Full HD puis UHD/4K).

      Côté data-center, le défi serait significatif, mais est-ce le plus difficile à réaliser ? Là-encore, c’est surtout une question de coût et d’équilibre économique. Aujourd’hui, la diffusion de la TV linéaire par TNT ou satellite revient bien moins cher que par IP. Cela restera le cas encore quelques années !

  • [5] - @jeanlucbeylat a écrit sur Twitter le 11 avril 2013 :

    Beaucoup de pédagogie pour expliquer les infra numériques par @olivez sur http://t.co/8dmuRDla9a

  • [6] - jean-luc beylat (@jeanlucbeylat) a écrit sur Twitter le 16 avril 2013 :

    “Comment Alcatel-Lucent augmente les débits d’Internet – 1” de @olivez sur http://t.co/8dmuRDla9a




Ajouter un commentaire

Vous pouvez utiliser ces tags dans vos commentaires :<a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong> , sachant qu'une prévisualisation de votre commentaire est disponible en bas de page après le captcha.

Captcha

Pour valider votre commentaire, veuillez saisir les lettres ci-dessus et cliquer sur le bouton Publier le commentaire ci-dessus.


Derniers articles

Derniers albums photos

Depuis juillet 2014, mes photos sont maintenant intégrées dans ce site sous la forme d'albums consultables dans le plugin "Photo-Folders". Voici les derniers albums publiés ou mis à jour. Cliquez sur les vignettes pour accéder aux albums.
albth
Nouveaux portraits
Expo
365 photos
albth
La Réunion Mar2016
2016
250 photos
albth
10 ans de Cap Digital Mar2016
2016
127 photos
albth
ScientiAcademy chez Orange Mars2016
2016
108 photos
albth
Laval Virtual Mar2016
2016
101 photos
albth
Orange Show Hello Mar2016
2016
91 photos
albth
Meilleur Dev de France Mar2016
2016
33 photos

Téléchargements gratuits

Le Rapport du CES de Las Vegas, publié chaque année en janvier depuis 2006. Vous souhaitez une restitution personnalisée et un point de veille du marché pour votre organisation ? Contactez-moi.

CouvertureRapportCES

Le Guide des Startups, mis à jour chaque année en mars, avec la somme la plus complète et actualisée d'informations pour lancer et faire vivre votre startup :

image

Voir aussi la liste complète des publications de ce blog.

image

Avec Marie-Anne Magnac, j'ai lancé #QFDN, l'initiative de valorisation de femmes du numérique par la photo. Installée depuis début octobre 2015 au Hub de Bpirance à Paris, elle circule dans différentes manifestations. L'initiative rassemble plus de 530 femmes du numérique (en janvier 2016) et elle s'enrichi en continu. Tous les métiers du numérique y sont représentés.

Les photos et les bios de ces femmes du numérique sont présentés au complet sur le site QFDN ! Vous pouvez aussi visualiser les derniers portraits publiés sur mon propre site photo. Et ci-dessous, les 16 derniers par date de prise de vue, les vignettes étant cliquables.
flow
Mélanie Péron
Mélanie est fondatrice de l’entreprise sociale l’Effet Papillon, créatrice de l’application de réalité virtuelle Bliss Interactive à visée thérapeutique imaginée pour répondre aux besoins d’évasion, de détente et de communication des personnes en situation d’isolement et/ou de stress.
flow
Jaëla Devakarne
Jaëla est directrice d'EKOAL, spécialisée dans la mise en réseau d'acteurs, présidente du Pôle Innovation et Economie Numérique – CCIR, et à l'origine de la démarche ISOPOLE (Pôle d'Innovation Sociale et Ouverte) qui a pour objectif d'accélérer la transformation du territoire réunionnais d’ici 2020 par l'expérimentation et la démultiplication d'innovations sociales et ouvertes déjà réalisées sur l'île et à l'international.
flow
Anne-Laure Payet
flow
Morgane Dairin (La Poste)
Morgane est Data Lab Manager de La POSTE Courrier.
flow
Caroline de Tinguy Caroline de la Tournelle et Judy Raffray
Caroline, Caroline et Judy sont co-fondatrices de House of Cadres, première plateforme dédiée à l'emploi flexible des cadres en France.
flow
Florence Ribes
Florence a fondé en 2000 et anime IRIS Finance, une structure de corporate finance pour sociétés innovantes et digitales. Elle est aussi active dans le Réseau Entreprendre, Croissance plus (Spring Campus) et divers conseils d’administration.
flow
Aurélie Jean
Aurélie est chercheuse en BioMécanique Numérique au Massachusetts Institute of Technology (MIT) et Co-Founder de PATRONNÈ (www.patronne.co).
flow
Cécilia Lejeune (Rakuten)
Cécilia est présidente et co-fondatrice de la Virtual Association, 1ère association parisienne dédiée au partage et à la découverte autour de la réalité virtuelle et de la réalité augmentée et Ingénieure de recherche en réalité virtuelle et interfaces homme-machine au Rakuten Institute of Technology de Paris.
flow
Laura Fort (Studio PixMix)
Laura est facilitatrice et co-fondatrice de Studio PixMix, une startup de création de jeux vidéo innovants en lien avec les neurosciences.
flow
Marine Soroko (CoreTechs)
Marine est fondatrice et directrice associée de Core-Techs, une agence digitale au cœur des enjeux de la transformation numérique et spécialisée dans l'usage des logiciels libres.
flow
Domitille Dubern
Domitille est étudiante en deuxième année du cycle ingénieur de l’ISEP et en alternance à la Banque de France comme chef de projet adjointe MOA.
flow
Laure Lavorel (CA Technologies)
Laure est Vice-Présidente, Directeur Juridique Europe, Moyen Orient et Afrique dans le digital, chez CA Technologies. Elle est aussi administratrice du Cercle Montesquieu.
flow
Laure Daumal (EPITA)
Laure est étudiante à l'EPITA (en 2016). Elle est aussi Vice-Présidente et co-créatrice de l'association Synergie, qui promeut la mixité dans les milieux scientifiques et du numérique.
flow
Cécile Morel (Mobirider)
Cécile est co-fondatrice de mobi rider, une startup qui propose une solution IoT pour le commerce connecté. L’idée est d’aider les marques à transformer leurs points de vente en leur propre vitrine numérique, pour cesser d’être la vitrine d’Amazon.
flow
Hélène Recotillon (ESEIA)
Hélène est étudiante en 1ère année dans le monde du numérique à l'ESIEA Campus de Laval (année scolaire 2015/2016). Lauréate du Trophée Excellencia 2015.
flow
Géraldine Carbonne (Lincoln Associates)
Géraldine est consultante RH Technologies, Digital et Innovation chez Lincoln Associates. Et aussi référente Diversité en interne.

Derniers commentaires

“"Les avancées de l’intelligence artificielle – #Level7 ^^ " by @olivez c'est ici : #IA...”
“Du machine learning, des chatbots, des idées, Zelros. @olivez @ZelrosHQ #machinelearning #ia...”
“Blog très riche et complet sur l'Intelligence Artificielle (7 articles) à découvrir...”
“Excellent panorama ! Fin 2015 nous avons fondé Zelros : une plateforme cloud B2B qui permet aux métiers d'accéder à leurs données ou modèles prédictifs en langage naturel (bot conversationnel Slack, SMS, Skype...”
“Félicitations pour cet article et pour les nombreux autres ! Merci ! Vous aidez beaucoup de gens ! C'est en voyant des publications comme les votres que je me suis mis à écrire. Mon blog c'est...”

Tweets sur @olivez



Abonnement email

Pour recevoir par email les alertes de parution de nouveaux articles :


 

RRR

S
S
S
S
S
S
S

fullimg


Catégories

Tags


http://www.oezratty.net/wordpress/2016/ecosysteme-entrepreneurial-reunion/

Voyages

Voici les compte-rendu de divers voyages d'études où j'ai notamment pu découvrir les écosystèmes d'innovation dans le numérique de ces différents pays :

Evénements

J'interviens dans de nombreuses conférences, événements, et aussi dans les entreprises. Quelques exemples d'intervention sont évoqués ici.