Contributeurs actifs
Voici la liste des principaux contributeurs du blog par leurs commentaires. Vous pouvez cliquer sur leur lien pour obtenir leurs commentaires dans cette page :
macha (113), Michel Nizon (96), Pierre (85), Fabien (66), herve (66), leafar (44), guillaume (42), Laurent (40), philippe (32), Herve Kabla (30), rthomas (30), Sylvain (29), Olivier Auber (29), Daniel COHEN-ZARDI (28), Jeremy Fain (27), Olivier (27), Marc (27), Nicolas (25), Christophe (22), julien (19), Patrick (19), Fab (19), jmplanche (17), Arnaud@Thurudev (@arnaud_thurudev) (17), Jeremy (16), OlivierJ (16), JustinThemiddle (16), vicnent (16), bobonofx (15), Paul Gateau (15), Pierre Jol (14), patr_ix (14), Jerome (13), Lionel Laské (@lionellaske) (13), Pierre Mawas (@Pem) (13), Franck Revelin (@FranckAtDell) (13), Lionel (12), Pascal (12), anj (12), /Olivier (12), Phil Jeudy (12), Benoit (12), jean (12), Louis van Proosdij (11), jean-eudes queffelec (11), LVM (11), jlc (11), Marc-Antoine (11), dparmen1 (11), (@slebarque) (@slebarque) (11), INFO (@LINKANDEV) (11), François (10), Fabrice (10), Filmail (10), babar (10), arnaud (10), Vincent (10), Nicolas Andre (@corpogame) (10), Michel Nizon (@MichelNizon) (10), Alexis (9), David (9), Rafael (9), FredericBaud (9), Laurent Bervas (9), Mickael (9), Hugues (9), ZISERMAN (9), Olivier Travers (9), Chris (9), jequeffelec (9), Yann (9), Fabrice Epelboin (9), Benjamin (9), Benoît Granger (9), laozi (9), Pierre Ygrié (9), (@olivez) (@olivez) (9), faculte des sciences de la nature et de la vie (9), Philippe Marques (9), gepettot (9), binance (9), Frederic (8), Marie (8), Yannick Lejeune (8), stephane (8), BScache (8), Michel (8), Daniel (8), Emmanuel (8), Jean-Philippe (8), startuper (8), Fred A. (8), @FredOu_ (8), Nicolas Bry (@NicoBry) (8), @corpogame (8), fabienne billat (@fadouce) (8), Bruno Lamouroux (@Dassoniou) (8), Lereune (8), homepage (8), ~laurent (7), Patrice (7), JB (7), ITI (7), Julien ÉLIE (7), Jean-Christophe (7), Nicolas Guillaume (7), Bruno (7), Stanislas (7), Alain (7), Godefroy (7), Sebastien (7), Serge Meunier (7), Pimpin (7), Lebarque Stéphane (@slebarque) (7), Jean-Renaud ROY (@jr_roy) (7), Pascal Lechevallier (@PLechevallier) (7), veille innovation (@vinno47) (7), YAN THOINET (@YanThoinet) (7), Fabien RAYNAUD (@FabienRaynaud) (7), Partech Shaker (@PartechShaker) (7), Legend (6), Romain (6), Jérôme (6), Paul (6), Eric (6), Serge (6), Benoit Felten (6), Alban (6), Jacques (6), sebou (6), Cybereric (6), Poussah (6), Energo (6), Bonjour Bonjour (6), boris (6), MAS (6), antoine (6), canard65 (6), Richard T (6), PEAI60 (6), Free4ever (6), Guerric (6), Richard (6), tvtweet (6), loïc (6), Matthieu Dufour (@_matthieudufour) (6), Nathalie Gasnier (@ObservaEmpresa) (6), romu (6), cheramy (6), EtienneL (5), DJM (5), Tristan (5), Stéphane (5), Gilles (5), Thierry (5), Alphonse (5), apbianco (5), dePassage (5), Sans_importance (5), Aurélien (5), herve lebret (5), Alex (5), Adrien (5), Jean-Denis (5), NM (5), Nicolas Chevallier (5), jdo (5), Youssef (5), Renaud (5), Alain Raynaud (5), mmathieum (5), (@bvanryb) (@bvanryb) (5), Boris Defréville (@AudioSense) (5), cedric naux (@cnaux) (5), Patrick Bertrand (@pck_b) (5), (@arnaud_thurudev) (@arnaud_thurudev) (5), (@PLechevallier) (@PLechevallier) (5), Stanislas Segard (@El_Stanou) (5), Pierre Mawas (@PemLT) (5), Fabrice Camurat (@fabricecamurat) (5), Hugues Sévérac (5), Laurent Fournier (5), Pierre Metivier (@PierreMetivier) (5), Hugues Severac (5), hervet (5), Joel (5), web page (5)Contributions sous le pseudo
1771 commentaires ont été soumis sous ce pseudo et avec le même email.
Le premier commentaire date du 5 juin 2006 et le dernier est du 2 décembre 2023.
Désolé, je suis passé à l’anglais en 2021 sans revenir au français. Traduire un tel ouvrage (1366) pages d’une langue à l’autre est un travail herculéen, même avec des outils de traduction automatique. Sachant que l’ouvrage est gratuit !
Merci pour la précision ! J’ai complété l’article.
Thanks for this nice feedback Sangyun! I’m indeed updating the book for significant events until the end of the year. Then start over preparing the next edition!
Merci pour ton retour Julien.
Mon commentaire sur le nombre d’algorithme était lié à une autre partie du livre, je ne sais plus où. Il y a en effet deux points clés : les algorithmes quantiques remplacent rarement la panoplie existante d’algorithmes classiques, en tout cas pour les tâches informatiques usuelles. Il s’agit le plus souvent d’algorithmes d’optimisation, de simulations quantiques et de machine learning quantique.
Par contre, ils sont assez nombreux au vu du nombre de machines existantes capables d’en tirer entièrement partie (proche de zéro). Sans compter les méthodes et outils qui exploitent les ordinateurs quantiques dits analogiques à la D-Wave et Pasqal et qui sont encore plus exotiques que celles des ordinateurs quantiques programmables par portes quantiques.
Indeed. It seems a lab experiment more than a full fledged quantum computer. This 2-qubit gate fidelity was generated with 2 qubits. With readout fidelities of 88% and a T1 of 13 µs for one of the qubit. Still way to go!
IBM has T1s over 100 µs and a 2 qubit-gate fidelity of 99,9% with 27 qubit in Falcon R10 (although, not described in a published or pre-print paper). Seems they also use tunable couplers there.
Non, désolé !
Il n’existe pas de système de traduction automatique d’un bouquin très technique de 1100 pages qui fonctionne convenablement et ne nécessite pas des dizaines d’heures de relecture et correction.
Ni de gens capables de le faire à la main en quelques jours.
La dernière version de mon livre en français est l’édition de 2020, maintenant périmée.
Quelle adresse IP est bloquée ? Par quoi ? L’accès au site ? Au podcast ?
Pour l’instant non. Sauf si des volontaires reprennent le flambeau. Je me consacre maintenant à 100% aux technologies quantiques. Et à mettre à jour un autre pavé, “Understanding Quantum Technologies”.
https://www.oezratty.net/wordpress/2021/understanding-quantum-technologies-2021/
Il est possible que Laure fasse allusion à Krysta Svore qui a effectivement travaillé chez IBM au début des années 2000.
Bonjour !
Cet article n’était pas une encyclopédie de la tech 🙂 !
Je ne suis pas trop ce qui se passe en domotique. La standardisation des protocoles est une vieille histoire dans ce domaine. Cela aboutit rarement et empile des couches à n’en plus finir.
Singapour a créé un labo consolidé en 2007, le CQT.
Le Royaume-Uni a effectivement lancé son plan fin 2013.
Les Allemands ont lancé leur plan en septembre 2019.
Les USA en décembre 2018.
Et la France en janvier 2021.
Les Pays-Bas en avril 2021.
etc.
Sachant néanmoins que cela ne veut pas dire que ces pays ne faisaient rien avant ces plans. La recherche française comme ailleurs était déjà bien active avant le plan quantique national.
J’utilise en effet l’échelle courte, notamment pour les $ car elle est dominante dans la littérature business anglophone.
Donc $1B = 1 milliard (billion) et $1T = un trillion de dollars = mille milliards.
Mon livre d’avril 2021 portait sur le bitcoin !
Celui sur le quantique, 4e édition, sept 2021, n’est qu’en anglais.
La version précédente de septembre 2020 était en français mais est un peu périmée.
Pour s’intéresser au quantique, il est préférable de lire l’anglais ! d’ailleurs, tous les chercheurs français publient leurs thèses et travaux en anglais.
Pour le Bitcoin, c’est ici, mais il faut bien lire entre les lignes :
https://www.oezratty.net/wordpress/2021/a-quoi-sert-le-bitcoin/
Pour se mettre au quantique, c’est moins évident. Il y a pas mal de matière ici :
https://www.oezratty.net/wordpress/2021/understanding-quantum-technologies-2021/
By the way, le Via.gra de Pfizer releve aussi du reciblage thérapeutique…
Faut demander à ceux qui en sont morts, si le virus existe vraiment. A Grichka Bogdanov par exemple ?
Pour Pfizer, ils ont fait du drug retargetting un peu agressif et c’était avant 2005. Ca rappelle que les grosses boîtes font des conneries. Elles en font toutes. Les petites aussi, mais l’impact est moins visible. Les boîtes parfaites avec des gens parfaits qui respectent toutes les règles, cela n’existe que dans les contes de fées. Demande à Elise Lucet… 🙂 !
Merci. J’ai complété l’ebook avec les données les plus à jour sur les fidélités (en fait, dans la rubrique sur les Qubit Fidelity qui contenait déjà des données sur la fidélité des QPU de 27 et 65 qubits). Et indiqué à différents endroits que les données étaient disponibles chez IBM.
Ceci étant dit, si les fidélités s’améliorent au gré des évolutions de chaque classe de QPU (27, 65 et bientôt donc 127 qubits), le best-in-class actuel montre toutefois un décalage significatif lors que l’on augmente le nombre de qubits, en particulier sur le readout :
IBM Q27 Kolkata : 98,9% (2Q) et 98,6% (readout)
IBM Q65 Brooklyn : 98,7% (2Q) et 96,0% (readout)
IBM Q127 Washington : 98,0% (2Q) et 91,2% (readout)
Est-ce que cela pourrait s’inverser ? Est-ce que la baisse de fidélité du readout sur 127 qubits est due au multiplexage de la lecture qui a été introduit sur cette génération (sans passer par un TWPA je crois) ?
Par ailleurs, les fidélités des portes à 1 qubit ne sont plus indiquées. C’est dommage, même si l’on sait que les fidélités des portes à 2 qubits sont plus difficiles à obtenir.
Merci pour l’information. Au moment de la publication du podcast, ces données sur les 127 qubits n’étaient pas disponibles sur le lien indiqué que je connais bien. Il me semble que je le mentionne pour les processeurs de 5 à 65 qubits dans mon ebook mais il faut que je vérifie.
Au demeurant, on comprend pourquoi IBM ne communique pas beaucoup dessus sur les fidélités des 127 qubits, vu le taux d’erreur de 2% pour les portes à deux qubits et de 8% pour la lecture. Cela confirme que la performance se dégrade avec le nombre de qubits dans ce type de processeur. Seuls le T1 et le T2 s’améliorent.
Lisez les commentaires. Et aussi l’article. Il y a quelques indices qui expliquent cela.
Un article est-il complet ? Ce n’est évidemment jamais le cas.
Par contre, j’évoque un peu ces questions de droit dans mon ouvrage ici : https://www.oezratty.net/wordpress/2020/comprendre-informatique-quantique-edition-2020/
Oui, c’est voulu. C’est bien ça. Par contre, le résumé des pages blanches est dans le post lui-même qu’il faut lire… !
Bonjour Patrick,
Le plan parle peu des applications dans la santé car pour ce qui est du calcul quantique, les applications associées sont assez éloignées dans le temps, ne serait-ce parce que qu’elles sont plutôt exigeantes en nombre de qubits. Par contre, les applications de la métrologie quantique dans les outils de diagnostic sont plus court terme. Et le plan contient une part sur le sujet.
Olivier
OK, j’ajoute ces références clients en silent release…:) ! NanoEdge étant déjà cité.
Les deux (IA, quantiques) peuvent dynamiser l’industrie française. Dans le cas de quantique, il existe une plus grande opportunité pour la France de créer de la valeur exportable. Il y a de plus des débouchés importants dans ce que l’Etat appelle des technologies habilitantes ou capacitantes qui seront utiles dans tous les cas de figure.
InWith ?
https://www.forbes.com/sites/charliefink/2020/03/09/inwith-puts-smart-tech-in-bausch-and-lomb-lenses
D’après cet article, leur lentille ne fait pas de la réalité augmentée mais de la mesure de glycémie, envoyée au smartphone. Cela rappelle le projet de Google Contact Lens, abandonné en 2018 car la corrélation entre le glucose mesuré dans l’œil avec celui du sang n’était pas établie.
Je découvre Mojo. C’est de l’affichage d’information complémentaire à basse résolution. Mode Terminator. Ca ne fait pas envie.
https://www.youtube.com/watch?v=TzVAMRe3kmA
Pourquoi pas. Comment fait-on ça sous WordPress sans se prendre la tête ?
Bonjour,
Vous trouverez des informations toujours d’actualité autour de ces questions sur les batteries dans le Rapport du CES 2020, pages 235 à 260 (batteries à flux, variantes de batteries au lithium, …). Mais moins d’hydrogène que je prévois de creuser plus tard !
https://www.oezratty.net/wordpress/2020/rapport-ces-2020/
Olivier
Oui, tout à fait, le complotisme et les rumeurs ont toujours existé, et même eu des conséquences violentes par le passé. Le numérique le fait fonctionner à plus grande échelle et vélocité mais les émotions humaines se manipulent toujours de la même manière.
My bad.
Mais ce genre de sujet ne se traite pas à court terme sur les 12 mois à venir !
Il est clair que l’actualité ne s’arrête pas le jour de la parution d’un ouvrage. J’y intègre d’ailleurs quelques silent releases les premières semaines après parution, comme j’avais du le faire en 2019. La fuite sur la suprématie quantique de Google était arrivée le jour de la publication de l’ebook !
Ces nouvelles d’IBM sont très intéressantes en tout cas car elles donnent des indications des moyens qu’ils ont retenu pour faire scaler leur nombre de qubits. Je les évoque d’ailleurs en pièces détachées dans l’ebook 2020.
L’innovation a une connotation très économique.
Elle semble sortir du cadre de la création artistique.
Cf https://fr.wikipedia.org/wiki/Innovation
Hello Vincent,
Bien vu ! J’avais l’impression que ces SFU (pas bien documentées) n’occupaient pas beaucoup de place sur le circuit (“real estate” comme ils disent). Ça répond à une question que je me posais puisque ces SFU ont l’air de gérer les fonctions type exponentielle et trigonométrie. Donc, qui ne sont pas en dur dans les ALU.
Mon calcul n’est qu’un ordre de grandeur. Si tu prends en compte les SFU et autres circuits et baisse les ALU à 30%, cela fait encore des centaines de milliers de transistors.
D’ailleurs, dans un vieux papier d’Intel, il est évoqué le fait que le calcul flottant dans un coeur Intel classique occupe un million de transistors. Cela converge bien !
En effet ! J’illustre d’ailleurs cela avec les prévisions d’IDC sur le marché de la réalité virtuelle/augmentée pour 2020, passées de $168B en 2016 à $18,8B en 2019. Dans le dernier rapport du CES. Merci pour la référence du livre de JL Cassely que je connaissais pas !
Why not. Je ne saisis pas bien “lever des fonds régulièrement avec de la valorisation sur des clients (et pas forcément sur de la marge)”. En phase de buildup, les startups, même au stade de la licorne, lèvent rarement des fonds “sur de la marge”, en tout cas lorsqu’elles sont en B2C. Et il y a quelques exemple comme Magic Leap qui levait des fonds incédents sans produit, ni client et a fortiori de marge.
Je n’ai heureusement pas couvert tous les ratages de la tech ! Netscape n’a jamais atteint le stade du GAFA. Tout juste une licorne post-IPO, vite engloutie par AOL qui a ensuite sombré après son rachat de Time Warner.
D’autres m’ont signalé des leaders d’un autre temps comme Wordperfect, Ashton Tate ou Lotus. Qui ont été mangés tous crus par Microsoft. Et, lessons learned oblige, c’était à la faveur d’une transition technologique clé de l’époque : le passage à l’interface graphique, que ces trois éditeurs avaient complètement loupée par aveuglement.
Bien vu. On pourrait aussi parler de l’intrication quantique. Mais semble-t-il, celle-ci ne permet pas de transmettre une information exploitable. Dixit les grands spécialistes comme Alain Aspect.
En effet. AT&T est un peu à part car du fait de la structuration du marché des télécoms (avant la déglementation), il n’était pas un leader mondial comme le sont le GAFA et nombre d’acteurs que je cite. Leur démantèlement concernait leur activité aux USA.
Pour AOL, oui, c’est un sacré roman. Leur domination de l’Internet a été de bien courte durée et avant l’éclatement de la bulle de 2000/2001.
En effet, erreur. J’ai corrigé.
$1T. Donc en dessous de MS.
Ce n’est pas la première fois que vous me faites cette remarque. Avez-vous oublié que j’en ai tenu compte dans l’édition 2019 de l’ebook “Les usage de l’intelligence artificielle”, publiée en novembre 2019 ?
L’objectif principal des LiDAR solidstate est de diminuer leur prix. Ceci étant Valeo indique avoir vendu 100 000 LiDARs mécaniques à ce jour.
Pour ce qui est de Sony, j’attends de lire un peu de prose avant de me prononcer. La voiture électrique que Sony a présentée au CES a l’air d’être un véhicule de démonstration des composants de Sony destinés au marché automobile. Un peu comme les petits robots de Murata ne servaient qu’à valoriser les capteurs et actuateurs de ce dernier.
Un rapport n’est jamais complet. J’avais bien senti de mon côté ce besoin d’attirer des chercheurs étrangers. Mais en fait, c’est déjà le cas. Je connais plein de chercheurs étrangers qui opèrent en France. Certains sont maintenant naturalisés Français ou sur le point de l’être. Mais plus on attirera de talents du monde entier, mieux ce sera effectivement.
Citons Elham Kashefi (Iran, CNRS LIP6), Iordanis Kerenidis (Grèce, de la mission Forteza, CNRS IRIF), Eleni Diamanti (Grèce, CNRS LIP6), Sara Ducci (Italie, Paris Diderot), Virginia D’Auria (Italie, InPhyNi Nice), Dominic Horsman (UK, UGA) et Silvano De Franceschi (Italie, CEA IRIG Grenoble).
L’article date de 2018. Mais je n’ai pas d’informations particulières sur la question de la couverture in-door 5G. A creuser…
Tous les ans, je titille la cryptomonnaiesphere avec mes prévisions… 🙂 !
Dans un pays comme la France et pour un usage courant dans le grand public, ça sert à quoi au juste une crypto-monnaie ? Quel problème cela permet de résoudre ? Et en quoi est-ce intéressant et utile d’avoir 5000 crypto-monnaies ?
Je suis et reste contrarian sur ce raffut sur les crypto-monnaies, sans pour autant l’être sur les usages non monétaires de la blockchain.
Hello ! Je traite de ce sujet dans mon dernier ebook sur le quantique. https://www.oezratty.net/wordpress/2019/comprendre-informatique-quantique-edition-2019/, pages 178 à 183.
Bien vu. Un “bon” succès doit être collectif, tourné vers les autres. Créer un standard est un bon exemple.
Merci !
Et pour info, j’ai mis à jour tout ce contenu dans la dernière mouture de l’ebook qui consolide tous ces articles. Cf https://www.oezratty.net/wordpress/2019/comprendre-informatique-quantique-edition-2019/
Bonjour Karim,
Comme je l’explique dans mon ebook, mais pas dans l’article, l’expression de quantum supremacy a été crée par John Preskill (USA, professeur à Caltech) en 2011.
Olivier
Bonjour,
Désolé, pas d’epub pour cette version car la mise en page ne s’y prête pas ! Par contre la version PDF compressée est faite pour être lue sur les liseuses, mais avec un écran pas trop petit.
Olivier
Merci Philippe !
Oui, la mécanique quantique doit faire réfléchir. Mais en comprenant bien que ce que l’on peut comprendre des bizarreries de l’infiniment petit ne s’applique pas forcément au monde macro. C’est ce que s’est évertué à expliquer ce malheureux Erwin Schrödinger avec son expérience de chat mort et vivant.
Au demeurant, il a commis une erreur que personne ne souligne : son expérience avec l’atome de radium et la fiole de poison n’ont rien de quantique ! La désintégration d’un atome de radium répond à une loi statistique (50% de chances qu’elle intervienne au bout de la demi-vie) mais ce n’est pas un phénomène quantique avec superposition d’état (atome de radium et/ou ses composants après désintégration). La désintégration (fission) est un processus irréversible sans apport d’énergie. Donc, à force d’expliquer un phénomène quantique par un autre qui ne l’est pas à l’échelle nanoscopique, il ne faut pas s’étonner qu’en passant de l’échelle nano à macro, des analogies aussi foireuses fassent leur apparition !
Je n’ai pas dit “pas d’intérêt”, j’ai écris “marchés de niche”. Celui que tu décris en fait partie. Pour évacuer des gens, il faudrait cependant pouvoir transporter deux passagers avec l’engin et il n’a pas l’air de pouvoir le faire en l’état. Va falloir trouver autre chose !
Ils mesurent l’activité électrique à proximité des neurones. Cela leur permet d’identifier les impulsions (spikes) qui témoignent de l’activité des neurones. La résolution spatiale moyenne est suffisante pour capter des intentions de mouvement dans le cortex moteur. Des expériences récentes d’IRM fonctionnelle ont permis également d’identifier les zones du cortex actives lorsque l’on pense à un chiffre ou une lettre. Cela intéresse tous ceux qui veulent remplacer le clavier. Une équipe de Facebook travaille aussi là-dessus.
Oui, ce point me semblait évident pour leur business de cloud (que j’évoque en filigrane sur la question des frameworks). Mon propos portait sur les activités des GAFA qui gèrent des données d’utilisateurs plus que leur business infra de cloud où les données sont celles de leurs clients b2b.
Pour ce qui est des données sur nous, mon schéma voulait plutôt montrer que certes les GAFA savent pas mal de choses sur nous, mais d’autres aussi !
C’était bien l’objectif et la réflexion est probablement à étendre !
Bonjour,
J’avais lu cet article à charge sur les Hyperloops qui est bien documenté. J’ai ajouté la référence dans le post.
Olivier
Merci pour ce commentaire ! L’article a 10 ans mais la technologie décrite n’a pas beaucoup évolué pendant ce laps de temps.
Fait ! J’ai ajouté la mention en essayant de ne pas me tromper de région !
Merci. C’est corrigé et en ligne. Avec un champ sans année pour ne plus être gêné par la suite !
– Je publie certains de mes ouvrages au format epub, comme ce fut le cas pour la seconde édition de mon ebook sur l’IA. Cf https://www.oezratty.net/wordpress/2017/usages-intelligence-artificielle-ebook/.
– Cela correspond à 3% des téléchargements vs le PDF. Le lectorat préfère nettement le format PDF.
– Le epub est un format difficile à générer lorsque la mise en page n’est pas “au kilomètre” (avec des encadrés, des tableaux, …) ce qui est le cas de la majorité de mes ouvrages.
– Je génère un PDF compressé de moins de 32 Mo dans le cas où la version compressée dépasse les 32 Mo, pour qu’il soit exploitable dans les liseuses du marché. Pour le rapport CES 2019, cela représentait 5% des téléchargements.
– Je suis prêt à fournir le format Word d’origine pour permettre à des volontaires de rendre le document facilement exportable en ePub. Comme cela représente un gros travail, les volontaires ne se bousculent pas. C’est un ouvrage en open source, donc, pas de modèle économique, et pas de rémunération pour ce genre de travail comme pour le mien.
– Le PDF peut être imprimé à loisir par ceux que cela intéresse. La mise en page étant compacte (vs de l’epub), cela réduit la quantité de papier générée.
Voilà le rationnel !
Ce qui est trompeur chez Boston Dynamics est que les vidéos publiées sur YouTube par eux-mêmes ne montrent pas l’opérateur. Pour l’avoir vu de près lors de la conférence USI, l’opérateur indique au robot les tâches à accomplir : aller en avant, utiliser son bras articulé pour prendre une pièce, etc. Le robot se débrouille ensuite pour gérer ses mouvements et son équilibre ce qui est déjà une belle prouesse. Ce qui est trompeur est de diffuser des vidéos qui donnent une apparence d’autonomie au robot dans sa prise de décision, comme lorsqu’il s’entête à vouloir ouvrir une porte dans un bureau. Après, on a le fameux épisode de Blackmirror qui reprend cela … !
Pour Boston Dynamics, voir cette photo prise pendant la conférence USI en juin 2018 :https://www.oezratty.net/wordpress/photos/?ws=geEDNk.
Pour Hanson Robotics, c’est à la fois de l’observation des démonstrations et issu de témoignages de spécialistes de la robotique comme Laurence Devillers qui ont pu tester Sophia de près.
Tu as aussi le point de vue de Yann LeCun sur le sujet : https://www.theverge.com/2018/1/18/16904742/sophia-the-robot-ai-real-fake-yann-lecun-criticism
Olivier
Comme l’indique d’ailleurs l’étude de MMC Ventures, les techniques de l’IA sont amenées à se banaliser et à être utilisées partout. Il ne faut pas se plaindre que des entreprises puissent les utiliser rapidement sans pour autant avoir des tonnes de spécialistes. C’est le sens de l’histoire avec la démocratisation des technologies. Presque n’importe qui peut créer un site web avec WordPress, sans développeur. Le résultat est tout de même bien un site web… !
Oui, c’est pour cela que j’ai précisé “d’origine française”, le reste devant en effet américain : les équipes, la localisation et le financement. Cela met de l’eau dans mon moulin, car je passe mon temps à expliquer que l’on ne peut pas facilement créer d’unicorn si l’on n’a pas une stratégie pour pénétrer rapidement le marché US. Sachant que le choix de Snowflake n’est pas le seul. On peut le faire en conservant la R&D et un siège en France.
Pas grand chose, à part deux points : l’expérience du dev sous toutes les formes donne de la perspective sur les progrès accomplis, leur rapidité ou leur lenteur selon les cas, et elle permet de mieux comprendre comment fonctionne l’IA même si les paradigmes changent, comme avec les réseaux de neurones du deep learning.
Tout à fait ! En critiquant le code, on confond la fonction et l’outil. C’est un peu comme si on définissait le rôle d’un médecin généraliste par sa maîtrise du stéthoscope…
Ah ah, merci Vincent de la bonne intention et je suis preneur de la bière au Web2day ! J’ai aussi le chocolat…:) !
Olivier
A qui le dis-tu ! A sa décharge, Andreas Schleicher ne va pas jusqu’à penser que la connaissance est finie. N’extrapolons pas son jugement outre-mesure. Il indique juste qu’apprendre à coder ne correspond pas forcément aux besoins du futur. Un peu comme notre apprentissage de la règle à calcul (pour les plus de 50 ans…) ne sert plus à rien aujourd’hui. Là où il se trompe, c’est dans la métaphore : on n’apprend pas un langage de programmation lorsque l’on apprend à coder, on apprend à comprendre les principes de la programmation qui régissent une bonne partie de ce bas monde. C’est une connaissance et une expérience assez générique et utile dans la durée.
Ca lui ressemble bien en tout cas.
Voici la source : https://www.21secolo.news/ricordo-ettore-majorana-un-grande-fisico/
Réponses détaillées dans le Rapport que je publierai le 28 janvier où je fais un inventaire des annonces de 2018 des ultra-portables et autres convertibles 2-en-1. L’offre est maintenant abondante et de qualité avec de très bons modèles comme chez HP, Lenovo et Asus. Apple se refuse toujours à supporter les écrans tactiles dans ses Macbook. C’est pourtant bien pratique au quotidien. J’utilise des 2-en-1 tactiles sous Windows depuis 3 ans “and there is no turning back”.
Hello André,
Marrant ton commentaire sur l’IA. Je n’affiche pas d’enthousiasme, je décris froidement ce que l’on pouvait voir.
Pour la privacy, tu as raison, c’est une préoccupation du marché comme chez nous mais elle n’était pas manifeste sur le salon. L’exemple le plus frappant : le nombre de stands qui badgent les visiteurs et les empêchent d’y entrer sinon, comme chez Amazon. Ou cette boite qui propose un test d’ADN gratuit (très partiel) sans te faire signer quoi que ce soit.
OK sur les drones en baisse. Et surtout pros, ou sous-marins mais comme en 2018. Mais cela s’explique par la baisse du nombre d’exposants chinois, lié à la guerre des tariffs.
A+,
Olivier
Je n’ai pas trouvé grand chose sur le sujet, à part Waymo que je cite. Les véhicules autonomes rentrent dans un cycle d’innovation qui dépasse le cadre d’une seule année !
Merci, corrigé ! Heureusement qu’il y en a qui suivent !
Merci Antoine, c’est corrigé. En effet, c’est bien 3 trillions de dollars, dont $3T. Et $2B = 2 billions = 2 milliards.
Jamais !
Vous pouvez sinon faire imprimer l’ebook dans un service d’impression en ligne. Ils sont très nombreux.
Il y a visiblement une sortie HDMI dans le Freebox Delta Player, qui devrait permettre d’alimenter un amplificateur externe avec l’audio et la vidéo joués. L’ampli pourrait alors alimenter la TV et d’autres éléments audio, complétant le Devialet. La documentation du player indique sinon que la prise S/PDIF est une entrée, pas une sortie.
Bonjour,
Le processeur du player, le Snapdragon 835 gère la résolution 4K mais pas la 8K, donc c’est cuit de ce côté là. Le port HDMI indiqué esn un 2.1 mais le 835 ne supporte visiblement que le 2.0A. Seul le HDMI 2.1 supporte la 8K. Voir https://www.qualcomm.com/products/snapdragon-835-mobile-platform.
Dans tous les cas de figure, le passage à la 8K réclamera donc une nouvelle Freebox Player. Mais par contre, rien n’empêchera de consommer de la 8K sur un autre device connecté sur la Freebox Server. Même avec une Freebox Revolution et en fibre. Il faudrait disposer d’une bande passante d’environ 80 à 100 Mbits/s pour profiter de la 8K.
La spécification HDMI 2.1 a été publiée fin novembre 2017. Les Snapdragon les plus récents ont été annoncés la semaine dernière, le 855 (smartphones et boxes) et le 8cx (pour des PC). Aucun des deux ne supporte la 4K. le 8cx supporte cependant deux moniteurs 4K (donc la moitié des pixels de la 4K).
Bon, soit dit en passant, à moins de disposer d’un écran de plus de 70 pouces, la 8K ne sert pas à grand chose. La 4K est largement suffisante pour 98% des foyers.
Suis pas assez calé en réseau pour répondre. Mais je pense que Free a prévu le coup. Ils veulent toujours séduire les geeks et leur permettront de mettre en place un réseau en 10G.
Pour ce qui est de l’usage du player en quittant Free, il est clair que cela lui enlèverait plein de fonctionnalités, en particulier l’accès l’IPTV. C’est un scénario théorique plus qu’autre chose. Il cache la volonté simple de réduire les capex de financement de la box du fait de son coût élevé. J’explique cela dans l’article : ils ont une box serveur plus chère et des accessoires domotiques plus deux télécommandes et les Freeplugs. Ils ont donc dégagé totalement ou partiellement les capex du player pour équilibrer l’ensemble.
Ta situation rend la Delta très attractive. 26 Mbits/s en DSL est une très bonne situation. Nombre de régionaux n’ont pas cette chance. Ils se contentent souvent d’un pâlichon 4 Mbits/s voir moins, s’ils sont trop loins des DSLAM.
J’oubliais en effet que l’IPTV est remplacée par la TNT pour les principales chaînes TV du bouquet Free, ce qui économise de la bande passante en DSL. En effet, pour comparer les offres, il faudrait intégrer le mobile, qui est avantageux pour les abonnés à Free en fixe. Les médias spécialisés vont sans doute produire des comparatifs détaillés entre offres ‘quadplay’ dans de beaux tableaux.
En effet. C’est probablement intégré dans les 2000€ que Free annonçait comme étant l’économie de matériel permise par la Freebox Delta.
Merci, c’est corrigé. Qu’est-ce que c’est difficile de ne pas se planter sur un si long tour d’horizon ! A plusieurs, on y arrive !
Merci de la précision. J’ai corrigé le texte.
Ca on sait très bien le faire. Initialisation des registres et lecture en fin de calcul, qui retourne des 0 et des 1. J’explique cela dans l’ebook. Ce qui est complexe hors partie physique est la conception d’algorithmes qui exploitent les propriétés quantiques des qubits et de leur intrication. Il y en a environ 60 de connus aujourd’hui ce qui est peu.
J’ai lu ce papier comme ceux de Gil Kalai, un chercheur israélien qui est encore plus précis dans sa critique de l’ordinateur quantique en creusant la dimension du bruit.
Intuitivement, je me dis qu’ils ont peut-être raison mais l’argumentation de Dyakonov semble plus faible que celle de Kalai. Notamment lorsqu’il s’appuie sur le nombre de particules dans l’Univers dans sa démonstration. Ce nombre de particules n’est pas homothétique avec une combinatoire de valeurs. On dirait qu’il n’a pas beaucoup creusé le fonctionnement des algorithmes quantiques.
Dyakonov indique aussi qu’une technologie qui ne fait pas ses preuves après une ou deux décennies est vouée à l’échec. Or l’IA qui est sortie du bois vers 2012 a l’âge de la retraite !
Je fais par contre confiance aux scientifiques qui explorent diverses voies pour créer des ordinateurs quantiques. Elles sont nombreuses et diverses. Rien qu’avec celle de D-Wave qui est fortement contestée par les physiciens qui veulent créer des qubits universels, on peut déjà faire des choses très intéressantes. Ils vont atteindre 5000 qubits l’année prochaine. D-Wave arrive à suivre une sorte de loi de Moore quantique depuis 2008 (dite loi de Rose, l’un des cofondateurs de la société). C’est encourageant.
Merci, je corrige ! J’ai connu Scortex à ses débuts et la startup a évolué. Ce n’est pas facile à suivre pour les centaines de startups évoquées dans l’ebook !
En fait, nous sommes en phase. J’évoque cette question avec la notion de “biais du rétroviseur” ! Si on se contente de n’utiliser que les données du passé, on est bloqué… dans le passé !
En effet, mon upload d’hier n’a visiblement pas été jusqu’au bout. C’est corrigé ! Olivier
Je n’ai fait que relier l’annonce en question avec la table ronde de BIG. Où est le problème ou l’erreur ? Oui, le financement n’était pas annoncé le 11 octobre, c’est sûr (même si Maud m’en avait en fait déjà parlé avant… elle attendait l’annonce officielle).
Sémantique : mon “Bien oui” était un artifice de liaison avec la phrase d’après, pas une remise en question. Je trouvais super que Maud Vinet ait pu s’exprimer lors de cette table ronde.
Ce ne sont que de bonnes nouvelles, alors pourquoi s’invectiver ?
Ai-je écris le contraire ? L’art de la contradiction… 🙂 !
Bien oui. C’est l’équipe coordonnée par Maud Vinet du CEA-LETI qui participait à la table ronde à BIG !
Il semblerait que oui. Cf https://www.polytechnique.edu/fr/content/lx-lance-un-nouveau-programme-graduate-degree-en-intelligence-artificielle et puis https://www.polytechnique.edu/fr/content/google-et-lx-lancent-une-chaire-en-intelligence-artificielle
En effet ! Mais avec les Qubits on est aussi bien servis… 🙂 ! On n’est donc plus à cela près !
Bravo pour votre initiative.
Je travaille en ce moment à l’actualisation des “Usages de l’IA”, à paraître en octobre/novembre prochain. Beaucoup de travail car les choses changent vite dans l’IA !
Je n’ai pas dit qu’il ne se développerait pas hors du cloud, je dis que le cloud est un bon endroit pour le développer ! Notamment pour les startups qui ne vont pas de payer une bécanne à $14M (le prix actuel d’un D-Wave…) !
Ceci étant, si l’on suit la logique du cloud actuel, la tendance est d’avoir moins de serveurs dans les entreprises et plus dans le cloud.
Cela sera probablement encore plus le cas pour le quantique, tant que les machines n’auront pas le prix d’un serveur Intel ou même d’un Nvidia DGX-1 ($130K je crois…).
Il y a un chapitre sur la finance dans l’article qui recense tout ce que j’ai trouvé ! Analyse de risques et optimisation de porte-feuille. Il n’y a pas beaucoup de problèmes d’audit et de comptabilité qui nécessiteraient des algorithmes quantiques. Connaissez-vous des problèmes de ce type qui sont de nature exponentielle ? Il faut commencer à se poser cette question en premier !
J’ai fait un petit inventaire du sujet ici : https://www.oezratty.net/wordpress/2018/comprendre-informatique-quantique-algorithmes-et-applications/.
Olivier
Probablement, même si je n’ai pas encore vu d’étude de cas dans ce créneau… !
Merci pour cette précision. J’ai modifié légèrement le texte pour mettre en avant la définition par la réduction polynomiale de problèmes NP aux problèmes NP-Complet. Tout en soulignant qu’un problème NP-Complet n’avait a fortiori pas de solution polynomiale connue. Ce n’est pas faux, mais ce n’est pas sa définition.
Merci pour les autres liens. L’épisode sur le quantique de la chaîne Science Etonnante est bien, mais mon propos est d’aller plus loin que ces versions trop résumées à mon goût !
Complexe, oui et non.
Si j’étais rentré dans les détails du fonctionnement d’un processeur traditionnel d’aujourd’hui, type Intel, cela aurait aussi été très compliqué à piger. Il se trouve qu’on les utilise avec des outils de développement accessibles quel que soit le langage de programmation utilisé. Et les usages qui vont avec ne requièrent pas de comprendre comment le matériel fonctionne.
Pour le quantique, on doit se contenter d’en comprendre les couches basses. C’est aussi vrai de la programmation que nous verrons dans l’épisode suivant. Comme si on ne pouvait programmer un ordinateur d’aujourd’hui qu’en assembleur, ce qui serait quelque peu rébarbatif !
Bref, oui, il faut s’accrocher. Mais quand le sujet sera plus mature, cela sera moins nécessaire !
Google travaille effectivement sur le sujet. Mais ils ont encore du chemin à parcourir. Ils ont annoncé un chipset supraconducteur à effet Josephson de 72 qubits en début d’année, mais son taux d’erreur est encore bien trop élevé pour être exploitable (aux alentours de 0,5% par qubit et sans information sur le taux d’erreur des portes quantiques). Sans compte l’absence d’information sur le temps de cohérence. Pour casser des clés RSA, l’objectif de la NSA, il faudrait disposer de plusieurs dizaines de millions de qubits. Donc, vous pourrez patienter un peu encore avant de voir la NSA faire ce que vous annoncez.
Au passage, on n’évalue pas la puissance de calcul d’un ordinateur quantique à portes universelles en exaflops ! La notion de “floating point operations per seconds” n’a pas vraiment de sens en quantique, dans la mesure où les calculs se font par superposition d’états et fonctions appliquées sur des états superposés.
Attendez la fin de ma série d’articles où je vais détailler tous ces éléments, notamment au niveau de la gestion des codes d’erreur, de la mise en oeuvre de l’algorithme de Shor et des moyens de se protéger contre celui-ci.
Pour ce qui est de D-Wave, leur génération la plus récente est de 2048 qubits. Ils en préparent une de 5000 qubits pour 2019. Mais ce sera tout aussi insuffisant pour casser les clés RSA de plus de 400 bits. Le record de factorisation de nombre entier réalisé sur D-Wave à 1000 qubits est 200 009.
Oui, je vais traiter de ces différents obstacles dans la partie suivante, notamment sur les différents systèmes de correction d’erreurs.
Bonjour, je n’évoque pas le cas des agents et des systèmes multi-agents car il me semble qu’ils font partie d’une autre catégorie de solutions. On en parle très peu en effet dans l’actualité qui est ultra-dominée par les avancées du deep learning. J’évoque les agents et réseaux d’agents dans mon ebook “les usages de l’intelligence artificielle”. Si vous avez des billes sur leur actualité et leurs avancées récentes, je suis preneur. Olivier
L’imbitabilité de la mécanique quantique est un phénomène connu depuis les débuts de sa conceptualisation par Planck en 1900 ! Don’t worry. Il faut y aller étape par étape.
Je l’ai d’ailleurs constaté dans de nombreux ouvrages de vulgarisation ou des bouquins de méca quantique pour étudiants qui ne prennent pas la peine de raconter l’origine de certains concepts. Ils te disent, alors, voilà, c’est comme ça, cherchez pas à comprendre.
Le plus frappant est celui de la sphère de Bloch et de la représentation mathématique de l’état des qubits. J’essaye de traduire tout cela en langage compréhensible pour ceux qui ont un référentiel d’ingénieurs ou de développeurs de base. Certains le font bien, surtout aux USA dans certains tutos en ligne. Mais ceux qui font cela en 15 mn sont un peu trop rapides.
Oui, heureusement, les startups n’étaient pas toutes sur des stands d’entreprises du CAC40. Il y avait les régions et les écoles. Bref, ce n’était pas difficile et pas coûteux pour une startup d’exposer à Vivatech. Après, c’est une question d’allocation de son temps. Si on est content des rencontres réalisées sur place, tout va bien.
En effet.!
Ceci étant, le problème de la connectivité Wi-fi est à peu près le même au CES de Las Vegas ! Et c’y est même plutôt pire !
Ceci dit, ma 4G marchait très bien pendant Vivatech. Aucun soucy. Ca dépend peut être de l’opérateur.
Il suffit de chercher un peu pour trouver la réponse…
Cf https://sterileeye.com/2009/07/23/the-apollo-11-hasselblad-cameras/
Bonjour, merci pour cet insight ! Qui montre que les blocages ne sont pas que technologiques pour faire évoluer ces services. Sachant qu’il existe aussi des blocages technologiques, là où certaines solutions, surtout à base d’IA, sont très survendues. Olivier
J’utilise cette même définition pour l’innovation.
Les outils font partie des technologies. Ce sont des “enablers” qui permettent de créer des produits.
Et je l’ai corrigé immédiatement…
Hello Anthony,
Merci pour ces corrections que j’ai intégrées dans une silent release sans attendre 2019.
Ceci dit, c’est assez usant de suivre les évolutions incessantes de tous ces programmes dont la substance est finalement assez stable.
Merci pour votre commentaire.
Malheureusement, vous me faites dire ce que je n’ai pas écrit ou vous extrapolez un peu vite. Je n’ai pas dit qu’il fallait évacuer les questions d’éthique mais souligné le déséquilibre par rapport à une vision industrielle permettant de se donner les moyens d’en bénéficier.
Dans certains cas, le trop d’éthique relève aussi de l’application du principe de précaution. Tout est question de définition. Ceci étant, je connais très peu de startups françaises dont l’avancée a été bloquée par des questions d’éthique, avec ou sans IA. Par contre, en génomique, la France n’avance pas bien vite et se fait carrément damer le pion !
Pour ce qui est des USA et de la Chine, je n’en fais pas des modèles, loin s’en faut. Je suis bien content d’être en France ! J’indique seulement que les USA sont un passage obligé en tant que marché pour créer un leader mondial dans le logiciel.
Je me pose aussi la question de l’usage de l’éthique dans le marketing des solutions innovantes, afin de créer des leaders. Il faudra faire preuve de créativité pour y arriver. C’est une nouvelle discipline à inventer !
Voilà…
Réponse simple : pour créer un leader mondial, il vaut mieux vendre hors de France, et si possible dans les plus grands pays, donc… les USA, l’Europe, etc. C’est aussi vrai pour les solutions B2B que B2C. La force économique et l’hypercroissance des startups provient de la capacité à créer des économies d’échelle. Celles-ci viennent du volume. Donc. L’export n’est pas facile, mais c’est un passage incontournable pour créer un leadership. Il faut apprendre à créer des boites internationales tout en maintenant leur ancrage en France, surtout pour leur R&D.
Je cite l’Asie dans l’article, mais il est vrai que je me focalise pas mal sur les USA pour ce qui est du développement international des startups pour en faire des leaders mondiaux.
Le passage par l’Asie est une option, mais rarement pour créer des leaders mondiaux. Pour ce qui est des valorisations des acteurs chinois que tu cites et qui sont bien connues, cela ne met pas spécialement d’eau dans le moulin de l’implantation chez eux. L’éviction de Google de Chine est aussi un bon exemple. Oui, cela créé des menaces vs l’Europe, mais est-ce que cela se transforme en opportunités pour attaquer ce marché ultra-fermé ? J’ai des doutes !
C’est toujours une question de vélocité. S’installer en Chine y est très lent. On n’a pas, de plus, aucun track-record de ce genre, et avec n’importe quel pays asiatique.
Au sens : startup française qui s’exporte d’abord en Asie, et en négligeant le marché USA. Sauf peut-être dans les jeux mobiles, et éventuellement dans certains composants électroniques. STMicroelectronics y fait la majorité de son CA je crois, mais ce n’est pas une startup.
Hello Philippe,
Bien nous sommes en phase ! Le Pass French Tech est une excellente opération qui accompagne bien les meilleures startups.hz
Ceci étant, il n’a pas entièrement supprimés les impôts temps et tracasseries administratives des entrepreneurs. Ceux qui touchent TOUS les entrepreneurs, et pas seulement ceux des startups en hypercroissance !
Olivier
Cf http://www.oezratty.net/wordpress/2017/usages-intelligence-artificielle-ebook/… 🙂 !
Merci pour cet input.
Le premier point serait optionnel car nombre d’études de cas peuvent provenir d’acteurs étrangers, soit à l’étranger, soit réalisées en France.
Le second point est intéressant en effet.
Sachant que pour l’instant, les études de cas courantes sont extrêmement mal documentées et que mon template d’origine relève déjà de la science fiction dans le marketing des principaux fournisseurs ! 🙂
L’approche industrielle française est très spécialisée dans les systèmes complexes vendus à faible volume comme avec les centrales nucléaires, l’exploration pétrolière ou l’aérospatial. C’est culturel et historique. Cela a alimenté une culture projet et SSII forte dans le pays. On a les ingénieurs qu’il faut pour faire cela.
A contrario, le pays (et l’Europe) sont déficients dans l’approche produits en volume. Les produits à forte dose techno mais qui se vendent en volume à l’échelle mondiale. Et ceux qui deviennent de véritables plateformes.
Dans les années 1980, je me rappelle par exemple que les ingénieurs logiciels français étaient très bon dans les outils de développement et les AGL (Merise, …). Mais pas dans les logiciels pour les vrais gens !
Dans la santé et les transports, on peut être donc tentés de s’attaquer à ces sujets via leur approche système : smart city, système de santé (DMP, …). Plutôt qu’à des briques qui se vendront en volume. Genre : tricorder (un Theranos qui marcherait), echographes portables, génomique grand public en ligne (domaine US par excellence), etc. Pour les véhicules, heureusement que nous avons Valeo qui à peu près dans l’épure d’un marché de volume. Mais quid des LiDAR (personne), des chipsets (presque personne), des logiciels embarqués (itou), … !
Autre parallèle simplificateur : les Américains ont Salesforce et nous avons Louvois (l’interminable projet de paye du Ministère de la Défense).
Le “mais passons” est un peu “passable” dans ce commentaire avec des “on” partout ! Mais bon, c’est comme ça.
La conférence accueillait de nombreux orateurs étrangers et je m’en félicitais. Cela n’enlève rien au reste ! C’est une chose d’organiser une conférence, c’en est une autre d’avoir une stratégie ! Nicolas Sarkozy avait organisé une belle conférence eG8 en mai 2011 avec un panel d’intervenants étrangers encore plus prestigieux. Cela n’avait pas spécialement aidé la France à briller dans le numérique.
Oui, il faut “se bouger”, mais encore faut-il identifier où dans la chaîne de valeur de l’IA. Je constate que l’approche est très locale et trop focalisée sur les données. On est tellement focalisé dessus que l’on en oublie les services qu’elles permettent de créer et dans quelle condition.
A contrario, le développement sur le matériel est déficient, ignorant un domaine où quelques startups françaises s’investissent. Dans l’automobile, où veut-on aller ? Dans les composants, dans les véhicules, dans la cartographie, dans le pilotage de flottes de véhicules autonomes, dans les services 5G V2X ? Rien de tout cela n’est mentionné.
En effet, d’autres entrepreneurs m’ont indiqué que les CIFRE étaient une bonne chose, modulo la difficulté pour la startup de s’engager sur le long terme vis à vis d’eux.
L’Etat se focalise naturellement sur l’amont de l’innovation avec l’enseignement et de la recherche. Mais dans l’aval, l’Etat a tout de même un rôle de facilitateur à jouer, ne serait-ce qu’avec ses services publics comme Bpifrance, Business France, Coface et l’INPI. Puis la fiscalité. Aucun Etat moderne dans le monde ne reste les bras croisés sur l’innovation, même les USA. Les pays dont les Etats sont les moins impliqués sont en général des “failed states” ou des Etats très pauvres.
Je ne cite pas tous les acteurs en effet.
Ceci étant dit, la stratégie “neuromorphique” de Qualcomm est pour l’instant en retrait par rapport à ses concurrents HiSilicon, Apple et même Mediatek et VIA. Ils utilisent leur DSP Hexagon qui fait du calcul vectoriel. La stratégie IA de Qualcomm repose pour l’instant surtout sur les couches logicielles. C’est un peu l’équivalent de ce que fait Intel sur ses chipsets serveurs Xeon Phi avec ses jeux d’instruction vectoriel AVX2. Cf https://software.intel.com/en-us/articles/tensorflow-optimizations-on-modern-intel-architecture.
Quand à Tesla, ils utilisent un mix de Nvidia et de Mobileye… !
Pas sûr qu’il ne s’agisse que d’une affaire d’ingénieurs ! D’ailleurs, Robert Plushnik était un psychologue. Et ne cofondons pas amour et émotions, le premier étant plus complexe et plus rare que les secondes.
Merci !
Faut-il mettre à chaque fois un disclaimer pour s’excuser de ne pas être exhaustif dans un article de 15 pages ? 🙂
Bon, j’ai ajouté spoon.ai dans l’article, à côté du Buddy de BFR.
Olivier
Merci, c’est corrigé !
OK, j’ai corrigé et ajouté ces deux projets. Deux de plus. Mais pas plus réalistes que les autres côté financement !
Pour la SNCF, c’est une erreur classique liée au fait que les tickets de financement ne sont pas précisés dans des tours de table à plusieurs. Il est vrai que cela me semblait un peu énorme. Dans le cas où ils ont mis moins de $10M (?), cela fera un tout petit investissement dans la pratique.
Je le rédige seul. Par contre, j’ai une vingtaine de relecteurs en fin de parcours pour le copy-proofing ! Olivier
En effet !
La réponse est très simple : Valeo et Faurecia comme nombre de sociétés françaises présentes (MicroEJ, STMicroelectronics, Dibotics, Arkamys) sont des fournisseurs de composants logiciels et/ou matériels qui rentrent directement dans la composition des produits b2c que sont les véhicules présentés au CES. Cela a toujours été le cas au CES. Ce n’est pas un phénomène nouveau. Il y a toujours eu des équipementiers automobiles et nombre de fournisseurs de composants électroniques en tout genre.
Le CES comprend en effet une bonne part de la “supply chain” amont des produits grand public. Au même titre que lorsque vous visitez le Salon de l’Agriculture, vous trouvez des fournisseurs d’alimentation pour bétail comme des tracteurs. Et vous n’achetez pas de tracteur pour consommer votre pain. Par contre, vous n’y trouvez pas forcément Facom ou des fabricants de boulons ou des éditeurs de logiciels de compta ou de bureautique.
Quand vous allez au Mondial de l’Auto, vous retrouvez Faurecia et Valeo (quoique pas sûr pour ce dernier), bien que les équipementiers ne soient plus très fans d’exposer dans ce salon qui est très grand public comme l’est celui de Detroit.
Dans votre cas, la solution, dont je ne remets pas en cause la qualité, cible les entreprises en général, pas spécifiquement la supply chain matérielle ou logicielle des produits grands publics du CES. C’est donc de l’informatique générale.
Si on allait dans ce sens, SAP, SalesForce, Oracle, Documentum, Sage, Cegid, Sopra, Murex, Cegedim et tous les éditeurs de logiciels d’entreprises “horizontaux” petits ou grands devraient être exposants au CES. Or ils ne le sont pas. Ce n’est pas un hasard. C’est une question de ciblage d’audience et d’optimisation de mix marketing.
Alors, oui, vous trouvez bien des prospects sur place. Mais imaginez que tous les éditeurs de logiciels d’entreprise français occupent Eureka Park ? Quel serait le message envoyé aux visiteurs qui cherchent pour la plupart des produits associant matériel + logiciel pour le grand public ou les composantes de ces produits ?
Je pose la question d’une autre manière en mettant en regard l’intérêt individuel des exposants et celui, collectif, de la présence française lorsque’elle est accompagnée par la puissance publique. Votre intérêt est tout compris. Mais dans le contexte de la présence française et avec les autres sociétés du même genre, il rend moins lisible la présence des startups françaises et réduit l’efficacité collective de la French Tech sur ce salon. Je rappelle que vous n’étiez pas un exposant classique mais étiez sur le stand d’une région. Vous avez donc bénéficié sous une forme ou une autre d’aides publiques. C’est un effet d’aubaine et un effet de bord.
Reste le cas de Dassault Systèmes. Ils couvrent bien plusieurs industries et sont donc très “horizontaux”. A ceci près qu’ils sont le numéro un mondial des outils de conception (CAO) et en particulier dans la conception des produits que l’on voit au CES et que leurs grands clients y sont à la fois comme visiteurs et exposants. Par ailleurs, sur le stand, ils ne présentaient pas leur offre mais un écosystème de startups qu’ils accompagnent et qui avaient pour l’essentiel une offre grand public.
Est-ce que sinon vous reviendrez comme exposant ? Est-ce que le jour où vous ne pourrez plus être exposants sur Eureka Park, vous prendrez un stand “normal” en payant plein pot ? Et dans quelle zone du salon ? La logique en effet, pour les entreprises exposantes du CES est de s’extraire d’Eureka Park pour devenir des exposants établis dans la durée.
Indice 1 : Air Liquide avait une zone avec des startups au CES 2017 et ils ne sont pas revenus en 2018. Air Liquide est très générique et éloigné des offres grand public. Le seul lien étroit concerne les véhicules utilisant des piles à combustibles (je les avais vus une année sur le stand de Toyota qui en est fan) et les hôpitaux.
Indice 2 : je connais nombre de startups B2B de votre genre qui étaient sur Eureka Park par le passé, étaient assez contents de leur présence mais ne sont pas revenus pour autant au CES. Les leads étaient difficiles à closer et par ailleurs, ils ont revu leur mix marketing et se sont investis dans d’autres salons ou événements plus intéressants de ce point de vue là, compte tenu de la nature de leur activité. Et j’en connais au moins deux qui sont revenus cette année : Klaxoon et Magency, le premier ayant un stand normal, sur Sands Level 2, donc pas subventionné par les deniers publics.
A votre décharge, il y avait bien une petite zone dite “Enterprise” dans Eureka Park, pas associée à un pays particulier. Mais c’était une allée très peu fréquentée et assez inintéressante dans le contexte du CES.
La B2Bization du CES est un leurre, un peu entretenu par la zone Smart City qui était marginale sur le CES. Il y avait aussi une famélique zone Retail mais elle a du sens car le visitorat numéro 1 du CES est dans le retail !
Finalement, mon avis n’est qu’un avis, certes visible. Libre aux uns et aux autres de faire ce qu’ils veulent.
Je n’ai pas listé toutes les annonces de smartphones Android qui se ressemblent souvent, surtout chez les constructeurs chinois. Et les smartphones de ce constructeur n’ont rien de bien particulier à signaler (One Plus 5). Et tout simplement, cela m’avait échappé dans mon suivi de l’actualité des smartphones. Et btw, ils n’étaient pas exposants au CES. Enfin, j’évite de lister dans mon catalogue les smartphones milieu de gamme. Je me focalise sur le haut de gamme qui imprime une tendance sur le marché. C’est pour cela par exemple que je n’ai pas évoqué les modèles d’Archos, Alcatel, etc.
Hello JP !
Les avis sont en effet très partagés sur le “better world”. L’Histoire est très ouverte avec le meilleur comme le pire dans ce qui est envisageable.
Bonjour Christophe,
Non, pas de Barcelone, je n’y vais jamais. Le CES me donne du boulot pour quelques mois et je ne passe pas ma vie dans les salons. Mais le MWC est le point de départ pour moi de la préparation du Rapport CES de l’année suivante !
Olivier
Je n’avais pas noté cette annonce de FLIR et surtout, son usage potentiel dans les véhicules autonomes. L’infrarouge n’est pas mentionné dans la littérature. On voit surtout LiDAR + radar + ultra sons + caméras RGB. Mais j’avais déjà fait un point sur l’infrarouge dans l’édition 2017 du Rapport !
Ils sont aussi Belges visiblement, et déclarés comme tels sur l’annuaire du salon : https://ces18.mapyourshow.com/7_0/exhibitor/exhibitor-details.cfm?ExhID=T0004535
Donc, ils doivent être au moins binationaux !
Ce qui est aussi un travail de titan… 🙂 !
Oui, j’ai bien vu cela. J’en parlerais dans le Rapport complet. Le principe d’un exec summary est qu’il ne contient pas tout ce qu’il y a dans un document complet.
D’ailleurs, cette solution relève d’un beau pipeau que je vais décortiquer dans le détail au niveau technique. Cela s’appuie probablement sur des réseaux de neurones génératifs qui ont encore des limites. Et c’est le même topo que les constructeurs nous servent à chaque fois que la résolution des TV augmente !
Il y a plusieurs opérations génératrices de buzz de ce genre que je n’ai pas évoquées dans l’exec summary. Ce sera dans le Rapport complet… 🙂 !
Bonjour Olivier,
Oui, bien entendu, la voix ne va pas remplacer tout. Mais on constate que son adoption a un effet de vase communiquant dans les efforts des fournisseurs, au moins au niveau de leur marketing : ils ne mettent plus en avant du tout quoi que ce soit du coté des interfaces graphiques. C’était observable au CES cette année.
Peut-être une erreur. J’avais noté cela quelque part… mais ne le retrouve plus.
En effet. Fillon en 2017 et Macron en 2016 qui, s’il n’était pas encore candidat déclaré, était déjà en pré-campagne et superstar !
On pourrait démonter une à une ces “bonnes nouvelles” qui reprennent la propagande Trumpesque que je lis aussi dans certains médias américains. Vous faites du Fox News, un marqueur classique de la pensée d’extrême droite en France.
Exemples :
1) C’est faux. Cf http://www.politifact.com/truth-o-meter/statements/2017/oct/26/donald-trump/donald-trump-wrong-his-tax-plan-biggest-cut-ever/. Et tous les fiscalistes américains pensent que cette loi va pénaliser les classes moyennes sur le moyen/long terme et ne pas être aussi bénéfique que prévue. Par contre, cela pourrait revaloriser les revenus des retraités via les dividendes récupérés par les fonds de pension. C’est donc surtout une redistribution entre classes d’âges (jeunes => seniors) et vers les plus fortunés. Il en va de même pour les droits de succession.
4) “réglementations liberticides” : celles qui protègent les citoyens américains contre la pollution de l’eau par exemple ? Celles qui les protégeaient contre les abus de Wall Street, les mêmes qui ont généré la crise des subprimes ? Come on…
6) La suppression du personal mandate alors que celui-ci fait partie des basiques d’un système de partage des risques et des coûts entre générations. Endettement ? Il peut y avoir eu des effets de bord ! Mais saviez-vous qu’avant Obamacare, on pouvait mourir du cancer très rapidement quand on ne pouvait pas être couvert par les assurances ? Les “prexisting conditions” tuaient environ 50 000 personnes par an aux USA avant Obamacare. Et cela ne concerne d’ailleurs que les indépendants et les entrepreneurs, pas les salariés qui étaient déjà bien couverts avant Obamacare. Etudiez un peu le système de santé américain !
12) Père Noël pour le complexe militaro-industriel sans doutes, alors que les USA sont déjà de loin le plus gros acheteur d’armes de guerre.
14) ” aurait détruit 6 millions d’emplois américains et aurait coûté 3000 milliards de dollars à ce pays jusqu’en 2040.” : c’est de la propagande trumpesque qui n’a aucun fondement sérieux. Au contraire, les investissements dans les énergies renouvelables sont créatrices d’emplois aux USA. Même s’il n’était pas question d’abandonner les énergies fossiles du jour au lendemain. Et le coût du réchauffement climatique ? C’est à crédit…
Vous avez aussi oublié côté Père Noël la fin de l’interdiction du port d’armes à feu pour les personnes atteintes de troubles psychiatriques.
Chacun de ces sujets mérite mieux que la reprise d’une liste à la Prévert encensant Trump et les Républicains !
Je partage tes impressions !
Ah oui ? Comme le fait de supprimer l’accès à la santé à 20 millions de personnes en sabotant Obamacare ? En supprimant toutes les régulation de protection des consommateurs ? En permettant aux industriels de polluer l’eau et l’air à qui mieux mieux ? En redistribuant la richesse vers les plus riches en s’attendant à ce qu’elle ruisselle sur les autres ? En promettant monts et merveilles aux salariés de Carrier, qui sont maintenant licenciés. En racontant des salades sur le charbon qui n’est de toutes manières pas compétitif, au-delà d’être polluant ? Come on… look at the facts.
La caricature de Trump n’a pas besoin des médias officiels. Trump est une caricature en chair et en os, sans passer par des intermédiaires. Il suffit de l’écouter ou de le lire dans n’importe quelle interview où il est incapable d’élaborer une phrase grammaticalement correcte ou un raisonnement. L’Amérique a majoritairement honte de son Président et peur pour son pays.
Peut-être. Mais 1) il n’y est pas forcément pour grand chose et 2) cela ne l’empêche pas de faire le pitre , ne serait-ce que dans ses tweets matinaux qui ne sont vraiment pas dignes d’un chef d’état.
Je découvre ! J’hésite pour ce qui est d’Apple. Leur ADN peut les pousser à créer un véhicule de toutes pièces, contrôlant toute l’expérience utilisateur. La real-politik peut les freiner dans leurs ardeurs. Mais Musk l’a fait, lui. Alors pourquoi pas Apple ? Ils arrivent peut-être trop tard sur ce marché.
Cela pourrait en effet s’accélérer sur certains usages. Je faisais allusion (sans l’écrire…) à l’entrainement de très gros modèles avec des bases de millions d’images. Sur des applications plus simples, comme dans certains cas d’imagerie médicale ou industrielle, cela peut en effet être beaucoup plus rapide.
Merci !
Ma réponse à “pourquoi tel article ne parle pas de ci et de ça” est universelle : parce que ! Parce qu’il est impossible de couvrir 100% d’un sujet quel qu’il soit et que n’importe quel lecteur trouvera toujours qu’il manque tel ou tel aspect. Et aussi parce que je ne connaissais pas ces économistes indo-américains ni ne suis tombé dessus lors de mes recherches pour ce papier. Simple.
Pour les prévisionnistes catastrophistes cités, je n’en fais pas trop ma spécialité. J’ai bien lu les deux bouquins de Harari et aussi “Collapse” de Jared Diamond. Des ouvrages qui montrent tous que le balancier entre la stupidité et l’intelligence collectives de l’Humanité est assez instable.
Intéressant. Sachant cependant qu’une étude de cas n’est pas une thèse de doctorat en économie ou en sciences sociales !
Bonjour Yves,
Nous sommes … d’accord !
L’explicabilité de l’IA ne porte pas que sur les algorithmes mais aussi sur les émotions !
Olivier
Merci d’avoir signalé ces oublis. J’ai fait la mise à jour. Par contre, je n’ai pas prévu une mise à jour de l’article sur les logiciels photos ! Désolé. Ni sur les lecteurs RSS d’ailleurs.
Merci à nouveau pour ces commentaires !
J’ai intégré les corrections. Et aussi ajouté PyTorch au passage dans le tableau.
Les modes vont et viennent avec ces différents outils ! Un peu comme pour les frameworks JabaScript pour les front-end web !
Pour bien faire, il faudrait expliquer la différence entre langage statique et dynamique. Je réserve cela pour la prochaine édition du doc!
Merci Arthur, le lien est corrigé !
Je vais regarder cela. Je suis d’ailleurs à la recherche d’études de cas récentes d’applications des systèmes experts / moteurs de règles / solveurs pour alimenter la prochaine édition de mon ebook qui est fait pour s’améliorer dans le temps.
J’ai ajouté une mention de ND dans la rubrique sur les systèmes experts.
Les oubliés se plaignent toujours. C’est le risque de n’importe quelle publication !
Il l’est. Le lien est indiqué en-dessous de la couverture dans l’article. C’est un test d’attention ! 🙂
Nous sommes en phase ! L’IA est souvent considérée comme IA lorsqu’elle conserve un côté magique. Quand on ouvre le capot, la magie disparaît et ce n’est plus de l’IA, mais de la plomberie probabiliste !
C’est pour cela que je préfère éviter ces querelles épistémologiques et plutôt adopter un regard historique. L’IA est une discipline scientifique à la croisée des chemins qui a été créée en 1955. Avec de nombreux objectifs pas encore atteints. C’est un peu la même chose avec la cancérologie, qui n’a pas permis, pour l’instant, de guérir tous les cancers, même si elle permet d’améliorer petit à petit le taux de survie des patient.
Et il faut accepter le côté artificiel de l’IA, qui ne ressemble donc pas et ne peut pas ressembler à ce que l’on croit comprendre de l’intelligence humaine. Il faut sortir de la vision anthropomorphique pour décrire des machines !
Je ne les ai pas cités dans cet article car il se dit moins de choses décalées à leur sujet.
Voici ce que j’ai écrit au sujet des BATX dans l’ebook “Les usages de l’IA” publié la semaine dernière (http://www.oezratty.net/wordpress/2017/usages-intelligence-artificielle-ebook/) :
“Est-ce que les leaders chinois vont dépasser les GAFAMI ? C’est une hypothèse à la mode. Les grandes entreprises chinoises du numérique et les startups chinoises bénéficient d’un terrain favorable : une masse de chercheurs et développeurs formés en Chine ou dans le reste du monde, un marché intérieur de plus de 500 millions d’Internautes, un marché mobile ultra-développé et une règlementation qui se pose beaucoup moins de questions sur la protection de la vie privée.
Malgré tout, il subsistera encore longtemps un cloisonnement des marchés au niveau des données et des applications entre la Chine et le monde occidental. Sauf accidents de parcours, les grands chinois ne feront pas l’acquisition de GAFAMI. Si Baidu et d’autres font quelques progrès significatifs dans le deep learning, les techniques utilisées qui sont généralement open source ne sont pas des différenciateurs stratégiques suffisants. Seule la donnée acquise dans leur pays l’est et les données captées par les leaders chinois manquent de diversité pour bien couvrir les besoins à l’échelle mondiale.
Ces grands leaders chinois ont recruté des talents chez des concurrents américains. Rien que chez Baidu, Andrew Ng qui était auparavant chez Google tandis que Qi Lu provenait de Microsoft et Yahoo. Quand à Hugo Barra, ex Google passé avec fracas chez Xiaomi en 2013, il les a quittés début 2017 et est devenu VP de la réalité virtuelle chez Facebook. La recherche chinoise fait des progrès mais est encore en « piggy-back » d’une bonne part de la recherche nord-américaine (USA + Canada). Et la recherche ne suffit pas à définir la position stratégique d’un pays.
Bref, comparer la Chine aux USA en matière d’IA n’est pas évident, surtout si les indicateurs sont anecdotiques et pas économiques.”
J’ajouterai qu’il faudrait plus s’intéresser aux entreprises technologiques chinoises qui exportent beaucoup. A ce titre, Huawei est à surveiller de plus près que les BATX.
J’ai ajouté un “généralement” dans mon point sur les données nécessaires pour les principales solutions de de l’IA.
Il serait intéressant de segmenter les applications entre celles qui ont besoin de données et celles qui n’en ont pas besoin. Au nez, celles qui n’en ont pas besoin font de la simulation s’appuyant sur des lois bien définies et immuables, comme les règles de jeux de société, ou les lois de la physique ou de la chimie, d’où le repliement des protéines ou la simulation du comportement de matériaux qui sont évoqués.
Celles qui ont besoin de données ont un lien avec le monde extérieur qui ne peut pas être facilement représenté par les lois de la physique, comme le comportement des consommateurs, le cours de la bourse d’une entreprise ou même, le comportement du vivant au niveau macro, comme l’imagerie médicale. Et tout ce qui a trait au lien entre le monde et sa description par le langage, que l’on retrouve dans la vision artificielle ou le NLP.
Quand aux annonces de DeepMind, je les prendrais avec des pincettes, notamment pour ce qui relève du repliement des protéines. L’arbre de décision à élaguer pour gagner au jeu de Go présente une forte combinatoire mais est “discret”. Alors que le repliement des protéines n’est pas discret mais continu. Il s’agit de trouver le moyen d’optimiser une fonction d’énergie avec un nombre incroyable de paramètres qui sont continus et non discrets. Donc, l’approche de AlphaGo Zero n’est pas directement applicable à ce problème.
Il faudrait peut-être coupler leurs techniques avec des processeurs quantiques, y compris ceux sur lesquels bossent Google, et pas juste les D-Wave qui font du recruit quantique qui n’est pas considéré comme étant un véritable ordinateur quantique par les spécialistes.
L’horizon de tout cela est plutôt lointain. Au sens… au-delà de 5 ans.
Oui, c’est vrai dans un tel cas. Mais gagner au Go n’a aucune application dans la vie courante. Les chatbots, la reco d’images, le machine learning et les systèmes experts ont tous besoin de données. Dans le cas d’Alpha Go, la data, ce sont juste les règles du jeu. Certaines IA savent détecter elles-mêmes les règles du jeu en observant des parties.
En effet, bien vu ! Le cognitif est un moyen de contourner le problème. Même si le terme est aussi un peu survendu.
Je viens d’en tester le téléchargement et j’arrive à le lire, notamment dans Edge sous Windows et avec Adobe Digital Edition. Ce document commence à dater, je prévois de publier très bientôt une V2 bien plus riche et surtout, actualisée.
En effet ! Les mythes ne portent pas que sur les attentes irréalistes. Elles concernent aussi les méconnaissances sur la manière dont sont menés les projets dans l’IA, sur le rôle respectif des algos, des données et du matériel. C’est une phase d’apprentissage normale pour toute technologie, comme pour ce que l’on a connu avec l’arrivée du web en 1995 qui n’est pas devenu “mainstream” instantanément. Il n’en reste pas moins vrai que les applications pratiques sont immenses ! Il faut juste faire le tri entre les surpromesses et ce que l’on peut faire de concret aujourd’hui.
Merci Xavier ! Sans compter Microsoft Experience de la semaine prochaine qui j’imagine sera aussi prolixe sur le sujet…
OK merci. Et quel est ce complot ?
De tout ce que j’ai pu lire, j’ai tendance à pencher pour un complot de la mafia, mêlant des ressources de la CIA non pilotées par cette dernière, et cette dernière cherchant ensuite à le cacher. Les thèses d’un coup d’état fomenté par LBJ ou son entourage existent mais ne tiennent pas très longtemps à part quelques très rares témoignages. Ils sont plus nombreux pour incriminer la mafia. Ne serait-ce que tout ce qui a été écrit sur le parcours de Jack Ruby et ses liens avec la mafia des états du sud et de Chicago.
Le problème des enquêtes est qu’elles peuvent toutes utiliser des témoignages et des experts qui vont aller dans un sens ou dans l’autre. A la fin, tout est embrouillé. On a besoin de techniques plus sophistiquées pour analyser tout cela.
Et je suis d’accord sur un point clé : les USA ne sont pas prêts plus de 50 après à accepter que leur président ait été assassiné par la mafia ou du fait d’un autre complot. D’où cette omerta.
Avez-vous vu le documentaire de Robert Baer, ex CIA, fait pour History Channel ? Il va dans le sens d’une implication cubaine et russe. Et la diffusion de la série a été interrompue en cours de route.
Est-ce que les dernières archives qui vont être publiées nous apprendrons quelque chose de majeure ? J’en doute un peu. Mais on verra bien ! Les archives de l’Etat fédéral sont une chose. Mais quid des archives de la mafia et autres organisations ?
En effet. C’est maintenant corrigé !
Oui, les chinois communiquent beaucoup sur leurs avancées dans l’IA. Reste à savoir ce qu’ils entendent par devenir leaders mondiaux en 2020. Quelle est l’unité de mesure de ce leadership ?
Merci pour ce complément. Depuis mes articles qui datent d’il y a plus d’un an, diverses initiatives d’inventaire des startups françaises de l’IA ont été lancées, comme par FranceisAI (d’ISAI). Je note en tout cas ces trois là pour les intégrer dans une éventuelle/probable mise à jour à venir de l’ebook lié aux 9 articles sur l’IA de 2016.
Et ça continue… http://spectrum.ieee.org/the-human-os/biomedical/devices/darpa-wants-brain-implants-that-record-from-1-million-neurons
Merci Mikael ! Mes articles ne font que compiler des informations publiques et facilement récupérables, ne serait-ce que sur Wikippedia. Par contre, j’en ai extrait effectivement l’aspect dimensions et les quelques objets les plus intrigants que j’ai pu croiser dans mes lectures.
Cheers !
Merci pour les précisions. J’ai corrigé l’article pour en tenir compte.
Si tu joue à ce jeu là, il en manque sûrement plein d’autres. Bon, et puis, je n’y vais pas. Et ce n’est pas orienté deep techs… !
Des choses se préparent mais n’ont pas encore été annoncées en détail car pas encore finalisées.
C’est intéressant, mais ne reflète pas assez bien les enjeux du monde réel et des villes. Et l’expérience est déjà menée ailleurs. Il y a a d’ailleurs celle qui a été lancée sur les quais par la Ville de Paris avec Navya et la RATP. L’enjeu est de sortir justement des environnements maîtrisés.
Cela doit être aussi relié à une approche marketing. Le marché de la ville est plus grand que celui des environnements maîtrisés !
Je ne sais pas comment faire pour une association. Essayez de leur écrire.
En effet. Ils m’avaient échappé ! Ils ont été acquis pour 20m€ en 2011.
Tu as raison. Grosse boulette, je corrige. Mais sans rentrer dans les détails…
http://www.fiercecable.com/cable/3d-tv-officially-dead-as-sony-and-lg-stop-making-sets
Oui, énormes erreurs. J’en rougis ! C’est corrigé…
Merci du feedback. En effet, DxtER est le nom du produit de Basil Leaf et pas celui de Dynamic Biomarkers.
Merci pour l’insight !
Je note que la donnée qui a de la valeur est le croisement entre le génome et le phénotype, d’où l’intérêt de collecter toutes les données de santé et pas seulement celles du génome.
La piqûre ne fait pas de mal car les aiguilles ne rentrent pas assez profond sous la peau pour taper sur les nerfs. On les sent à peine, je l’ai testé.
Pour ce qui est de la fiabilité, je ne sais pas trop. C’est une mesure indirecte. Il doit y avoir une courbe de corrélation entre la glycémie mesurée sous la peau et celle du sang. Reste à savoir si cette corrélation est la même pour tous les patients et ne nécessite pas de calibrage. Ils ont du tester la chose sur plusieurs patients avant de se lancer. Et comme je l’indique dans le rapport, il y a trois autres sociétés dans le monde qui utilisent ce procédé d’une manière ou d’une autre.
Pour le vendre, il faut obtenir l’agrément dispositif médical des autorités de santé des pays/régions ciblées. Ensuite, il faut qu’il soit recommandé par les diabétologues, comme pour tout produit de ce genre. Enfin, il faut l’agrément des tiers payants (CPAM, mutuelles, …) pour qu’il soit remboursé. C’est le lot commun de toutes les medtechs. Long et fastidieux.
C’est débat vieux comme le numérique, sur les transitions entre anciens et nouveaux formats et les promesses marketing de l’upsampling. On a aussi connu cela avec la TV HD. Quand on est au niveau d’un master en CD audio des origines, même upsamplé, on ne peut pas vraiment parler de HiRes.
Cela a du sens, soit par masterisation HiRes à partir d’un enregistrement analogique, en général sur bandes magnétiques bien conservées, soit avec des masters HiRes de studio. C’est en fait un faux problème car une bonne partie des masters de la production audio sont nativement en HiRes. Enfin, je crois…
Je les avais mis un peu de côté car, historiquement, ils proposaient majoritairement du très haut débit essentiellement via un partenariat avec Numericable en donc via le câble et pas le FTTH. Bon, je les ai ajoutés dans la liste comme cela, il ne manquera personne.
Merci, je corrige. Je n’ai jamais été bon en orthographe et ces remarques en public m’humilient et remuent le couteau dans la plaie. C’est pour cela que j’ai des bêta testeurs qui sont, eux, plus discrets et utilisent un autre moyen de communication plus 1/1.
Merci pour le feedback. Pour nos lecteurs, les erreurs concernaient le prix de certains roduits et le fait que certains ne sont pas liés à l’offre Picowan.
Merci, c’est corrigé. Il existe une loi non écrite comme quoi ce document n’est jamais parfaitement corrigé, malgré les nombreux relecteurs en bêta et après ! Avec > 1 millions de signes, c’est un tonneau des Danaïdes !
Bonjour Jade,
Intéressant ! C’est la seule explication raisonnable ? Pourtant, les scooters à batteries étaient nombreux. Il n’y a donc pas de basculement du marché ?
Olivier
J’utilise des 2-en-1, des laptops convertibles en tablettes sous Windows. Comme je n’utilisais l’iPad que pour lire des choses que l’on peut aussi lire sous Windows, ou des apps qui existent en version browser, je m’y retrouve. Mais ce n’est pas valable pour tous les usages. Par exemple, l’application Relay n’existe pas sous Windows, et plein d’autres applications qui n’ont pas d’équivalent sur un navigateur ou sous Windows.
Oui, on peut parler de vagues d’innovations. Et pour bien voir les vagues, il faut prendre du recul !
Ah, vaste débat sur le sens d’une innovation ! Pour ce qui est de l’iPhone, l’assemblage était innovant, pas les pièces détachées, comme pour la plupart des innovations numériques. Et à la décharge d’Apple, ils étaient parmi les premiers à intégrer un écran capacitif multitouch dans un smartphone. Avant, on avait le droit à du résistif, qui était horrible côté usage. D’ailleurs, Nokia continuait à utiliser des matrices résistives dans son N97 sorti en 2009. Là, c’était tout le contraire de l’innovation : c’était du retardisme avancé. Ca ne les a pas aidés !
Hello Juliette,
Bien, pas tant que cela, car ce n’est pas trop l’objet du CES. Je vais tout de même aborder certaines questions industrielles dans la longue rubrique sur les composants électroniques, les processeurs, les réseaux et aussi sur l’impression 3D.
L’explication est simple : Renault n’est pas présent aux USA alors que Nissan l’est.
En effet ! C’est la magie des process ! Demande aux exposants du CES qui ont affaire aux installateurs de Freeman par exemple !
HNY !
Oui en effet. C’est vrai pour la métaphore de la balance mais inversé pour l’impact sur les revenus. Ce qui est en vert fait bien monter les revenus et ce qui est en rouge les fait bien descendre. Le sens des flèches méritera une mise à jour en 2017 en effet. Ce, d’autant plus que ce schéma est présent dans le guide depuis les toutes premières versions…
L’article reste toujours d’actualité plus d’un an après sa publication. Je ferais le point là-dessus dans le Rapport CES 2017 publié le 24 janvier 2017.
Il faut se plonger dans les archives de la NASA. Pour ma part, j’ai eu l’occasion de rencontrer Jim Lowell, commandant de la mission Apollo 13. Et il n’avait pas l’air de raconter des bobards ! Ce n’est pas parce que l’on ne comprend pas tout d’un point de vue scientifique qu’il faut remettre en question une si belle aventure !
D’ailleurs, les sondes qui sont sur Mars, elles sont bien sur mars ? Ou est sont en Arizona ?
Il s’agit de Positron Dynamics.
Ah ah ! Bien oui, avec les progrès exponentiels, tout va très vite ! 🙂
En règle générale, les sociétés non cotées ne communiquent pas sur leurs résultats financiers.
En France, elles devraient le faire au greffe des Tribunaux de Commerce et on devrait les retrouver sur societe.com. Mais nombre d’entre elles ne respectent pas cela.
Les licornes américaines communiquent très peu sur leur résultats. Tu ne trouveras pas d’information sur leur site. Et ils n’ont pas de pages “investor relations”. Parfois, les informations financière fuitent ou sont distillées au compte-goutte. Par exemple, dans la perspective de lancer une IPO.
Ce qui compte est le CA d’une part, puis la croissance et enfin, la profitabilité.
L’absence de Blablacar aux USA s’explique par leur modèle économique et de service. Blablacar permet aux conducteurs de partager les frais de trajets longue distance avec des passagers. Ces frais sont notamment évaluables par l’essence et les péages. Or aux USA, les highways n’ont pas de péages et l’essence y est beaucoup moins chère qu’en Europe. Et sur les longues distances, l’avion est l’autobus local. Mais cela pourrait changer, on ne sait jamais.
Des médias ont cherché à estimer le CA de Blablacar et il pourrait être largement supérieur à celui d’une brasserie, même de la Gare du Nord ou de Lyon ! Cf par exemple http://uk.businessinsider.com/how-much-money-blablacar-could-be-making-2015-9 qui date d’il y a un an.
Désolé de ne pas avoir fact-checké le nombre précis de Carats d’or de l’avion de Trump, qui se trouvent visiblement surtout dans la salle de bain. Cf la visite ici : https://www.youtube.com/watch?v=UZq3iCn2y74 et un documentaire complet ici : https://www.youtube.com/watch?v=OygETK3-oN4. C’est en tout cas le premier président américain qui sera downgradé en utilisant Air Force One, que ce soit le 757 (C-32) ou le 747 (VC-25A) ! Mais qu’est-ce que cela change ? Le gars a une fortune significative et ne s’en cache pas.
Pour ce qui est des manifestants payés pour protester contre Trump (pendant la campagne), il s’agit d’un hoax bien documenté, comme de nombreuses fausses nouvelles qui ont alimenté la campagne de Trump et sont largement dénoncées, au point que Facebook a du s’en préoccuper.
Cf http://www.politifact.com/truth-o-meter/statements/2016/nov/17/blog-posting/no-someone-wasnt-paid-3500-protest-donald-trump-it/, http://www.theaustralian.com.au/news/world/the-times/us-election-fake-news-guru-paul-horner-takes-credit-for-trump-win/news-story/66beb020cf6adb13e341cd05f0a64ce3 et http://www.ibtimes.co.uk/trump-supporters-duped-by-fake-news-generated-macedonia-1590319.
Quant aux éventuelles sources qui disent du bien de Trump, elles sont bien rares, même en cherchant, y compris dans le camp Républicain. J’ai lu plusieurs biographies le concernant, certaines datant d’avant sa campagne électorale, donc pas marquées par sa polarisation extrême. Et il est difficile d’en sortir avec une quelconque admiration du personnage. Et ne parlons pas des gens qui l’entourent.
Ce n’est pas suffisant de rappeler que les gens votent en fonction de leurs colères. Les solutions proposées par Trump relèvent pour leur grande majorité d’un baratinage de la plus belle facture. Les classes moyennes et défavorisées vont en pâtir s’il les applique. Et s’il ne les applique pas, et bien, rien de changera.
Il serait intéressant de reprendre une par une les propositions de Trump pour voir en quoi elles pourraient améliorer la vie des gens. Dans la santé, dans l’éducation, dans les droits civiques, dans la fiscalité (qu’il veut surtout alléger pour les plus fortunés, jusqu’à supprimer entièrement les droits de succession dont l’exonération est déjà bien plus élevée qu’en France, de plusieurs millions de $), dans le rapatriement des emplois délocalisés, dans la relance du charbon, …
Au passage, le programme d’infrastructures de Trump (http://www.forbes.com/sites/timworstall/2016/11/19/donald-trumps-infrastructure-program-is-much-worse-than-the-democrats-one-oh-yes-undoubtedly/#63a5db1e70fb) emprunte dans une certaine mesure à celui que Sarkozy a lancé, plus modestement, en 2009 après le début de la crise financière. Il avait relancé la construction de manière artificielle, par la dette. Et la loi ALUR de Cécile Duflot a ensuite plombé le BTP.
En France, les candidats de droite n’ont pas tenu certaines de leurs promesses pour diverses raisons, notamment les blocages syndicaux à répétition. Sarkozy en avait peur lorsqu’il était président. Quand à Hollande, il a eu un certain courage politique en prenant des décisions économiques pour lesquelles il n’avait pas été élu. Mais des demi-mesures dans la majorité des cas. Il a déjà assez énervé sa base comme cela.
Après, on peut toujours fantasmer sur une amélioration de la compétitivité de la France par la sortie de l’Europe et de l’Euro, qui est la principale thèse économique du FN. Malheureusement, la compétitivité n’est pas qu’une question de monnaie. Sinon, ce serait trop facile !
Tient, lisez cela : https://www.greatagain.gov/policy/financial-services.html.
Un enfumage complet, au service des grandes institutions financières. Et un mensonge sur la situation de l’économie américaine qui s’est grandement améliorée depuis la grande récession de 2008/2009.
Vous déformez mes propos en les tournant comme vous avez envie de les entendre !
J’ai écrit précisément :
“Ce serait la juste vengeance des électeurs pauvres et non éduqués qui n’ont pas été pris en compte. Les aristocrates à la lanterne ! A ceci près qu’ils ont élu un milliardaire narcissique et menteur escroquant ses fournisseurs et clients voyageant dans un avion plaqué or. Mais dans les esprits, un self-made man, même nettement malhonnête et serial menteur, ne peut pas être aussi pourri qu’un politique. ”
“Ce serait” est du conditionnel faisant référence à “ce qui se dit”. Et justement, dans mon papier, je montre que ce n’est pas forcément le cas puisque les électeurs de Trump n’étaient pas significativement plus nombreux que ceux de Romney en 2012. Que ce sont les électeurs démocrates de 2012 et 2008 qui ne sont pas retournés voter parce que Clinton était une candidate décevante ou inspirant doutes et méfiance.
Je n’ai insulté personne dans mon papier. J’ai juste évoqué le besoin d’améliorer l’éducation en général des citoyens. Vous projetez sur mon papier ce que vous avez lu ailleurs !
Par contre, ce que j’écris sur Trump et qui reprend effectivement la docta du moment est vérifiable de plusieurs manières. Son avion et son immeuble sont effectivement plaqués or. C’est un fait. Ses pratiques business ne sont pas des plus élégantes pour ses clients et ses fournisseurs, c’est documenté. J’ai aussi lu une demi-douzaine de livres à son sujet, tout comme sur Hillary Clinton, et je les cite dans mon papier, notamment concernant cette dernière. Ce sont des livres à charge dans les deux cas.
Quant aux problèmes d’insécurité mondiale, une bonne part a été léguée à Obama par l’administration Bush. Une administration qui était soutenue par les Républicains qui sont derrière Trump. Certes, Clinton n’était pas la plus pacifiste des démocrates, mais l’héritage guerrier du moyen orient est surtout dû à Bush 43. C’est la guerre en Irak de Bush qui a coûté trois trillions de $. Celles d’Obama, beaucoup moins.
Pour ce qui est des importations qui ruinent les américains et les pays occidentaux en général, elles sont le fruit d’une mondialisation complexe qui favorise en effet les grandes entreprises. Mais la réponse de Trump à cette question complexe relevait de la pure propagande. Il prétend renégocier les contrats en mode win-lose plutôt que win-win avec les autres pays. Il veut relancer le charbon là où cela n’a pas de sens et est dangereux pour la planète. Il prétend avoir sauvé des usines de Ford dans le Kentucky alors que c’est un mensonge. Il veut abaisser les impôt des plus riches sans augmenter la dette. Il veut supprimer les règles de régulation de la finance et de protection de l’environnement. C’est un énorme baratineur !
Côté sécurité, Trump veut virer 2 à 3 millions de criminels mexicains. C’est le nombre de prisonniers dans toutes les prisons des USA. Il annonçait vouloir construire un mur sur la frontière avec le Mexique et payé par les mexicains. Et ce n’est pas prêt d’arriver. D’ailleurs, s’il fallait le construire, il faudrait faire appel à des travailleurs mexicains car les américains ne font plus de BTP (au niveau exécution).
Oui, il existe des problèmes économiques et de sécurité concernant une frange délaissée de la population, mais Trump racontait des salades sur le sujet. Il faut faire la part des choses entre la reconnaissance des problèmes des gens qui sont tout à fait légitimes et compréhensibles et les solutions à l’emporte pièce des démagogues. A force de répéter que l’on ne comprend pas les problèmes de gens, on renforce dans la pratique des démagogues dangereux.
Tous les partis politiques français cherchent à résorber le chômage et à améliorer la sécurité. Ils proposent juste des moyens différents pour y arriver et c’est là-dessus qu’il faut discuter sérieusement et avec du recul. Entre les approches de droite qui veulent principalement lâcher la bride des entreprises et réduire les charges sociales sans trop se soucier des prestations associées, celles des écolos qui veulent transformer l’économie de fond en comble, celles de gauche et d’extrême gauche qui sont plus redistributives et l’Europe qui sert de bouc-émissaire géant à l’extrême droite.
“Votre texte est une caricature de ce qui a été rejeté par les électeurs.”
Ca fait toujours plaisir ce genre d’invective ! Il faudrait être un peu plus précis ! Mes 10 points sont factuels et d’ailleurs, je ne m’aventure pas trop dans les programmes des deux candidats.
Un monde dominé par des irresponsables économique et va-t-en guerre ? Oui, certainement. Mais Trump et son entourage de républicains ultra-conservateurs ne sont pas les mieux placés pour donner l’exemple. Et ce mec est un menteur maladif, encore plus que ne l’était Hillary Clinton.
http://mashable.com/2016/11/18/trumps-misleading-tweet-fake-news
Et son National Security Advisor, Michael Flynn, est justement un va-t-en guerre caractériel ! Viré pour cela de son poste de patron de la DIA il y a deux ans.
1,3 millions d’électeurs ont tout de même préféré Clinton à Trump. Et Trump ne doit son élection qu’à un différentiel de 155 000 voix. Ce n’est donc pas un rejet, c’est plutôt de l’ordre du clivage 50/50. Et ce clivage a été accentué par le fait que Clinton n’était pas forcément une bonne candidate pour son camp, ce que je relève bien dans mon papier.
Quand un president-elect prend comme principal conseiller un équivalent en pire de Buisson chez nous, un responsable de l’environnement qui est un climato-sceptique, etc, on a quelques raisons de s’inquiéter.
Quelles leçons ai-je donné concernant la démocratie ? J’explique comment elle fonctionne aux USA et décrit les débats associés, notamment sur le système des grands électeurs. Je suis équilibré, expliquant les avantages et inconvénients de ce système.
Oui, on peut prendre date, en effet…
Trump a gagné l’élection présidentielle selon ses règles bien établies, c’est clair. Et ces règles font que les candidats se battent surtout dans les swing states.
Mais le vote populaire reste une indication intéressante.
Il ne faut pas oublier que les élections portent sur plusieurs points le même jour : les sénateurs (1 état sur 3) et tous les représentants. Les électeurs, même hors états swing states, sont motivés à aller voter pour leurs représentants locaux. Sans compter divers référendums et les élections de gouverneurs.
Donc, on a avec le vote populaire un avis agrégé des gens qui votent pour un ensemble. Si la règle était différente, il y aurait peut-être une plus grande participation mais on n’en sait rien. Le fait que pour le total législatif+exécutif, ils aient un taux de participation inférieur à celui que l’on constate en France est un problème en soi. Nombre d’adultes ne se sentent pas concernés par les élections et pas seulement parce que Trump et Clinton étaient de mauvais candidats l’un comme l’autre.
Notons qu’aux mid term elections de 2014, la participation était très basse: 36.4%. Et là, d’environ 60%. Donc, la participation à la présidentielle motive de nombreux électeurs, même dans les états qui ne sont pas des swing states. D’ailleurs, j’ai vu dans les tableaux que le taux de participation n’était pas corrélé par la polarisation ou pas de l’électorat. En ce sens qu’il y a un spread aussi important de taux de participation dans les swing states que dans les autres états.
Très intéressant, merci !
Je me suis penché sur cette question dans les données. J’imaginais une faible participation dans les états où les votes sont acquis à l’avance et plus forte dans les swing states. Et bien, il n’en est rien ! La distribution est assez aléatoire si on croise l’abstention et le résultat Trump/Clinton.
Mais objectivement, si si, Clinton a pour l’instant bien gagné le vote populaire, même s’il ne détermine pas l’issue du scrutin. Et au gré de l’avancement du décompte qui n’est pas encore terminé, du fait du lent dépouillement des votes par correspondance dans en Californie et à New York, la différence augmente entre Clinton et Trump. Sans changer le résultat en EV. C’est lié au fait qu’il y a plus d’américains de l’étranger issus des états démocrates que républicains, j’ai l’impression.
Bien oui, j’explique tout cela en détail pour montrer que l’élection s’est jouée dans 4 états et sur 155 000 votes alors que Clinton a gagné le vote populaire avec plus de 575 000 voies d’avance !
Tu as raison, nos institutions nous protègent d’une situation à l’américaine. Mais les Cassandre vont tout de même s’y donner à cœur joie pour prédire une victoire du FN au second tour dans la lignée des surprises du Brexit et de Trump.
L’équivalent de l’anti-élites de Trump sera l’anti “UMPS”. Aux USA, les américains n’ont en pratique que deux choix, les autres candidats étant exclus du jeu médiatique et institutionnel. En France, c’est maintenant un jeu à au moins trois choix.
On voit déjà poindre un rejet de nombreux candidats LR qui sont dans la politique depuis des décennies.
Oui, Marine Le Pen n’a pas beaucoup de chances face à Juppé. Mais elle fera un bien meilleur score que son père face à Chirac en 2002. Même si elle ne gagne pas, cela enclenchera un processus, comme l’éventualité de l’intégration d’une part de proportionnelle dans les législatives. C’est une dynamique.
Et si Le Pen est face à Sarkozy, on se retrouvera dans une situation à la Trump/Clinton avec un vote “impossible” pour plein d’électeurs.
Ca me rassure ! Enfin, un mec pas d’accord !
Merci.
Les alternances passées ont été bien plus marquées électoralement : celle de Reagan en 1980, celle de Clinton en 1992, puis celle de Obama en 2008. Seule celle de Bush 43 était faiblement marquée en PV et EV. Comme celle-ci. Et ce sont les deux dernières alternances partant des démocrates.
Ton hypothèse sur une présidence à la Reagan n’est pas exclue mais nombre d’analyses et observations ne sont pas rassurantes, ne serait-ce qu’au niveau de la composition de la transition team. Le seul signe vaguement positif étant le remplacement de Chris Christie par Mike Pence pour diriger cette équipe. C’est d’ailleurs une première qu’elle soit dirigée par un Vice-President Elect.
Oui, la paille et la poutre… !
Où avez vous vu que j’écrivais que ISIS reculait grâce aux USA ? Les russes y jouent évidemment un rôle. J’y évoque un scénario qui déplacerait le problème ailleurs : en Libye, dans d’autres pays, et vers une recrudescence d’attentats spectaculaires provoquant Trump et ses réactions un peu rapides.
J’ai aussi lu beaucoup de matière concernant Clinton, dont les bouquins à charge contre elle ainsi que les “rebutals” les concernant. Et la pédophilie des Clinton est documentée notamment ici : http://www.fawkes-news.com/2016/11/declarations-chocs-du-lanceur-dalerte.html. J’écris à plusieurs endroits dans mon papier que Hillary Clinton n’était certainement pas une bonne candidate et que cela explique qu’elle n’ai pas pu mobiliser l’électorat démocrate. Est-ce aussi biaisé ?
Oui, je n’ai pas balayé toutes les 16 candidatures retenues. J’avais bien lu le programme de Roxanne Revon. J’y ai trouvé un programme très européen proche de ceux des centristes. Il est un peu utopistes sur les bords mais c’est une bonne chose que de donner une direction. Philippe Mazuel a une action qui s’inscrit dans le cadre d’un parti politique existante, le Pace. Ce qui est une exception du genre pour les finalistes de LaPrimaire.org. En ce sens, on en revient aux structures représentatives traditionnelles.
J’ai complété mon texte avec une description de ces deux candidatures, ce qui n’altère pas le reste du propos.
Je n’ai pas vu cette passe d’armes mais l’intervention d’Alexandre Jardin dans le meeting d’Emmanuel Macron du 12 juillet à la Mutualité (en streaming). Je trouve qu’Alexandre Jardin en fait un peu trop. Il mélange l’activité terrain d’association, souvent de l’entrepreneuriat social et solidaire et la politique générale du pays. Il y a toujours de très bonne idées venant du terrain bien évidemment, mais elles ne se transforment pas en politique nationale pour autant. D’autant plus qu’une fois fonctionnarisées ou généralisées, elles perdent de leur fraîcheur et de leur naturel.
Par exemple, Alexandre Jardin s’intéresse à l’exclusion, mais pas à l’enseignement supérieur, à la recherche, à l’innovation technologique ou à la politique étrangère, qui sont aussi du ressort de l’Etat et des politiques.
Bref, c’est un peu un dialogue de sourds qui ne sont pas sur le même registre.
Je traite de la présidentielle dans la partie 4 de la série, me penchant sur les programmes des candidats qui sortent de processus participatifs comme celui de LaPrimaire.org. Dans l’ensemble, je trouve la méthodo intéressante mais le résultat décevant. Les citoyens de base ne sont pour l’instant pas bien meilleurs que les politiques professionnels. Ils ont ce côté frais et naïf qui plait au premier abord. Mais quand on creuse, on a du mal à dépasser les discussions de salon. Il leur manque une vue d’ensemble, surtout pour une présidentielle. Certains ne savent même pas comment fonctionne l’exécutif, comment est votée une loi, comment on gère le temps long et le temps court. Aucun n’émet de vision de politique étrangère. Rare sont ceux qui intègrent les enjeux technologiques à venir et engagent une réflexion sur l’avenir du travail avec la robotisation.
Ah ah ! En fait, je suis toujours tout seul. Cela n’a rien de surhumain. Je pourrais un faire un cours de deep-digging sur Internet pour expliquer le processus qui est très empirique et manuel. J’ai aussi passé du temps dans un événement sur le sujet (Forum des Civic Techs il y a 10 jours).
Le nous, c’est une manière d’englober le lecteur dans le propos et d’éviter de trop parler à la première personne.
En effet.
Il y a plein d’autres questions de ce genre :
– Les démocraties face à l’IA et à la robotisation.
– Les démocraties face à la crise environnementale.
– Les démocraties face aux GAFA…
J’avais entendu parler de cet événement qui a l’air pas mal en effet. Il tombe pendant le Web Summit de Lisbonne où je serais pendant toute cette semaine-là !
Olivier
Je ne le diffuse pas en version papier. Trop compliqué. Par contre, il existe des tonnes de services d’impression en ligne qui peuvent l’imprimer à partir du PDF qui est librement téléchargeable. Cela coûte moins de 100€ l’unité. C’est plus cher en couleur.
Je n’y crois pas une seconde et cela me semble un peu court et prétentieux sur les bords.
Essayez déjà de régler le problème de la paye de l’armée en allant bosser chez Sopra et après on en rediscutera ! Ou en essayant d’accélérer le déploiement du DMP.
La complexité de ces systèmes d’information vient de toutes les règles complexes qu’ils doivent respecter et de la complexité de l’administration. Twitter est extrêmement simple à gérer à côté. Il y a de gros volumes d’information mais des règles très simples. Le MCD de la base de Twitter doit être simplissime à côté de n’importe quelle implémentation de SAP.
Pour simplifier les SI de l’Etat, il faudrait commencer par simplifier les règles de gestion sous-jacentes. Et ce n’est pas une affaire de geek, pas encore en tout cas. Il ne faut pas oublier non plus que certains systèmes sont cloisonnés pour protéger les citoyens côté vie privée. Tout du moins en théorie.
Les projets “clean state” sont toujours plus faciles à penser que ceux qui intègrent un existant complexe.
Le pays qui a fait cela très bien est l’Estonie, avec un système d’information intégré et une architecture unifiée. C’est un pays de 1,4 millions d’habitants qui a tout remis à plat en 1992.
Petit auto-commentaire. Viens de recevoir une offre d’iPhone à 1€ de la part de Bouygues Telecom Entreprises.
http://www.partenariat-bouygues-telecom-entreprises.fr/iphones6/index.html?idp=
Ce n’est pas très malin d’utiliser une pratique marketing qui fait penser à une arnaque. D’ailleurs, elle était filtrée par mon antispam… !
Ah ces marketeurs !
La Floride est-elle un bon exemple ? Attention au mirage de Cap Kennedy. C’est un centre de lancement mais les industries associées sont ailleurs aux USA, surtout en Californie. C’est lié au fait que, comme pour les industries militaires, les Présidents américains depuis JFK ont saupoudré les investissements industriels dans plusieurs états pour s’en attirer les faveurs.
Il en va de même pour Kourou qui occupe à peine 2000 personnes, ce qui est une goutte d’eau par rapport aux industries amont, pour la construction des éléments des fusées et des satellites, et sur l’aval, dans l’exploitation desdits satellites.
La Floride est surtout connue pour être un Etat pour les retraités et, en effet, aussi pour le tourisme (Orlando et Disneyland, Key West, Everglades…). L’agriculture est la seconde activité. L’activité militaire avec 24 bases contribue plus à l’économie locale que l’industrie spatiale.
Le tourisme vert est en effet un gisement potentiel intéressant pour la Guyane. La fiscalité est déjà avantageuse en Guyane mais pourrait probablement l’être un peu plus.
Dubaï me semblait un exemple approprié car ce petit état a beaucoup investi dans ses infrastructures pour en faire une plaque tournante dans le transport, la finance et divers autres domaines.
Désolé de cet oubli. Je me focalisais sur les formations techniques dans mon propos.
OK, je corrige. Il faudrait aussi le faire sur le site de Mediaserv… : http://www.mediaserv.com/guyane/accueil-client.html !
J’interviens déjà dans plein d’endroits sur plein de sujet ! Peut pas être partout !
La plateforme signal spam relève de l’utilité publique. C’est une très bonne initiative.
Il serait intéressant de faire évoluer le site pour partager les bonnes pratiques côté internaute et expliquer les mécanismes des arnaques et des spams pour éduquer les Internautes. Et avec des exemples ! Je n’ai pas trouvé ce genre d’infos sur le site.
Peut-être. Mais la proportion des startups qui ont des pratiques très douteuses est tout de même faible. Rien ne prouve qu’elle soit plus élevée que dans d’autres secteurs d’activité. Par exemple, dans le BTP… !
Très intéressant. Cela permet d’améliorer la segmentation des répondants. Et relève d’ailleurs d’une forme d’abus de faiblesse… linguistique.
Bien vu en effet. J’ai ajouté cette pratique dans l’article.
C’est Luc Ferry qui avançait ce chiffre dans son intervention. Cela doit probablement intégrer les dirigeants de toutes les TPE/PME et si cela se trouve, aussi les autoentrepreneurs.
La question a été souvent évoquée. Il y avait un débat sur le sujet, où intervenait notamment Isabelle Kocher de Engie. Et Pierre Gattaz en a plus parlé que de numérique dans son keynote, indiquant qu’avec ses grands groupes, la France était très bien placée pour être championne industrielle dans le domaine. Les politiques en ont aussi parlé.
Ceci étant, rares sont les candidats qui promettent de la croissance. Ils parlent plus de plein emploi que de croissance. Et des pays arrivent à avoir un taux de chômage voisin du plein emploi. Dans une économie concurrentielle, même en stagnation globale, il est possible de faire mieux.
Oui, en effet, sauf chez certains écologistes, ce sujet de la croissance est tabou. Il y a aussi des explications macro-économiques et moins liées à l’environnement comme celles de Larry Summers : http://voxeu.org/article/how-secular-stagnation-spreads-and-how-it-can-be-cured. Il manque une analyse montrant, éventuellement, que même un croissance dans l’immatériel, ne suffirait pas…
Oui, ce NBIC fait désuet, comme “informatique” ou “numérique”. Il permet d’éviter de parler de singularité ou de transhumanisme ! Luc Ferry est un philosophe, pas un spécialiste des sciences dures ou des sciences de la vie. Il commettais d’ailleurs dans son intervention de nombreuses erreurs d’appréciation de l’histoire des technologies, faisant par exemple inventer l’électricité par Edison.
Le risque, il n’en parle pas trop. Il évoque le fameux principe de précaution, à supprimer. C’était aussi le point de nombreux candidats RL.
Qui sont donc ces français qui ont créé un séquenceur de 4ieme génération ?
On est ici au-delà de l’Etat car la communauté scientifique est divisée sur la question. L’auditabilité de la fusion froide est toujours sujette à caution. J’ai suivi au gré des années la filière que Rossi cherche à lancer ET a été financée. Cela avance bien lentement. La communication scientifique autour est encore très moyenne. Les scientifiques traditionnels sont très conservateurs bien avant que l’Etat s’en mêle en tant que tel.
D’habitude, dans la physique des particules, la théorie précède l’expérimentation, comme ce fut le cas pour l’énergie nucléaire, la bombe atomique et récemment, le Boson de Higgs. Ici, l’expérimentation précède la théorie et c’est déstabilisant pour les scientifiques.
La fiche Wikipedia bien documentée sur la fusion froide conclue ainsi :
“Les annonces de résultats positifs de fusion froide en dehors des publications scientifiques à évaluation par les pairs sont controversées et sont sujettes à caution. Néanmoins, échaudées par la polémique de 1989, la plupart des revues à comité de lecture, dont Nature, considèrent que la fusion froide n’appartient pas au domaine scientifique et refusent toute publication à son sujet63,64,65. L’éditorial de Nature publié en janvier 1990 par John Maddox, qui marque un jalon important dans l’histoire de la controverse, considère pour sa part que la fusion froide était une affaire classée car toutes les expériences sérieuses se sont avérées négatives.
La plupart des experts impliqués dans l’étude de la “fusion froide” ont conclu, malgré tous les travaux réalisés depuis 1989, aucune preuve n’était venue confirmer, de façon claire et univoque, l’existence du phénomène de la fusion nucléaire « froide ». Un rapport de 2005 précisait que les organismes qui octroient des subventions devraient soutenir les travaux portant sur l’absorption du deutérium dans les métaux comme le palladium mais qu’il ne fallait plus investir autrement.”
Galileo ? On sait que le projet a coûté plus cher que prévu et est très en retard. C’est un hybride Ariane – Airbus – Qwant : chercher à concurrencer une solution américaine déployée à l’échelle mondiale (Qwant) avec une approche européenne (Airbus, Ariane), le tout avec un fort apport technologique français. Au delà des péripéties du projet, il semble qu’il va butter sur un point clé : faire adopter ce système de géopositionnement par les constructeurs de matériels grand public, à commencer par les smartphones. Ce support vient tout juste d’être annoncé par Qualcomm pour ses Snapdragon : https://www.qualcomm.com/news/releases/2016/06/21/qualcomm-announces-broad-support-galileo-across-snapdragon-processor-and. Il faudra donc attendre les modèles 2017 pour en voir la couleur, sur Android en premier lieu.
La délocalisation du savoir faire industriel est un fait acquis en Europe en général et pas seulement en France. Je n’ai cependant pas vu de quantification de cette perte de savoir faire comparée entre l’Allemagne et la France. L’Allemagne est connue pour ses produits finis haut de gamme comme dans l’automobile et dans les machine outils. La France n’a jamais été bonne dans les machines outils, bien avant le phénomène des délocalisations. Comme je l’indique dans cette série d’articles, on importait des machines à tisser des anglais au début du 19e siècle pour s’adapter lors de la première révolution industrielle.
Oui, j’ai vu cette annonce de plan de Mathilda May. Pour l’instant, cela semble encore relever du plan consistant à faire un plan qui n’a pas été publié.
Ne pas se laisser berner par les solutions simplistes est déjà un progrès !
Bonjour Philippe,
Oui, bien sûr, tu as raison, le GSM ! J’en parle dans un des posts à venir de cette série, comme une bonne pratique oubliée et à reproduire de collaboration européenne. Même si le bénéfice économique est moins évident aujourd’hui, tandis que les grands équipementiers télécoms européens battent de l’aile. Le départ soudain du CEO d’Ericsson en est un exemple, pas encore élucidé d’ailleurs.
Oui, l’Etat ne peut pas aider directement l’innovation pour les raisons que tu évoques et que l’Etat chercher à contourner tant bien que mal. Mais comme il peut aider au niveau de la R&D, il le fait là où cela ne devrait pas être fait.
Pour Quaero, c’était foutu dès le départ, avant Sarkozy, car 1) ce n’était même pas structuré comme un projet unifié et 2) qu’il fallait se battre sur autre chose que chercher à concurrencer Google sur son terrain.
C’était un peu l’objet des PIA que de fournir cette manne financière destinée à financer le futur, notamment via la R&D.
Limiter le poids de la masse salariale de l’Etat passe par plein d’initiatives, dont l’efficacité par le numérique et par une simplification des textes. Mais je n’aborderai pas trop cela dans ces papiers.
Merci du feedback.
Pour l’affichage du sommaire à côté du document, ce serait plutôt une fonction de la liseuse PDF que du document. Malheureusement, Adobe Acrobat Reader ne sait visiblement pas afficher le sommaire du document à gauche du document. Il ne fait qu’afficher optionnellement les vignettes des pages. Il y a peut-être d’autres liseuses de PDF qui savent faire cela.
Il me semble que ce n’est pas financé par l’Etat mais par les collectivités locales ou des structures associatives locales comme Atlantic 2.0 à Nantes, qui existaient avant la French Tech et avaient déjà des sources de financement publiques et privées.
Les 200 m€ ne financent que des accélérateurs, et en fonds propres avec un % au capital.
Ces accélérateurs prenant eux-mêmes des parts dans les startups accompagnées, et les récupérant en cas d’exit de ces startups. On attend de valider ce modèle économique en France. N’est pas Y-Combinator qui veut !
J’ai vu, en préparant la seconde partie, que je Japon avait été utilisé comme référence dans le Rapport Beffa en 2014. Mais c’est loin d’être une belle référence maintenant. L’industrie japonaise a perdu des parts de marché face aux chinois et aux coréens. Elle s’est rabattue vers les composants (cf http://www.eu-japan.eu/sites/default/files/publications/docs/nanotechinjapan.pdf), va mal dans la partie grand public (cf Sharp, Toshiba), fait sa mue vers les énergies renouvelables (Panasonic), etc.
Le Japon étant deux fois plus grand que la France en habitants et PIB, ils ont un marché intérieur plus important pour leurs grandes entreprises, ce qui les handicape pour l’international.
Leur écosystème de startups est quasiment inexistant pour des raisons culturelles. Le tissu industriel ne se renouvelle donc pas assez. La notion de plateformes leur est étrangère car leur culture logicielle est faible, comme ailleurs en Asie. Qui plus est, leur population décline.
Leur modèle d’intervention publique a consisté par le passé à lancer quelques grands projets, comme dans les supercalculateurs, financé par le MITI (leur Ministère de l’Industrie). L’influence de ce Ministère (devenu METI) et de ces grands projets a ensuite décliné, depuis au moins 15 ans.
Il y a eu des efforts de création de clusters comme à Tsukuba (au Nord) ou Fukuoka (au Sud). Et le plan du Ministre Hiranuma en 2001, de création de 1000 startups à partir des universités. Cf http://www.meti.go.jp/english/information/data/cPlan010525e.html. J’ai l’impression qu’ils ont une vision de l’innovation “linéaire” allant de la R&D au marché, comme dans une bonne partie de la France d’aujourd’hui.
Bref, c’est loin d’être un modèle de référence d’intervention publique. C’est plutôt devenu dans les faits un modèle de faible interventionnisme public. En tout cas, comparativement aux USA comme à la France.
Merci Philippe,
Intéressant, je découvre. Mais dans la pratique, plutôt anecdotique ! Car 11500 terminaux en tout, c’est loin d’en faire des exportations significatives. Une véritable goutte d’eau.
L’article de Libération est aussi éloquent : France Télécom se décide à exporter le Minitel en 1992, onze ans après son lancement en France. Une curieuse idée du time to market. Surtout dans la mesure où le Minitel n’avait pas besoin d’upgrade des infrastructures télécoms puisqu’il fonctionnait sur le réseau téléphonique commuté.
On peut aussi dire que le Minitel à permis à des entrepreneurs comme Xavier Niel de démarrer, puis ensuite, de créer Iliad/Free. Qui, malheureusement, n’est pas véritablement devenu un acteur international, malgré une petite diversification de son fondateur (Monaco Telecom, Golan Telecom, 42 aux USA, …).
Olivier
Oui, en effet, Apollo 1…
Il y a toujours la Crunchbase devenue payante pour une exploitation des données. En France, le projet CanopeeZ est en train de voir le jour dans ce domaine.
Est-ce un pb d’Etat stratège ou simplement, un échec d’ingénieurs ? D’autres pays, USA compris, ont eu des échecs technologiques. La question est de savoir les interpréter, de corriger le tir et d’aller de l’avant. Sinon, les 3 morts d’Apollo 7 en 1967 auraient empêché d’aller se poser sur la lune en 1969 ! Deux ans seulement séparent les deux événements. Aujourd’hui, on attendrait bien plus longtemps !
Il n’y a pas que la Bpi, il y a aussi tous les PIA gérés par la DGE avec moult appels d’offres. Oui, il y a une très grande distribution des financements. Mais il est aussi assez élevé aux USA. La principale différence aux USA est l’effort de R&D fédéral dans le complexe militaro-industriel (armée, renseignement) qui représente la moitié des investissements américains. En France, les investissements portent plus en proportion sur les technos civiles. Et surtout, tout ce qui est fait aux USA est x fois plus important qu’en France, avec x allant de 7 à 20 selon les cas. On est un plus petit pays, c’est tout. Donc, en effet, on devrait moins saupoudrer. Or, on fait le contraire comme je vais le décrire dans le second article.
Bien sûr. Mais l’administration américaine distribue aussi des subventions et prêts dans un tas de domaines. Pas seulement chez Tesla. Il y a le solaire, la génomique, etc.
C’est documenté notamment ici : https://medium.com/insurge-intelligence/how-the-cia-made-google-e836451a959e#.ctea1aiuy. Mais sans préciser les montants qui devaient être assez faibles à l’époque, car il s’agit de financement de projets universitaires de Stanford.
En effet. Leur construction était planifiée mais a été ensuite annulée. Ce que j’ai précisé par un ajout entre parenthèses.
Le topinambour se cuisine à toutes les sauces ! Tu as ma bénédiction Pierre ! Il y a aussi, le Brexit et le topinambour ! Parce qu’avec la faiblesse de leur agriculture, les anglais vont énormément dépendre de l’Europe côté topinambour !
Gilles Babinet ne parle jamais du topinambour. Il est très focalisé sur le big data et les MOOC ! 🙂
Merci. Mais était-ce valable dans des offres grand public en 2009 au moment de la rédaction de cet article ?
Excellent ce papier sur les Blockchains qui remet les pendules à l’heure sur l’enthousiasme un peu débridé du moment. Merci !
Ca dépend du marché visé et de l’originalité de la solution ! Il ne peut pas y avoir de réponse absolue à ce genre de question !
Non.
Mais vous trouverez peut-être la réponse dans cet événement : http://www.systematic-paris-region.org/fr/evenements/seminaire-captronic-cybersecurit-iot-et-systemes-embarques
Oui, j’ai bien vu ton papier ! Très bien !
Pour que la programmation soit robotisée, il faudrait aussi que les besoins des clients le soient. Or, ils changent tout le temps… et ils ne savent pas forcément bien l’exprimer. Aller, zou, toutes les PME auront le même template de site web comme cela, ce sera plus simple 🙂 !
Oui, en effet. C’est d’ailleurs un point soulevé par les tests réalisés sur les ordinateurs quantiques de D-Wave par Google. En utilisant des algos optimisés pour ordinateurs traditionnels, le D-Wave n’est pas plus rapide avec ses algos dédiés ! L’IA se définit plus par ses effets que par ses techniques. Si une technique permet d’ajouter de l’intelligence à une machine mais qu’elle ne repose pas sur du machine learning ou des réseaux neuronaux, cela reste une forme d’IA.
Merci Hervé !
Il y aurait matière à gamberger sur le fonctionnement des démocraties dans le monde complexe. La démocratie classique demande de la simplicité dans les messages, ce qui pousse au populisme ou bien, au minimum, à décider des choses contradictoires comme dans le domaine économique.
Comment gérer la démocratie dans une société de plus en plus complexe ? C’est une méga-question. Cela passe par l’éducation et les médias en effet. Egalement, par un développement de la culture scientifique et technologique qui a tendance à aller complètement à vau-l’eau.
Anecdotes :
– D’un côté, Laurent Alexandre (fondateur de Doctissimo et DNAvision) m’a félicité pour ma “synthèse”. Mes 9 articles font 134 pages A4 soit l’équivalent d’un bouquin. Donc, considéré, à juste titre d’ailleurs, comme une synthèse de la question.
– De l’autre, une chaîne de TV m’a récemment demandé de résumer “ma synthèse” en deux minutes. J’ai débordé, et fait 3 minutes.
Tout est dit…
Olivier
Je ne suis pas inquiet sur la vitesse d’apprentissage car on ne parle pas de la même chose : les machines n’apprennent pas de nouvelles méthodes plus rapidement que l’Homme, elles vont plus vite à gérer de gros volumes d’information. La créativité, le fonctionnement par analogie, la reconnaissance de patterns (au sens large) sont des compétences transversales qui s’apprennent et que les machines n’ont pas encore. On doit les développer. Qui plus est, les machines font ce que l’Homme lui dit de faire. On gamberge sur la perte de contrôle du processus quand la machine apprend par elle-même. Mais cet auto-apprentissage est pour l’instant limité. C’est le problème de la représentation symbolique dans les machines, un domaine où l’on bloque pour l’instant.
La formation des systèmes experts ? C’est mythe des années 1980 qui s’est bien évaporé depuis. Parce qu’il est difficile d’encoder le savoir des experts. On a remplacé les systèmes experts par la force brute du traitement de données, par le traitement du langage, qui permettent de modéliser le savoir de manière très approximative, comme le fait Watson dans Jeopardy ou bien Google Search.
Mais ces différences de vitesse d’apprentissage se manifestent déjà sans l’IA : dans le monde du travail, la non maîtrise des outils numériques et technologiques est déjà un énorme handicap. Une PME qui n’a pas de site web en anglais ne peut pas exporter facilement, etc. L’Histoire a montré que les économies et civilisation qui progressaient le mieux étaient celles qui s’appropriaient à grande échelle les progrès technologiques, aussi bien dans la production que dans la communication, et qui faisaient évoluer leurs démocraties au passage.
Pour ce qui est de la peur, je suis circonspect. Je ne pense pas que la peur bloque l’adoption tant que la valeur est là. Sinon, personne n’utiliserait Facebook ou Google ou même un micro-ordinateur, tant les risques dans la sécurité ou dans la vie privée sont importants. Oui, la culture française est peureuse dans l’ensemble et cela peut ralentir sa capacité d’assimilation de nouvelles technologies. On l’a vu dans le cas des OGMs ou dans la position de la profession médicale vis à vis de la génomique.
Oui, bien sûr, c’est en GHz, je corrigé évidemment. Une faute d’inattention quand on remplit un énorme tableau avec plein d’unités différentes. Le pire est ce qui concerne l’énergie et la comparaison entre mAH et Wh, qui dépend de la tension.
Pour la comparaison de puissance des processeurs, j’ai utilisé les Passmark pour les CPU et les G3D Benchmark qui sont couramment utilisés dans des sites comme https://www.cpubenchmark.net/. Donc, peut-être pas la même chose que les Flops, mais il me semble que les proportions sont les mêmes.
Pour les disques durs, je n’ai effectivement comparé que la vitesse des bus et pas celle des disques car je n’ai pas trouvé de benchmarks précis sur les disques de ces deux laptops. Sur un desktop, avec un HDD 7200 rpm, on atteindrait une vitesse de lecture proche de 80 Mo/s donc une évolution de x6 sur 10 ans ce qui est pas mal mais en deçà de la loi de Moore. Avec x10, on est aussi en-dessous de Moore. Cqfd.
Ah ! Je viens de terminer ces deux bouquins et vais en faire une petite synthèse dans l’article suivant (le 9e) et dernier de la série sur l’impact de l’IA et de la robotique sur l’emploi. J’ai parcouru comme cela un grand nombre de livres sur ce sujet.
Dans ma synthèse, j’indiquerai ce qui peut éventuellement manquer de manière générique dans leurs analyses. En général, un manque d’approche macro à l’échelle mondiale. Ces bouquins sont un peu trop US-centric. Ils évacuent aussi un peu rapidement les aspects énergie – matières premières – environnement – démographie. Enfin, ils ne s’attardent pas du tout sur la réalité scientifique et technique du sujet qu’ils abordent. C’est un “given” pour eux, sans beaucoup d’analyse critique.
OK. Je corrige Watts/h en Watt (puissance).
Merci Laurent. J’ai donc précisé cela à chaque fois dans l’article !
Merci ! Par esprit de contradiction, je les ai mis dans la catégorie e-commerce car cela a l’air d’être leur cœur de cible client, au sens large du terme.
J’évoquais ce flou autour de la notion d’IA dans le premier article de la série entre IA faible et IA forte. L’IA restera probablement très longtemps faible et mono fonction en effet.
Pour ce qui est de la reco de pièces de monnaie, il s’agit surtout d’un système de reco d’images et de rapprochement avec des bases de données.
Oui, c’est clair. D’où l’intérêt d’actions de ceux qui se bougent pour monter le niveau et sortir de l’assistanat qui gangrène l’île !
Merci du feedback.
J’ai bien prévu de parler de Snips dans la sixième partie, dédiée aux startups françaises !
D’autres français à ne pas oublier ?
Non pas vu. C’était un peu “hors scope” par rapport au thème de ma visite.
Corrigé. L’erreur n’a pas été relevée par les zoreys qui ont relu l’article… 🙂
Je ne sais pas trop, à part potasser un bon bouquin sur la comptabilité standard d’entreprises !
Pour la version epub, jai juste besoin de volontaires pour la produire à partir de la version Word. C’est du travail car il faut réintégrer les encadrés dans le corps du texte. Ceci étant, cela a été testé dans une version antérieure et l’expérience montre que cela n’intéresse que 2% des lecteurs, donc effectivement c’est du luxe en terme de retour sur investissement temps.
Pour la notification de réponses à des commentaires, ce n’est pas une option par défaut dans WordPress pour des utilisateurs non enregistrés (il n’y a pas d’utilisateurs enregistrés d’activés sur ce blog). Je pourrais éventuellement installer un plugin qui ajoute la fonctionnalité. A étudier au calme un de ces jours !
Bonnes idées ! Le point de départ peuvent être les deux rubriques sur le développement international (l’une dans la première partie sur les basiques et l’autre dans la description de l’écosystème). Elles ne demandent qu’à s’enrichir.
Pour ce qui est de la high-tech, c’était un biais initial du document qui s’est un peu estompé avec le temps. Je viens d’intégrer une rubrique sur l’ESS. Une bonne partie des conseils sont génériques sur l’entrepreneuriat mais d’autres plus proches des startups qui sont pour l’essentiel dans le numérique ou dans la santé. Notamment quand j’aborde les notions de produits.
Je prévois d’ajouter une rubrique sur le monde de la santé dans la prochaine édition pour élargir le champs.
En tout cas, oui, les bonnes volontés et contributions créatives sont les bienvenues !
OK, je corrige.
Ajouté, presque instantanément ! Ceci étant, ce tableau existe depuis quelques années… 🙂
Il y a tout de même des introductions, une conclusion, des parcours de visite du guide (Margaux Pelen), etc ! Quand la pagination serrée, si elle ne l’était pas, le guide ferait 1000 pages ! Une version courte est en préparation. Stay tuned.
OK. Ajouté et mis en ligne !
Bonne remarque ! Il me semble que le chipset supporte le décodage HEVC 10 bits et que le reste est une affaire de logiciels. Je me renseigne à la source pour voir !
Pourquoi pourquoi pourquoi…
C’est très simple : conserver son client, le fidéliser, lui proposer des services packagés. Un marché horizontalisé où l’on choisirait sa gateway indépendamment de l’opérateur n’est évidemment pas son intérêt. Il ne veut pas être un simple tuyau. C’est même sa hantise.
Sinon, les telcos font peu de firmware. Ne pas confondre avec le middleware. Une gateway contient surtout un ou deux chipsets qui concentrent la valeur et un middleware pour le management au-dessus. Chez Orange, il vient de SoftAtHome. Habituellement, les box TV sont moins fiables que les gateways des telcos.
Il est fort probable cependant qu’un phénomène de “débundle-isation” des box pourrait se produire, mais en commençant d’abord par la box TV. La gateway arrivera bien après.
Maintenant, il faut se garder d’extrapoler une expérience personnelle à tout le marché. En général, les box fonctionnent sans broncher. Et puis des bugs attribués aux boxes peuvent provenir d’ailleurs, comme du réseau. En ADSL, cela peut venir de la qualité de la paire torsadée (il m’est arrivé d’avoir des coupures de ma box et cela venait de là). Des coupures de fibre sont normalement plus rares.
Et puis, sinon, tout ce qui est informatique plante. Les PC plantent tout le temps. Même les Macintosh ont des problèmes. Les smartphones se bloquent facilement, y compris l’iPhone qu’il faut parfois rebooter pour retrouver le réseau 4G/3G. Est-ce que les gateway des telcos plantent plus ou moins souvent que ces appareils génériques ? Je n’en ai pas l’impression. Mais pour en être sûr, il faudrait disposer de statistiques des opérateurs.
Sinon, c’est bizarre : votre ERLITE-3 a l’air d’être un simple switch Gigabit 3 ports. Ce n’est pas une gateway fibre. Donc comment remplacez-vous une gateway Livebox par un simple switch ?
Bel article auquel je souscris ! Je vais m’épancher sur cette question du dépassement de l’homme par la machine dans le dernier article de cette série !
En fait, la 3D est très ancienne et survivra. Quand j’ai visité la foire de la photo de Bièvres il y a quelques années, j’ai été étonné d’y trouver plein d’appareils photos argentiques 3D d’avant-guerre ! Exemples : http://www.oezratty.net/wordpress/photos/?ws=geECBN et http://www.oezratty.net/wordpress/photos/?ws=geECBP.
La définition des écrans n’a pas besoin de monter jusqu’au ciel. Elle est limitée pratiquement par celle de l’oeil. Déjà, pour un écran 4K, il faut avoir un format supérieur au 55 pouces à 3 mètres pour faire la différence avec du Full HD. Sur un mobile, le Full HD est déjà à la limite de la résolution de l’œil pour un 5 pouces ! La 8K n’a donc d’intérêt pratique que pour les salles de cinéma et conférences, ou pour le marché domestique, à partir d’un format de 65/75 pouces environ. Ca calme !
Je ne connaissais pas les filières d’écoles de commerce sur l’accompagnement à l’entrepreneuriat. J’interviens dans les filières entrepreneuriale de certaines écoles de commerce comme HEC ou Neoma et je constate en fait qu’un grand nombre des élèves qui les choisissent ne n’orientent pas d’emblée vers la création d’entreprise. La plupart vont suivre une carrière plutôt classique dans les entreprises traditionnelles. La filière entrepreneuriale est choisie parce qu’elle est hype, généraliste et un peu passe-partout pour la suite.
Oui, j’ai sinon découvert juste après cet article la présence de BNP Paribas Real Estate au CES de Las Vegas, ils étaient sur le stand de La Poste ! Mais bon, ce n’est pas l’activité centrale du groupe. Ceci étant, IBM était auparavant aussi une banque, pour financer (avec intérêts) les achats de mainframes de ses clients. Maintenant qu’ils vendent moins de matériel, cette activité s’est estompée.
On observe depuis des décennies un flux et un reflux des grandes entreprises entre leur métier d’origine et les métiers périphériques. Les études macro-économiques montrent qu’en général la diversification à outrance n’est pas la plus génératrice de valeur qui soit.
Elles ne l’étaient pas toutes mais une bonne partie, dans le haut de gamme. La nouvelle, c’est que les constructeurs vont retirer cette fonction qui avait un coût (filtres polarisants au minimum dans les dalles LCD + processing associé + lunettes). Alors que la couleur, elle n’est pas retirée pour ceux qui aiment les films en noir et blanc.
Le cinéma en 3D continue d’attirer les audiences les plus jeunes au cinéma. Mais pas au point d’en faire un “must have”. C’est même un repoussoir pour les autres. J’ai bien cherché ma salle en 2D pour aller voir Star Wars VII, et en VO of course. Mais je suis du début de la génération X !!!
Très intéressant, merci ! Il remet bien les pendules à l’heure sur les visions approximatives de Ray Kurzweil et consorts.
C’est l’un des articles de blog les plus longs que j’ai jamais vu ! D’ailleurs, il date de juillet 2015 et il n’a toujours pas publié la seconde partie annoncée. Il a d’autres papiers intéressants sur le deep learning avec les GPU que je cherchais pour ma seconde partie !
Agreed. On a trop tendance à identifier les métiers qui disparaissent et à ne pas imaginer ceux qui peuvent apparaître !
Merci. Je les ajoute dans les antériorités du concept de l’IA et vais m’intéresser aux réseaux neuronaux dans la seconde partie.
Oui certainement, cela mériterait ce genre de seconde partie mais je ne suis pas inspiré sur la question ! Elle est d’un autre ordre que le thème central de cet article. Elle relève de la relation client-fournisseur, des “CGU” comme on dit, et aussi de la création de marchés bifaces d’un genre nouveau avec un consommateur qui accède à un service plus ou moins gratuit et ses données qui sont monétisées non pas pour de la publicité comme d’habitude mais pour d’autres besoins, comme la modulation de polices d’assurances.
Dans ces cas de figure-là, cela pose des questions éthiques importantes du genre : est-ce la fin de la mutualisation des risques ? Est-ce la course à leur hyper-individualisation ? Et donc à l’émergence de nouvelles formes d’inégalités de traitement, justifiées ou pas ? Pour l’assurance automobile modulée en fonction du style de conduite, cela peut se comprendre car cela serait dans la lignée des bonus/malus existants. Pour l’assurance santé, cela dépend : si c’est en fonction du style de vie et d’alimentation, why not, mais avec une objectivité de la mesure à garantir. Si cela devient lié à des pathologies qui ne sont pas liées au style de vie, alors là, le Rubicon serait largement dépassé !
Saine lecture deux ans après cet article: https://www.technologyreview.com/s/600781/technical-roadblock-might-shatter-bitcoin-dreams/
Très bon article de Ben Costandini sur les événements et les startups dans le monde et comment les organiser pour qu’elles trouvent leur compte: https://medium.com/@objetivarte/5-ways-events-help-startups-grow-35414adf3f5d#.qg8cw4shh
Tous les métiers sont concernés donc les journalistes bien évidemment. Mais il ne s’agit pas à proprement parler d’une profession libérale. Les pigistes, il y en a de plus en plus, sont plutôt dans la catégorie des auto-entrepreneurs.
D’où le risque fort d’automatisation…
Heureusement qu’il y en a qui suivent ! J’ai déplacé ce bout mal placé dans la partie sur les professions médicales. Merci !
Oui, tous les secteurs peuvent être potentiellement touchés. Mais les équations économiques et les contraintes technologiques en protégeront certains plus longtemps que d’autres. Il faut nuancer les jugements à l’emporte pièce !
On en fait probablement un peu trop, cf http://www.oezratty.net/wordpress/2015/grande-intox-objets-connectes/, mais c’est injuste de dire qu’ils ne se vendent pas. Leurs ventes sont en croissance et elle dépend des secteurs. Les wearables se portent mieux que les objets de la maison connectée. Le marché des montres connectées a plus que triplé en 2015 du fait de la sortie de l’Apple Watch. GFK France va publier les chiffres de vente en France la semaine prochaine sur 2015 et on en saura un peu plus. Ensuite, il y a les objets connectés dans les environnements professionnels et c’est un marché également en plein développement.
Après, oui, ils posent des problèmes de sécurité. Mais l’usage d’Internet, des micro-ordinateurs et des mobiles aussi et cela n’empêche pas des milliards de gens d’en utiliser tous les jours !
Just call 911… 🙂 !
Et voilà… http://techcrunch.com/2016/01/19/is-bitcoins-promise-going-up-in-smoke/
Pourquoi pas. Mais as-tu des sources ? Et le genre de statistiques que tu aimerais avoir ?
Oui, j’enrage de ne pas vous avoir repérés. En fait, vous êtes tout de même cités en page 50 comme ayant pitché à la soirée French Entrepreneurs. Mais vous n’apparaissez pas dans l’annuaire des exposants. Sur Internet, on trouve que vous étiez au CES avec Laval Virtual. Et au bout du compte, je vous retrouve sur le stand et dans le keynote d’Intel (auquel j’ai assisté mais sans savoir que vous étiez français lorsque j’ai vu la démo de scan 3D). Vous étiez moins faciles à repérer qu’Ubisoft dans ce keynote !
J’ai donc en tout cas mis à jour la liste des français du CES. On en est maintenant à 251.
OK, noté.
Pour l’anglais, il faudrait trouver quelqu’un pour traduire 150 000 mots en quelques jours et gratuitement. Ou à l’envers, de l’anglais en français si je le faisais en anglais. Pas évident…
Volontaire ?
Parce que mes clients sont pour la plupart francophones ! Si j’écrivais en anglais, j’aurais moins de lecteurs en France, donc je m’éloignerai de mon marché. Je n’ambitionne pas de devenir un consultant international passant son temps dans les avions…
Je ne sais plus trop. J’ai dû déjà expliquer cela par le passé soit dans le post soit dans le rapport. Mais il faut le rappeler chaque année !
Bien je vous supprimais de la liste des boites faisant de la géolocalisation d’intérieur ! Simple. Je précisais dans ma réponse que les solutions applicatives outdoor existaient déjà. Je ne vais pas en faire une tendance de ce salon. C’est tout ! C’est peut être un peu court mais c’est factuel. Toutes les sociétés exposantes au CES aimeraient bien être dans les tendances clés du salon ou gagner des awards. Il y a peu d’élus ! Faut-il justifier à chaque fois pourquoi on ne cite pas untel ou untel ? Non !
Je suis bien allé voir ce que vous faisiez ! A noter que dans le Rapport du CES, je me focalise sur ce qui fait la spécificité de ce salon : le matériel, éventuellement couplé à du logiciel. Les solutions purement logicielles sont un peu hors sujet dans ce salon. Ce d’autant plus qu’il y en a des myriades.
Quelques pistes ici et là : http://english.alarabiya.net/en/perspective/analysis/2015/10/25/Why-has-Israel-gone-quiet-over-ISIS-.html et http://www.nytimes.com/2015/12/11/opinion/let-israel-fight-isis.html.
Ah bon, erreur de ma part. J’ai donc supprimé votre nom de la liste puisque vous n’êtes pas dans le sujet de l’indoor, mais plutôt de l’outdoor qui est moins nouveau.
Une chose a changé qui rend plus difficile les “complots invisibles” comme ceux que l’on a connus jusqu’aux années 1980 : l’Internet, les réseaux sociaux et les mobiles.
Mitterrand a pu cacher sa fille pendant ses deux septennats (jusqu’en 1994). Hollande n’a pas pu cacher sa liaison avec Julie Gayet ! Ce n’est pas simplement parce que Mitterrand était plus prudent que Hollande et utilisait l’appareil d’Etat pour se protéger, mais aussi parce que l’information circule maintenant plus facilement.
Pour ce qui est de la NSA, il ne faut pas lui donner un pouvoir qu’elle n’a pas. Elle sert principalement au “Sigint”, la collecte d’informations par des moyens techniques. C’est l’équivalent de la Direction Technique de notre DGSE.
L’exploitation de l’information est du ressort des services utilisateurs : la DIA, le Pentagone, la CIA et l’exécutif. Si coups bas il peut y avoir, il faut surtout chercher chez ces derniers, pas à la NSA. Les “coups bas” de la NSA sont essentiellement liés à la manière de collecter les renseignements : interception des lignes optiques Internet qui relient ce dernier aux USA, stations d’écoute dans les ambassades, etc. Ils doivent aussi protéger leurs infrastructures, situées principalement aux USA et dans les pays associés du Commonwealth (UK, Australie, …).
Je n’y crois pas une seconde pour ce qui est du gouvernement français. Monter un tel projet serait à la fois compliqué et suicidaire d’un point de vue politique. Aucun secret ne peut être préservé, au moins sur le long terme. Pour ce qui est d’autres pays, notamment non démocratiques, c’est une autre histoire.
A supposer que le pouvoir en place ait intérêt à ce qu’un tel attentat ait lieu, il n’a qu’à ne rien faire et attendre qu’il arrive tout seul. Le montage peut être au mieux le résultat d’une forme de passivité devant un risque identifié. Mais là encore, je n’y crois pas pour ce qui est de l’actuel gouvernement et du 13 novembre. A noter que lorsqu’il y a une faille “des services”, on leur prête des intentions sombres alors qu’il ne s’agit que de problèmes de manque de moyens et, parfois, d’incompétence.
ISIS existe bel et bien. Ce n’est pas un rêve.
L’histoire est complexe, c’est ce qui fait son charme. Quel est votre point de vue sur le déclin de l’empire Ottoman à partir du 13ième siècle (pour certains) ou du 16 ième (pour d’autres) ? Mon point initial était de comparer l’évolution de l’Europe par rapport à l’empire Ottoman du point de vue économiques, scientifique et technologique entre le 13ième et le 19ième. Les parcours ont été bien différents tout de même !
Quand je serais grand, je ferais comme Vinvin !
Merci pour cette mise en perspective intéressante. Je maintiens cependant mon point dans l’ensemble que je n’ai d’ailleurs pas inventé mais trouvé dans de nombreuses sources diverses sur l’histoire de l’Europe.
Les guerres de religion protestants/catholiques ont été concentrées sur le 16ième siècle. En Europe, ces guerres comme la guerre de trente ans ne s’expliquent pas que par les conflits religieux.
Les chasses aux sorcières ont démarré bien avant la Renaissance. La monarchie absolue a surtout, avec Louis XIV, mis un terme aux pouvoirs régionaux des seigneurs locaux. Elle n’a pas ralenti les progrès culturels et scientifiques en France.
Pendant le même temps, le Royaume-Uni a été constitutionnellement bien plus stable, même si quelques rois, reines et conseillers ont perdu leurs têtes. L’Allemagne s’est progressivement consolidée, même s’il a fallu attendre Bismarck pour en venir à bout. Et Garibaldi en Italie.
Le développement culturel, économique et scientifique européen a tout de même bien connu une accélération entre les 16ième et 18ième siècles malgré tous les faits historiques que vous rappelez.
La mise en abîme de l’inquisition mérite d’être faite : 1492 correspond à la fois du départ de Christophe Colomb vers l’Amérique et à l’expulsion des juifs d’Espagne.
1685 est la révocation de l’Edit de Nantes en France.
Dans les deux cas, cela a contribué à un brassage de populations en Europe qui a eu des effets bénéfiques indirects pour les pays ayant accueil les juifs d’Espagne et les protestants français. Sur le long terme, l’Espagne et la France y ont perdu au change.
Le cas des colonies est aussi intéressant : il correspond bien à une période de développement économique et scientifique de l’Europe. Au détriment des populations envahies ou exterminées comme en Amérique ou en Afrique et dont les ressources naturelles comme humaines ont été exploitées. L’alignement entre développement économique et droits de l’homme n’a jamais été parfait. La Chine est un bon exemple encore aujourd’hui.
Mais OK sur le fait que l’on a trop tendance à noircir la période du Moyen-Age européen.
Avant le 12ième, l’éducation et l’enseignement en Europe étaient sous la main mise totale de l’église. C’est au 12ième siècle que l’université de Paris a été créée ainsi que celles du Royaume Uni et de ce qui est l’Allemagne aujourd’hui. Ce décollage intellectuel et pour une bonne part séculaire représente une différence importante avec le monde musulman de cette époque, voire encore aujourd’hui.
Ceci étant dit, sur ces trois papiers sur les origines du 13 novembre, il y a forcément plein de choses sur lesquelles on peut tiquer. Le contraire serait étonnant.
J’ai vu ce qu’ils faisaient sur place. C’est bien, mais un peu loin de ce que j’avais en tête en termes de densité technologique. Je vais les citer dans le Rapport complet en tout cas.
je répondrais au premier point dans le Rapport complet mais vous pouvez obtenir les chiffres en consultant le site du ces
pour l’age des visiteurs et exposants, je ne suis pas sur que des stats existent
a vue d’oeil, toutes les classes d’âge sont représentées. de jeunes exposants comme le nantais de moins de 20 ans derrière sensorwake jusqu’à des rédacteurs de médias américains ´régionaux’ plus que séniors et en chaise roulante !
Oui, la reco vocale est très présente. Mais bon, ce n’est pas très nouveau.
Je suis moins enthousiaste que toi sur e-ink. Je suis passé sur leur stand et vu leurs références clients. Il n’y en a vraiment pas des masses. Surtout dans des produits grand public. Ils s’orientent plus sur du professionnel.
Tout à fait !
Je vais voir ce qu’il est possible de faire. J’ai déjà intégré quelques liens internes dans le document notamment reliant la partie produits avec la partie composants. Je n’ai par contre pas compris le premier point sur les titres de section. J’utilise Word et sa sortie PDF pour générer le rapport.
J’aurais tendance à répondre que les trois religions du livre peuvent obstruer les facultés humaines de discernement des croyants. Il n’y a qu’à voir les fondamentalistes de chaque bord : les fondamentalistes chrétiens américains et leurs thèses sur le créationnisme et les fondamentalistes juifs d’Israël qui sont allés jusqu’à assassiner Rabin en 1995 et continuent de donner le mauvais exemple en exacerbant les tensions avec les palestiniens.
L’Islam se distingue des deux autres religions du livre car il porte un projet politique qui est toujours d’actualité pour une partie de ses croyants. Autant les chrétiens et les juifs ont accepté le sécularisme presque partout, même s’il subsiste le “In god we trust” aux USA, qui est relativement anodin, autant ce n’est pas le cas dans les pays musulmans. La charia fait partie de la loi dans nombre de ces pays, même si c’est de manière plus ou moins édulcorée selon les cas. Autre point inquiétant, les pays riches et musulmans ne sont pas plus progressistes que les pays pauvres et musulmans. Donc, ce n’est pas qu’une affaire de richesse et de développement économique.
La modernité n’est pas suffisamment au rendez-vous sur le rôle des femmes dans la société, sur le rôle de l’éducation, sur la place des sciences.
Quand à “l’humiliation”, elle est mise à toutes les sauces dans l’histoire de l’Islam. Les Califats et l’Empire Ottoman ont aussi humilié leurs voisins pendant plusieurs siècles. Ils ont raté la révolution industrielle pour des raisons que j’évoque dans le troisième article de la série. Les pays européens se sont ensuite développés grâce à leur colonialisme. Mais celui-ci n’était qu’une pâle copie du colonialisme façon “califats”. D’ailleurs, dans certains pays islamiques et notamment chez les plus extrêmes, l’esclavage est toujours d’actualité.
Après, nous avons dans certains pays européens dont la France, une véritable humiliation des descendants d’immigrés d’Afrique et du Maghreb, mais pas (que) pour des raisons religieuses. Des noirs d’origine africaine et catholiques subissent aussi des discriminations en France ! Les Italiens et les Polonais qui arrivaient en France aux débuts du 20ième subissaient aussi un racisme généralisé et il s’est résorbé en quelques décennies. Dans le cas présent, cela dure depuis trop longtemps.
Quand par ailleurs, les comportements sont exacerbés avec la volonté affichée de ne pas s’intégrer (le voile, certaines traditions, …), cela ne fait qu’empirer la situation.
Je ne sais pas trop. Quel est serait d’ailleurs l’utilité ?
Je m’auto-commente avec ce très bon papier trouvé sur Forbes : http://www.forbes.com/sites/nickmorgan/2015/12/08/the-secret-formula-for-professional-public-speaking-happiness/.
Quote : “5. Learn voraciously. I love Mitch Joel’s word for this: an infovore. Always scanning the environment for new material, other people who know something about your area of expertise, and opportunities to become a student again will keep you energized, fresh, and relevant. I once worked with a speaker who had given the same speech for 16 years. Even the same (lame) jokes. She was terrified of change and the result was an ever-diminishing audience. Of course. Don’t let that happen to you. The Internet makes learning easy – take advantage.”.
J’explique cela dans cette partie de cette série d’articles : http://www.oezratty.net/wordpress/2012/technologies-sequencage-genome-humain-6/. J’ai aussi mis à jour l’état de l’art du séquençage dans cet article plus récent : http://www.oezratty.net/wordpress/2015/derive-exponentielles-3/.
On est en effet largués de ce point de vue. Ce, malgré les travaux réalisés en France, notamment à l’Institut Pasteur et au Généthon, pour contribuer au premier séquençage du génome humain.
La France peut encore se rattraper sur l’impression d’ADN. J’ai découvert cette semaine une startup prometteuse du secteur : DNA Script qui ambitionne de créer une solution technique bien moins coûteuse et plus rapide que les solutions existantes, dominées par les américains, comme chez SGI-DNA.
Oui, merci d’avoir détecté cela ! Cordialement, Olivier
Le pays l’est comme tous ceux de la région. Sa stratégie est voisine de celle de la Turquie, à savoir contrôler l’amont, avec le Jourdain.
C’est bien expliqué dans l’un des liens de l’article. http://www.lesclesdumoyenorient.com/Eau-et-conflits-dans-le-bassin-du.html
Quand un débat commence avec une critique de ce genre, c’est mal barré ! Vous pourriez être plus précis ! Ce d’autant plus que je cite de nombreuses sources qui elles-mêmes font référence à de nombreux travaux de spécialistes divers. Mais j’admets (dans la première partie), ne pas être un spécialiste du sujet.
Votre critique porte-t-elle d’ailleurs sur l’eau ou sur les énergies fossiles ?
Vous faites référence à Pierre Hillard, que je ne connais pas. Je consulte sa fiche Wikipedia (https://fr.wikipedia.org/wiki/Pierre_Hillard, qui relève surement de la propagande américaine), et je constate que le mec est aussi très biaisé, qu’il écrit dans Boulevard Voltaire (http://www.bvoltaire.fr/auteur/pierrehillard), débat avec Alain Soral, élabore des complots pan-européano-atlantiques genre “Nos politiciens sont porte-paroles et diffuseurs, pour la plupart inconscients, d’une politique conduisant à l’asservissement mondialiste.” etc. Bref, oui il a des avis et des opinions géopolitiques, bâti des constructions historiques à partir d’influences diverses. Mais ça pue.
C’est juste un point cassant quelques idées préconçues. La majorité des chiites ne sont ni arabes ni iraniens. Ils sont donc… issus d’autre part. C’est-à-dire, d’Asie comme je l’indique après, et aussi d’Afrique, dans une moindre mesure.
Bien oui, comme indiqué au début et à la fin, c’est pour la seconde partie.
Merci pour cette page de pub !
je n’en sais rien et ce blog n’est pas fait pour cela.
ceci étant, voici un lien qui sera peut-être utile : http://fr.kingofsat.fr/pack-canalsat.php
Malgré ses défauts, cela peut valoir le coup d’aller au Web Summit, comme visiteur ou exposant. La majorité des startups que j’ai interrogées ont trouvé cela utile.
La structure de coûts est sommes toutes raisonnable : on peut s’en tirer au pire à 1800€ de frais de conf, les vols low-cost ne sont pas chers pour Dublin (mais un peu plus pour Lisbonne) et avec Airbnb on trouve de quoi se loger pour pas cher non plus. C’est le temps qui est la valeur la plus rare car cela prend 3 à 4 jours en tout.
Il serait intéressant d’étudier le pourquoi du comment de l’avancement du progrès scientifique.
L’observation montre qu’il n’est pas véritablement plus rapide qu’avant. Si on prend l’exemple de la physique des particules, il a fallut des décennies pour vérifier la théorie des bosons de Higgs, parce que l’investissement du LHC de Genève qui l’a permis était gigantesque.
Dans la santé, le progrès des thérapies est encore bloqué par la durée des tests in-vitro puis in-vivo. Il se débloquera peut-être le jour où la puissance des processeurs sera telle que l’on pourra faire des tests in-silico à grande échelle. On en est encore très loin.
Ce qui s’accélère est la mise sur le marché et le test par les consommateurs de solutions diverses, souvent logicielles, qui intègrent peu ou pas de progrès scientifiques. C’est lié à la puissance des réseaux à l’échelle mondiale et au retour rapide d’expérience que l’on a d’une mise sur le marché. Ca conditionne la vitesse de l’innovation sociale des logiciels.
Le smartphone et ses usages en fait partie.
Mais les cycles d’évolution technologiques sous-jacents suivent un rythme assez stable: 2G, 2,5G, 3G, 4G, 5G. Ce sont des cycles à la fois scientifiques (OFDM, techniques de multiplexage du signal, …), technologiques (composants qui les gèrent) et industriels (déploiements de réseaux) qui prennent toujours du temps.
Parfois, cela se ralentit. Exemple récent avec la gravure en extrême ultra-violet (EUV) pour les masques de semi-conducteurs, une technique qui est bien plus longue à mettre au point que prévu (chez le hollandais ASML). Résultat : un ralentissement de la loi de Moore côté intégration. Même si les ingénieurs ont trouvé des parades avec le multi-patterning et les FinFET ou le FD-SOI. Cf http://www.oezratty.net/wordpress/2014/decouverte-fab-stmicroelectronics-1/.
Dans la santé, les protocoles de tests sont bien plus longs pour départager des dizaines de nouvelles thérapies contre, par exemple divers cancers ou maladies neurodégénératives, qui voient régulièrement le jour. La boucle de feedback reste lente par construction.
Bonjour Hervé,
J’ai déjà traité du sujet de la SU dans deux autres papiers : http://www.oezratty.net/wordpress/2015/strategies-industrielles-singularite/ et http://www.oezratty.net/wordpress/2015/derive-exponentielles-1/ et je me suis farci plusieurs ouvrages de RK cet été (Singularity is near, How to Create a mind et Transcend.
Les thèses de RK sont parfois intéressantes, parfois un peu trop déjantées (comme sa vision de la colonisation spatiale ou les nanomachines dans le corps humain). En lisant ses différent bouquins, j’ai surtout vu un patchwork extrapolant les travaux de recherche connus. Il met tout le progrès scientifique dans ses exponentielles ce qui est un peu abusif. J’ai l’impression que le progrès scientifique n’est pas si exponentiel que cela, même s’il peut s’appuyer dans pas mal de cas sur des progrès technologiques qui sont jusqu’à présent exponentiels.
L’autre aspect un peu désagréable de la SU est sa marchandisation galopante. L’executive program à $14K devient un truc “branché” du moment qui a déjà attiré quelques français. S’il est intéressant d’avoir une vision un peu anticipatrice de certains progrès technologiques, il faut éviter d’en avoir une vision simpliste, conserver une vision “humaniste” de ces progrès et aussi, savoir les appliquer aux stratégies des entreprises qui ne peuvent pas être très long terme.
Corrigé…
Merci pour la publicité pour ce service. C’est un peu hors sujet dans le cadre de cet article. Twilio est un service pur logiciel “OTT” au-dessus de HTTP, indépendant de la couche physique réseau utilisée (Ethernet, Wi-Fi, …). Ce n’est donc pas vraiment un réseau dédié M2M.
Merci Hugues pour cet éclairage !
Je suis entièrement d’accord avec ton dernier point sur la croissance lente de ce marché, que j’avais évoqué dans un papier précédent “La grande intox des objets connectés” : http://www.oezratty.net/wordpress/2015/grande-intox-objets-connectes/.
Pour les points précédents, je serais moins catégorique.
Qu’une startup fasse des effets d’annonce, certes. Mais la mise en place du réseau Sigfox en France et ailleurs a été réalisée plutôt rapidement, surtout comparativement à celle des réseaux 3G et 4G par le passé chez les opérateurs télécoms. Cf par exemple leur partenariat avec TDF en 2013 pour accélérer les choses. Comme une startup avance structurellement plus vite qu’un gros paquebot télécom et que le déploiement des réseaux M2M est plus léger que les réseaux GSM, il leur a été possible d’être établi rapidement. Les lacunes de ce réseau proviennent plus de ses capacités techniques réelles que de la rapidité de son déploiement.
Leur difficulté actuelle vient de ton dernier point : les cycles de vente sont lents dans l’industrie et les déploiements d’antennes ne sont pas accompagnés de suffisamment de déploiements d’objets connectés chez leurs clients. Qui plus est, le marché est déjà très concurrentiel à la fois sur les prix et sur les capacités techniques.
Certains spécialistes de l’IoT sont plus nuancés sur le besoin de mettre à jour le firmware des objets connectés quand ceux-ci sont simples, avec quelques capteurs et un bête micro-contrôleur. Est-ce que d’ailleurs les compteurs d’eau connectés actuels ont besoin d’avoir des mises à jour de firmware ? Est-ce d’ailleurs possible avec la technologie HomeRider actuellement déployée chez Veolia Eau, aussi dans la bande des 868 MHz ? Cf http://www.homeridersystems.com/public/pdfs/Cyble_Water_Trak_FR_SPT_20090622.pdf.
One more…
C’est une sorte d’architecture “mesh” ?
Je viens de les ajouter dans la seconde partie où je traite des produits qui agissent sur le sommeil : http://www.oezratty.net/wordpress/2015/dormir-objets-connectes-2/.
A ce stade, il est difficile de juger, au moins sur la partie scientifique car même s’ils ont un bon “backing” de ce côté là, leur procédé n’est pas du tout documenté, aussi bien dans le fonctionnement du système que dans des papiers scientifiques prouvant qu’en émettant telle ou telle onde vers le cerveau, on lui permet de mieux dormir. Il est possible qu’ils soient prudents dans leur communication pour éviter de révéler quoi que ce soit avant dépôt et validation de brevets…
Oui, en effet. Je ne vais pas tous les citer car la liste est assez longue ! Surtout dans la mesure où il s’agit maintenant de fonctions commoditisées.
On joue sur les mots. Je suis d’accord avec ton point sur le fait que le vécu est déjà un succès. J’évoque au début le cas de “plantage” au sens de la disparition de la startup. Qui est tout de même un peu moins bien vécu que lorsqu’elle se développe avec succès !
Je l’ai aussi intégré dans l’édition 2015 du Guide !
C’est toujours vrai. On peut en effet dire cela dès lors qu’un marché n’est pas encore bien structuré. Il est cependant difficile d’identifier des programmes industriels qui prennent le chemin indiqué par Henri et Nicolas dans leur papier.
Et il y a aussi les nombreuses startups qui n’arrivent pas à atteindre leurs (modestes) objectifs en crowdfunding. Mais ça me semble plutôt normal. Toutes les grandes ruptures technologiques ont attiré des entrepreneurs mal préparés et un peu amateurs. Après, la sélection se fait naturellement.
Mince, horrible confusion ! J’ai corrigé dans le texte. Merci de l’avoir signalé.
Oui, ce site est extraordinaire ! Au passage, c’est un site créé par une agence de communication marketing UK, rehabstudio ! D’où l’humour un peu British du site !
D’où la distinction que je fais entre le monde industriel et celui des produits destinés au grand public. La connectivité est déjà ancienne et continue de se développer dans l’industrie. Dans le grand public, le sujet est plus jeune et se cherche encore !
Je n’ai lu que le début et quelques passages à ce stade. La partie qui recommande de remplacer les sucres lents par des graisses saturées est tout de même un peu curieuse, et pas très bien étayée ! Il y a bien entendu des idées préconçues sur la question. Mais c’est un peu léger de traiter la connaissance existante de “pseudo science”.
Plutôt moins bien. La poussée de la consommation non linéaire, qu’il s’agisse de TV de rattrapage ou de VOD et S-VOD attaque inexorablement les sources de revenus des TV classiques : d’un côté la pub et de l’autre les abonnements à la TV payante (pour Canal+/Sat). Ils ont négligé Netflix et n’ont pas réussi à créer d’offre locale unifiée. Quant à Hadopi, depuis 2012, elle a perdu une bonne part de son effet !
Bon papier en effet. Mais je doute que Lutron soit un acteur clé pour débloquer ce marché de la domotique qui est un vrai serpent de mer depuis 20 ans ! Je plus d’espoir avec les plateformes logicielles fédératives.
Bien trois plus tard, le gouvernement a du revenir sur ses pas et non seulement moins taxer l’investissement dans les startups mais encore inventer de nouveaux dispositifs pour l’encourager.
Ce n’est pas spécifique au numérique. Les entreprises à la recherche de croissance ont souvent tendance à verticaliser leurs activités et à tenter de capter une plus grande part de la valeur dans leur industrie. Elles le font avec plus ou moins de bonheur selon les cas. Ce d’autant plus que la diversification les amène à s’occuper de secteurs moins profitables que leurs secteurs d’origine.
La diversification a du sens dans le numérique si elle consolide le rôle central de la “plateforme” de la société.
Pour ce qui est de Uber, ils se diversifient mais pas au point de créer une diversification verticale intense. Sinon, ils feraient aussi de l’intermédiation dans le transport routier de marchandises. Peut-être le feront-ils un jour d’ailleurs.
Vous étiez une belle délégation du Québec si je me rappelle bien non ?
Bon complément Christophe !
Le réseau et la médiatisation sont aussi devenus des “commodités”. On trouve actuellement toujours les mêmes médias (Maddyness, Frenchweb, etc) comme partenaires médias des conférences entrepreneurialonumériques. Parfois, ils viennent vraiment pour la couvrir, parfois pas vraiment et se contentent d’un petit billet d’annonce. Il est bon d’avoir des partenaires médias permettant d’élargir un peu la cible, comme la presse éco par exemple.
Pour le reste, tu décris les trucs de vente btob habituels : on joue sur les péchés capitaux et notamment la jalousie en indiquant à l’un que l’autre sera là, et hop. Ca marche… ou pas ! Cf http://www.oezratty.net/wordpress/2011/peches-capitaux-dans-marketing-et-vente/ !
Hello !
Ton truc des tracks fonctionne assez bien comme on a pu le voir au Web2day. Ces tracks designer, développeurs et RH étaient très bien remplis et appréciés. Il n’en reste pas moins que les plénières doivent être aussi au niveau !
En secouant le cocotier et en mettant en avant un plus haut niveau d’exigence, on peut espérer que cela va avoir un impact sur les organisateurs d’événements.
A+,
Olivier
Quand j’ai l’occasion d’animer une table ronde, je saute cette étape et rentre directement dans le vif du débat avec des questions posées aux intervenants. Mais même avec cette méthode, les tables rondes restent souvent bien ennuyeuses.
Ah oui, dans le luxe, on trouve normalement des produits de qualité… 🙂
Tout à fait. Mais les événements auxquels je fais allusion ont tendance à attirer toujours les mêmes personnes et avec des contenus et des formats qui ne se renouvellent pas assez. Et le sujet n’arrive pas suffisamment dans le grand public, qui ne peut aborder la question que sous l’angle l’usage “consumer” de ses outils quotidiens. Quand aux médias grand public, ils tombent facilement dans le côté anxiogène.
J’ai viré la mention erronée à ISORG au début, la société étant bien décrite plus loin dans l’article et bien sur les capteurs d’image souples. J’ai corrigé aussi le point sur l’hydrogène même si c’est un peu du pinaillage… :), en séparant le stockage et la production.
Il y a d’autres erreurs à corriger ?
Oui, elle est très présente (ou annoncée et non présente) dans un grand nombre d’événements. Parfois d’importance inégale. Il serait intéressant de la voir dans des événements externes à la sphère digitale et entrepreneuriale pour porter le flambeau du numérique. Il est possible qu’elle y soit d’ailleurs.
Son dernier agenda publié : http://proxy-pubminefi.diffusion.finances.gouv.fr/pub/document/18/19309.pdf. Un grand classique avec des keynotes de conférences, des obligations traditionnelles (accompagner le PR à Angers) et des rdv 1/1 avec des entrepreneurs et investisseurs.
Cela dépend de qui on parle. Les entrepreneurs qui témoignent souvent (comme Fred Mazzella de Blablacar) sont des faiseurs !
My pleasure! Ton animation de cette conférence est un très bon souvenir qui en fait un “best pratice” malheureusement rarement rencontré depuis !
Le trop plein d’événements est en effet un bon signe de vitalité d’un écosystème entrepreneurial. Les événements divers sont aussi la marque de fabrique de la Silicon Valley. Il serait intéressant de les comparer avec ceux que l’on observe en France. Une impression ?
Quand au radotage, il peut en effet avoir du bon, mais c’est mieux si le discours s’affine à chaque itération !
J’ai organisé plus d’événements que tu ne le crois cher commentateur anonyme courageux. 15 ans passés dans le marketing, ça laisse des traces !
Et j’y contribue régulièrement en jouant tous les rôles : modérateur, intervenant, panéliste, membre de jury de concours de startups et aussi sous la “couverture” de photographe. C’est un bon poste d’observation. Cela fait aussi 25 ans que je croise des organisateurs d’événements, que je connais leurs questionnements et leur soucis de bien faire. Sachant que cela peut varier d’un cas à l’autre. Et j’ai eu l’occasion de prodiguer quelques conseils à certains qui ne s’en sont pas plaints, surtout lorsqu’ils ont pu les appliquer, en fonction des moyens dont ils disposaient.
Quand à la critique, avez-vous remarqué que je mets aussi en valeur les “best practices” du secteur ?
Bravo pour cette bonne préparation !
Ils ont invité les médias pour une annonce. C’est au conditionnel. Il semblerait que la 4K ne soit toujours pas au rendez-vous cependant…
Ca fait quatre ans que le sujet est tombé à l’eau à Roland Garros. La plupart des broadcasters ont abandonné la 3D, aussi bien pour le sport que pour la diffusion de films. Il reste les consoles de jeu et les films en Blu-ray.
bonjour philippe,
précisions intéressantes ! la littérature fait même remonter le concept de la singularité aux années 30 avec john b sparks !
la question de la sagesse est clé dans l’histoire. l’homme a tendance à s’en écarter facilement. que ce soit dans les guerres ou les addictions du quotidien dont il n’arrive pas à se débarrasser. l’homme comme l’animal a tendance à privilégier le court terme. le contrôle de soi consiste à ne pas en être trop dépendant.
si un homme sage programme une super intelligence avec des règles qui imposent la sagesse aux hommes, ceux ci vont-ils l’accepter ? si on demandait à une super intelligence de “sauver la vie sur la terre” que proposerait-elle comme solution ? si on y mettait un algo de décroissance (qui peut se justifier), cela pourrait avoir des conséquences inacceptables pour une grande partie de l’humanité, préférant jouer à l’ile de Paques ( dont les ressources naturelles ont été épuisées par leurs premiers habitants) !
dans la pratique, c’est déjà en place avec les objets connectés wearables. leurs utilisateurs leur confient les données de vie qu’ils génèrent dans leur activité pour obtenir des recos : distance à parcourir, parfois quoi manger. etc. bientôt, on aura des fonctions dans les réseaux sociaux qui permettront d’éviter les personnes dites toxiques !
la théorie de la singularité me semble bien séche sur une dimension clé : l’intelligence émotionnelle. je suis étonné de constater que les théoriciens du sujet n’évoquent quasiment pas le futur du plaisir, des émotions. de l’amour et de la culture. sont-ils aussi gérés par la super intelligence des machines ou est-ce ce qui nous restera d’humanité ?
Corrigé. Ils ont été impliqués en tout cas. J’ai des traces…
J’exerce ma curiosité dans d’autres domaines comme dans la santé et la génomique. On ne peut pas être partout. Et pour les jeux, bien, à part la dimension hardware (GPU), cela ne n’intéresse pas du tout. Mais heu…
Corrigé pour l’huile.
Pour les startups, il en manque bien entendu et j’en avais aussi visité en 2013. J’ai focalisé mes visites après un screening de ce qui m’intéressait et les jeux vidéo ne m’intéressent pas du tout !
Ne pas confondre dérive et dérivée…
Merci du signalement. Comme il est planqué dans la couverture que seuls les intéressés dépiautent comme cela, je le mettrai à jour dans la prochaine édition. Avec d’autres logos qui ont subi le même sort, celui d’Ubifrance en premier.
Merci du compliment !
Cela rejoint l’intention créatrice de ce document.
OK sur ces points.
Il est vrai que les levées de fonds de Lyft sont intrigantes. Mais il semble que ce dernier ne soit pas sur le même positionnement que Uber. Lyft, est proche de la sharing economy avec des voitures de particuliers mutualisées tandis que les voitures et chauffeurs de Uber relèvent plutôt d’une activité professionnelle.
Dans la région SF/SV, il y a aussi l’Atelier BNP-Paribas et une nouvelle tête de pont d’Axa. Est-ce que les grands comptes américains sont aussi présents dans la SV et comment ? On n’en entend pas souvent parler.
J’ai corrigé pour Menlo Park, qui est juste à côté de Palo Alto…
Je n’ai pas prévu de diffuser à l’ancienne une version imprimée, tout comme dans le format liseuse (epub, Mobi) testé par le passé et qui a généré très peu de téléchargements.
Mais il existe des dizaines de services d’impression en ligne à qui on peut fournir un PDF ! Il suffit de googleizer. Search “impression document en ligne” … et il y a pléthore de résultat. Il en coûte moins de 100€ pour imprimer les 360 pages en couleur et 20€ en noir et blanc.
Tu ne crois pas si bien dire, j’ai un projet (rédactionnel) qui n’en est pas loin !
Le pdf est imprimable via n’importe quel service d’impression en ligne !
Certes. Mais autant éviter aussi que toute la valeur de ces services passe outre-Atlantique et serve à alimenter leurs fonds de pension… 🙂
Il faudrait préciser la question ? S’ils ont envie, et bien, qu’ils se fassent uberiser… :). Mais si ça continue, “va-te-faire-ubersiser” pourrait bien devenir une injure… !
D’après une boutique Bytel où je suis passé ce week-end, la box Miami sera proposée aux nouveaux abonnés à partir du 21 mars 2015.
Il est certain qu’avec un PER (price/earnings ratio) de 72, l’action de Facebook est un peu haute ! En comparaison, celui de Apple qui est de 17 et est au-dessous de 20 depuis des années il me semble, on se situe dans une grande sagesse boursière !
Toutes les remarques sont utiles ! C’est en fait en creusant la Crunchbase et en préparant une présentation que j’ai eu l’idée de traiter de ce sujet.
Ils vendent ces solutions aux entreprises. Ce n’est plus du tout du grand public, tant pour Exalead que pour Netvibes.
Le terme est en effet d’origine américaine mais est maintenant utilisé couramment en français. Exemples ici : http://www.definition-qualite.com/commoditisation.htm et là : http://www.cairn.info/revue-gerer-et-comprendre-2011-2-page-102.htm.
Pour le reste des anglicismes, c’est souvent difficile à éviter puisque j’évoque des phénomènes en grande partie provenant des USA. Quand aux ordiphones au lieu des smartphones, on laisse cela aux puristes… !
Il appelle cela le “price undercut” qui consiste à démocratiser une offre en s’en tenant à l’essentiel et en baissant les prix. Cela conduit à élargir le marché.
C’est une logique que l’on trouve à la fois dans les offres low-cost et dans celles qui bénéficient de la loi de Moore. Cela ne veut pas dire pour autant qu’il faut négliger les insatisfactions clients !
L’uberisation est une addition de plusieurs phénomènes. Je les isole dans mon propos pour mieux les décrypter.
Apple a beau être intégré verticalement, il a tout de même eu un effet “défragmenteur” du marché avec l’iPhone et son App Store. Quand il est apparu, les applications mobiles (Java, iMode, …) étaient distribuées soit par les portails d’applications des opérateurs télécoms soit via des portails indépendants. Cela permettait aux opérateurs télécom de facturer les applications un peu comme FT avec le Minitel. Apple a fait voler cela en éclat avec l’App Store en reconcentrant l’intermédiation des applications et en enlevant ce pouvoir aux opérateurs télécoms. Il leur a piqué au passage la marge qu’ils dégageaient sur la distribution de ces applications. Il a aussi piqué de la valeur aux éditeurs d’applications en leur empêchant d’accéder aux informations sur leurs clients. Et il a fait tout cela à l’échelle mondiale. C’est bien de la défragmentation !
Les opérateurs télécoms ont été manipulés par Apple qui jouait sur l’aspect disruptif de son smartphone, sur la perspective de vente d’abonnements “data” (devenue rapidement une commodité) et sur celle de son image de marque pour faire pression sur eux. Apple a gagné, les opérateurs ont perdu à ce jeu.
Le phénomène de banalisation du travail, de la réduction de sa valeur faciale et tout le toutim correspondent à un autre point complémentaire de celui de la défragmentation et le je traite dans la partie suivante de cette série d’articles.
Il ne me semble pas que la CNIL empêche cela. Le site d’Air France est aussi capable de conserver les coordonnées CB d’un client.
Bien vu pour l’erreur, mais elle était au niveau du titre, pas du texte. C’est de Marvell qu’il s’agissait. Un indice : les processeurs Armada sont des marques de Marvell. C’est donc corrigé.
Bonjour Mathilde,
Capitaine Train est un cas intéressant en effet. Pour l’instant, ils n’ont pas encore uberisé la SNCF ou la Deutsche Bahn. Ils sont présents officiellement dans trois pays : France, Allemagne, Italie, mais leur trafic semble surtout venir de France (source : Google Trends). C’est donc un service local.
Le phénomène de l’uberisation provient plutôt d’acteurs transnationaux et au passage, très bien financés, ce qui n’est pas encore le cas de Capitaine Train.
Côté ergonomie, leur site est peut-être plus rapide mais on est obligé de se créer un compte pour démarrer une résa et par exemple, comparer les prix avec ceux de la SNCF. Sur le site de la SNCF, l’identification n’est pas nécessaire pour avoir accès à l’inventaire et aux prix.
Si la différence de service n’est située que dans l’ergonomie du site et pas dans le prix (ce qui pourrait se comprendre vues les marges), alors le bénéfice utilisateur n’est pas forcément suffisamment grand pour attirer la majorité d’entre eux.
En étant un peu dur, cela me rappelle ces nombreux projets de startups dont la mission est de créer un réseau social “plus ergonomique que Facebook”. Un plus dans l’ergonomie serait sympa face à Facebook mais pas suffisant pour les tuer. C’est pareil dans la résa. La proposition de valeur doit être radicalement différente pour emporter le morceau à grande échelle.
La plus grande concurrence de la SNCF provient des travel sites généralistes qui vendent de tout (transports, hôtels, etc).
Olivier
Je traite ce sujet dans la seconde partie. Il n’existe pas beaucoup d’autres solutions qu’une uberisation préventive du marché par ses acteurs en place. Cela demande une approche collaborative complexe à mener mais pas impossible.
En effet, je confonds toujours les deux, les ayant vus à leWeb plus ou moins la même année…
Corrigé !
Héhé…
J’ai utilisé les résultats Q3 (CY2014, leur Q2) au niveau financier pour être homogène avec les autres sociétés comparées. Leur rebond sur le trimestre annoncé en décembre dernier (leur Q3) n’en est pas du tout un. Le communiqué du lien contient du baratin de financiers pour expliquer qu’ils perdent moins d’argent qu’avant. Mais les “highlights” ne mentionnent rien au niveau chiffre d’affaires.
Et pour cause puisqu’il continue de baisser à la fois séquentiellement ($916m en Q2 vs $793m en Q3), et “year over year”, avec un Q3 de l’année précédente à $1193m. Bref, la chute libre continue !
Les résultats au niveau du cash flow se sont améliorés uniquement grâce à une baisse drastique des coûts, aussi bien dans la R&D que dans la vente et le marketing.
Une stratégie financière ne fait pas une stratégie tout court et Blackberry reste très mal barré dans la concurrence sur les smartphones, une bataille dans laquelle ils se sont engagés trop tard tout comme Nokia et Microsoft. Ils ont par contre une petite filiale intéressante, QNX, qui est présente dans les systèmes embarqués et l’automobile. Mais pas suffisamment grande pour redresser la boite.
Vouala !
Roost, on a compris la même chose. J’ai bien écrit que c’était intéressant pour les détecteurs de fumée à pile et pas à alimentation secteur.
ULE : j’ai été un peu laconique en indiquant que c’était fumeux malgré le support de certains opérateurs. On constate en tout cas que ce standard n’est adopté par quasiment aucun fabricant d’objets connectés.
Par contre, indiquer que c’est du logiciel et que cela concurrence Zigbee et ZWave me semble quelque peu contradictoire puisque ces derniers sont des stacks réseau sans fil et pas du logiciel, justement.
Olivier
Sachant qu’en fait, une fois disponible en epub ou mobi, la version PDF reste largement dominante dans les téléchargements (>96%).
Pour l’instant non. J’attends un volontaire pour faire la conversion à partir du master qui est en Word.
Olivier
Les vrais détails seront dans le rapport complet, publié lundi 26 matin. On change d’échelle et ça passe à plus de 300 pages… 🙂 Avec du Novitact dedans cette fois-ci !
Hola, tout cela sera détaillé dans le Rapport du CES…
Ah, merci, je vais corriger cela dans le texte.
J’en avais plus, mais j’ai du zapper certains points qui relèvent du secret industriel de ST… 🙂
Merci.
Il faudrait peut-être songer à envisager prévoir de faire appel à un graphiste pour votre site web…
Le compte-rendu est en cinq parties. Mais je n’ai pas pour autant prévu de parler de cette boite !
Bien, tant que les Le Meur restent aux commandes sur le contenu, l’événement peut “survivre”. Loïc m’a affirmé qu’il voulait continuer et sur plusieurs années.
Qui te dit que je l’ai raté et raté par rapport à quoi ? En fait, ce genre de sujet ne m’intéresse pas trop ! http://www.content-square.fr/.
Hello Jessica !
Il y avait des femmes, mais pas énormément. Notamment, une seule dans les pitches du concours de startups. Dans les plénières, si, il y en avait, notamment Fidji Simo de Facebook, Ida Tin (santé), Sarah Wood, Jane Zavalishima, Jade McQueen, François Mercadale-Delassalles (Socgen), Virginie Fauvel, Soraya Darabi, Roxanne Varza, Marion Moreau, Kathleen Mitchell, Alex Depledge (Hassle), Jessica Richman, Tania Singer, Tanya Cordrey, et quelques autres. Cela donne à peu près leur niveau de leur proportion existante dans le monde entrepreneurial numérique qui est comprise, pour ce qui est de la France, à moins de 20%.
Nathalie Massenet était présente il y a 3 ans mais pas cette année.
En effet. Mais bon, dans une intervention de LeWeb, un consultant disait que l’attention moyenne des Internautes était située entre 2,8 secondes et 8 secondes. Vue la position du tableau dans l’article, tu les as dépassées largement !
troisième colonne…
J’ai réouvert les commentaires sur la quatrième partie, qui étaient fermés “accidentellement”.
Il y a peu de consultants qui utilisent la méthode Triz en France à ma connaissance. Certains inventent d’ailleurs leurs propres méthodes.
Olivier
Bonjour Hervé,
Tu mets le doigt sur des sujets que j’aborderai de manière empirique dans la troisième partie, portant sur la culture de l’innovation dans les grandes entreprises. Et aussi sur les consultants en méthodologie en innovation…
Olivier
Petit article glané sur le sujet de la compétitivité-temps : http://www.forbes.com/sites/stevedenning/2011/03/09/part-4-measuring-the-worlds-most-neglected-competitive-weapon-time/.
On va arrêter là la discussion ! Oui, le rayonnement des français à l’étranger contribue à celui de la FrenchTech. Mais il n’a pas spécialement évolué récemment. A moins d’intégrer dans l’histoire la recrudescence du nombre d’expatriés – surtout jeunes – qui ne se sentent pas à l’aise en France.
J’ai vu ton commentaire sur LinkedIn. Vision “Institutionnelle”, tu y vas fort. Surtout dans la mesure où tu évoques un article qui ne traite pas du tout l’open source. C’est toi qui met le sujet sur la table dans les commentaires.
Oui, les boites sont internationales. Mais elles contribuent aussi à renforcer l’économie de leur pays d’origine. Google et Red Hat sont américains ou internationaux de ce point de vue ?
Open source ou pas, la question industrielle est toujours la même : comment migre la valeur ? Qu’il s’agisse des sociétés, des actionnaires, des salariés et des pays !
Donc, quand on a des ingénieurs brillants se retrouvent faire des choses brillantes dans des sociétés dont le siège et la majorité des effectifs n’est pas en France, qu’elles soient “tradi” ou “open source”, la valeur créée n’est pas la même que lorsqu’ils créent de véritables entreprises. Par contre, il est évident qu’une entreprise ne peut réussir qu’en devenant mondiale et distribuée.
Les industries du numérique ne sont pas neutres et lisses dans la répartition de valeur !
Eh eh, WordPress n’est pas français. Nous avions Dotclear en France. Chercher l’erreur !
La question est donc bien entrepreneuriale, et pas spécifiquement liée au modèle open source.
Ces contributions sont bien connues. Elles ont notamment été relevées par Tariq Krim dans son rapport sur les développeurs français publié au printemps dernier (cf http://www.oezratty.net/wordpress/2014/comment-valoriser-les-developpeurs/).
Ceci étant, il faut distinguer les contributions individuelles à des projets open-source et les initiatives entrepreneuriales de la catégorie que l’on retrouve chez des ISV comme Talend, Bonitasoft et autres Prestashop.
La culture ingénieur open source (un peu idéaliste au passage) rejoint la culture business et de la création de valeur identifiable quand les projets open source deviennent des projets entrepreneuriaux, qui plus est internationaux.
Alors pourquoi ce chiffre 70 ? Ils ne comptent pas par milliers ?
Post-scriptum :
Bon, maintenant que Netflix est là, on va pouvoir juger sur pièces. Cf ce papier de Pascal Lechevallier qui est bien gentil avec l’animal : http://www.zdnet.fr/…/netflix-france-est-ouvert-39806273.htm.
J’ai testé Netflix “France” avec le pass VIP offert aux participants de la soirée de lancement du lundi 15 septembre 2014.
Résultat : énorme déception. Le catalogue est maigrichon aussi bien côté séries TV que films. Peu de grandes franchises, ou alors elles sont incomplètes (un seul Star Trek ou une seule série Stargate, par exemple). Quasiment pas de films “classiques” (essayez Hitchcock, Gary Grant, … : nada ) ! Quand on cherche les blockbusters d’il y a 4 – 5 ans, on en trouve très peu (testez par exemple 2008 avec http://www.imdb.com/list/ls057801589/, Netflix vous propose à peine 1/20ième des films du TOP 100 d’une année qui n’est pas bloquée par la longue chronologie des médias française, qui n’est donc pas une excuse valable). C’est cependant vrai de beaucoup de services de SVOD. Pour moins de 10€ par mois, il ne faut pas attendre la Lune !
Côté séries, c’est un peu mieux. On peut profiter de “Orange is the New Black” qui est inédit en France et se refaire toutes les saisons de Breaking Bad ou Prison Break. On peut visionner les deux premières saisons de Homeland mais, raté, pas la troisième, dont Canal+ doit probablement avoir les droits exclusifs pour quelques temps.
Le système de recommandation prend alors le relais en proposant des nanars (séries B) dans le même genre de ce que l’on recherche. Reco ou pas, cela reste des nanars. Et la reco reste approximative. Elle ne peut pas aller bien loin au vu de la maigreur actuelle du catalogue.
Dans les aspects techniques, les films ne sont souvent pas disponibles en HD (comme “2012” dont l’encodage est vraiment dégueu). Pour du son 5.1, n’y comptez pas non plus (en tout cas sur PC et avec Silverlight) mais c’est souvent le cas avec les services de SVOD.
En comparaison, l’offre de CanalPlay qui est le concurrent principal de Netflix en France, avec plus de 520000 abonnés, est bien plus étoffée aussi bien en séries TV qu’en films. Et au même prix.
Quand à la soirée de lancement de Netflix en France (cf Le Point : http://www.lepoint.fr/…/netflix-sait-faire-des-series-pas-d…), elle était étonnamment vide de sens : aucune décoration, aucun contenu, aucune “fact sheet”, aucune démonstration, juste un pass VIP pour tester le service et un tout petit discours de Reed Hastings rappelant ce que l’on savait déjà, notamment sur la production de quelques contenus français. Une désagréable impression d’être traités comme un pays de seconde zone. Aucun salarié français de visible, à supposer qu’il en existe. Même l’agence de presse ayant organisé l’événement était invisible. Bref, côté exécution, c’était très moyen.
On dit souvent que la première impression est la bonne. Ici, elle est mauvaise. Netflix va donc devoir remonter la pente en étoffant rapidement son catalogue. Le principe marketing repose aussi sur une mise à jour régulière du catalogue permettant de faire l’actualité.
Souvent, il faudra patienter jusqu’à deux ans pour que certaines exclusivités avec des diffuseurs français arrivent à échéance (comme pour House of Cards, diffusé par Canal+). On peut aussi espérer que sur les box d’opérateurs, à commencer par Bouygues Telecom qui sera le premier à le faire, la qualité son+image sera meilleure.
En tout cas, la SVOD sauce Netflix, c’est cheap et ce n’est pas près de remplacer toutes les autres sources de contenu vidéo ni de chambouler tant que cela le paysage de la SVOD qui a du mal à décoller en France. Surtout si vous voulez du “frais”.
Le débit a son importance pour les contenus non linéaires, of course.
Pour ce qui est de Windows MCE, je l’utilise pour ma part depuis 2002 🙂 !
Merci pour la précision. L’info venait de Quadrille et je n’avais pas pris la peine de la vérifier…
A disposition, peut-être.
Mais pourquoi faudrait-il que ce soit gratuitement ? Cela représente 5 mois de travail.
Puis-je vous commander aussi 5 mois de travail gratuit comme ça pour voir ?
Oui, il y a bien cette distinction entre ces deux activités de LG. Mais, de source informée, il semble que ce soit l’activité de set-top-box qui soit en lice dans cette histoire et pilotée via LG U+ qui en effet est un opérateur mobile.
En effet, et même la diffusion à J+1 pour les autres épisodes est très bien. M6 a aussi testé cela sur d’autres séries américaines dans leurs offres VOD. Reste à le généraliser et pas à n’en faire que des coups marketing.
Sauf que Netflix ne démarrera pas avec House of Cards, car c’est Canal qui en a les droits jusqu’à mi 2015 ! “Hemlock Grove” et “Orange is the new black” sont-ils suffisants ? Auront-ils Game of Thrones, Scandal, Breaking Bad ? Cela dépend d’une mécanique qui nous échappe, les contrats déjà signés avec les opérateurs français, les exclus, etc.
En tout cas, il sera intéressant de faire un benchmark sérieux entre services de S-VOD sur les studios signés, les séries diffusées, et les genres couverts. Il faudra y intégrer les fenêtres de diffusion, du fait que Netflix va pouvoir visiblement s’affranchir de notre chrono des médias (à moins qu’il évite de le faire pour se garder d’agiter le drapeau… rouge).
Ca existe aujourd’hui, d’ailleurs ? En Googlelisant, je constate que les benchs sont surtout quantitatifs, comme ici : https://medium.com/le-futur-de-la-distribution-de-films-en-france/comparatif-les-offres-francaises-de-svod-avant-larrivee-de-netflix-998db7692ae4. Il y a un peu plus de qualitatif ici : http://www.degroupnews.com/dossier/a144-comparatif-des-offres-de-vod-par-abonnement/.
En fait, il faudrait comparer non pas les dispos de telle ou telle série, mais avoir une liste des majors distribuées côté cinéma et séries TV et jusqu’à quand (car les contrats sont renégociés régulièrement, ce qui est vrai une année n ne l’est plus forcément en année n+1). Les films et séries arrivent par paquets ensuite.
Bon, sachant, ne l’oublions pas que ceci concerne la diffusion en S-VOD et à l’exception des séries produites par Neflix sur lesquels ils conservent les droits internationaux, Netflix ne propose que la diffusion de contenus déjà passés ailleurs (pay TV, DVD, piratage, …).
Le flux OTT n’était diffusé qu’en interne sur Roland Garros dans leur réseau Wi-Fi.
Le prochain flux OTT 4K en France à ma connaissance sera celui de trois matches de la Coupe du Monde diffusé par TF1 sur myTF1. Avec un codec HEVC.
La diffusion par satellite n’est sinon pas compliquée pour les chaines en clair : la plupart des TV ont un tuner DVB-S et S2. Par contre, pour Canal+, il faudra en effet attendre leur nouvelle box, voire une solution sans box faisant appel à un lecteur de carte CI+.
Je n’ai rien confondu, ce sont les promoteurs du Bitcoin qui sèment le trouble en mélangeant les messages. Et à leur propre détriment.
Le Bitcoin est vendu, promu, présenté, adopté et utilisé massivement comme un système de crypto-currency, une monnaie virtuelle, un moyen de paiement. Basta.
Qu’il s’appuie sur une architecture et un protocole qui puisse servir à autre chose, très bien, mais c’est une autre affaire.
C’est comme les solutions de recommandation : elles peuvent servir à plein de choses. Criteo en a une et la focalise sur le retargetting publicitaire et cela lui réussi. S’il étaient généralistes de la reco, cela ne fonctionnerait pas.
La confusion des genres entre techno, usages et marchés autour du Bitcoin n’est vraiment pas une bonne approche “marketing” en effet.
Déjà effleuré rapidement dans le premier article, au sujet des investissements en lobbying des grands acteurs américains…
Cf autre commentaire plus bas. Si ce n’est pas une monnaie, c’est quoi ? En termes de valeur d’usage pour le particulier, j’entends. Pas au niveau de la tripaille technique ou d’autres applications de son architecture !!!
Il faut vulgariser pour faire adopter une innovation de rupture. Sinon, les gens s’y perdent !
Où ai-je fait cette confusion ? Bitcoin est présenté en général comme une monnaie. Le protocole d’échange est un moyen technique, qui peut certes avoir d’autres applications. C’est comme si vous disiez “ceci n’est pas un smartphone” mais “c’est un engin mobile utilisant un system on chip et un modem data s’appuyant sur les radio-fréquences de 2,4 Ghz”. Allez vendre un smartphone au grand public avec un tel discours !!!
Si vous ramenez la discussion sur le Bitcoin à des éléments techniques de ce genre, vous n’êtes pas prêt de le vulgariser ! Cela me rappelle les puristes de l’open source qui considéraient il y a quinze ans que l’on n’était pas un utilisateur de micro-ordinateur digne de ce nom si on ne regardait pas le code source du système d’exploitation !
La comparaison transaction Bitcoin avec un virement SEPA me semble bien abusive. Cela peut concerner les entreprises, mais un particulier fait rarement un virement SEPA pour un achat en ligne et encore moins pour un achat dans le retail. La validation Visa 3D Secure, qui est l’une des plus casse bonbon qui soit, fonctionne en moins de 2 minutes avec l’aller et retour avec son mobile.
Votre point sur Apple et les autres qui ont commencé comme des startups ? C’est justement un point que je réfute dans cette série d’article : le fait que certaines innovations réussissent à pénétrer le marché n’empêche pas de porter un regard critique sur celles qui se présentent à nous aujourd’hui. On n’est pas obligé de tout gober d’un coup. On peut aussi porter un regard sur la valeur d’usage. Une valeur d’usage qui ne m’a jamais échappé quand les micro-ordinateurs sont apparus par vagues successives (Apple II, TRS80, puis IBM PC, Mac, PC sous Windows, serveurs, …).
Par contre, oui, l’aspect protocole est intéressant. Il avait été soulevé par Fred Wilson à Leweb en décembre dernier : Bitcoin ne réussira pas forcément, mais l’architecture associée pourrait très bien disrupter d’autres business. Pas forcément la monnaie. Il pensait à la gestion de l’identité, un autre grand serpent de mer de l’Internet.
Les processus de l’innovation sont ainsi faits : parfois, elle apparaît là où on ne l’attend pas. Ou bien des événements imprévus en accélèrent ou freinent voire stoppent l’adoption. Avec le Bitcoin, tout peut arriver !
Bonjour Joannes,
Je ne pense pas que l’on puisse faire un parallèle avec pere-noel.fr et la bulle dotcom des années 1995-2000. La proportion de filous y était bien moindre ! Idem pour la désinformation. Il y avait par contre un phénomène d’euphorie ambiante qui conduisait l’écosystème à partir en vrille, notamment côté investissements. A l’époque, le réseau disponible n’était pas encore adapté aux usages de l’Internet. Il a fallu l’ADSL puis la 3G pour que le marché puisse réellement se développer. Et surtout, pour qu’il pénètre les foyers à grande échelle pour en faire un vrai marché de masse.
Côté consommation énergétique, il y a tout de même un rationnel technique à l’augmentation de sa consommation, du fait d’une augmentation de la complexité du mining avec l’ancienneté des bitcoins. J’imagine que les concepteurs ont anticipé que cette augmentation serait couverte par la loi de Moore.
En attendant, on voit des sociétés se créer pour miner en masse. Cela rappelle ce qui s’est passé avec Internet : au départ, conçu comme un système très distribué, sans “centre”. Un peu comme le Bitcoin aujourd’hui. Quinze ans plus tard, l’Internet est contrôlé par des monopoles concentrés bénéficiant d’économies d’échelle et de réseau tels que Google. Le Bitcoin a l’air de prendre le même chemin au niveau du mining au vu de certaines initiatives entrepreneuriales.
Pour ce qui est de Blockchain, leur “about” est quand même un comble de manque de transparence : https://blockchain.info/fr/about. On ne sait pas d’où vient la société, dans quelle pays elle est située, qui sont ses investisseurs, etc. C’est un basique de transparence pour savoir à qui on a à faire ! N’importe quelle boite peut (et doit) fournir un peu plus d’informations sans pour autant publier le mail du dirigeant !
En effet, bien vu ! je corrige…
Bonsoir Tony,
L’édition 2013 dans ce format avait été crée par un volontaire qui avait généré la transformation à partir du source (Word). Il ne s’est pas manifesté pour cette nouvelle édition, ni un autre.
Pour information, moins de 8% de l’édition 2013 a été téléchargée au format ePub ou MOBI. Le reste en PDF. Pour le Rapport CES 2014 qui est disponible en version ePub, ce taux est à moins de 1%.
La demande reste donc marginale. Et comme ces deux ouvrages sont gratuits, la meilleure manière d’y remédier, c’est d’y contribuer et de réaliser la conversion en question ! Volontaire ?
Cordialement,
Olivier
En effet, Better Place est un cas très intéressant, et aussi extrême de “reality distorsion field” qui ne fonctionnait bien qu’avec Steve Jobs ! J’ai eu l’occasion de voir Shai Agassi intervenir deux fois en France, une fois à Leweb et une fois à Nice au G20 Yes. Son discours était porteur pour des raisons que j’évoque dans le premier article de cette série : le mélange de considérations technico-business et idéologiques et surtout le rêve. Shai Agassi allait jusqu’à raconter que la voiture électrique allait entraîner la pays au Moyen-Orient. En réduisant la dépendance au pétrole !
Du point de vue de la gestion de l’énergie, il intégrait dans son équation la généralisation du solaire photovoltaïque pour charger ses batteries. Cela se tenait conceptuellement mais pas économiquement car le déploiement du solaire photovoltaïque pour cet usage ne pouvait pas se faire suffisamment rapidement. Donc, exit la paix.
Dans la voiture électrique, il y a aussi l’échec de Fisker, moins connu. Seul Tesla semble avoir le vent en poupe. Ce dernier a cramé près de $800m en cash depuis sa création. Mais sa croissance de CA est très forte : $2B en 2013 pour $413m en 2012 et $204m en 2011 avec des pertes “contenues” sur 2013 (http://ir.teslamotors.com/secfiling.cfm?filingID=1193125-14-69681&CIK=1318605). C’est encore gérable !
Chez nous, il y a Heulliez…
Pas mal cette histoire de Mike Cheiky que je ne connaissais pas ! Avec un autre scénario : le chimiste de Dow Chemical qui démonte le projet d’une manière très logique. Mais on va encore dire que ce sont les grosses compagnies qui tuent l’innovation.
En tout cas, pas besoin de lire 20 bouquins sur l’histoire des sciences : si ça marche, je change ma chaudière tout de suite… :). Et effectivement, ce serait un séisme (positif) planétaire côté gestion de l’énergie et réduction du réchauffement planétaire. Au minimum sur le chauffage, qui consomme plus de 40% de l’énergie en France je crois.
Mais pourquoi Rossi est-il le seul à travailler sur la commercialisation de ce procédé ? Pourquoi faut-il autant de temps pour aboutir à des résultats tangibles ? Est-ce que cette réaction de fusion froide est si difficile que cela à contrôler ?
Les courants de la fibre optique, ah, elle est bien bonne celle-là ! Il ne reste plus qu’à bâtir une théorie sur la création de champs magnétiques générés par les photos qui traversent les fibres optiques, qui eux-même génèrent des champs électriques. Il faudrait peut-être que cette personne vive dans le noir.
Bonjour Laurent,
Je pensais surtout à la presse en ligne qui traite de l’actualité numérique, voire aux blogs qui sont devenus des médias à part entière avec des équipes de jeunes et/ou stagiaires. Et cela vaut pour tous les pays.
Mais il y a dans le tas des comportements et moyens différents. Il n’en reste pas moins facilement constatable que la majorité des news sont des “relais” d’annonces, sans grande analyse, et pour cause, puisqu’ils sont quotidiens. Le phénomène est beaucoup plus marqué dans les médias en ligne du numérique qui ciblent le grand public. Dans l’univers professionnel, c’est plus… pro.
Un exemple qui me frappe toujours : le bruit que peut générer sans rien faire une société comme Apple. Il suffit qu’un andouille fasse une photo d’un moule de coque d’iPhone 6 pour que cela se retrouve répliqué à l’envie dans toutes la presse en ligne “du numérique”. Apple a inventé la “fusion froide” de la propagande. Ca marche tout seul !
Côté presse généraliste chez qui ont peut mettre aussi bien Rue89, Médiapart que Le monde, Libé ou Le Figaro, il y a (encore) plus de moyens.
Olivier
Non, désolé !
Mais si des volontaires veulent le traduire, ils sont les bienvenus pour forcer le hasard !
Je n’en connais pas qui soient spécialisés. A noter le site http://www.myfrenchstartup.com/ comprend une base de plus de 2000 startups.
Astuce : identifier les startups qui viennent d’annoncer une levée de fonds (dans le Journal du Net ou ailleurs). Elles ont alors les moyens de recruter. Et donc, elles sont pressées de trouver de bons profils.
Au demeurant, il n’est pas difficile de trouver un poste de développeur dans les startups. Surtout si jeune, bien formé, pétillant et motivé…
Voir page 122 et suivantes dans le dernier guide des startups. Cf http://www.oezratty.net/wordpress/2014/guide-des-startups-2014/.
Ne pas oublier en effet que ce document est créé à titre bénévole tout comme peut l’être la conversion en epub réalisée par des contributeurs volontaires.
Il existe sinon des applications d’annotation de PDF pour tablettes…
Merci pour cet élan et cet enthousiasme !
Le Guide version 2013 (17ième) est déjà disponible en version MOBI et EPUB !
Sur ce genre de cas précis, je n’en ai pas la moindre idée. En général, on trouve des business angels dans des domaines qu’ils peuvent comprendre du fait de leur expérience. Comme dans le matériel, il n’y en a pas beaucoup qui ont fait fortune en France, ils sont durs à trouver. Une solution consiste peut-être à s’orienter dans un premier temps vers des financements publics : Bpifrance, fonds et aides régionales.
Après, le projet peut ne pas plaire aux uns et aux autres pour tout un tas de raisons : l’équipe, la taille du marché, l’unicité du produit, la concurrence, le coût d’accès au marché. Il faut aussi noter que les investisseurs privés sont sollicités par plein de porteurs de projets et qu’ils font des choix et donc, systématiquement, beaucoup de déçus. C’est la règle du jeu.
En effet ! J’ai un autre exemple qui me concerne directement : quand tu enseignes dans plein d’établissements supérieurs différents comme “vacataire”, tu te tapes un processus de référencement avec de la paperasserie identique pour chaque école pour pouvoir être payé (65€ de l’heure de cours…). Et cela recommence chaque année. Tu passes donc un temps administratif significatif au regard de chaque intervention. Là-aussi, un système unifié serait le bienvenu. Mais on en est loin car cela ne concerne pas énormément de monde.
Les écrans incurvés reproduisent (en TV) le format des écrans de cinéma que l’on trouve dans certains pays comme aux USA. A une distance standard, toutes les parties de l’écran sont à la même distance de l’œil. Par ailleurs, un écran incurvé génère moins de reflets intempestifs.
Mais bon, on peut s’en passer sans problème…
Cela représente un mois de travail mais pas à temps plein. Au nez, 150 à 200 heures de boulot. Mais je ne suis pas aux 35 heures ! C’est aussi le résultat d’une veille technologique que je fais toute l’année. Le Rapport du CES est aussi mon pense bête des trucs intéressants que je glane toute l’année. Cela se voit par exemple dans la rubrique sur les capteurs photo/vidéos et les composants en général.
Hum hum… que dire.
Le coup sur le côté fake des lancements : que je sache, les fusées Saturn V ont bien décollé devant des vrais gens à Cap Kennedy ! Donc, ce n’était pas du fake !
J’ai sinon croisé Jim Lowell, le commandant d’Appolo 13 en juin dernier. Il n’avait pas l’air, vu son âge, de raconter des salades. Lui a fait deux fois le tour de la Lune. Dans Appolo 8, sans s’y poser, puis dans Appolo 13, sans s’y poser non plus.
L’accident d’Appolo 13 était fake, lui aussi ?
Réponse dans les archives : http://www.oezratty.net/wordpress/archives-complete/
well not really and it’s not a technical issue
you can received TV channels either through DTT so in UK, you would only receive local UK channel, or OTT channels, but this would require an agreement fromt the (French) TV channels to be distributed in UK.
it also depends on who would distribute the box: a retailer, a mobile operator or any other
in the end, it’s a business decision from the various stakeholders more than a technical issue
Agreed. DailyMotion est à la vidéo ce que Quaero est aux moteurs de recherche ! Nos politiques s’accrochent comme ils peuvent aux branches sans bien connaître les ressorts des industries numériques et les phénomènes d’économie de réseau qui sont mondiaux.
Ils veulent aussi trop micro-manager cette industrie ce qui est une grave erreur. Les 34 projets de Montebourg, les 7 d’Anne Lauvergeon, les 9 pistes numériques du Plan d’Investissement d’Avenir, les appels à projets de la DGCIS ! Des silos d’investissements alors que les choses les plus simples et les plus génériques suffisent largement (JEI, CIR, …).
Je ne crois pas trop à la thèse Armée/CIA/FBI. Tout d’abord, ce sont des organisations qui ont toujours été rivales. Elles ne peuvent pas et ne pouvaient pas se coordonner “par le bas” pour mener une telle affaire et préserver le secret aussi longtemps. Cela aurait impliqué trop de monde.
Par ailleurs, le mobile est un peu léger. JFK ne menaçait pas l’armée ni le FBI. D’ailleurs, quand le budget du Pentagone a baissé après la fin de la guerre froide et la première guerre du golfe, elle n’a ni assassiné Bush père ni Clinton ! Il a augmenté ensuite sous Bush fils après 9/11. Mais n’en déplaise aux théories du complot qui sévissent encore, le gouvernement américain n’est pas derrière 9/11. Il est derrière les incompétences et manques de coordination qui ont empêché de le prévenir.
De toutes manières, Hoover tenait JFK car il était au courant de toutes ses frasques. La CIA ? Son patron de l’époque John McCone était loyal à JFK et nommé par lui. Des membres de la CIA ont pu être impliqué dans l’affaire, mais par par la tête.
LBJ ? Il avait un mobile sérieux car il risquait de passer à la trappe du ticket présidentiel en 1964 et était menacé d’enquêtes judiciaires sur des affaires liées au Texas. En même temps, JFK en avait encore besoin pour gagner à nouveau les états du sud, Texas en tête. C’était d’ailleurs la raison du voyage à Dallas.
Si LBJ était impliqué, il faudrait beaucoup de temps pour que cela deviennent “officiel”. En effet, cela serait un véritable traumatisme pour les USA qu’ils apprennaient qu’ils ont été gouvernés pendant 5 ans suite à ce qui serait assimilable à un coup d’état.
La thèse qui me semble la plus sérieuse est une implication directe de la mafia italienne, éventuellement aidée par des individus liés de près ou de loin à la CIA. De toutes les organisations pouvant avoir été impliquées dans le complot, c’est celle qui était la mieux à même de préserver le secret dans la durée (l’omerta). Et quand on analyse le “réseau social” d’Oswald, il croise surtout la mafia et les éléments de la CIA liés à Cuba et la baie des cochons.
La mafia avait de sérieuses motivations à se débarrasser de deux Kennedy qui menaient une guerre contre elle.
Il existe d’ailleurs des soupçons sérieux qui la relient à l’assassinat de RFK en 1968.
Pour les autres organisations (CIA, JFK, LBJ, …), elles ont été impliquées indirectement pour couvrir leurs petits secrets : le FBI qui suivait Oswald depuis son retour d’URSS, la CIA pour les opérations secrètes menées à Cuba, et pour ses relations maintenant bien documentées avec la mafia dans le cadre de ces opérations. La thèse mafia colle parfaitement avec le rôle de Jack Ruby dans l’histoire. Jack Ruby avait des liens directs avec la mafia de Chicago.
Toutes les autres thèses : Cuba, URSS, la finance, le Mossad, le Secret Service ne tiennent pas bien la route.
L’autre seule thèse qui pourrait tenir la route est que Oswald ait agit seul. C’est difficile à accepter au vu des nombreuses bizarreries de l’affaire. Le mec était quand même bizarre ! C’est parfois la solution la plus simple qui est la bonne !
@tous, merci beaucoup pour vos compliments et remerciements. Cela motive à continuer… 🙂 Bonnes fêtes de fin d’année à toutes et à tous !
Bonjour Aline,
Je ne suis ni surpris ni ne porte de jugement de valeur sur ce point. Au contraire, cette présence dénote la dimension internationale de la conférence qui s’améliore. Et en effet, les solutions innovantes peuvent venir de n’importe ou dans le monde. Et les approches multiculturelles bénéficient à tous.
Cependant, la réaction de Guy Kawasaki n’était pas exceptionnelle et assez représentative de la majorité des investisseurs de la Silicon Valley qui préfèrent investir dans leur “backyard”. D’ailleurs, ils tiennent le même raisonnement pour les pays européens et notamment pour la France. Hors US, il y a deux exceptions notables pour eux avec UK et Israel qui se vend bien comme “startup nation”. Ils investissent dans les boites étrangères une fois qu’elles ont soit décidé de s’implanter entièrement aux USA soit d’y créer une filiale destinée à devenir plus ou moins la maison mère. Et avec les critères habituels sur les équipes et l’innovation.
Il faut aussi faire la part des choses entre l’intérêt de ces marchés pour y implanter des filiales commerciales de boites américaines et celui, moins intéressant piur les VC US, d’investir dans des boites qui en sont originaires.
Notons au passage qu’il existe des sources de financement alternatives pour les pays du moyen orient, notamment dans les émirats.
Oui, un jour peut-être.
En attendant, les asiatiques, quels qu’ils soient, n’arrivent pas du tout à percer dans le logiciel et à l’échelle internationale.
Il y a des raisons culturelles multiples qui peuvent l’expliquer : la valeur de l’immatériel est faible chez eux au regard de la valeur du matériel, et les logiciels qu’ils développent chez eux sont faits pour leur immense marché intérieur.
Par contre, certains industriels comme Softbank ou Rakuten (Japon) ont des visées internationales assumées. En Chine, il y a surtout Huawei, un équipementier qui dans les faits est aussi un gros éditeur de logiciels. Mais pas encore pour le grand public. En Corée, pas grand chose. Samsung et LG doivent encore se sourcer à l’extérieur côté logiciels. Le premier vient de décider d’investir dans la Silicon Valley. Ils ont aussi racheté des boites comme l’israélien Boxee (logiciel de set-top-box). Mais pour l’instant, n’en ont rien fait. A moins que l’on voit quelque chose au CES 2014 !
On pourrait évoquer le cas de l’Inde qui a probablement le plus gros nombre de développeurs au monde, mais pas dans l’industrie du logiciel packagé ! Ils font surtout du service. Un peu comme nous en France, ou les sociétés de service représentent 10 fois l’emploi des éditeurs de logiciels…
Ce message ressemble à du publirédactionnel et j’étais à la limite de le supprimer. Mais bon, allez, petite tolérance. Mais attention, c’est limite limite… !
En effet, je n’avais pas mentionné que le gars en question avait un badge Orange Business Service et qu’il était donc invité par Orange et là pour faire la couverture média de l’événement pour cet exposant et sponsor majeur de la conférence, par ailleurs représenté par son CEO en plénière.
Semble que oui, mais je ne me souviens plus lesquelles…
Pour les caméras, c’est ma spécialité ! Pour les hôtesses, je fais de la photo et ai une bonne mémoire des visages. De plus, je leur ai demandé si elles étaient bien les mêmes que l’année dernière ! Rien de surnaturel…
Hello Philippe,
En reprenant mes notes, cf http://www.oezratty.net/wordpress/2010/tentative-decryptage-grand-emprunt/, le PIA annonçait bien 4,5 Md€ dont 250m€ assimilables au numérique mais qui correspondaient au “smart grid” et dont la gestion était confiée à l’ADEME. Il y a eu ensuite plusieurs modifications des allocations au sein du PIA qui ont généré des rognures diverses que je n’ai pas cherché à documenter. Si quelqu’un l’a fait, je suis preneur !
Pour les nouveaux 215m€ pris donc dans le PIA2 (qui, je dois l’admettre m’avait échappé…), OK ! Je vais corriger.
Cependant, quelle est la source de ces nouveaux 12 Md€ annoncés en juillet dernier ? Est-ce qu’il s’agira comme en 2009/2010 d’un emprunt aux taux courants sur le marché qui seront ensuite placés pour être dépensés au fil de l’eau par la méthode dite des consumptibles ?
C’est bien curieusement présenté avec une sémantique genre novlang qui n’inspire pas vraiment confiance. Cela ne colle pas avec l’entrepreneuriat dans le numérique.
Oui certes. Mais 15 milliards par rapport à une industrie qui en pèse plus de 300… C’est surtout une évolution marquante de l’architecture technique et du mode de commercialisation des logiciels. Mais pas forcément une source de croissance. Cela permet notamment aux éditeurs de lisser les revenus !
Oui. C’est la partie du verre qui est à moitié pleine…
OK sur les deux premiers points mais pas sur le dernier. L’idée de génie, c’est très rare. C’est l’équipe et l’exécution qui font la différence. Je connais des personnes qui gardent pour elles leur idée de génie et ont peur de leur ombre. Cela fait rarement de grands entrepreneurs !
On ne sait qu’un projet est une “success story commerciale” que quand… cela l’est devenu. Rarement avant !
Par contre, il y a pas mal d’idées à la noix qu’il vaut mieux ne pas trop explorer dès le départ. Les mentors dans un Startup Weekend peuvent apporter ce genre de feedback.
Franchement, vu l’engagement demandé (un week-end et quelques dizaines d’euros), l’expérience apportée aux jeunes wanabee entrepreneurs n’est pas chère payée !
On se retrouve au Startup Weekend de Paris ce week-end ? J’y suis mentor… pour la première fois, n’ayant participé jusqu’à présent qu’aux SUW en région (Nantes, Sophia Antipolis, Rouen, Bordeaux, Montpellier, …).
J’ai corrigé… oui, projets démarrés en troisième année et terminés en cinquième année.
Côté étiquette Internet, tu comprendras de ton côté que dans la vie, il vaut mieux corriger l’information inexacte que de balancer un jugement de valeur péremptoire genre “il a pas tout compris lui…” !
Par analogie, préfères-tu un prof (ou un manager) qui te dise que tu as tout faux ou bien qui t’aiguille vers la bonne piste ?
Oui, j’aurais pu. Je les ai zappés car ce fut une acquisition moins importante que les autres que j’ai pu citer.
Article intéressant sur le même sujet et l’impact des “smart machines” à venir sur l’emploi des classes moyennes aux USA :
http://techcrunch.com/2013/10/10/the-ceos-are-wrong-smart-machines-will-replace-millions-of-jobs
C’est du pipeau ! Ils n’ont pas autant de startups ! Ils intègrent dans ces statistiques toutes sortes de TPE et PME qui ne sont pas des startups (sociétés à forte croissance, techno et financée par de l’apport en capital) !
Si on intégrait dans les stats Ile de France l’ensemble des TPE/PME créées on en aurait aussi plus de 1000 par mois ! Il s’en créé plus de 300000 par an en France.
Jamais content… 🙂
Faut pas cracher sur la soupe comme ça et faire le grincheux !
L’accompagnement : ce sont des gens, pas des infrastructures. N’attendons pas tout de Xavier Niel !
Même remarque sur les business angels ! Xavier Niel a fait ce qu’il fallait de ce côté là, tout comme d’autres entrepreneurs tels que Marc Simoncini, PKM dans ISAI, etc.
Les universités, labos et écoles ne manquent pas à Paris et ont ne va pas toutes les déplacer à Tolbiac !
Le reste (la vie des entreprises) dépend de l’Etat et Xavier Niel n’y pourra rien, sauf par un effet d’entrainement que l’on peut espérer.
OK, en effet, oubli. Et cela fait un acteur de plus pour la France dans ce secteur !
Poudre aux yeux la 4K ? Peut-être, mais il en va de même de la plupart des innovations dans le numérique depuis des décennies. Le numérique, c’est une économie de l’offre. C’est une économie poussée par une innovation permanente permise par les technologies de base que sont les composants, les capteurs, les écrans, les réseaux et les logiciels. Le reste suit.
Dès fois, cela plante. Quand la valeur d’usage n’est pas là comme avec la 3D. Mais quand l’industrie est bien alignée, qu’il y a des standards, et un minimum de valeur utilisateur, la techno prend.
Pour ce qui est de la disparition des STB, oui, c’est envisageable. Mais pas forcément avec la fragmentation actuelle du marché et aussi ses contraintes de régulation, notamment en France. Ce marché a besoin de standards partagés. Aujourd’hui, c’est la foire d’empoigne avec trop peu de standards de jure style HbbTB ou équivalent.
Donc, wait and see, or … act.
Google une banque ? N’est-ce pas pousser le bouchon un peu trop loin ?
Merci pour ce témoignage ainsi qu’à tous les autres. Ça confirme la tendance au “quick and dirty” et à la commoditisation du genre.
Dans le genre Headoo, il y a aussi SoonLight, un site de partage de photos de soirées. Côté qualité, c’est encore plus du côté du plancher.
Reste finalement le travail qui n’est pas facilement délocalisable et avec des clients solvables : la photo d’entreprise et de leurs collaborateurs. J’ai récemment croisé des photographes professionnels qui s’en sortaient pas mal dans ce secteur.
Côté règlementation européenne, existe-t-il des sites où ces évolutions sont expliquées en détail ?
Vécu récent avec un journal de la presse écrite professionnelle qui me demande une photo d’une entrepreneuse en haute résolution. Je lui propose un prix modeste pour soutenir l’opération http://www.qfdn.net.
Réponse :
“Bonjour,
Merci pour votre réponse, cependant, et malheureusement, nous n’avons pas de budget photo pour cette rubrique.
Bien cordialement,
x x
Service Photo”
Le boulot de ce service, c’est donc de demander à des photographes des photos gratuites pour les intégrer dans le canard ! La valeur proposée en échange : on mentionnera votre nom (ce qui est obligatoire…) !
Intéressant comme témoignage ! La question de la mémoire numérique est en effet clé dans les familles.
Il est aussi possible d’expliquer aux femmes (comme aux hommes) comment bien sauvegarder les photos et les partager. Et de vendre ce qui va avec (disques durs, NAS, câbles, DVD-R qui reste une bonne solution de sauvegarde, en tout cas plus sûre que l’enregistrement – magnétique – sur disque dur…).
De mon côté, j’utilise une méthode aussi “analogique” : j’envoie directement des tirages papier de mes photos de famille à ma belle-mère (en région) qui les assemble dans des albums photos à l’ancienne ! Mais tu n’es pas à l’abri des dégâts des eaux et des incendies !
Marrant en tout cas que l’analogique redémarre au moment où Kodak ferme boutique ! Mais bon, ces chiffres de +15% ou +20 méritent d’être vérifiés dans la durée et avec des études précises. Je me méfie des extrapolations un peu rapides…
Pour être précis, je parlais plutôt de 300 PPI (pixel per inch) ce qui est différent de 300 DPI (dots per inch).
Voici le raisonnement :
21×29,7 cm = 11,69 x 8,26 pouces
300 PPI au carré fois cela donne 8,7 millions de pixels.
Il y a plusieurs techniques différentes d’impression couleur. En print, la plus courante est l’offset avec en quadrichromie, de la synthèse soustractive dans laquelle pour chaque “pixel” imprimé, il faut au moins 4 “dots” utilisant les trois couleurs primaires cyan-magenta-jaune et le noir. Ils sont de diamètre variable pour donner l’illusion – de loin – de la gradation de luminosité.
Pour chaque générer chaque pixel RBG d’une photo converti ensuite en CMYK, on peut se contenter au niveau capteur photo d’avoir autant de photosites de couleurs primaires RGB mais cela fera le tiers d’information pour chaque couleur primaire + dématricage de Bayer (cf http://fr.wikipedia.org/wiki/Matrice_de_Bayer) qui interpole dans chaque position la valeur des photosites adjacents.
Pour être parfait, il faudrait à la fois avoir 3 fois plus de photosites que de pixels demandés, et que les photosites RGB soient superposés pour éviter les artifacts de la matrice de Bayer. Un seul capteur fait cela, le Fovéon de Sigma, mais il n’est pas très performant en sensibilité ce qui se comprend aisément du fait de l’empilement des récepteurs photosensibles.
Dans le marketing des constructeurs d’appareils photos, “un pixel” c’est en fait un photosite de couleur primaire (photosite CCB ou CMOS avec filtre de Bayer devant le capteur qui est en fait “noir et blanc”). Par dématriçage de Bayer, l’appareil va générer un fichier RAW ou JPEF d’autant de pixels RGB que de photosites.
Mais ce n’est que de l’interpolation puisque l’on a trois fois plus d’information à l’arrivée qu’au départ. Donc, idéalement, il faut sur-échantillonner au départ avec 24 millions de photosites pour atterrir à 8 millions de pixels RGB convertis ensuite en pixels CMYB pour l’impression. Et je ne parle même pas des filtres antialiasing, un grand sujet de discussion avec les phrographes “Leica” dont les appareils sont dépourvus, donnant un meilleur piqué aux images.
Un 5D Mark II, c’est 22,1 millions de photosites, dont la moitié en vert, le quart en rouge et le quart en bleu. Et en sortie, cela génère au max en JPEG et RAW, un fichier de 22,1 millions de pixels RGB (donc avec 3 informations de luminosité, une par couleur primaire en synthèse additive).
Les Sony Alpha haut de gamme font exactement 24Mpixels, le Nikon D800 fait 36mpixels. Et je ne parle même pas des Hasselblad qui montent à 50 mpixels. Ces niveaux “délirants” pour le commun des mortels sont utiles pour la sortie en print de haut niveau de qualité.
Dans les imprimantes couleurs à jet d’encre, certaines montent à 1200 DPI, ce qui permet de faire du bon 300 PPI… :).
En tout cas, pour faire simple : l’exigence de résolution pour faire du print de qualité est très élevée et seuls les appareils haut de gamme et avec une haute résolution répondent au cahier des charges. Pour les puristes, seul l’argentique convient…
Verstanden ?
L’UGC a eu en effet cet impact dans tous les métiers qui relèvent des contenus.
La différence est peut-être dans le volume. Il y a énormément de photographes amateurs au regard des photographes professionnels et l’appoint de revenu qu’un Fotolia leur procure ne leur pose pas de problème si les tarifs sont bas. Et un grand nombre d’amateurs font un bon boulot, mus par la passion et un temps significatif qui lui est alloué.
Dans le journalisme, c’est un peu différent. Le nombre de contributeurs qui savent bien écrire des articles ne sont pas aussi nombreux.
Il y a un déclin lié au fait que les rédactions online ont une pression du temps et des coûts telles qu’il est impossible pour les journalistes de faire leur métier de base (enquêter, interviewer, …). Un quotidien génère entre 10 et 20 fois moins de revenu dans la version online vs la version papier. Cela se retrouve dans le boulot rédactionnel pour les articles publiés uniquement en ligne, sauf dans de rares exceptions.
D’où les répétitions des dépêches d’agence. Dans les médias aux cycles plus longs (notamment les hebdos), il subsiste encore des journalistes qui font un vrai boulot de journalisme. J’en connais, en tout cas dans le secteur de la high-tech, qui font encore de l’investigation, se lancent dans le fact checking, etc !
Pour ma part, j’évite en tout cas le jeu que me proposent plein de médias. Ils me demandent d’écrire pour eux plus ou moins gratuitement (et même le tarif pigiste est dérisoire) et qui plus est de manière régulière. Je leur réponds : j’écris pour mon site et au cas par cas, vous pouvez reprendre mes posts en re-publication, mais je n’écrirais pas spécialement pour vous. Après, si un papier relève d’une campagne de comm ou de lobbying défendant telle ou telle cause et méritant un relais dans des médias de grande diffusion, pourquoi pas. Les occasions sont rares.
La pub sur la distribution est tellement encadrée qu’elle est interdite dans les faits. En voit-on souvent d’ailleurs ?…
Pour ce qui est de RIS, la production est assurée par TF1 Production, filiale à 100% de TF1. Elle n’est donc pas comptabilisée dans le quota de commandes de productions indépendantes. Cf http://www.ufcnancy.org/images/txt/20110105224728.pdf. Mon point est donc en effet plutôt inexact : les chaines doivent commander une part de ce qu’elles diffusent à des producteurs indépendants, mais elles peuvent toutefois produire leurs propres fictions pour la part qui sort de ce cadre.
Merci du feedback.
Je ne manquerai pas d’ajouter cet incubateur dans la prochaine édition du guide !
Cordialement,
Olivier
Oui, vaste sujet, déjà largement défriché par le rapport Colin & Collin sur la fiscalité du numérique.
Les bénéfices d’Amazon ne sont cependant pas faramineux car la boite n’est pas très profitable. Le résultat net d’Amazon est très modeste au regard de ceux de Google, Facebook ou Microsoft qui dépassent les 27% du CA.
Cependant, leur performance internationale est un état de fait incontournable. On peut toujours chercher à mieux les taxer. Mais il est plus important d’aider par tous les moyens possibles nos propres boites à se développer à l’international. Même si après, on se plaindra de leurs propres techniques d’optimisation fiscale, régulièrement dénoncées pour les entreprises du CAC40.
Inquiétant mais pas surprenant. Dans l’univers des startups, on sent que le marché va mal en France depuis au moins le début de l’année. Tout du moins en b-to-b.
Ce témoignage confirme un point clé : en temps de crise, la principale variable d’ajustement sont les petites structures, ce d’autant plus qu’elles n’apparaissent pas toujours intégralement dans les statistiques sectorielles.
Sur la feignasserie des développeurs en SSII (ESN), n’est-ce pas une généralisation un peu hâtive d’une expérience personnelle ?
Mais je suis d’accord sur un point : l’excellence de notre enseignement supérieur sans cesse mise en avant comme un atout de la France est en grande partie une illusion en valeur relative, même si il s’avère que de nombreux ingénieurs français trouvent leur (belle) place à l’étranger et notamment aux USA. On se gargarise souvent de la présence de tel ou tel ingénieur dans les boites américaines mais sans avoir assez de recul sur la présence identique ou supérieure d’ingénieurs indiens, chinois ou issus des pays de l’Est dans les mêmes boites. On a effectivement des pointures, des Normale Sup Ulm, des médailles Fields, et des cracks de la sécurité. Mais ils représentent une petite part de la production du système d’enseignement supérieur français. Par contre, des français de bon niveau travaillant dans des environnement d’excellence, dynamiques, bien financés et très motivants deviennent peut-être meilleurs que s’ils restent en France. C’est plus une question d’environnement que d’excellence scientifique ou technique. Lands of opportunities!
Au passage, les difficultés actuelles renforcent un point clé : la résistance à la crise est meilleure quand un business est très diversifié géographiquement et est notamment présent sur les marchés les plus porteurs.
Il me semblait (au moment de rédiger l’article) que le niveau BAC avait été évoqué par les intervenants lors de la conférence de presse. Niveau et donc pas diplôme. En gros, histoire de vérifier quelques basiques…
Bravo en tout cas pour être candidate car cela prouve une fois de plus que geek ne se conjugue pas qu’au masculin !
On supposera qu’il s’agissait de prévisions. De toutes manières, la comparaison portait sur 10 ans. Donc 2000 vs 2009 ou 2010, cela ne changeait probablement pas grand chose au propos.
Oui, argumentée… 🙂
Rien n’empêche de contribuer au débat au lieu d’être frustrée ! Un article de blog, déjà assez long, ne prétend pas à devenir une thèse de doctorat en sociologie… 🙂
Non, position différente des acteurs. Apple est un “problème” dans le rapport. Un grand américain qu’il faut juguler/réguler et qui pourrait/devrait contribuer au financement de la culture, même si les yeux sont plus facilement rivés vers Google.
Archos relève lui d’une question de stratégie industrielle. Et il en est peu ou pas question dans ce rapport. C’est un grand classique : à Bercy, on fait du numérique et de l’industrie et à la rue de Valois, on fait de la culture. Mais le lien entre les deux est bien ténu.
Précision utile en effet. Merci ! C’est en effet dans les zones urbaines actives que le manque de logement est significatif. Mais le manque de logements en France date il me semble de bien avant les bulles de crédit récentes. L’Abbé Pierre en 1954, c’était avant les bulles de crédit ! Et cela concernait le logement social, un sujet toujours d’actualité. Ce n’est pas pour rien que la loi SRU existe !
Autre point de benchmark : le coût du logement est plus faible en Allemagne qu’en France du fait d’un parc locatif plus important (bonnes explications ici : http://lexpansion.lexpress.fr/immobilier/comment-l-allemagne-empeche-les-prix-de-l-immobilier-de-flamber_249642.html, reste à savoir à qui appartient le parc locatif en Allemagne !) et il ne se construit pas assez de nouveaux logements en France par rapport à la demande.
En Allemagne, le logement pèse moins sur le budget des ménages qui peuvent ainsi consommer plus car ils sont moins endettés puisque plus souvent locataires. Avec un phénomène de vases communicants entre le coût de l’immobilier et la consommation interne et indirectement de la croissance… A méditer !
Bonjour Laurent,
Merci d’avoir relevé l’oublie du lien sur la vidéo, qui est maintenant ajouté.
Concernant mon calcul, c’était une sorte de “worst-case scenario” qui présente l’intérêt, une fois que l’on applique toutes les optimisations imaginables (CDN et autres), de montrer que le broadcast à très grande échelle de la TV numérique sur IP et via la fibre est envisageable, y compris pour de la vidéo de très haute qualité (Full HD puis UHD/4K).
Côté data-center, le défi serait significatif, mais est-ce le plus difficile à réaliser ? Là-encore, c’est surtout une question de coût et d’équilibre économique. Aujourd’hui, la diffusion de la TV linéaire par TNT ou satellite revient bien moins cher que par IP. Cela restera le cas encore quelques années !
C’est un peu plus compliqué que cela. Je connais plein d’entrepreneurs qui veulent faire du scalable et veulent conquérir le monde et n’y arrivent pas.
C’est un cercle vicieux dont il n’est pas évident de sortir :
– Pour faire un bon produit scalable, il faut à la fois des moyens financiers de départ et trouver des clients assez tôt. En btoc, le marché français est limité. En btob, il est lent à la détente.
– Les moyens financiers “levables” sont plus ou moins proportionnels à la taille du marché adressable dans l’immédiat. Le marché français étant limité et le marché européen atomisé, tout comme les principales sources de financement, font que les entrepreneurs “lèvent peu”.
– Ils doivent donc avoir des ambitions moyennes pour commencer. Comme le take-up de la boite est souvent bien plus lent que prévu, et qu’il est difficile de trouver d’autres moyens financiers, les sociétés “produit” évoluent graduellement vers le service. A la fin, elles ne sont plus “scalable”.
– Les moyens financiers limités du départ font que le produit est réalisé avec des bouts de ficelles : avec des stagiaires de courte durée voire de la sous-traitance offshore, tous deux difficiles à maîtriser. La qualité n’est pas au rendez-vous. Le logiciel n’est pas forcément bien architecturé, extensible et/ou scalable. Parfois, il faut tout refaire au bout de un à deux ans. Et le temps perdu est difficile à rattraper.
Ce cercle vicieux a tendance à réduire les ambitions des entrepreneurs français. Ils ciblent souvent des marchés ultra-niches mais avec des cycles de vente pas bien rapides. Ou alors, ils versent dans le “nice to have” et avec une différentiation insuffisante par rapport à l’état de l’art.
Comment sortir de ce cercle infernal ? Quelques pistes, évoquées dans le Guide des Startups :
– Faire une bonne analyse de la valeur du problème que l’on souhaite régler avec son produit pour trouver plus rapidement des clients. Il faut des problèmes qui ont de la valeur (le coût de leur non traitement par le client) pour beaucoup de clients et avec des déficiences marquées des solutions existantes. Les pivots, c’est sympa, mais autant limiter leur nombre dès le départ !
– Bien cibler ses marchés pour démarrer. Des marchés solvables, innovateurs, etc. Pas évident, bien entendu.
– Bien penser l’architecture du produit dès le départ. Les choix de départ sont très structurants. Cela concerne aussi les choix de l’équipe. Qui retombent dans le débat codeur vs développeur vs CTO.
– Afficher une ambition internationale forte dès le début et crédible. Cela doit se retrouver dans la conception même du produit.
– Ne pas hésiter à chercher des sources de financement originales : fonds d’entrepreneurs, family offices, investisseurs étrangers.
– Identifier de bons effets de leviers et partenariats pour aborder ses marchés.
– Bien entendu, se faire accompagner comme par un passage dans un accélérateur de startups.
Ce n’est pas un “business” puisque c’est du goodwill…
Les données macro montrent en effet que ces 10 à 20 dernières années, les grandes écoles sont devenues plus élitistes. Qu’est-ce que cela veut dire précisément ? Que la part des classes sociales employés/ouvriers/classes moyenne a décru dans les origines des élèves de ces grandes écoles.
Je cite un site officiel (données datant de 2007) – http://www.vie-publique.fr/actualite/alaune/grandes-ecoles-recrutement-toujours-elitiste.html :
“Ce rapport sur “la diversité sociale et l’égalité des chances dans la composition des classes préparatoires aux grandes écoles” constate plutôt un recul en la matière : moins d’un élève sur dix (9%) est issu d’un “milieu défavorisé”, contre 29% il y a 20 ans, ce qui est bien, selon les rapporteurs, un signe de la “panne de l’ascenseur social”. Pour expliquer ce phénomène les sénateurs pointent les défaillances du système d’orientation et d’information, la persistance de handicaps financiers (frais d’inscription, incompatibilité avec le travail salarié, etc.) et les inégalités territoriales souvent associées à des inégalités socio-culturelles. Les propositions visent à renforcer l’information des familles, à revoir la carte des classes préparatoires (en créer davantage en banlieue et en zone rurale), à amplifier les systèmes de bourse, multiplier les internats ainsi qu’à coordonner et évaluer les expérimentations locales, notamment celles de “discrimination positive”.
Ces données sur l’origine sociale sont des agrégats. Ils intègrent je crois aussi bien les écoles d’ingénieurs que de commerce. Il serait intéressant de voir si cette discrimination sociale est aussi manifeste dans les écoles d’ingénieur associées aux universités.
Listons les problèmes évoqués et voyons si 42 apporte une solution :
– Système d’orientation : non.
– Frais d’inscription : oui, c’est gratuit.
– Incompatibilité avec travail salarié : ni plus ni moins que pour les autres cursus publics s’il faut payer son logement et de quoi s’alimenter.
– Inégalités territoriales : elle subsiste.
– Inégalités socio-culturelles : réduite dans une certaine mesure car il n’y a pas d’exigence particulière en culture générale.
– Information des familles : la communication a du faire son effet, mais ponctuellement.
– Présence en banlieues et zones rurales : non. 42 aurait été plus osé s’il avait été installé dans le 93 que dans Paris !
– Amplifier les bourses : Xavier Niel pourrait y penser pour attirer les élèves des régions.
– Internats : c’est un point clé. A la question posée sur ce sujet pendant la conférence de presse, XN a répondu qu’il allait en discuter avec la Ville de Paris.
– Discrimination positive : elle est implicitement au programme de par le processus de recrutement.
Après, comme cette école ne va pas régler un problème national qui dépasse le cadre du développement logiciel, elle recrutera à la marge “haute” de la population des exclus du système. Dans les plus de 140 000 élèves qui sortent chaque année du système éducatif sans diplôme, il faudra un tamis assez fin pour trouver les développeurs. Dans ces 200K, il y a une stratification entre ceux qui sont exclus car ils ont complètement largué toute forme d’éducation et n’ont même pas acquis les connaissances de base (écriture, lecture, etc), et ceux qui ont été exclus mais sont toutefois intéressés par les études et ont ces connaissances de base.
Tu soulèves un point très important qui est le manque de culture “produit” dans la conception de logiciels en France. Cette culture requiert des réflexes et un savoir faire qui sont plus courant aux USA qu’en France. Ils relèvent d’une discipline qui s’appelle le ‘product management’ et qui est à la croisée des chemins entre le marketing, la gestion de projet et le développement logiciel. Cette discipline n’est pas vraiment bien formalisée ni enseignée. Et en effet, dans les formations françaises, on apprend à coder mais pas à créer des produits logiciels.
Qu’est-ce qu’un produit logiciel ? C’est un produit qui factorise des besoins pour un grand nombre d’utilisateurs. Il est construit en briques et avec des APIs permettant de l’étendre et de créer un écosystème autour. Il est documenté, maintenable, extensible, paramétrable, installable. Il a aussi une interface utilisateur et une ergonomie bien étudiée.
42 n’innove pas dans ce domaine et c’est dommage. Mais il ne faut pas jeter la pierre pour autant puisque cette discipline n’est visiblement pas enseignée ailleurs. Elle le serait difficilement chez 42 puisque la transmission de savoir passe par les pairs, soit essentiellement les élèves entre eux, qui n’ont à priori pas d’expérience dans le développement de produits logiciels industriels.
Côté formations à l’entrepreneuriat, l’écosystème français a fait d’énormes progrès ces dernières années. Que ce soit avec la palanquée d’accélérateurs ou d’incubateurs créés déci-delà, ou avec les filières entrepreneurs des grandes écoles. Il y a aussi de plus en plus d’entrepreneurs qui partagent leur expérience avec les entrepreneurs en herbe. On a également de plus en plus de fonds d’investissement d’entrepreneurs.
Au démarrage d’une startup, il faut certes des développeurs, mais il faut aussi et surtout un bon CTO qui va les gérer. Le CTO est plutôt un ingénieur généraliste et un manager tout en étant un bon côté technologie. Il doit savoir développer pour en comprendre les codes (facile…) mais aussi pour bien piloter ensuite ses développeurs.
Ce sont bien des promos de 1000 par an. Et il y aura donc 3000 étudiants dans l’école d’ici fin 2015.
Le modèle sur le qui va faire quoi est visiblement exactement celui de l’EPITECH qui a été créé par les fondateurs de 42. La différence ici est qu’ils auront plus de moyens matériels qui apporteront de meilleures conditions de travail aux étudiants. Xavier Niel a indiqué que ce serait probablement l’école la mieux dotée d’un point de vue de l’équipement et des conditions d’accueil des étudiants.
En quoi un concours est-il facteur d’exclusion ? C’est un moyen de sélectionner les meilleurs sans favoritisme. Cela nécessite évidemment un peu de préparation. Comme il y a beaucoup de concours et pas mal de places, il est relativement aisé de les réussir. Après, si on tombe sur une école groupe C, ce n’est pas la cata. Mon constat n’est pas lié au fait qu’il y ait concours ou pas mais aux origines sociales que j’observe dans les écoles diverses où j’enseigne.
Pour le 2, j’avais bien compris le montage. Je me suis mal exprimé.
C’est comme pour les startups : on lance souvent sa boite pour créer une solution qui correspond à son propre besoin et en estimant qu’il y a un grand nombre de personnes ou sociétés qui ont ce même besoin.
Dans le cas de Xavier Niel, la volonté va bien au-delà du simple besoin de recrutement de Free. L’expérience de Xavier Niel a en tout cas fortement influencé son projet car il recrute beaucoup d’élèves issus des écoles type EPITECH, dont il apprécie beaucoup la pédagogie.
Il pense surtout pouvoir contribuer à faire grandir l’écosystème français du numérique avec cette initiative. Il ne faut pas chercher du “self-interest” traditionnel. Lis bien la conclusion de l’article qui explique pourquoi.
Le chiffre de 4000 n’apparaît dans l’article que pour évoquer le nombre de candidats que 42 souhaite filtrer en amont pour en sélectionner 1000. La source : la conférence de presse du lancement de 42.
Puis, il y a les 5000 développeurs formés par les écoles privées et publiques évoqués par Xavier Niel comme indiqué. C’est un chiffre “doigt mouillé” que j’ai essayé de reconstituer en intégrant les effectifs des principales écoles privées d’informatiques (dont il ne faut prendre qu’une partie), des filières informatiques des grandes écoles généralistes (idem), et des filières universitaires. Et cela colle à peu près.
Il n’est pas évident d’évaluer le nombre d’informaticiens formés en France chaque année dans le supérieur et donc encore plus, pour les développeurs. Les estimations varient de 15000 à 30000 nouveaux entrants sur le marché du travail chaque année. Un tiers de développeurs dans tout ça sur la fourchette basse ? C’est à peu près cohérent.
Il persiste une bataille des chiffres sur le nombre d’informaticiens en France, le nombre de diplômés et celui des chômeurs. Notamment entre le Syntec et le Munci, un syndicat de salariés dans l’informatique : http://munci.org/La-France-forme-suffisamment-d-etudiants-aux-metiers-de-l-informatique et http://munci.org/La-desaffection-des-etudes-scientifiques-et-le-papy-boom-ne-concernent-pas-l-informatique. Son point de vue est qu’il y a du chômage dans l’informatique et que le manque de diplômés est gonflé par les organisations patronales style Syntec.
Débat expliqué ici : http://www.zdnet.fr/actualites/emploi-it-une-bataille-des-chiffres-entre-le-syntec-et-le-munci-qui-n-est-pas-anodine-39765773.htm.
L’emploi est un sujet complexe de mécanique des fluides : les seniors (>45 ans) ont du mal à trouver du boulot pour les raisons habituelles (parfois dépassés par les nouvelles technologies et aussi, laissés de côté par les entreprises qui préfèrent les jeunes, moins chers et plus adaptables) et les débutants bien formés s’en sortent plutôt bien dans l’ensemble. Il y a aussi beaucoup d’indépendants, je crois de l’ordre de 30 000. Et surtout des flux entre métiers informatiques et non informatiques. Les estimations du nombre d’informaticiens en France vont de 500 000 à plus de 800 000. La différence provient notamment de la comptabilisation de métiers non-informatiques dans les entreprises du numérique (un commercial ou un chargé de communication d’un constructeur, d’une SSII ou d’un éditeur de logiciel est-il un informaticien ?).
Autre source d’information qui date de quelques années, ce papier de Laurent Ellerbach de Microsoft France : http://www.anif.fr/UserFiles/File/documents/renouvinformaticiens.pdf. Qui explique un peu les flux migratoires dans la profession.
Merci Fatiha pour ces précisions utiles.
1 – Je n’ai pas fait allusion à la notion de concours. Certaines écoles recrutent sur dossier, d’autres sur concours.
2 – Oui, au niveau de la maison mère. Après, les montages sont plus complexes…
3 – En effet, je n’ai pas cité les INSA et autres écoles liées aux universités. En existe-t-il qui forment beaucoup d’informaticiens et de développeurs ?
4 – Les crédits ECTS servent à valider des diplômes mais 42 n’en délivrera pas. Ces crédits sous-entendent-ils qu’ils chercheront donc un jour à valider les études avec un diplôme homologué ?
5 – En effet.
OK à 100% sur le besoin de valoriser la filière des développeurs de logiciels !
Bonjour Loic,
J’ai un peu édité l’article au sujet du low-cost en réintégrant les capex. Cela positionne l’école dans la fourchette basse des structures de coût des écoles privées et en tenant compte de la nature “for profit” des écoles privées qui génère un résultat net et un impôt sur les sociétés. Si on prend l’exemple de Supinfo pour une bonne année où ils ont fait 20% de résultat net, cela donne une structure de coût qui doit être proche de 60% à 70% du CA. Dans le bas de compte d’exploitation, on va avoir 20% de net, 10% d’impôts sur les sociétés et des frais financiers en cas d’emprunt. Ces 30% et quelques sont absents dans le cas de 42.
Le choix d’un iMac a été expliqué par les fondateurs le jour du lancement : cela allège les frais pour les étudiants qui n’ont ainsi pas à acheter un laptop. Comme l’école est ouverte 24h/24, ils peuvent en profiter tout le temps sans contrainte.
Le codage dans la salle permet d’éviter la solitude. Cela peut favoriser les échanges entre étudiants, le coaching et l’entre-aide, qui est un élément clé de la pédagogie. Il faut voir le bon côté de la chose !
Il faudra aussi vérifier qu’ils ont prévu la sustentation alimentaire sur place, comme c’est le cas dans les boites hightech aux USA (les fameux restaux chez Google).
Il faudrait probablement que tu réessayes le téléchargement. Parfois, il ne va pas jusqu’au bout pour des raisons que j’ignore. Ce n’est pas une question d’OS. La plupart des gens qui ont eu ton problème ont réussi à télécharger le guide en tentant à nouveau le coup.
Pour ce qui est de la mort des startups, le sujet est traité pages 114 à 116, et ce depuis la 11ième édition qui date de septembre 2009, et surtout sur l’aspect juridique et financier. Cette partie mérite certainement d’être complétée mais c’est un début. Peux-tu indiquer quelques exemples de points précis à traiter dans cette partie ?
Non, pas de version ePub. Le reformatage du Word avant un export ePub est assez fastidieux. Mais si vous êtes volontaire pour le faire, je peux vous fournir le source Word.
Cela m’est déjà arrivé de croiser des entrepreneurs de ce secteur qui avaient un lien avec le numérique. Mais c’est en effet plutôt rare. Je constate en tout cas un accroissement des velléités d’entrepreneuriat solidaire chez les jeunes. Cela vaut la peine d’évoquer le phénomène.
Merci pour ce sympathique feedback Guillaume !
Des idées pour la 18ième édition ? 🙂
J’en ai encore en tout cas en “backlog” : l’entrepreneuriat solidaire, plus de matière dans la comptabilité et la finance des startups, un tour d’horizon plus approfondi des facteurs clés de succès et d’échec des startups en analysant le porte-feuille des grands VC français, etc.
Olivier
Merci Richard pour ce très intéressant retour d’expérience. Pour l’instant, le bénéfice produit semble encore en retrait par rapport aux limites et contraintes. Cela s’améliorera sans doutes.
De mon côté, je suis plus en attente de progrès dans la sensibilité des capteurs et leur capacité colorimétrique (gamut) que dans cette gestion un peu compliquée de la profondeur de champ.
Ce sujet était en théorie traité dans la partie “compétitivité” traitée dans l’article précédent. Mais évidemment, on en est encore loin.
Hello Louis,
En effet, il y a plusieurs solutions alternatives à la fibre pour relier les zones peu denses à l’Internet. Tooway est intéressant mais présente quelques limitations : en débit réel et surtout en latence du fait de l’aller retour avec le satellite géostationnaire. Et la bande passante est limitée par celles des transpondeurs alloués au service par le satellite d’Eutelsat.
Ce satellite est construit par le français Astrium et est doté d’une capacité totale de 70 GBits/s. Mais Tooway n’en exploite qu’une partie. On peut faire passer plusieurs dizaines de fois ce débit sur une fibre noire maintenant ! Ce satellite exploite la bande KA des 26 à 40 GHz avec un débit descendant plafonnant aussi à 10 mbits/s et 4 mbits/s en montant (par abonné).
Il a une autre solution passant par les satellites Astra avec les services de Nordnet (filiale de France Télécom), Viveole et Wibox. Astra utilise la bande Ku (entre 12 et 18 GHz, maximum de 10 mbits/s en descendant et 384 Kbits/s en sens montant, moins bon qu’avec la bande KA).
Dans les deux cas de figure, le débit est mutualisé sur les utilisateurs. On peut en mettre grand maximum quelques dizaines de milliers d’abonnés par satellite. Fais le calcul…
Mais OK avec ton raisonnement. En faisant simple, disons qu’il faut un réseau câblé (fibre) allant au plus près des abonnés selon ce que permet l’équation géographie/coût, car c’est le seul moyen d’avoir un débit en masse. Puis faire le reste du trajet par une voie hertzienne “de proximité” (le Wimax peut servir à cela mais ce n’est pas un grand succès), le satellite couvrant les zones très isolées qui ne pourraient pas être traitées par une voie hertzienne terrestre.
La voie régulatoire du partage des fréquences peu utilisées est aussi très intéressante. C’est ce que tu appelles le mode ASA. J’ai d’ailleurs croisé aujourd’hui même une société qui travaille sur un outil d’évaluation des fréquences disponibles pour ce partage. Après, faut négocier avec l’armée qui truste pas mal de fréquences, et avec l’Agence Nationale des Fréquences, sorte d’ARCEP des ondes, dont on parle peu.
Pour intéresser un investisseur, quel qu’il soit, il faut que l’argent investit puisse être récupéré avec un potentiel de “multiple” de l’investissement initial. Pas avec d’éventuels dividendes.
Dans tous les cas (que je connais en tout cas), cela passe par une entreprise qui peut ensuite être revendue ou éventuellement introduite en bourse (ce qui très rare). Par ailleurs, il faut une structure juridique pour pouvoir créer un pacte d’actionnaire avec les investisseurs.
Aller, un petit tour dans le Guides des Startups pour revenir aux basiques… Cf http://www.oezratty.net/wordpress/2012/guide-startups-16/.
Il semble que oui… la France a été très très en retard sur l’équipement des foyers en téléphone.
En effet. Tesla et Toyota sont partenaires sur un certain nombre de véhicules depuis 2010 (dans la série du RAV4 EV), mais pas sur celui-ci. C’est corrigé…
Merci Yann pour les précisions sur la TNT.
Concernant Nokia, leur absence (à part un bus en extérieur) était décevante. Au delà de leur situation qui n’est pas florissante, cela s’explique aussi par le fait que Nokia n’a jamais été présent aux USA. Ils misent donc plutôt sur le MWC.
Par contre, le parallèle avec Bouygues Tel ne me semble pas bon dans ce genre de business. Les services et le matériel sont deux business assez différents. Et Bouygues Tel, avant Free, s’est aussi distingué en baissant les prix côté mobile, puis fixe et enfin dans le quadplay.
Bonsoir Pierre,
Merci pour le retour. En effet, j’essaye de sortir de la langue de bois du moment dans ce Rapport et prendre un peu de recul. Et aussi, mettre en évidence quelques absurdités du secteur.
Bonne continuation !
Olivier
Pas mentionné dans l’article, mais sera dans le Rapport CES 2013 ! Stay tuned…
Bon, j’ai un peu généralisé. Mais je confirme cette impression de français de l’étranger qui sont souvent assez dépités, voire plus que ceux de “l’intérieur”. Et qui d’ailleurs prennent facilement mentalement leurs distances avec leur pays d’origine sauf dans des cas comme le tien ou les allers et retours sont fréquents entre USA et France. Je n’ai pas l’impression que ce genre de ressenti soit lié aux raisons qui les ont poussés à aller à l’étranger comme tu sembles l’indiquer.
En tout cas, je suis le premier à encourager les entrepreneurs à se projeter à l’étranger tout en tirant au mieux parti des capacités de notre pays. Ce n’est pas un truc de pleureuses…
Il est assez vain de faire ce genre de prédictions. Ce marché est pour l’instant trop immature pour se consolider.
Comme je l’indique dans le premier article sur les objets connectés, il me semble que ceux qui vont retirer de la valeur de ce business sont plutôt les fabricants de composants et les offreurs de services de base en cloud style Amazon.
Le marché des objets connectés est un mélange de composants, surtout des capteurs, de produits matériels et de logiciels. Pour l’instant, les logiciels sont bundlés avec les matériels. Un découplage pourrait intervenir avec des plateformes de workflow ouvertes sur des matériels aux API ouvertes, telles que celles qui ont été présentées à leWeb (Sen.se, …). Google a essayé avec Google Home puis s’est fait discret sur le sujet. Les autres prétendants sont pour l’instant petits.
Bref, le reste sera très fragmenté pendant longtemps.
Cela me fait d’ailleurs penser à l’état actuel du marché de la TV connectée, qui présente des caractéristiques voisines de fragmentation technologique et d’absence de leaders incontestables. Il est d’ailleurs tout aussi immature.
Cela sera dans l’article suivant…
Merci pour le tuyau sur Wolfram dont j’avais entendu parler mais sans plus. J’ai testé l’outil en mettant plus de 15 boites et cela devient difficile d’obtenir quelque chose. Il faut avoir les stock tickets précis des boites évidemment !
Il doit y avoir pas mal d’outils pour les pros de la finance pour comparer les données financières des boites. Mais ce ne sont pas encore des données entièrement ouvertes, au sens… gratuites. Là, j’ai 60 boites à comparer en données YoY !
Merci pour la coquille, corrigée illico.
Le lieu unique qui concentre le tout, cela s’appelle un trou noir en astronomie. Derrière lui, on trouve une fontaine blanche d’où jaillissent énergie et lumière. Quand on arrive à le traverser en conservant sa forme initiale :).
Là, nous sommes plutôt dans les zones de résistance…
Il en va ainsi des délais de paiement des clients qui ne se sont pas significativement accélérés alors que le numérique, en théorie, permet d’aller beaucoup plus vite !
La fracture numérique se retrouve aussi dans vitesse à laquelle les gens se bougent !
Pas de plaintes en perspectives car Evergig ne diffuse des concerts qu’avec l’accord des maisons de disque et des artistes. Ne serait-ce que pour pouvoir récupérer la bande son d’origine, de bien meilleure qualité que ce que l’on peut récupérer avec un smartphone !
Est-ce que les concerts sur Switchcam sont publiés avec le même genre d’accord ?
On pourrait aussi imaginer un monde avec juste des entrepreneurs qui emploient des autoentrepreneurs. En caricaturant un peu, c’est un peu la forme du marché du travail aux USA où la sécurité de l’emploi est assez faible, mais la mobilité très forte en retour. Cela profite aux salariés quand l’économie va bien mais moins quand elle va mal.
Votre point sur la Ferrari et les salariés est un peu déplacé dans le cas de nombreuses startups. En effet, les dispositions initiales de la PLF2013 allaient AUSSI pénaliser les salariés qui prennent le risque d’entrer dans une startup avec un salaire en dessous de celui du marché, risque rémunéré par des actions dans la société (sous forme de BSPCE ou autres).
Bonne remarque ! En fait, le noir de la partie droite est lié au reflet, pas au noir du fond de la boite !
Bon, la boiboite qui fait tout pour la TV n’est en tout cas pas arrivée chez toi 🙂
Merci pour le témoignage Guillaume !
Que le joujou soit un peu difficile à trouver n’est pas très étonnant. Il est tout récent et n’existe qu’avec une marque. Par ailleurs, il est dans la catégorie des produits indémontrables dans le retail. Tout comme les fonctions de TV connectée qui ne sont jamais présentées dans les rayons, faute de connexion des TV et de formation des vendeurs. Et aussi, pour éviter d’y perdre trop de temps pour vendre les TV !
En résumé : tout ça pour ça ? Il aurait été plus simple de brancher un PC ou un Mac sur la TV… Oui, il manquerait la télécommande. En tout cas, si GTV ne sert qu’à regarder YouTube, cela restera un accessoire bien secondaire pour la plupart des foyers !
La différence entre YouTube sur TV connectée et sur Google TV peut aussi provenir du processeur qui est plus puissant sur cette dernière.
Oui, en effet. J’ai corrigé cela dans le texte. Très bon bouquin que je n’ai d’ailleurs pas encore terminé. Mais j’y bois du petit lait car je prêche les sujets qu’il contient assez régulièrement, et par ailleurs connait bien les deux auteurs !
Bonjour,
Pas sûr que ces éléments techniques aient tant d’importance que cela pour le succès ou l’insuccès de Google TV. Le support de Flash en particulier qui est une technologie en déclin. Les chaines sont déjà obligées de s’en passer pour les versions iOS de leurs applications…
Donc Apple TV est un hobby pour Apple et Google TV est un hobby pour Google. Les scénarios catastrophistes (du genre de celui de mon intro, qui était au second degré) sont donc assez peu probables.
Ou tout du moins, on peut s’attendre à des changements significatifs du marché, mais pas forcément dus à Apple ou Google !
Ca dépend de la ligne : le CA augmente de plus de 50% ce qui est pas mal. Mais le résultat d’exploitation est fortement négatif. Si c’est pour de l’investissement, pourquoi pas. Si c’est pour vendre des projets à perte, c’est une autre histoire. Reste à obtenir le détail…
En effet, corrigé !
Merci Jérémie pour tous ces détails intéressant sur le sujet !
Olivier
La technologie utilisée dans ce cadre ne relève pas du séquençage. Elle utile une autre technique à base de marqueurs qui permettent d’identifier les polymorphismes (variations) bien précis dans certains gènes. La technique s’appuie sur des biopuces, ou DNA array et DNA microarray. Pour faire simple, après préparation, on envoie un échantillon d’ADN sur une sorte de matrice avec des cuves qui contiennent chacune un marqueur fluorescent différent qui va détecter des polymorphismes bien précis, jusqu’à plusieurs milliers voire centaines de milliers. On fait une photo du résultat et on obtient, après traitement informatique, la liste des variations dans les gènes que l’on souhaite étudier. La police scientifique en étudie certaines, la médecine, d’autres.
Du côté de l’offre, plus d’une vingtaine d’entreprises dans le monde proposent des machines automatisées pour ces analyses. Parfois ce sont les mêmes que celles, les plus grandes, qui proposent des systèmes de séquençage. Les analyses à base de biopuces coutent pour l’instant moins cher qu’un séquençage complet.
C’est la technique également utilisée par les sociétés américaines qui offrent en ligne de décoder votre génome. Aucune société ne propose pour l’instant un séquençage complet du génome humain personnalisé car cela coute encore trop cher (plus de $1000). Mais on descendra bientôt en dessous de $100 et la donne changera.
L’expression est de moi, mais elle résume bien son propos !
Hello Frédéric,
Corrigé…
Merci !
Ne caricaturons pas les choses. Le Téléthon a fait avancer la science dans des proportions énormes et est à l’origine du Génopole d’Evry, un véritable pôle industriel dans les biotechs.
Pour ce qui est de l’activité industrielle, difficile à dire. Mais notre faiblesse existait déjà avant le séquençage du génome humain. La France n’a jamais été très bonne en matériel médical. Il suffit de faire un tour à l’hôpital, une clinique ou dans un laboratoire d’analyse médicale pour se rendre compte que le matériel y est américain, japonais ou allemand en général.
Pour la 3D, ce sont effectivement les solutions métier qui se déploient en ce moment, notamment dans la santé, y compris pour créer des prothèses. J’ai croisé une startup il y a un an dont j’ai oublié le nom qui a même créé une poudre spéciale et biocompatible pour en imprimer en 3D (pour des os), et avec une imprimante 3D laser française dont j’ai aussi oublié le nom.
Compte-tenu des habitudes françaises, il y a donc peut-être un espace à prendre dans l’impression 3D “haut de gamme”, de précision, pour les applications industrielles. Pour ce qui est du grand public, c’est plus difficile. Mais il ne faut jamais dire jamais.
Merci ! C’est en fait la chute de la 5ième partie de la série, ici : http://www.oezratty.net/wordpress/2012/technologies-sequencage-genome-humain-5/.
Bonjour Pierre,
Dans un des articles suivants, je reviendrais sur la structure de cet écosystème et pourquoi l’Europe est assez absente et en particulier la France.
La technologie d’Oxford Nanopore Technologies permet de faire des analyses de caractérisation de protéines.
Pour le reste, je suis un peu sec. Je n’ai pas trouvé de documentation sur les procédés de fabrication des protéines ou lipides divers de ces nanopores lorsqu’ils sont biologiques (vs pur silicium). Ils doivent être sûrement brevetés, donc cela doit pouvoir se retrouver quelque part. A moins que cela ne relève du secret industriel.
Merci Patrick pour ces compléments d’information très utiles. J’ai corrigé le point sur Qiagen et sur l’électrophorèse capillaire. J’avais mal compris ce que j’avais lu. Il me semblait que les tubes permettaient de capter la couleur des marqueurs. J’ai extrapolé cela sous forme de chromato, qui n’en est effectivement pas une.
En effet, je viens d’ajouter cette précision dans le texte.
Pour les technologies à base de nanopores que je suis en train d’étudier pour l’article suivant, j’ai vu que les brins d’ADN séquençables peuvent être plus longs, de plusieurs milliers voires dizaines de milliers de bases et qu’effectivement, on n’a pas forcément besoin de l’étape de “découpage”. Mais cela dépend un peu des technos.
Je fais cela assez régulièrement, mais habituellement sur les sujets qui sont dans mon coeur de métier (médias numériques). Ici, c’est une digression d’été qui m’est venue car je souhaitais comprendre comment on séquençait le génome. La variété des technologies mises en oeuvre est assez fascinante.
Bonjour, oui je suis preneur de toute littérature pour débroussailler le sujet ! Merci !
Bonjour Hervé,
Merci pour l’encouragement car c’est un domaine assez particulier à appréhender. On est vite noyé sous les concepts. La biologie moléculaire est d’une richesse incroyable !
L’épigénétique ? Je vais voir cela dans les phases suivantes, peut-être au niveau des applications du séquençage.
Pour le (c), corrigé : c’était une fonction à désactiver dans un plug-in !
Et merci à mon tour pour ton papier sur YouView, un service enfin disponible après une gestion qui a pris plus de temps que prévu.
L’approche de standard complet côté box est très intéressante mais n’a pu voir le jour que parce que les chaines TV étaient en position de force face aux telcos. Ce qui n’est pas vraiment le cas en France du fait du poids de l’ADSL.
Pour ce qui est du reverse EPG, j’avais aussi vu une démo de Snowflake faite par Olivier Lacour de NDS au CES 2011. Voir la seconde vidéo dans cet article : http://www.oezratty.net/wordpress/2011/videos-du-ces-2011/.
Oui, on pourrait baisser d’un ton. Expliquer “la crise” en quelques lignes et en s’appuyant sur l’histoire de la TV sort nettement du cadre de cette série d’articles !
Quand au débat sur les aides publiques aux “gadgets à deux balles”, il y a déjà eu lieu ici il y a deux ans : http://www.oezratty.net/wordpress/2011/aides-publiques-innovation/, et avec autant de pour que de contre.
Et attention quand on parle de “TV”. Ce vocable recouvre maintenant plein de notions différentes : le poste de TV “historique” du salon, les chaînes de TV “broadcast”, les autres chaînes, et maintenant, la consommation de contenus en mode multi-écrans aussi dénommés “transmedia”. Tout ça n’est pas mort. Même les chaînes de TV. Certaines souffrent car les audiences se fragmentent, mais d’autres gagnent au change.
Que la TV n’élève pas toujours le niveau intellectuel des téléspectateurs n’est pas une nouvelle. Les jeux du cirque des romains n’étaient pas meilleurs de ce point de vue là non plus… 🙂
Après, c’est une question de choix. On peut si on le souhaite regarder de la TV qui permet d’apprendre. Sur la TNT, prenez 100% de France 5, LCP et Arte et vous aurez votre compte. En premium, vous ajoutez Histoire, Discovery, NGC, Planète et le compte y sera. Après, vous avez vos box et la catch-up pour regarder tout cela quand vous voulez sans utiliser l’excuse du “bon programme diffusé trop tard”. Et ensuite, la tour de Babel YouTube et le reste sur Internet et la VOD pour de bons films. Bref, on n’a jamais eu autant de choix pour se faire “sa TV” et même de la “bonne TV” !
Après, si la majorité des téléspectateurs préfère le reste, c’est une question de société, de rapport aux loisirs et à la culture, à la pénibilité du travail qui alterne avec un “repos de cerveau pour se détendre”…
Laissons, voire aidons, nos entreprises et startups à se développer dans ce marché qui évolue et qui innove ! Même si parfois, elles font face à des concurrents mieux financés côté US. Cela n’empêchera pas quelques succès d’émerger.
Je l’ai entendu à plusieurs endroits. et on le trouve ici, pour ce qui est du marché US : http://www.marketingcharts.com/television/twitter-dominates-social-tv-landscape-21563/trendrr-social-tv-activity-by-source-in-feb-2012-mar2012jpg/. Selon Trendrr, un concurrent américain de Mesagraph… et il y a en effet des chances qu’il ne s’agisse que des conversations publiques.
Les conversations privées peuvent cependant être mesurées pour les utilisateurs de Facebook qui acceptent comme amies des applications qui font ce genre de mesure !
Un exemple montre que c’est possible mais pas que c’est répétable. Et en particulier… en France !
C’est comme si en partant de l’IPO de Facebook, tu disais qu’une startup française pourrait avoir une valorisation de $75B en levant sur le second marché…
La finance participative sur du late-stage ? Hum hum. Not sure it works. As-tu des exemples ?
Merci pour la précision. Je pensais à la dernière génération pre-RNIS/ADSL qui était en 56K, et ce n’était déjà pas bien rapide… 🙂
Oui, ce baby de CKAB est intéressant (http://ckab.net/babyfoot-numerique-b12). Je n’en ai pas parlé dans ce papier car je l’avais déjà cité après le Web2Day de Nantes. Cf http://www.oezratty.net/wordpress/2012/coeur-numerique-bat-aussi-region/. L’industrialisation de ce genre d’engin reste un beau défi.
Oui, tout n’est pas subventionné, heureusement !
Cf http://www.futur-en-seine.fr/prototype/arbreole/ qui indique une aide de la Région IDF, sans préciser sa nature. Et http://corpus.artoffailure.org/ qui semble aidé par le CNC. Pour les autres, pas de subvention d’identifiée. Désolé si le paragraphe semble faire l’amalgame entre ces différents projets. Mais cela n’a rien d’extraordinaire : la culture est souvent subventionnée dans ses différentes formes même si les subventions ont été significativement rognées pendant le précédent quinquennat, tout du moins au niveau du budget de l’Etat.
Hello Henri,
Mon compte-rendu n’est pas une critique de l’événement en soi qui est exemplaire et une très belle réussite, mais une observation des phénomènes qu’il révèle sur les forces et faiblesses des innovations “à la française”.
On se pose souvent la question du moyen de faire réussir nos startups technologiques, de les faire grandir, devenir des ETI, des sociétés exportatrices. Question d’ambition, de financement et aussi de compétences.
Avec Futur en Seine, on est très en amont. Beaucoup de projets présentés doivent être expérimentés, challengés, triturés pour pouvoir aboutir à des business de volume permettant d’aller dans l’étape suivante du processus de l’innovation. On en est au stade de la souris de Doug Engelbart du SRI avec l’habituelle difficulté d’aller au-delà. Comme Moréno, TTT et bien d’autres.
Le concept même d’innovation – sous-tendant une réussite dans la diffusion de la technologie et au niveau économique – reste encore à vulgariser tant au niveau du grand public que des pouvoirs publics.
On pourrait reprendre tous les projets de FENS un par un et se poser la question : qu’est-ce qui pourrait les transformer en produits diffusés à grande échelle et puis en plateformes avec leur propre écosystème (comme l’AR Drone ou les objets connectés de Withings) ?
OK en tout cas pour contribuer à la prochaine édition. Notamment avec Jean-Louis Fréchin.
Les mêmes idées apparaissent dans plusieurs pays simultanément sans forcément qu’il y ait de “vol” d’idées. Et de toutes manières, les idées ne se protègent pas, tout du moins en Europe. Seuls les procédés techniques peuvent l’être (par des brevets).
Alors, c’est quoi ? Quelle est la différence entre une société détenue à majorité par une autre et une filiale ?
Oui, c’est vrai. C’était une startup. Et c’est devenu une PME filiale de grand groupe.
Je crois qu’il s’agit du “firehose”…
Ca peut se faire…
Vu le nombre de sociétés prévues, cela sera en 2014 voire 2015 🙂 Bon sauf, si j’accélère le rythme, ce qui n’est pas évident.
A noter que j’ai déjà eu l’occasion d’écrire sur Neotion, après l’IBC 2010 : http://www.oezratty.net/wordpress/2012/francais-tv-connectee/.
Voui… mais. Les américains ont compris une troisième chose : les business qui gagnent sont les business de “plate-formes”. Et Twitter en est une. Twitter ne va pas choisir brutalement de verticaliser son business comme cela. C’est comme si Apple décidait qu’il allait développer lui-même toutes les applications de l’appstore. Certes, il peut décider de créer des applications par lui-même pour capter une part de la chaine de la valeur, mais sans empêcher pour autant les tiers d’être innovants sur sa propre plateforme.
Cf cet excellent article qui rappelle ce bon principe : http://colin-verdier.com/amazon-google-facebook-lart-de-la-guerre-a-lage-de-la-multitude/.
Sur le financement, oui, on est toujours battu par les startups américaines. Est-ce une raison pour ne pas se lancer ?
Pour que Facebook justifie sa valorisation actuelle, même après la chute post-IPO, il faudra que des sources de revenu nouvelles se révèlent significatives. Ce n’est à ce stade que conjecture. Pour l’instant, Facebook sait générer $5 par utilisateur. La croissance de ce nombre est en train de se calmer.
Les résultats de Q1 2012 montrent que l’ARPU se tasse aussi entre $5 et $6. Aller au delà sera donc le défi clé de la société.
Les jeux ? Pourquoi pas, mais regardons aussi ce que fait Zynga qui cherche à ne plus dépendre que de Facebook pour ses sources de revenus. Et la concurrence des appstore mobiles. Petite piste : proposer l’équivalent de la S-VOD dans les jeux…
Revenu mobile ? Cela reste encore une fois très hypothétique. Google arrive à générer à peine $2B de revenus directs et indirects dans la mobilité, sur un CA de près de $40B. Le marché de la publicité sur mobile n’a pas encore trouvé sa baguette magique. Le SOLOMO est un concept qui reste à prouver à grande échelle. Regardons Foursquare qui patine un peu, etc. Qui génère un ARPU de plus de $5 avec une application mobile ? Uniquement ceux qui vendent des applications gratuites dans les appstores. Et encore, la plupart font du freemium, donc avec deux manière de calculer l’ARPU (avec ou sans les utilisateurs de la version gratuite). Facebook payant ? Pourquoi pas. Mais c’est toujours difficile de passer du gratuit au payant. Sauf si les gens ne peuvent plus s’en passer.
Il me semble que Facebook ne pourra générer une forte croissance qu’avec un pivot assez fort de son activité ou de son modèle économique. Jusqu’à présent, seules les startups y arrivaient. Mais pour une boite qui atteint presque $4B de revenu, c’est beaucoup plus difficile.
Sinon, j’ai l’impression que Facebook va atteindre rapidement un pallier. Petit indice ici : http://www.google.fr/trends/?q=facebook.
C’est une magnifique opportunité pour les éditeurs de programme TV mais il semble qu’ils aient du mal à la saisir. Pas facile d’être à la fois éditeur de contenus (surtout papier) et en même temps innovateur avec une dose de techno.
Sur les TV Samsung et LG, comme je l’explique, le procédé pour rendre HbbTV opérable est assez alambiqué et il faut en effet être courageux pour y arriver.
A ma connaissance, le signal HbbTv est diffusé en TNT sur l’ensemble de la métropole.
Mais il est vrai que pour l’instant, l’audience qui utilise cette possibilité est très réduite.
Comme c’est le cas de beaucoup de startups, il doit bien y avoir une combinaison de CIR/JEI, de stagiaires et de fondateurs qui se payent peu ou pas. Sachant que s’ils sont aujourd’hui 17, ils devaient être la moitié il y a un an. Donc, il ne faut éviter de faire un calcul de revenu “idéal” en multipliant l’effectif actuel par un hypothétique revenu par collaborateur (100K€ par exemple).
Sachant que malgré touts ces éléments, plein de startups sont tout de même déficitaires. Il est vrai aussi que lorsque l’on démarre avec une forte activité de service, on peut plus facilement être rentable rapidement.
C’était déjà dans ma liste (j’en suis à 55 sociétés et elle s’allonge de jour en jour…) mais pas dans les logos. Au passage, le logo de la boite n’est pas facilement googleizable.
En effet, encore un oublié… 🙂
Merci beaucoup, je découvre cette société. Mais elle est un peu éloignée du sujet de cette série d’articles car elle couvre la partie production de contenus TV, un peu indépendamment du mode de consommation. On est donc semble-t-il hors du thème de la TV connectée qui comprend déjà comme vous pouvez le voir un très grand nombre d’acteurs spécialisés.
Et surtout, que l’Etat ne voit pas ce sujet qu’au travers du prisme des contenus comme cela risque d’être le cas. Le CSA s’est en tout cas emparé du sujet.
Oui, la bataille est ouverte sur le rôle respectif des TV et des tablettes. Une grande partie de l’interactivité est susceptible de se focaliser sur les tablettes. C’est (pour iOS, Android, et bientôt Windows 8) un environnement très ouvert, peu régulé, donc à même de générer bien plus d’innovations que les TV qui sont dans un environnement très contrôlé (CSA, lois, réglementations, constructeurs, broadcast, etc).
Donc, bataille au premier niveau entre constructeurs de TV connectées, opérateurs télécoms, Apple TV, Google TV & consorts et de l’autre, entre TV connectées et tablettes/smartphone, sachant que certains acteurs ont plusieurs marrons au feu et sont présents sur tous les écrans.
Cependant, dans la bataille purement “TV connectée”, HbbTV malgré tout le mal qu’on en a dit (et que j’ai pu en penser) me semble une solution qui commence à se tenir. Avec un avantage certain en terme de “product placement” par rapport à toutes les autres solutions. Et le contenu est en général relié au contenu “live” de la TV, qui reste l’usage principal de cette dernière malgré le phénomène de la délinéarisation.
Il y en aura comme il y en a bien eu pour Sarkozy dans la presse hebdomadaire et mensuelle. Pour ma part, je me focaliserai sur ce qui concernera l’entrepreneuriat et le numérique.
La prochaine étape est déjà d’observer qui va être nommé aux postes clés et comment les responsabilités seront réparties dans les Ministères. La plus grande crainte des industries du numérique, par exemple, et de se voir intégrées dans un Ministère qui couvrirait aussi la culture.
Voir pages 53, 54, 98 (encadré sur ce sujet de Pierre Morsa), 99, 100, 138, 150, 151, 227, 245 et 246.
Je vais intégrer cela dans la prochaine édition.
Il y a par contre déjà un petit topo sur le calcul de la valo d’une startup dans le guide. Suis preneur des “formules”.
Pour info, le lancement du portail des applications d’une TV connectée Samsung (en tout cas, la mienne…) prend plus de 20 secondes, soit plus que le lancement de l’application HbbTV “C’est dans l’air”. Il faut ensuite naviguer avec la télécommande pour sélectionner son application et la lancer. On en a donc pour au moins 30 secondes. Donc le double de HbbTV dans le pire des cas.
Bonjour Cyril,
Mon expérience passée sur ces plateformes d’impression s’est soldée par un résultat plus que décevant : zéro commande ! Mais cela remonte à quelques années (2008).
Les utilisateurs qui veulent une version papier l’impriment par eux-mêmes ou via le service d’impression en ligne de leur choix. J’aurai tendance à encourager la lecture sur tablette, même si le papier a encore son charme, notamment pour la prise de notes et les Post-it.
Je vais tout de même retenter le coup d’un de ces 4.
A noter que la position des telcos et de leurs boxes et un peu une exception française. Dans les autres marchés européens, les solutions hybrides (TNT+IP ou Sat+IP voire câble qui sont proches de celles des telcos) sont dominantes. En Allemagne par exemple, les solutions “over the top” ont plus de potentiel du fait de la force des chaines TV broadcast gratuites émises en TNT ou SAT. Comme HbbTV est en train d’être adopté assez largement, sauf en Italie et UK, il sera intéressant de comparer les usages.
Coquilles corrigées, merci Sylvain !
C’est en effet un peu long mais 1) cela peut s’ameliorer, 2) pendant l’attente on continue de regarder l’emission en cours liee a l’appli que l’on lance et 3) on passe aussi du tps si l’on passe pae le magasin d’applis du constructeur ou de la stb de son fai.
Hello Fred,
HTML 5 est-il incompatible avec l’usage de DRM ?
Le DRM était dans la solution de Cleeng… Il faudrait fusionner les deux projets 🙂
Olivier
Auto-commentaire avec ce petit lien sur un article de TechCrunch US sur les “5 most over-hyped future of TV topics” :
http://techcrunch.com/2012/04/14/future-of-tv-is-overhyped
En résumé :
1) Contrôle par la voix et le geste : bien, ça ne marche pas de manière universelle.
2) La social TV partout : il faut relativiser en taux de pénétration.
3) Cord-cutting et over-the-top : ben non, les chaines contrôlent la distribution.
4) All about applications : ben non parce que la TV est faite pour se reposer pas pour les prises de tête.
5) C’est la mort des chaînes TV telles qu’elles existent aujourd’hui : ben non, cf supra.
Si ça peut en rassurer quelques uns !
Il y a bien eu 5 réponses aux associations d’industriels côté Collectif du Numérique. Il y en eu 2 pour le Conseil National du Logiciel Libre qui représente les industriels du libre (Hollande, Sarkozy) tandis que l’APRIL, une association que l’on peut qualifier de non-industrielle, a obtenu 5 réponses des candidats dont François Hollande (Fleur Pellerin) ce mercredi 18 avril même. Cf http://www.pcinpact.com/news/70314-fleur-pellerin-francois-hollande-candidatsfr.htm.
Sinon, il me semble avoir entendu Fleur Pellerin (qui représente Hollande) parler de péréquation. La création d’un pôle public pour l’infrastructure a aussi été évoquée dans le camp Hollande même s’il n’est pas évident qu’elle reste à l’ordre du jour après la présidentielle pour un tas de raisons, notamment techniques et liées à la réglementation européenne. Pour ce qui est d’un emprunt, je n’ai pas vu de candidat en évoquer l’idée. Mais un tel emprunt devrait être remboursable avec un taux d’intérêt raisonnable. Existe-t-il un business plan pour en envisager la faisabilité ?
Oui, elle sort très bientôt, avant la fin du mois (d’avril 2012).
Merci pour la précision. Silent release de correction publiée !
Bonjour Julien,
Pas si sûr que la contribution du numérique à la croissance soit si élevée. Mais ce n’est pas une bonne nouvelle en soi…
Quel que soit le président qui passera le cap du 6 mai, il devra de toutes manières traiter le sujet du numérique et de l’innovation. Il n’y a pas le choix !
Olivier
Merci de l’info. Etiez-vous présent au MIP-Cube ?
En effet. Cela rappelle que l’argent gratuit n’existe pas…
La figure du touriste n’est certainement pas appropriée pour les porteurs des projets dans les SUW. Elle s’applique plutôt à certains membres des équipes qui n’y ont pas un rôle très actif : on ne les entend pas beaucoup dans les réunions et ils n’interviennent pas du tout pendant les pitches, sessions de question-réponses comprises. Ils contribuent peut-être mais sur des tâches précises et plutôt techniques. Ils n’ont donc pas à proprement parler un profil d’entrepreneurs. Mais c’est déjà un bon point s’ils rejoignent les projets comme salariés ou bien avec un autre statut lorsque ceux-ci se transforment en startup.
Petit autocommentaire, pour noter ici la levée de fonds de 1m€ de Feedbooks réalisée en mars 2012 auprès d’A Plus Finance. http://www.ebouquin.fr/2012/03/17/feedbooks-leve-1-million-deuros-et-renforce-sa-position-a-linternational/. Deux ans après cet article ! C’est bien, mais finalement, un peu lent comme souvent en France !
OK, j’abjure et je supprime cette phrase de trop pour sa chute inappropriée puisqu’il est effectivement possible (mais pas bien facile) de supprimer des applications.
Oui, les constructeurs améliorent leurs magasins d’applications mais ce n’est pas encore bien standardisé, malgré les efforts d’acteurs tels que LG et Sharp dans le domaine. Et l’ensemble est très lent pour l’instant.
HbbTV est effectivement une stratégie défensive des chaînes. Mais cela peut-être bien plus que cela. Le portail Mes Services TV en est une bonne démonstration puisqu’il n’est pas lié aux chaînes de la TNT. Et l’initiative devient aussi mondiale, avec d’autres pays européens et surtout la Chine qui l’a adoptée.
Quel rapport ? Quaero était un méta-projet de 200 millions d’Euros sans produit ni service intégrés au bout et avec la moitié financée par les fonds publics.
Ici, on a un projet qui a du coûter en tout à peine quelques centaines de milliers d’Euros et a été financé par le secteur privé. Ce projet a tout son sens. Ce qui manque est une approche plus ambitieuse et plus concertée autour d’HbbTV.
L’Europe pourrait se bouger un peu plus d’autant plus que le marché n’est pas encore sédimenté. Ni Google ni Apple ne sont en mesure à court/moyen terme d’emporter la partie. Il est encore temps de prendre des initiatives, ne le leur reprochons pas. Cf mon article de novembre 2011 sur le sujet.
A ce stade, aucun fonds public n’a été utilisé pour développer ce portail de services. Ils pourraient l’être dans une seconde étape, dans le cadre d’un projet autour du search que je cite (partie sur le financement).
Il semblerait que non !
A tout seigneurs tout honneur, j’ai intégré votre mémorandum dans le texte comme source d’inspiration de la proposition de loi Maurey / Leroy !
Merci Michel,
J’ai intégré tes corrections dans le texte. J’étais en effet un peu perdu après la lecture des documents du Sénateur Maurey au niveau de ce qui était où dans chacun d’entre eux.
La différence de traitement du dossier entre NKM et Besson semble en effet importante. La première a passé beaucoup de temps à défendre l’intégration du numérique dans le grand emprunt, mais sans approfondir les aspects opérationnels. Comme secrétaire d’Etat au numérique, elle semblait plus intéressée par les aspects sociétaux du sujet que pas ses aspects industriels et d’infrastructure. Cela s’est par exemple traduit pas ses initiatives sur le télétravail.
L’équipe de Besson est plus rentrée dans l’opérationnel et avec l’ARCEP. Son intégration dans Bercy a probablement aidé. Et Besson passe moins de temps que NKM sur les questions sociétales du numérique. Il est plus “à la lettre” en charge de l’économie numérique.
Désolé, c’est dans le pire pour moi. Il vaut mieux se battre sur de nouveaux enjeux que sur les anciens. Contrer un produit dominant planétaire par un projet piloté par la bureaucratie de plusieurs pays a peu de chances de réussir.
L’exemple de Microsoft avec Bing doit faire réfléchir. Microsoft y a consacré maintenant plus de $10B (7 milliards d’Euros) et a bénéficié de ses divers travaux de recherche fondamentale (chez Microsoft Research, un laboratoire de très bon niveau), mais sans résultat très probant, surtout hors des USA. Et ses gains de parts de marché sont surtout liés au partenariat avec Yahoo!
La barrière à l’entrée est énorme et va bien au delà des moyens que l’Europe peut consacrer à ce genre de sujet. Ensuite, il faut être très innovant pour contrer Google, pas juste faire la même chose. Il y a certainement plein de bonnes idées en Europe, mais bon, pas toujours suffisamment en rupture.
Lisez aussi cet article que j’ai pondu il y a quatre ans sur Quaero. Même topo sur le projet français de Cloud Andromède qui n’a pas l’air de partir sur les bons rails non plus avec seulement trois partenaires !
Visiblement, la reproduction des conditions du succès d’Airbus, l’un des rares grands projets industriels européens qui ait réussi, n’est pas évidente. Il y a plein de raisons à cela. Mais je vois une différence clé entre Airbus et le numérique : les cycles industriels sont bien plus longs. Il faut entre 5 et 10 ans pour concevoir un avion et il vit plusieurs décennies. Google est devenu leader mondial en même pas 5 ans !
Pour reprendre la proposition du Munci, compte-tenu de la difficulté du sujet, elle gagnerait en crédibilité en exposant un peu plus en détails la manière de s’y prendre : les acteurs concernés, l’innovation, la gouvernance, le budget nécessaire, la dimension temps du projet, le lien entre ce projet et ceux du cloud, etc.
En effet, le parisianisme est une plaie pour les régions.
Quel est ce chargé de mission unique par région ? Quelle est sa fonction ?
Merci de l’information, toute récente. Je vais intégrer cela dans une révision de l’article ou bien dans une version PDF de la série complète que je vais probablement créer après le dernier article.
Les propositions du MUNCI méritent le détour. Il y a le meilleur et le pire dedans ! Le moteur de recherche européen, entre autres…
A l’époque de la rédaction de cet article, ma source d’information était une startup de ce secteur d’activité que je n’ai pas pu nommer. Je n’ai pas connaissance d’études validant ce %. Les fournisseurs de coffrets cadeaux et autres SmartBox n’ont pas intérêt à faire connaître ce taux qui est l’une des recettes cachées de leur belle profitabilité et de leur système qui fonctionne qui plus est à BFR très négatif (le revenu arrive lors de la vente du cadeau et les dépenses uniquement quand il est consommé, des mois plus tard en moyenne).
Dans une source plus récente, le taux de 20% de coffrets cadeaux non utilisés est évoqué : http://www.com-unik.info/Revendez-vos-Coffrets-Cadeaux-non,19551.
Je découvre au passage le site http://www.findevalidite.com/ qui permet de se faire prévenir de la fin de validité d’un coffret. Bon, un simple agenda permettrait de faire la même chose !
OK, je rajoute cela dans la prochaine édition !
Merci pour la suggestion.
Fleur Pellerin a effectivement démenti cela (ici), mais la presse s’était faite l’écho de cette proposition de FH (en reprenant cette information). Cela avait notamment généré (ou été généré par…) une réaction assez ferme de syndicats chez Orange.
Je vais donc modifier l’article en conséquence.
Oui, l’avantage du JEI est qu’il réduit les dépenses “upfront” alors que le CIR les déduit après… les dépenses ! Il faut donc des fonds propres pour les engager.
Pour ce qui est de Google et de Microsoft, oui le CIR fait partie de l’équation de la présence R&D de ces acteurs américains en France. Ce n’est pas la seule raison, mais c’en est une d’assez convaincante. Comme certains aiment à le dire, la France est un paradis fiscal pour la R&D. Chacun son paradis !
Je suis en tout cas d’accord sur le besoin de rééquilibrer le dispositif avec moins de CIR pour les grands groupes et plus de réduction de charges génériques pour les PME innovantes via le JEI.
Le financement n’est qu’un des aspects de l’innovation et le financement participatif n’est qu’une facette du financement, qui couvre plutôt l’amorçage et les petits tickets. Bravo pour ces initiatives et aussi pour le travail sur les blocages législatifs associés. Maintenant, en quoi est-ce un nouveau paradigme qui pourrait transformer le jeu concurrentiel entre pays ?
En effet, c’est la composante culturelle d’une nation ! Les politiques peuvent-ils l’influencer dans le bon sens ? Je pense que oui, à petites touches impressionnistes…
Merci Benoit pour l’info, je ne connaissais pas ce dispositif ! Je l’ajoute dans l’article suivant qui traite de l’enseignement !
En tout cas, ces lois ont eu un impact désastreux indirect : elles ont consommé trop de bande passante de tout l’écosystème du numérique en France, au détriment du reste. Le reste ? Ce sont les secteurs les plus prometteurs en termes de croissance et de compétitivité. Comme un parfum d’erreur stratégique !
Les contenus c’est bien pour l’exception culturelle et pour les maisons de production, mais ils présentent la caractéristique d’être à la fois le plus petit business du numérique en volume et celui qui est le moins rentable. Bref, en s’occupant des losers des migrations de valeur en cours, on a oublié les véritables sources de croissance. Pendant ce temps là, les américains et autres créent les plateformes qui aspirent la valeur de toute l’industrie du numérique.
La concurrence dans le numérique tourne autour des batailles de plateformes, pas des contenus ! Et contrairement à ce que certains croients, les jeux ne sont pas faits partout ! Cf par exemple le cas de la TV connectée : http://www.oezratty.net/wordpress/2011/strategie-europeenne-de-la-tv-connectee/.
Le plus ironique dans l’histoire, c’est qu’une simple procédure judiciaire du FBI associée à l’application des conventions sur les extraditions (affaire Megaupload) a été visiblement bien plus efficace qu’HADOPI… et à l’échelle mondiale !
Bonne remarque ! Cela ne semble effectivement pas le cas.
Ce n’est plus le cas d’après ce que l’on m’a raconté. Le son est en effet différent. Et surtout, ce studio n’est pas isolé phoniquement du reste du bâtiment ce qui créé des nuisances qui passent parfois à l’antenne. D’où sa reconstruction à un autre étage qui va démarrer.
Oops, corrigé… 🙂
Il n’est pas mentionné, tout du moins en clair. On sait qu’il est compris entre $1,5B et $2B.
En effet. Dans les actions Class B, il y a des investisseurs divers, qui correspondent donc à des investissements de Serie A, B, C et ultérieurs.
You’re right. I’ve changed the text of the post to include the part of “cost of sales” that is not related to data center operations. In the end, data center costs seems to be 12% of Google revenue and above 20% of Facebook revenue.
23% of Google’s cost of sales is linked to acquiring advertising space as part of their AdSense operations.
Less that 1% of Facebook cost of sales is related to managing payment costs, so probably less than 1% of their revenue. Seems they don’t put here the acquisition costs of virtual goods and other applications (like those from Zynga) but only the cost of payment. Wondering why these accounting practices are different. In the case of Amazon, all the stuff they sell appears in cost of revenue. It’s their acquisition cost for all these goods, as all retailers do.
On commence à comprendre ! Ce montage a l’air bien compliqué. Je me demande si c’est un cas particulier ou une pratique courante !
Merci pour ces précisions Bertrand. J’ai édité la ligne en question tout en restant vague.
En effet, j’aimerai bien comprendre pourquoi la composition de l’actionnariat sur les classes C à E – si elles existent bien – n’est pas détaillée dans le document de l’IPO page 127. Il n’y a aucune allusion à des Class C à E dans le document. Il n’y a pas d’obligation de transparence de ce point de vue là ?
J’ai l’impression que ces actions un peu fantômes sont des actions non attribuées, une sorte de pool de réserve dans le capital. Est-ce que cela ne sert pas aussi à éviter une “hostile take over” ? Il est écrit je crois aussi que le board peut faire ce qu’il veut de ces actions.
En effet. Corrigé…
Non, pas testé ! Mais une vidéo sur Youtube permet de s’en faire une idée : http://www.youtube.com/watch?v=mfoVaZ3uLQw. Je note un certain temps de latence dans la réactivité de l’iPad au stylet. Ca a l’air moyen.
Suis passé très rapidement sur le stand McIntosh. Ils y démontraient un ampli à lampe pour fêter leur 50 année d’existence. Cf http://www.whathifi.com/news/ces-2012-mcintoshs-50th-anniversary-mc275-power-amplifier-%E2%80%93-bling-it-on%E2%80%A6. Cela a l’air d’une réédition modernisée d’un ancien modèle. Cela ne m’a pas trop tapé à l’oeil donc j’ai zappé pour le Rapport CES…
Sens du détail, bravo ! J’ai corrigé cela avec plein d’autres modifications dans une version 1.01 publiée ce matin.
Il y avait en effet une catégorie de produit qui a plus ou moins disparu : le lecteur de DVD ou Blu-ray doté d’un disque dur.
Puis les Media Center – faits ou pas avec un PC – ont laissé leur place à des boitiers qui se contente essentiellement d’accéder à des contenus sur Internet, de YouTube à Netflix.
Reste le PC. C’est ce que j’utilise, et qui est en train de tomber en désuétude : un media center sous windows 7 avec tuner SAT et/ou TNT. Avec ça, j’enregistre ce que je veux. Mais c’est compliqué à stabiliser comme config.
C’est une fonction qui est maintenant généralisée dans les set-top-boxes des opérateurs télécoms, du câble et du satellite. En anglais, on appelle cela la fonction “PVR”, pour personal video recorder. Certains décodeurs TNT, je crois chez Sagem, ont aussi cette fonction d’enregistrement sur disque dur. La fonction est maintenant concurrencée par les services de TV de rattrapage (replay TV, catch-up TV) des chaînes TV. On la trouve sur Internet, sur tablettes et dans les boxes des opérateurs.
C’est le débat classique de l’obsolescence programmée. Et comment elle est imposée ou pas par les fabricants et puis acceptée ou non, ou subie malgré eux, par les consommateurs. Que n’a-t-on pas entendu sur le sujet des PC surtout dans les années 90 !
Quand on regarde une démo d’un écran 4K, on se dit que c’est bien, que cela sera bien quand ça arrivera mais que ça n’est pas pressé. Et puis un jour, cela s’impose naturellement car tous les fabricants adoptent cette résolution, que les premiers Bluray arrivent (arriveront), etc.
Mais cela n’interviendra pas avant quelques années encore. Cela donnera d’un cycle technologique d’environ 8 ans au nez entre le Full HD et le 4K. Le problème étant que c’est un nombre d’année probablement inférieur au cycle de vie des TV dans les foyers. Mais ce décalage peut aussi simplement augmenter le taux de multi-équipement en TV dans les foyers.
Merci et noté pour la relecture, comme pour tous les autres au dessus à qui j’avais répondu par email.
En tapant “brancher souris et clavier Freebox Revolution” dans Google, on obtient plusieurs réponses !
Merci beaucoup pour ces compléments et partages d’expériences.
Mon article datait d’il y deux ans et demi (février 2009) ! Mais les propos restent valables dans l’ensemble. Ils sont complétés par un tour plus récent au Japon qui date d’octobre 2011. Cf http://www.oezratty.net/wordpress/2011/retour-du-ceatec-2011-1/.
Une question qu’il serait intéressant de creuser est la manière dont les startups émergent et se développent au Japon, qui a une culture “corporate” très forte. Au CES où je suis en ce moment, je croise pas mal de startups coréennes, mais très peu de japonaises. Il en existe pourtant.
la qualité d’image est appréciable ! On y viendra progressivement… Qu’on le veuille ou non, comme pour le Full HD.
Il s’agit bien d’un décodeur H264 et pas H263. L’Atom CE4200 (Groveland) supporte le H264 en mode 1080p d’après Intel. Cf l’annonce d’Intel qui date de septembre 2010.
Il me semble que Loic a obtenu la carte verte…
Je connais quelques entrepreneurs americains a Paris… Avec carte de sejour !
Merci pour le feedback, ce qui permet au passage de donner le crédit à la Zero 7 Productions !
Bien vu pour HTTP. Ne pas confondre protocole et langage ! C’est corrigé !
La sixième raison est un after-effect de la non “searchabilité” des contenus des applications. Pas de search => pas de SEO ! Et si il existe bien des techniques de référencement des applications dans les appstores, elles ne sont pas “mécanisables” autant que dans le cas du SEO.
Thanks Michelle. Précision pour les non anglophones : tu entendaiss complet ou exhaustif avec ton “compréhensif” (comprehensive) !
Oui, le web n’est pas parfait mais il évolue tout de même. Il était en effet fragmenté maisncomme on l’utilisait sur des systèmes ouverts et extensibles, c’était supportable. Ca ne l’est plus, au moins chez Apple, qui ne tolère pas ces extensions.
Et il reste à traiter d’autres points évoqués : search, aggrégation, exclusion de certains utilisateurs…
Bon point ! Je constate cependant que plein d’applications n’exploitent pas ces fonctionnalites des smartphones. Par ailleurs, HTML5 va en supporter certaines comme la geolocation.
Agree. Rien n’est perdu ! Les équilibres changent mais le web ne va pas disparaître, tout comme les PC et l’email. Quand on voit ce qu’il est possible de faire avec HTML 5, il y a de l’espoir et des innovations en perspective ! Au passage, elles ne viennent pas que des étudiants… 🙂
L’AppStore a fêté ses 3 ans. C’est un p’tit jeune en effet.
Le web a véritablement démarré il a 17 ans, avec l’arrivée de Netscape Navigator fin 1994. Même s’il y a eu le précurseur NSCA Mosaic un an avant, bien moins médiatisé et utilisé.
Eux seuls peuvent répondre à ces questions !
Londres ferait des pieds et des mains pour avoir LeWeb chez eux, de préférence de manière exclusive en Europe. Ils pourraient proposer par exemple que l’événement change de ville en Europe chaque année. Il ne perdrait pas forcément de lustre, mais la France y perdrait quelque peu.
Je l’ai entendu dire cela. Il prêchait pour sa paroisse. Donc à prendre avec une pincée de sel. La question, c’est important en quoi et “so what” ?
La vidéo de Jung est ici.
Ah ! Génial ! Article mis à jour en conséquence !
Une télé et un iPas n’ont rien à voir en termes de portabilité et d’usages. Mon point est le suivant :
“A format, poids et prix voisins, les produits généralistes l’emportent généralement sur les produits spécialisés”
Dans la durée, l’histoire valide ce point. Dernier exemple en date, les GPS qui se vendent encore, mais sont très sérieusement concurrencés par les smartphones.
Si les caractéristiques matérielles des tablettes rejoignent celles des ebooks (autonomie, légèreté), tout en bénéficiant de leurs caractéristiques propres (couleur + vidéo, magasin d’applications, connectivité) pourquoi avoir deux engins ?
Le point de départ de la démonstration est justement qu’Amazon a donné un signe en créant une tablette/liseuse généraliste avec le Fire. Oui, ils ne sont pas nuls en effet ! Ce n’est que le leader du marché des ebooks. Donc ce n’est pas anodin. Je ne suis pas plus malin qu’Amazon, j’observe ce qu’ils font justement !
Bon, et puis on ne s’apostrophe pas comme cela avec des invectives !
OK, merci de l’info, j’ai corrigé.
Merci Pierre pour ces précisions d’un acteur engagé dans le sujet et bien au courant de ses arcanes. OK sur la valeur apportée par la RNT, notamment pour désengorger la bande FM qui est très saturée surtout dans les grandes villes.
Je ne sais pas s’il s’agit d’une véritable mise à l’écart de la RNT dans le plan Besson 2020 sous la pression des grands groupes. Ce plan a fait l’impasse sur pas mal de sujets pour des raisons diverses. Il laisse un peu la voie libre aux candidats de la présidentielle pour y picorer et le compléter.
Mon point reste un sujet à discuter. L’atmosphère IP ne remplace certes pas entièrement un broadcast numérique notamment pour les populations “non connectées”, au même titre que l’IPTV ne peut pas remplacer entièrement la TNT du fait d’un haut débit à débit très variable sur le territoire. Mais la consommation de musique et de radio via IP est tout de même une tendance intéressante à observer. On a vu notamment fleurir depuis quelques années de nombreux “postes de radio” et “radioréveil” utilisant la connexion Internet comme source. Sans compter les devices plus classiques que sont les PC, smartphones et tablettes.
Merci pour cette précision.
Mais il faudrait pouvoir en savoir plus : quel est l’effectif de Google France aujourd’hui ? A quel rythme la filiale recrute-t-elle ? Cela permeftrait d’avoir une idée encore plus précise sur le dimensionnement de ce labo de R&D.
Oui, avec le bouton PDF pres du titre de l’article, mais je l’avais désactivé temporairement, désolé.
Bien vu.
Je note que le débat porte finalement plus sur le contenu et la méthode pour le créer que sur le contenant (du BP).
Le processus créatif est indispensable, le test de l’idée, les allers et retours, le prototypage, le lean startup, tout cela fait partie de la préparation de son plan. A un moment donné, on le formalise un peu. Pas la peine de faire 100 pages en effet ni des dizaines de tableaux comme certains l’exigent.
Mais un minimum ne fait pas de mal. Ce n’est pas de l’académisme à la française. C’est juste un besoin de base pour pouvoir sédimenter ses idées et les communiquer avec un minimum d’effet de levier. La tradition orale, c’est bien, mais l’écrit, c’est pas mal aussi pour gérer ses idées, les faire évoluer, les partager ! Si maintenant, l’écrit est considéré comme ringard, soit. Mais c’est un autre débat.
Oui, il faut contourner les choses tant que possible. Je l’évoque dans mon article !
Mais aussi évaluer un peu plus que l’avant-dernière ligne de l’article ! C’est en débattant qu’on fait avancer les choses et pas en cherchant à décrédibiliser l’auteur par une invective un peu gratuite ! Sinon, tant qu’à être vache et dans la même lignée, on pourrait aussi affirmer que les vrais entrepreneurs le sont rarement devenus en suivant un cursus de formation d’entrepreneur dans une business school :).
Vous pourriez par exemple expliciter la méthode Synopp dont vous êtes à l’origine qui permet de se passer de business plan traditionnel (http://easydashboard.fr/?p=357). Ceci expliquant cela ! Mais à vous lire, je comprends que c’est la partie chiffrée du BP qui est superflue, pas le reste. C’est bien la structure de l’idée qui est importante, le problème résolu, sa valeur et celle de la solution. Vous n’évacuez pas ce que l’on appelle “l’ideation” et sa formalisation.
On ne parle pas ici de création d’entreprise au sens large du terme où il y a plein de cas de figure où un BP n’est pas nécessaire (que je liste). Mais de startups (boites à forte croissance) qui doivent lever des fonds auprès d’investisseurs publics et privés.
Si vous avez une recette miracle pour lever des fonds sans formaliser un minimum l’idée de la startup auprès des investisseurs ou prêteurs, les entrepreneurs seront heureux de la découvrir ! Que vous appeliez cela BP ou autre chose, peu importe. Qu’il intervienne avant ou après une présentation à un investisseur potentiel qui pourrait mordre à l’hameçon, il faudra laisser une trace écrite de toutes manières.
Je ne baisserai pas aussi vite les bras sur les batailles de plateformes. Il y en a encore à mener !
Pour ce qui est de la fiscalité, Bercy y travaille mais ce n’est pas évident. Il faut à la fois préserver nos acteurs locaux (ce qui n’était pas le cas de la fameuse taxe Google heureusement abandonnée) et respecter les accords internationaux (UE, OMC).
Le CIR qui attire les boites étrangères, oui, OK. Mais pour MS et Google, cela a un impact très symbolique. Quelques dizaines de personnes de part et d’autres en R&D en France. Mais Huawei en a déjà des centaines…
C’est effectivement une question d’appréciation. En termes d’emplois directs, l’impact de Google est très limité pour l’instant et ne risque pas d’atteindre celui d’IBM, autant celui d’aujourd’hui que celui de ses glorieuses années (70/80) où l’effectif avait atteint je crois 30000 personnes. Il y a au plus quelques centaines de personnes chez Google.
Sinon, les sociétés américaines utilisent toujours la même tactique pour mettre en valeur leur contribution économique, avec les emplois créés dans leur écosystème. C’est de bonne guerre. Mais c’est à comparer avec la valeur qui aurait été apportée par un écosystème mondial dont la plateforme d’origine serait française ou européenne. Google est en plein lobbying en ce moment. Création d’un (petit) labo de R&D, d’un “Centre Culturel” (on ne rigole pas…), financement d’études d’impact économique, programme PME, programme Startup Café. C’est un moyen de contrer la procédure en cours à Bruxelles, pour se faire des amis dans les capitales européennes. Exactement les mêmes tactiques que Microsoft avec son labo INRIA/MS, sa R&D MSN en France et ses programmes startups.
Les plateformes clés du marché captent une très grande partie de la valeur ajoutée de leur secteur, en laissant les miettes aux autres. Microsoft représente plus de 20% du marché mondial du logiciel, mais plus de 30% de son résultat net. Idem pour Google qui capte près de la moitié du revenu publicitaire en ligne au monde, et avec un résultat net qui en représente une plus grande proportion. Le tout alimentant les fonds de pension américains, surtout pour Microsoft qui distribue des dividendes tandis que l’action de Google est spéculative (sans rendement direct).
Ce que je dénonce dans la posture de la Présidence, c’est de faire ce déplacement pour un événement relativement mineur (un déménagement sans augmentation significative de l’effectif) alors qu’aucun geste du même type n’a été fait à ce jour pour l’écosystème français. Et pourtant, il s’y passe des choses ! Il y a deux ans environ, c’est François Fillon qui a inauguré les nouveaux locaux de Dassault Systèmes à Vélizy, pas NS. Pour Microsoft à Issy les Moulineaux (1800 personnes), il y avait 8 membres du gouvernement dont Christine Lagarde et c’était déjà bien assez comme cela d’un point de vue symbolique.
Hello Carlos. C’est un bon débat en effet. J’ai l’impression qu’il porte plus sur la manière de concevoir son BP et ce qu’il est important d’y intégrer tout comme sur son côté dynamique que sur l’intérêt d’en avoir un ou pas.
Pour reprendre ton analogie de l’orthographe, il faut se méfier de la “méthode globale” et aussi éviter d’en revenir uniquement à la communication orale et au “tout dans la tête” ! Ce n’est pas un service à rendre aux entrepreneurs. L’écrit reste puissant pour structurer ses idées, les améliorer et les propager !
Et puis hop, après LeWeb et la trêve, le CES de Las Vegas ! Le cycle ne s’arrête jamais !
Merci pour cette intéressante contribution. Tu mets le doigt sur un point clé : où placer le curseur dans l’ambition ! Il y a d’ailleurs certains investisseurs en France qui ont peur du “trop d’ambition”.
Il serait intéressant de lister les éléments de BP qui lui donnent habituellement trop d’embonpoint et font perdre du temps. Par exemple, le fait de trop entrer dans les détails du plan marketing. A contrario, on trouve trop rarement une bonne roadmap produit qui va cadencer le rythme de vie des débuts de la startup.
Ideas ?
Bonjour la caricature à l’emporte-pièce ! La frontière entre les tablettes et liseuses va s’estomper du fait de l’évolution des composants matériels. Ce n’est pas une histoire de choux, carottes ou patates ! Rendez-vous dans 2 à 3 ans pour voir comment le marché va évoluer ! J’attends notamment avec impatience les écrans à encre électronique couleur LiquaVista que Samsung va sortir en 2012/2013 (issus d’une acquisition en début d’année).
Désolé, cet article date d’il y a trois ans et ce blog n’est pas un forum de support technique ! Il faut aller sur le site technique de CanalSat ou ici par exemple : http://pilotime.online.fr/forum/list.php?2.
Très intéressant !
Le point 2 : certains pôles comme Cap Digital sont déjà très orientés TPE/PME. Pas sur qu’il faille en créer d’autres. Il y en a déjà 72 !
Fonds d’investissements Corporate : ca en prend le chemin. L’annonce récente du fonds Orange/Publicis est un bon signe.
Aider les entrepreneurs étrangers à s’implanter en France : oui, en effet, à creuser. C’est le rôle de l’AFII.
Simplifier, simplifier : indeed !
Il ne faut pas surinterpréter ce qui s’est passé récemment : Free ne s’est pas “retiré de la fibre” !
Ce qui est effectivement absurde si en tant que salarié, il cotise bien partout…
Par contre, Besson va te répondre que ce n’est pas son domaine puisque ce n’est pas spécifique au numérique. Il va renvoyer cela à son collègue de Bercy, Frédéric Lefebvre, qui couvre les TPE/PME, l’artisanat et aussi l’autoentrepreneuriat.
Ca doit être possible s’ils ont bien un statut de salarié de leur entreprise non ? Il existe de plus des régimes de protection complémentaires spécifiques.
Bien vu… tu es allé jusqu’au bout !
Mais en effet, l’innovation numérique va bien trop vite pour le temps politique. L’histoire récente l’a encore démontré, notamment avec HADOPI.
Il reste en effet des questions sur la gestion de l’ouverture à éclaircir. Mais les médias à qui l’appareil a été présenté dans la Silicon Valley ont pu tester le procédé eux-mêmes sur l’écran de l’appareil. Des vidéos sur YouTube en attestent. Le procédé fonctionne donc vraiment et les images présentées n’ont pas l’air d’être fake. Ce, d’autant plus, que le procédé plénoptoique est validé scientifiquement et qu’il en existe des variantes de mise en oeuvre avec la société Raytrix.
Moyen de répondre indirectement au commentaire un peu dédaigneux et pas bien constructif de Benoit en [23]…
Ca a l’air d’etre interessant en situation de basse lumiere et a grande ouverture.
Grâce à cet article du Figaro de Benjamin Ferran qui pointe sur l’article ici présent, on peut découvrir des versions professionnelles de l’appareil de Lytro avec ceux de la société allemande Raytrix. Cela fournit indirectement des informations intéressantes sur la définition des images qu’un système plénoptique à base de micro-lentilles(lightfield sensor) peut générer. Leur R29 qui est un modèle haut de gamme est doté d’un capteur de 29 Mpixels et aurait une résolution effective de 7,5 Mpixels (oui, c’est bien de résolution qu’il s’agit, Dominique !).
Leur R5 génère quant à elle des images de 1 Mpixels avec un capteur de 5 Mpixels de un demi pouce de diagonale, qui est assez petit et utilisé par peu d’appareils grand public (comme le Fuji F80EX). On retrouve donc un ratio d’environ 1 à 5 entre définition du capteur et celle des images générées. La R5 supporte 32 plans de mise au point ce qui est largement suffisant dans la pratique.
Bref, tout ceci semble indiquer que la technologie de Lytro pourrait bien si elle se développait avec les capteurs les plus récents générer des images avec une définition fort convenable. Et celle du premier modèle pourrait atteindre 2 Mpixels si le ratio capteur/image est le même qu’avec la R5 de Raytrix.
Les lois de l’optique ont aussi un impact sur les capteurs des smartphones : la petite taille du capteur, de l’optique et de leur proximité entraîne des photos avec une très grande profondeur de champs, c’est-à-dire que tous les plans sont nets en général. Plus le capteur et l’optique sont grands (et l’ouverture élevée) plus on peut “contrôler” la profondeur de champs. C’est la raison du succès du Canon EOS 5D Mark II pour des tournages de films. Son capteur est deux fois plus grand que celui des caméras vidéos standard pro pour le cinéma dites Super35 mm. Conséquence, avec les optiques Canon à grande ouverture, on peut encore mieux contrôler cette profondeur de champs. Cela donne des effets de flous et nets artistiques. Mais les réalisateurs peuvent en abuser.
Oui pour des raisons “artistiques” et pour bien valoriser un élément de la photo. Un exemple est donné dans l’article.
Je pensais (en juin) à une optique zoom non interchangeable, ce qui est bien le cas au bout du compte. Corrigé pour le reste.
Résolution et définition, abus de langage en effet. Pas facile à vulgariser en plus car la définition d’un capteur a un sens différent avec celle des images générées du fait du dématricage de Bayer généralement utilisé sauf dans les capteurs type Fovéon où les pixels RGB sont superposés et non pas répartis dans une matrice de Bayer.
Petit auto-commentaire maintenant que l’on en sait plus sur l’appareil qui vient d’être dévoilé et pré-commandable en ligne pour $400 à $500 selon la capacité mémoire : https://www.lytro.com/camera.
– Le capteur : il est bien carré mais fait seulement 11 mpixels. J’avais compris que cela générerait des images d’une définition très inférieure à cause du système de micro-lentilles, décrit dans mon article. Les images publiées sur le site de Lytro sont de petite taille et sur écran uniquement. Quelle est la résolution exacte que permettra ce procédé ? C’est encore une inconnue. Mais peut-être une bonne surprise au bout du compte.
– La taille du capteur n’est pas indiquée ni si c’est un CCD ou un CMOS, et on n’en sait pas plus sur sa sensibilité. Il semble en tout cas que le procédé lui-même permette d’obtenir une très grande sensibilité et de prendre des photos convenables en basse lumière. L’objectif ouvre à 2.0 ce qui en est un bon gage. Et puis, l’appareil n’est pas doté d’un flash !
– Le form factor est curieux. Il n’a pas l’air d’être bien ergonomique pour la prise de photos, ni même pour prendre des vidéos (ce qu’il ne sait pas faire). J’ai l’impression que ce form factor a été choisi pour “faire différent” et aussi parce que son coût de fabrication doit être réduit. Il revient moins cher de plier une tôle en quatre que de créer un moule de fonderie ou pour mouler un plastique quelconque voire pour associer les deux. Autre interprétation : une approche “Apple-ienne” de la boite qui a raison contre la pensée unique du moment. On verra bien à l’usage. Il est aussi possible que cela soit lié à la forme et à la longueur du zoom à l’intérieur du corps de la caméra. Le zoom fonctionne visiblement avec une optique mobile à l’intérieur de l’appareil.
– La précision de la mise au point : dans les exemples du site, on peut effectivement faire la mise au point sur l’avant plan ou l’arrière plan. Il y a quelques cas où l’on peut jouer avec finesse sur des plans intermédiaires. Je me demande encore quelle est la résolution de profondeur. A savoir sur combien de plans peut-on faire la mise au point ? Compte-tenu du procédé, ce nombre de plans devrait être fini (discret) et pas infini (n’importe quel plan).
– Tout est automatique : il n’y a ni besoin d’autofocus ni de gestion de l’ouverture. Finalement, il reste le temps de pose et les ISO.
– Le positionnement : le prix de la caméra et sa simplicité d’usage en font un outil pour les amateurs et résolument pas pour les professionnels. Mais on peut cependant s’attendre à un engouement, au même titre qu’il en existe pour les Lomo, les Polaroid à l’ancienne voire pour des Leica hors de prix.
– Un détail qui compte : le logiciel de traitement des images ne fonctionne pour l’instant que sur Macintosh. Une version Windows est prévue pour plus tard.
Il reste à attendre début 2012 pour en savoir un peu plus.
En tout cas, le lancement par étape suit son cours et le buzz est instantané sur Internet.
A ce stade, le nouveau Canon EOS 1D X me fait plus rêver avec son capteur très haute sensibilité full-frame et une cadence de prise de vues de 12 images/secondes. Mais il est à $6800. Argh ! Ce n’est pas la même cour.
Thanks for the precisions. I meant cryptic because it was hard to understand what your product do, what kind of content it monetizes and how. Like many entrepreneurs do in their pitch, you maybe talked too much about your solution’s value without describing its nature beforehand. Of course, it’s hard to conduct such an exercice in 3 minutes!
Bravo pour ce sens du détail ! J’ai modifié la lettre fautive.
Pour ta question précédente, vue la part de marché de Bing, l’intérêt pratique de ce partenariat est à relativiser, tout du moins en Europe, où Google dépasse 90% de parts de marché dans le search. Si le partenariat fonctionne aux USA, alors là, cela peut être intéressant.
Pour OneFeat, le modèle économique n’a pas été détaillé il me semble. La pub est un grand classique mais il faut aller au delà et explorer d’autres pistes, genre modèle freemium voire puisque l’on est dans le ludique, divers modèles associés : monnaie virtuelle, biens virtuels, etc. Tout dépend de l’addiction que la startup arrivera à créer chez ses utilisateurs.
Il n’y a pas de compagnies de train privées ?
La première page sur le financement est page 87 ! Beaucoup de pages qui précèdent sont liées au produit pris sous toutes les coutures, et notamment sur la notion de valeur d’usage.
Je suis en tout cas preneur de contributions concrètes pour la prochaine édition sur les notions relatives au “produit”.
Tu as raison sur Archos : ma comparaison n’avait d’intérêt que pour éclairer les choix matériels d’Amazon. Pour le reste (contenus), c’est une histoire en effet très différente.
Oui, en effet. Corrigé.
Merci pour l’erreur sur la résolution, maintenant corrigée.
J’ai quelque doute sur la prééminence du bénéfice du mono-usage vis à vis du “one-stop-shopping” du multi-usages. J’adhère plus aux différences actuelles sur le confort de lecture.
Si on suivait le raisonnement du mono-usage, il n’y aurait pas de PC dans les entreprises. En effet, ceux-ci permettent aussi bien de travailler que de jouer. Bien sûr, on peut plus ou moins brider les usages dans les entreprises, mais cela touche rarement le Tétris ou jeux de ce genre !
Quelle est la proportion des utilisateurs qui installent et utilisent couramment ces utilitaires de contrôle de l’accès à Internet ?
Pour ce qui est de l’indisponibilité des nouveaux Kindle en Europe, cela donnera un peu d’air aux acteurs locaux des ebooks et permettra de comparer deux marchés traités différemment ! Il me semble en tout cas qu’il se vend bien plus de liseuses aux USA qu’en Europe, autant en valeur absolue qu’en pénétration dans la population.
@e-jbb et @palerme
J’entends vos arguments, ils se tiennent. Les liseuses ont des avantages que je ne nie pas, je les évoque même dans mon article. Mais je pense que les évolutions technologiques vont les réduire à terme. L’encre électronique couleur sera probablement le facteur déterminant qui consacrera la fusion des tablettes et des liseuses.
Côté données de marché et croissance des ventes, prenons une source cohérente entre tablettes et liseuses, le Gartner (ici et là).
Cela donne en unités et dans le monde :
– 2010 : 19,5m de tablettes pour 6,6m de liseuses
– 2011 : 54,7m de tablettes pour 11m de liseuses
En calculant bien, cela donne un taux de croissance supérieur pour les tablettes par rapport aux liseuses. Oui, bien sûr, ils ne servent pas à la même chose. Mais comme l’indique fort bien cet article de CNET de mai 2011, les utilisateurs lisent sur ce qu’ils ont sous la main et les liseuses ne sont pas en bonne position.
On peut aussi y voir une évolution sociétale que l’on peut regretter. Les médias numériques ont dans l’ensemble réduit la pratique de la lecture de livres ! Ils ont réduit l’attention moyenne, aussi bien des lecteurs que des élèves en classe ou des collaborateurs dans les réunions en entreprise ! Comme l’indique palerme, la tablette est une source de distractions multiples, alors que la liseuse permet d’être concentré sur son livre.
Concernant le point sur le lancement par Amazon de trois nouvelles liseuses, je le relativiserai. Elles apportent peu de nouveautés, à part la suppression du clavier et le tactile, au demeurant, une convergence discrète vers le “form factor” des tablettes. Et Apple lance aussi de nouveaux iPod de temps en temps, même si la croissance vient de l’iPhone et de l’iPad !
On verra dans un an. Je ne serais pas étonné que les ventes du Fire soient rapidement très significatives par rapport à celle des liseuses N&B d’Amazon ! En 2012, Amazon lancera probablement un Fire 9 ou 10 pouces. D’ici 2013, ils adopteront l’une des technologies d’encre électronique couleur qui sera en production. Ils ne l’on pas fait pour le Kindle Fire car aucune n’était en production au moment du lancement.
J’en fais partie ! La réponse est dans l’article : un jour, peut-être… !
Je n’ai pas vérifié.
J’ai juste un indice, cette photo : http://ezratty.darqroom.com/photo/lancement-canalsat-sept2011-66011/lancement-canalsat-sept2011-36-.jpg-2284615.
Je n’y étais pas ! Au nez, une grande majorité.
Bonjour la lisibilité de l’offre si MS se met à avoir deux offres pour tablettes ! Un peu comme Google qui nous emmêle un peu les pinceaux avec Android et Chrome OS.
Pour reprendre le commentaire précédent de Laurent, on peut se demander à quoi sert un Windows 8 sur ARM qui ne saurait qu’exécuter des applications Métro et web. A quoi bon ? Dans ce cas là, pourquoi effectivement ne pas s’appuyer sur Windows Phone 7 qui tourne, lui, déjà sur architecture ARM et est à priori plus léger et donc adapté à ce genre d’usage ?
A ce sujet, il est intéressant de noter que lors de la conférence Build, Steve Sinovski n’a pas pris la peine de faire une segmentation de l’usage des tablettes sous Windows 8 et d’indiquer à quels marchés, utilisateurs et applications elles étaient destinées. Sous-entendu probable : à tout le monde.
Peut etre border line, mais cette conference a ete diffusee a la tv sur LCP, avec des plans de coupe sur l’audience…
En tout cas, si les interesses me le demandent, je supprime les photos en question !
D’accord ! C’est dans les deplacements hors de chez soi qu’une tablette generaliste serait utile !
No idea.
Peut-être des conflits d’intérêts entre business units concurrents (vidéo et photo).
Il y a eu des rumeurs sur un split de l’offre des 5D II avec un modèle orienté vidéo et un modèle plus orienté photo.
La sortie du 5D III est située entre octobre et février/mars prochain selon les rumeurs.
Je ne connais pas beaucoup de contenus qui ne soient pas déjà accessibles sur PC. Toute l’offre Canal+/CanalSat y est consommable par exemple. Côté bouquins, via Amazon, tu peux récupérer des bouquins sur PC, même si ce n’est aujourd’hui pas le meilleur device pour les lire. Idem pour la musique, tout est déjà disponible sur PC. iTunes y tourne. Deezer aussi, etc. Les jeux, itou, modulo la plateforme cible pour laquelle ils sont développés.
Alors, qu’est-ce qui manque dans les contenus ? En fait, ce ne sont pas les contenus qui manquent sur PC, et donc sur les futures tablettes Windows, ce sont des applications élégantes pour les consommer.
Mais OK avec ta prudence. Le risque de la stratégie de MS c’est qu’à force de vouloir tout faire, ils le fassent mal, avec un risque énorme de se mettre à dos la base installée Windows desktop/laptop. Mon impression est que le besoin d’avoir un device unique pour tablette et netbook est plus fort en environnement de travail que pour les loisirs.
Pour ce qui est de la lourdeur de Windows, MS semble avoir fait des efforts notables : boot et sortie de veille plus rapides, mémoire consommée par le système réduite d’environ 1/3, drivers probablement réécrits pour certaines parties du hardware. Seule l’expérience pratique dira si ça tient la route en usage tablette, le reste n’est que conjecture.
@Patrice : merci pour toutes ces précisions forts utiles. J’ai l’impression que cela restera tout de même flottant quelque temps. Windows 8 ressemble pour l’instant à un gros gruyère avec de grands trous. Est-ce que cela va devenir du comté ou rester du gruyère, là est la question !
@Lionel : le rationnel du choix de l’OS était différent pour Apple. Chacun partant de son point fort sur le marché, il était logique de s’appuyer sur les développeurs d’applications iPhone, donc de partir avec iOS. Microsoft part de Windows car c’est son point fort alors que WP7 ne l’est pas. Le besoin d’avoir un même device pour la tablette “contenus” et la tablette “productivité” est plus manifeste lorsque l’on est un utilisateur professionnel que dans le grand public ou chez soi (pas en situation de mobilité). D’où ma remarque sur le fait que Windows 8 pourrait limiter la pénétration des tablettes iPad et Android dans les milieux professionnels. Et que le succès dans le grand public reste conditionné par un tas d’interrogations que j’évoque, et qui demanderont au moins un à deux ans avant que l’on sache ce qu’il en est. Ton point sur les développeurs amène une remarque : est-ce qu’il s’agit des mêmes développeurs que ceux de l’iPad et de l’iPhone ? N’a-t-on pas ce schisme entre développeurs d’entreprise (plutôt sous technos MS, sans compter LAMP et Java) et développeurs mobiles et web (plutôt LAMP, ou iOS/Android) ?
Visiblement, le Roland permet aussi d’éviter le micro-cravate. Ce qui a l’air unique dans cet enregistreur est son double micro stéréo qui le rend adapté à différents types d’enregistrements. C’est probablement inutile pour des interviews, mais peut-être pour des concerts. En tout cas, le Zoom a l’air en effet très bien pour mener des interviews. Et merci pour l’astuce de la synchro !
Ce voyage a été entièrement organisé par mes élèves de troisième année de Centrale Paris. Ils se sont débrouillés avec leur “réseau” et avec des anciens élèves déjà en place dans les entreprises visitées.
La pénétration de Linux de 1% est estimée par des études sur les navigateurs utilisés par les Internautes. Cela reflète donc assez bien la base installée, en excluant juste les PC sous Linux qui sont pas connectés et qui ne doivent pas être légion !
Les ventes de PC bundlés avec Linux ont été testée sans grand succès jusqu’à présent. L’absence de virus est peut-être liée aux qualités de Linux mais aussi à sa faible base installée ! Je précise que j’utilise Linux (Ubuntu) pour les développements de mon blog depuis 5 ans mais n’y ai pas pour autant basculé le reste de mes usages dits bureautiques et aussi photo.
Je me demande si pour une part de la population, le taux de renouvellement des mobiles n’est pas supérieur à celui des brosses à dents, même dans les pays occidentaux… 🙂
Côté marché :
– Il se vend toujours de plus en plus de laptops et de moins en moins de desktops.
– Linux n’a pas mordu sur l’usage de Windows dans le grand public. Il reste aux alentours de 1% de la base installée. Et est effectivement très utilisé par les développeurs.
– Le Macintosh a gagné quelques parts de marché sur les PC sous Windows, surtout dans les laptops. Si elles restent inférieures à 5% en unités dans le monde, elles sont aux alentours de 10% aux USA.
– Windows XP est encore le système d’exploitation le plus utilisé alors qu’il a 10 ans cette année (mais bon, a été mis à jour depuis) ! Mais heureusement, Windows 7 a dépassé Vista. Cf http://en.wikipedia.org/wiki/File:Operating_system_usage_share.svg.
Donc, autant dire que la situation est plutôt assez stable depuis environ une dizaine d’années.
En effet, le cycle de vie des PC est maintenant plus long, même si je n’ai pas de données sous la main le démontrant. Dans les entreprises, il est d’environ 5 ans et doit être équivalent dans le grand public. Il me semble cependant que les laptops sont plus fréquemment renouvelés que les desktop, ce qui se retrouve dans la proportion des ventes : d’année en année, la proportion des ventes de laptops dans les PC augmente depuis plus d’une dizaine d’années.
Mais on n’en est pas encore à la durée de vie des appareils électroménagers qui peut facilement dépasser 10 ans.
En fait, le PC/Mac est devenu un “utilitaire” qui ne fait plus rêver, c’est vrai. Ce n’est pas un objet de désir, il s’est banalisé. Les nouvelles moutures de Windows et MacOS sont elles aussi très “utilitaires”. Dans le cas de Windows que je connais mieux, il faut savoir que Windows 7 utilise mieux les ressources matérielles que Windows Vista. Il contribuera à allonger un peu la durée des PC. Windows XP est encore dans la nature alors qu’il fête ses 10 ans dans quelques jours !
Comme je l’ai évoqué dans d’autres articles (notamment sur les tablettes), l’équilibre entre tablettes et desktop est lié aux usages. Plus on consomme des contenus, plus la tablette est appropriée. Plus on créé de contenus, au delà de quelques lignes dans un réseau social, plus le desktop est approprié. La part création/consommation dépend beaucoup des utilisateurs, des métiers et des contextes. Mais dans la masse, la consommation prédomine, ce qui érode quelque peu l’usage des desktops. Mais plutôt dans le grand public que dans l’entreprise.
Après, si le desktop de l’entreprise évolue un jour vers un client léger sauce Chromebook ou équivalent avec du cloud computing, cela restera un outil de bureau ! Il y aura juste une différence de mise en oeuvre technique, à priori, relativement transparente pour l’utilisateur. Tant que le réseau est disponible !
C’est effectivement comme ça que cela fonctionne. Mais le logiciel Google TV ne gère pas le flux broadcast. C’est le hardware sur lequel il tourne qui réalise l’overlay entre la sortie graphique de Google TV et le signal TV qui vient de la TV ou de la STB externe via HDMI. C’est une bête superposition d’un signal vidéo sur un autre, avec transparence.
Ce qui aboutit d’ailleurs, dans le cas de Dish TV aux USA, à l’aberration suivante : l’interface de la set-top-box, et notamment de son PVR est différente de celle de Google TV qui s’ajoute en overlay. C’est un bricolage pour l’instant, car ces deux interfaces mériteraient d’être unifiées. Pour cela, il faudrait que Google TV gère aussi des tuners, des contrôles d’accès (CAS, DRM), un guide de programmes convenable pour les chaines TV broacastées, un PVR, en plus de tout le bazar qui permet de récupérer des infos et des contenus sur Internet. Et tout ceci est … coûteux, casse-pieds, compliqué, difficile à stabiliser, etc.
Je faisais référence pour ce qui est d’Oséo à différentes aides citées ici : http://www.oseo.fr/votre_projet/international. Mais il semble bien que celles-ci concernent les sociétés ayant déjà décollé d’une manière ou d’une autre. UbiFrance n’aide pas au sens financier du terme, mais pratique. En effet, leurs prestations sont payantes.
Pour ce qui est du concours national, il semble que le jury puisse décider d’attribuer tout ou partie de l’aide maximale prévue, c’est dans le règlement du concours il me semble. Sachant de toutes manières que cette subvention est conditionnée par l’apport de fonds propres équivalents dans l’entreprise, donc en général d’origine privée (BA, VCs). Beaucoup s’en plaignent en effet. L’Etat a choisi de ne pas faire cavalier seul et de privilégier les financements conjoints public/privé. Sur le long terme, je pense que c’est une bonne formule, même s’il est vrai qu’il est difficile de trouver des financements privés en France, ou en tout cas, plus difficile qu’aux USA.
A noter d’ailleurs que cette année, il y avait moins de lauréats que l’année précédente. Je ne sais pas dire si c’est lié à un manque de “bons” projets ou à un resserrage budgétaire. Mais je trouverai le moyen de le savoir d’ici peu…
Le sujet de la génomique personnelle est un peu particulier pour la raison réglementaire citée. Mais sans cette contrainte, il y a plein d’autres raisons qui poussent certains à s’établir d’emblée aux USA. Ce marché est généralement plus perméable aux innovations de rupture alors que le marché français est globalement très conservateur.
Pour ce qui est de l’absence de prise de risque des investisseurs en France, cela reste un jugement de valeur pas étayé par des études ou données. Comme tous les projets ne sont pas financés, les entrepreneurs qui n’arrivent pas à trouver du financement ont toujours beau jeu de dire que “les investisseurs ne prennent pas de risques”. Un investisseur cherche naturellement à minimiser les risques. Il en prend tout de même énormément ! Un business angel “de base” est à peu près sûr de perdre sa mise sur au moins les 3/4 voire 9/10 des projets qu’il a financés. Si ce n’est pas de la prise de risque, qu’est-ce que c’est ? Après, il fait des choix sectoriels. Il peut aussi éliminer des projets qu’il juge mal préparés. Ce qu’un entrepreneur perçoit comme une absence de prise de risque est, du point de vue de l’investisseur, une évaluation négative de certains facteurs clés de succès de la startup, à commencer par la qualité de l’équipe. Tout le monde doit balayer devant sa porte ! Et aussi chacun doit mieux se comprendre.
Il doit être possible de tester UbiFrance sur place. La question est de savoir quel genre de personne vous souhaitez rencontrer côté business (partenaires potentiels, etc). Il y a certaines personnes qui peuvent aider, mais sous forme rémunérée ! Faisons cela par email…
Je n’en sais rien et probablement… eux non plus !
Pour Intel, non, pas de concurrence directe. Ils vont continuer à concevoir ou adapter le design de leurs processeurs et les faire fondre ailleurs. C’était chez Samsung et c’est je crois passé chez TSMC.
Apple dépense environ $2,4B en R&D par an au rythme actuel. Même s’ils doublaient ce budget, ce qui ne donnerait pas forcément grand chose, cela serait une goutte d’eau par rapport à leur cash de $75B et aussi à leur résultat net de $7,3B par TRIMESTRE !
A ce stade, le problème de poursuite de la croissance n’est plus un problème de moyens financiers puisqu’ils en ont. Il est de trouver des sources de croissance profitable compatibles avec leur métier actuel. Et puis, les arbres ne poussent pas jusqu’au ciel. Apple vient de dépasser IBM en CA glissant, et le fera pour HP d’ici peu si la croissance se poursuit et surtout si HP revend son activité PC, même à un rythme plus lent qu’actuellement.
Les chiffres sur le dernier trimestre fiscal :
– Apple : $28,5B de CA et $7,38B de résultat net (25,9% !!! sidérant pour du hardware)
– IBM : $26,6B de CA et $3,64B de résultat net (13,6%, pas mal pour plus de la moitié réalisé en service!)
– HP : $31,2B de CA et $1,9B de résultat net (6%, décevant, plombé par les PC)
Après, … ça se calmera probablement un peu non ?
Bonjour Guerric,
Comme écrit dans l’article, l’un des changements introduit par le départ de Steve Jobs pourrait être le lancement d’un politique d’acquisition plus agressive. Les raisons sont multiples :
– C’est la culture “corporate America”
– C’est ce que font les boites qui ont beaucoup de cash et Apple est plein dedans. Un cash placé pépère rapporte peu. Les boards s’attendent à ce que le cash de la société rapporte plus que le taux d’intérêt moyen des marchés, surtout quand la bourse est raplapla. Les taux des bons du trésor ne font pas flipper les boards ! Il leur faut un meilleur rendement du capital !
– C’est ce qui est censé maintenir un bon rythme de croisière de la croissance, surtout si la société n’a plus en interne de nouveaux produits majeurs à lancer. Après la télévision Apple en 2012 (si elle arrive), Apple aura à peu près fait le tour des outils de consommation de contenus à la maison. Il lui faudra aller ailleurs. Cf cet excellent papier: Why Apple is done inventing news devices.
– L’industrie va continuer à se consolider et cela pourra inciter Apple à suivre le mouvement même si la société l’a sagement évité pour l’instant en privilégiant une croissance organique (interne).
On peut nuancer le propos en intégrant les différentes options de croissance pour Apple qui ne nécessiteraient pas de faire de grosses acquisitions : descendre en gamme (surtout avec l’iPhone) pour élargir sa base de marché adressable, notamment dans pays en voie de développement, continuer à gagner des parts de marché face aux PC, développer une offre de services en cloud encore plus complète (ils ont de beaux data center prêts pour cela).
Par contre, Steve Jobs n’est pas encore parti ! Il est un peu comme Bill Gates entre 2000 et 2008, lorsqu’il était Chairman et “Chief Software Architect” tandis que Steve Ballmer était CEO depuis 2000, et l’est toujours.
Son influence directe disparaitra vraiment le jour de sa mort, et encore, avec une longue traine de quelques années. Cf le très bon article de Michel de Guilhermier sur le sujet.
Le comble est que Microsoft cherche à faire payer Samsung $15 par device Android alors que sa propre licence de WP7 est aux alentours de $20 à $25. C’est atttribuer une valeur bien trop grande à ses brevets, une pratique dont Microsoft a d’ailleurs été lui-même victime par différents patent trolls sur d’obscures fonctions XML de Word (que personne n’utilise) ou bien sur les Active X dans Internet Explorer.
Microsoft est en retard en effet. Il peut bénéficier d’une éventuelle fragilisation d’Android par les brevets mais je n’y crois pas trop. Je ne connais pas beaucoup de stratégies de captures de parts de marché qui passent par un lock-in des brevets.
En tout cas, si Google pousse l’intégration verticale dans le hard avec Moto et Microsoft avec Nokia, je ne pense pas que cela va les aider. Ils auront toujours du mal à faire aussi bien qu’Apple en termes de design. Ils pourrons un peu mieux maitriser la supply chain et donc les marges, mais c’est tout.
La grande question est quelles seront les options pour Samsung, LG et HTC. Continueront-il à supporter toutes les plateformes horizontales malgré la concurrence hardware de leurs géniteurs ? Vont-ils en préférer une sur l’autre et sur quels critères ? Est-ce que ce sont tous ces braves gens qui vont décider des parts de marché respectives d’Android et WP7 ou bien seront-ce les consommateurs ? On oublie toujours un peu ces derniers dans l’équation !
En effet, j’avais oublié l’industrie spatiale.
Pour Alcatel, les années 1980 ont été en effet de bonnes années. Je mentionne leur autocommutateur numérique, le E10. J’avais même eu l’occasion de visiter leurs usines près de Cherbourg lorsque j’étais élève ingénieur (en 1982 ou 1983).
Le Secam a été effectivement vendu dans les pays de l’Est et quelques pays à l’époque sous influence française et cherchant à ne pas être dépendant technologiquement des USA.
J’ai évoqué les projets “gaulliens” dans cette seconde partie, un peu en réaction à des commentaires sur l’article précédent. Mais c’était un peu hors sujet par rapport au point de vue initial sur le retard à l’allumage dans les technologies de télécommunication et les raisons liées à l’Etat.
Sur la durée, l’Etat s’y est finalement bien mieux pris dans les grands projets industriels, maintenant relativement révolus, et plutôt mal pris pour développer les usages dans le grand public.
Il est vrai qu’avec le numérique, les frontières sont naturellement plus poreuses. Mais la France n’en profite pas tant que cela. Les sociétés qui exportent ou ont une bonne activité à l’international sont plus dans les services (Veolia, retail, banque) et dans l’industrie classique (transports, BTP, énergie avec Total, et aussi EDF qui exporte en général de l’électricité) sans compter l’agroalimentaire.
Un peu plus de concurrence ne ferait en effet pas de mal. Les télécommunications l’ont bien montré avec l’émergence d’acteurs “challenging” face à Orange qui ont à la fois aidé la France à avoir un taux de connexion ADSL digne de ce nom et aussi des prix assez bas, les deux étant liés.
Intéressant. Quelques contre-points :
“Il faut d’abord vendre dans son pays”.
Oui, quand c’est possible. Mais certains business ont moins de frontières qu’avant, notamment dans l’Internet. La grande question est la vitesse à laquelle on sort de France une fois que l’on a ses premiers clients locaux.
“ETI anglaises sont des usines de multinationales non-européennes qui fabriquent en Angleterre pour le marché européen ou des vraies PME indépendantes ?”
Il se s’agirait pas plutôt d’usines en Irlande, à Dublin, qui a attiré les entreprises américaines grâce à un dumping fiscal il y a plus de 20 ans ?
“Investir dans une SCI est plus vertueux que d’aller placer l’argent en Suisse”
Si il y a un investissement initial fort, oui. Mais si la SCI achète un bien essentiellement sur un prêt et rembourse ce prêt avec le loyer qui est financé par l’argent des investisseurs plus que par le revenu généré par les clients et que la boite dépose ensuite son bilan ? Dans ce cas, le risque ne serait pas convenablement partagé entre fondateurs et investisseurs. Mais si tout va bien et que la boite sort par le haut avec une grosse valo qui marginalise celle de la SCI, pas de problème !
“il vaudrait mieux que l’Etat aide les grandes entreprises à acheter l’innovation des startups.”
Là, je ne comprends pas bien. Acheter sous quelle forme ? Aide sous quelle forme ?
En effet. J’avais d’ailleurs abordé ces thèmes (sauf peut-être le dernier) au sujet des propositions de l’Institut Montaigne. Il y a évidemment plein de choses qui ont changé depuis les événements évoqués dans ces deux articles. Ce qui n’a peut-être pas tant changé que cela sont la culture du pays et ses structures politiques, malgré les changements de République.
Ceci étant pour le point 3), je constate que si nos startups ont des progrès à faire dans le domaine du “vrai besoin”, on peut se consoler en constatant qu’elles ne sont pas les seules ! En tout cas, dans l’Internet.
Merci Alban pour la précision. J’ai corrigé l’article en conséquence. On pourrait aussi évoquer les expérimentations en cours du T-DMB en France, qui n’ont pas l’air d’aller bien et le devenir de la HD-Radio aux USA.
C’est dans la conclusion de l’article : je vais traiter cela dans la seconde partie !
Suppose que la boite aille mal et dépose le bilan. Les investisseurs ont tout perdu. Mais l’entrepreneur a réussi à constituer un patrimoine immobilier avec les loyers payés par la levée de fonds, donc par les investisseurs. Dans un tel cas, le partage du risque financier est un peu moyen…
Intéressants.
Quelques contre-points :
L’étude Kauffman se focalise sur les entrepreneurs nés aux USA. Elle néglige donc la moitié des créateurs d’entreprises qui n’y sont pas nés, en tout cas pour ce qui concerne la SIlicon Valley ! Mais il est vrai que l’entrepreneuriat concerne aussi bien les jeunes étudiants que les créateurs dotés d’une expérience soit de cadre/salarié soit de serial entrepreneur.
L’impact des règles prudentielles sera bien plus fort sur les VCs que sur les autres activités bancaires classiques, qui relèvent du prêt. Pas le temps de tout expliquer. Déjà , ne serait-ce que le capital risque est plus risqué qu’un prêt à une société qui tourne déjà avec un CA, des clients, et juste un besoin de BFR.
Sur tes autres points :
1/ Le matching public/privé permet de réduire le risque perçu dans l’early stage. Mais lorsqu’il y a moins de risque, dans le later stage, il est vrai que l’apport de financements privés peut tordre le marché. L’histoire dit que le FSI a surenchérit sur les VCs pour entrer dans DailyMotion il y a quelques années !
4 / Bien vu sur les exits. Le point clé est que les grandes entreprises soient de bonnes clientes pour les startups et que leur culture de l’innovation ouverte et partenariale évolue. Mais si elles prenaient l’habitude de faire plus d’acquisitions, cela créérait un cercle vertueux. Et éviterait que la majorité des exits se fassent avec des boites étrangères.
6 / En effet, il ne faut pas faire n’importe quoi dans les stages en PME. Mais comme les PME sont censées créer plus d’emploi que les grandes entreprises, il n’est pas impossible que la demande (de stagiaires) soit là mais pas l’offre (de stagiaires).
9 / Il y a des initiatives intéressantes en effet. Les plus intéressantes étant celles où les deux cursus sont physiquement sur le même campus avec des ressources partagées. Ce n’est pas le cas d’HEC et des Mines ou de l’X.
Cela fait 20 ans que la Chine n’est plus une économie dirigée ! Malgré un gouvernement d’un parti communiste, c’est du capitalisme pur et dur qui y a court ! Le système politique chinois a réussi un pari qui n’était pas évident consistant à passer à l’économie de marché sans perdre son pouvoir. Et si il était amené à basculer radicalement, cela serait plutôt vers le système russe et ses oligarchies.
Le sujet des banlieues est très important. L’Institut Montaigne en parle d’ailleurs dans son rapport, encore en citant des initiatives locales.
Il existe d’ailleurs aux USA. Dans la Silicon Valley ou à Seattle, on ne voit pas des max de blacks dans les boites. Plutôt des chinois et des indiens !
Alors, quelles sont ces propositions pour créer de la valeur et aider les entrepreneurs ?
En effet la majorité des écoles d’ingénieur en informatique sont privées. L’Etat a créé très peu d’écoles d’ingénieurs et celles qui ont le qualificatif de “grandes” (dites aussi groupes A et B) ont des décennies voire des siècles d’ancienneté, à l’origine de leur prestige acquis. Le prestige vient aussi de différentes enquêtes de salaire et de notoriété chez les recruteurs. Que je sache, les écoles plutôt généralistes ont toujours tenu le haut du pavé de ces classements dans le système de valeur français. Notamment parce qu’il s’auto-entretient, les recruteurs étant issus du même sérail. Donc, même si l’Etat créait quelques nouvelles écoles d’ingénieurs spécialisées en informatique, elles partiraient de bas côté “prestige”. C’est d’ailleurs un peu le cas de l’école Niel/Simoncini/Granjon qui est destinée à former des BAC+3 je crois, donc plutôt des développeurs.
Dans le cas de Centrale Paris que je connais un peu, une réforme récente du parcours des 3 années a amené l’école à proposer une spécialisation progressive qui intervient dès la première année, s’amplifie en 2nd et devient totale en troisième alors qu’avant, seule la troisième année relevait de la spécialisation. Mais je ne sais pas si cela permet aux informaticiens qui sortent de l’école d’être plus pointus. Comme ils pensent surtout à être chefs de projets ou consultants, cela ne compte probablement pas tant que cela.
Sinon, où que ce soit, les enseignements sont vite dépassés. La formation ne s’arrête pas à la sortie de l’école. Elle se poursuit toujours au fil de l’eau pendant toute la vie active ! Surtout en informatique. Sinon, tu te dinosaurifie en quelques années.
Bon, tu pourrais regarder du côté des instituts technologiques que l’Etat souhaite créer dans le cadre du grand emprunt. Il y a sûrement fort à y faire pour voir comment cela va être mise en oeuvre. Là aussi, il y a fort à parier que le diable aie mis du bazar dans les détails !
@Michel Nizon : le succès des startups israéliennes n’est pas dû à un seul facteur comme le financement public (qui a démarré vers 1990 je crois). Cf mon Cr d’un voyage là-bas en 2010 ou celui d’un groupe de bloggeurs d’il y a deux mois (avec notamment Korben et Eric Dupin). Et puis ce que tu proposes existe déjà en France, par le biais du rôle de la CDC dans le financement en fonds de fonds des VCs et plus récemment dans les fonds d’amorçage par le biais du grand emprunt. Et ce n’est pas vraiment cela qui a encouragé les VCs à s’installer là-bas. C’est plutôt lié à une multitude de facteurs : l’excellence scientifique et entrepreneuriale, un bon track record des startups sur place, le fait que nombre d’entre elles privilégient le marché américain pour se développer et y ont souvent une représentation et une proximité culturelle très forte. Cf mon prosélytisme pour encourager les startups françaises à mettre un pieds aux USA. Je suis d’ailleurs en train de compléter la partie correspondante pour la prochaine édition de mon Guide des Startups, à paraitre en septembre.
@Vincent Rivalle : les pratiques du mentorat sont citées dans le document de l’Institut Montaigne, notamment dans le Réseau Entreprendre. Il y a aussi le programme Paris Mentor. Ceci étant, cela relève d’initiatives privées ou locales. L’Etat n’a pas grand-chose à y faire. Sur le point 2) et le rapprochement chercheurs/entrepreneurs, il y a certainement des pistes à creuser et certaines le sont dans le doc de l’Institut Montaigne. Encore faut-il trouver quelque chose qui soit pratiquement faisable. Une idée ?
@bobonofx : il existe bien des écoles d’informatique (EPITA, EPITECH, Supinfo, ENSIMAG) sans compter les écoles du groupe des Télécom ou Supelec. Celles où l’informatique est une option de troisième année sont des écoles généralistes (dans les Ecoles Centrale, Mines, etc). Ensuite, dans les Universités. Pour ce qui est de la fac, il y bien des licences, masters et doctorats en informatique non ? Sachant qu’il y a d’ailleurs plein de spécialités dans le domaine, car l’informatique est un secteur assez large entre le temps réel, la gestion, la programmation, l’Internet et les systèmes répartis, le hardware, etc. Donc, cela veut dire quoi faire de la « computer science » qu’on ne ferait pas ? Les américains nous envient même car nous avons de bonnes filières mathématiques qui complète les cursus informatiques en leur donnant de meilleures bases théoriques. Là où on est moins bons, c’est justement dans le manque d’étudiants passés par les computer science mais dotés d’autres compétences (sciences humaines, marketing, etc).
@macha : toujours aussi optimiste et amateure d’amalgames ! L’Euro est fort et cela n’empêche pas l’Allemagne d’exporter ni les Hollandais ou les Finlandais ! Pourquoi opposer les salariés « qui trinquent » aux entrepreneurs qui se la couleraient douce ? Tu as déjà vu beaucoup d’entrepreneurs qui se la coulent douce ? Moi, pas ! Opposer les deux ne mène à rien car seuls les entrepreneurs créent des emplois, pas les salariés ! Et l’entrepreneuriat fonctionne parce qu’il y a des incitations économiques à le devenir, sinon, on sait ce que cela donne : les économies dirigées, qui n’ont plus vraiment court sauf… en Corée du Nord. Donc, on reprend son bâton de pèlerin et on cherche comment faire en sorte que les entrepreneurs créent de la valeur et des emplois !
Réponse sur le point de la SCI : l’investisseur met de l’argent dans la boite pour qu’elle créé de la valeur et que cette valeur se retrouve dans la valo de l’entreprise.
Si cet argent sert à payer un loyer, il créé de la valeur à l’extérieur de la société, dans la SCI du fondateur. Au lieu de la créer dans la startup. Il vaut donc mieux pour l’investisseur que l’immobilier soit dans le patrimoine de la startup, ou bien que l’investisseur ait aussi une part de la SCI, ou plus simplement, que la startup loue à quelqu’un d’autre. Tout dépend aussi du type de local en question.
Pour le BFR des petits commerçants, c’est à voir. Ils sont payés cash par leurs clients consommateur, ils n’ont donc en aval pas trop à se plaindre. C’est plus difficile pour un intermédiaire quel qu’il soit qui est payé par ses clients à 2 mois mais paye les salaires au fil de l’eau…
En réduisant globalement les délais de paiement, on assainirait l’ensemble de l’économie. On évite aussi les “rentes” liées justement aux acteurs qui jouent de l’asymétrie du délai (dans la grande distribution) et placent le BFR négatif généré.
Aux USA, le petit commerce ne se porte pas si mal que cela comparativement à la France ! Et les délais de paiement y sont très courts !
Pour le CIR, plutôt OK…
Il est vrai qu’en relisant à tête reposée le plan 2008, on a du mal à croire que 80% des mesures aient été mises en oeuvre. J’attend avec impatience cette évaluation de l’application du plan par l’équipe d’Eric Besson. Cela sera très intéressant surtout s’ils expliquent pourquoi les mesures n’ont pas été suivies d’effet le cas échéant.
Dans le bêtisier, il y a en plus de ce que tu cites :
– Action 22 : développer la radio numérique. Qui n’est pas d’ailleurs pas forcément une priorité.
– Actions 64 et 65 sur le découplage OS/hardware dans la vente de PCs. Un vieux serpent de mer qui continue d’agiter les associations de promotion du logiciel libre, qui ont été cependant distraites depuis par la HADOPI et la net neutralité et ont un peu laissé tomber.
– Action 114 : développer le télétravail dans le secteur public. On serait intéressé de savoir quels sont les métiers concernés !
– Tout ce qui concerne l’open data, qui avance très doucement.
– Action 132 : le DMP santé, autre serpent de mer, de plus grosse taille.
Par contre, sur l’absence de côté visionnaire, ne jetons pas trop la pierre. En 2008, certains des sujets que tu cites n’étaient pas encore dans le vent ou bien n’entraient pas forcément dans les prérogatives de l’Etat, comme la réalité augmentée. Le cloud s’est retrouvé dans les priorités du grand emprunt. Le cellulaire a bénéficié en partie du dividende numérique et le LTE va arriver, les services géolocalisés n’ont pas trop besoin de l’Etat (sauf pour ce qui est des services publics). Et certains d’entre eux font partie de la consultation comme ce qui concerne les TV connectées.
Sur le CIR, le texte dit “le gouvernement” sans préciser lequel. Ils auraient du écrire l’Etat. Cependant, l’actuel gouvernement (ou présidence) a modifié plusieurs fois le CIR depuis 2007. Et aussi le JEI, héhé. Mais pas dans le bon sens… 🙂
Autre remarque : c’est un sport national dans tous les pays de se plaindre de ses politiques et de ses administrations. Mais elles sont le reflet du fonctionnement de la “société civile” (expression que Besson n’aime pas car selon lui les politiques sont “civils” et pas … militaires) et, pour ce qui est du numérique, des jeux de pouvoir entre entreprises, citoyens et consommateurs. L’Etat (surtout actuel) peut avoir tendance à trop arbitrer en faveur des premières. Citoyens et consommateurs doivent mieux s’organiser pour faire contre-poids. Bref, c’est un peu à nous de jouer !
Les plans publics anglo-saxons sont effectivement généralement plus pratiques, orientés résultats, actions et “business” (au sens du développement de l’économie).
Question de culture…
Il y a bien eu un plan numérique en Allemagne (“Information Society Germany“), au Royaume Uni (“Digital Britain“) ainsi qu’au niveau Européen (eEurope, Lisbonne 2000).
Aux USA, ils n’ont pas vraiment besoin de cela. Tout du moins sous la forme jacobine française. Les plans sont plus saucissonnés (Digital TV, etc). Il y a aussi une grande influence de la commande publique militaire. Et un rôle fort de régulation de la FCC.
Il faut les deux mon capitaine ! L’Internet est un terme générique qui couvre tout un tas d’usages. La TV numérique en fait maintenant partie et devient une des composantes de l’Internet.
Il y a des enjeux technos et de souveraineté culturelle importants dans la bataille qui se prépare avec les acteurs américains comme Google, Apple ou Netflix.
Le passage à la TNT aura coûté à l’Etat 333m€ (source: http://www.assemblee-nationale.fr/13/pdf/budget/plf2011/b2857-tiii-a29.pdf).
Les infrastructures et émetteurs ont du être en grande partie financés par TDF qui est une société de droit privé (une SAS). L’Etat a sinon prévu des aides diverses (aides à l’équipement en décodeur, à l’antenne et à la réception) qui sont réservées aux foyers qui sont exonérés de redevance.
Le coût du passage à la TNT n’a donc rien à voir avec les dizaines de milliards nécessaires pour le fibrage du pays (même si l’évaluation de certains opérateurs est contestée), et les 2 milliards alloués côté Etat (en + des régions) pour ce faire. En termes de grandes masses, ré-allouer un bout des 333m€ à la fibre n’aurait rien changé à la donne.
L’alternative satellite est trop coûteuse pour être généralisée car elle nécessite un terminal plus cher que les décodeurs TNT, sans compter la plus grande technicité de l’installation (précision du pointage de l’antenne) et la pollution visuelle dans les villes. Elle est surtout utilisée dans les zones enclavées qui correspondent à 5% du territoire de la métropole, ou pour les abonnés à Canal Satellite qui sont quelques millions.
La diffusion hertzienne reste un choix raisonnable lorsque l’infrastructure du câble ne domine pas le pays comme aux USA ou en Allemagne.
Macha, toujours cette vision ultra-pessimiste ! Bien sûr, le pire peut arriver. Mais pas forcément !
Allons, il faut se ressaisir ! Construire au lieu de prédire la destruction.
Les bras m’en tombent toujours quand je vois Marine Le Pen faire de l’économie. C’est du grand n’importe quoi, notamment autour de l’Euro où elle pratique la technique fort classique de l’amalgame – pleine de contradictions – pour remettre en cause la monnaie européenne. Elle trouve le dollar trop puissant mais en même temps voudrait sortir de l’Euro. L’augmentation des prix (il y a 9 ans) serait selon elle due à l’Euro. Quand on creuse un peu le sujet, on sait qu’en France, l’augmentation des prix a été due aux français (commerçants), car l’augmentation n’a pas été la même dans les autres pays. Et sur la durée, elle a été amortie. Le discours est d’autant plus absurde que l’inflation n’a jamais été aussi basse que lors de ces 10 dernières années. Ceux qui ont connu les années 70 et 80 se rappellent d’une inflation comprise entre 6% et 12% par an. Et les dévaluations compétitives de 81 à 83 avec la rigueur associée, à une époque où pourtant la France n’était pas endettée comme aujourd’hui.
Et il y a ce mythe de la “dévaluation compétitive” qui n’est qu’un artifice financier de court terme. Un pays est compétitif en fonction de ce qu’il produit, là où il innove, là où il exporte et à quel cout. Avec un paradoxe qu’une économie trop forte renchérit son taux de change et atténue sa compétitivité. D’où la fameuse sous-évaluation de la monnaie chinoise qui pose problème car ils ne jouent pas le jeu des autres pays. Mais cette sous-évaluation serait ou sera problématique le jour où la croissance de la Chine se calmera. Cette croissance permet de financer les coûteuses importations d’énergies. Notre croissance est bien insuffisante pour utiliser une “dévaluation compétitive” car cette dernière renchérirait significativement le coût de nos importations, avec ou sans TVA sociale. Comme notre compétitivité industrielle ne s’améliorerait pas immédiatement, elle aboutirait à un déséquilibre encore plus fort de notre balance des paiements. Elle ferait peser un risque très élevé sur le coût de notre dette.
Sur l’entrepreneuriat, que propose-t-elle ? Du protectionnisme au lieu de parler de compétitivité. C’est une vision politique qui fait porter la responsabilité de nos performances économiques moyennes sur le reste du monde et sur notre fiscalité. Un exercice un peu trop facile à mon gout. Il faut aller plus loin. Voir où sont les compétences qui manquent, comment fonctionne la culture de l’innovation de notre pays, comment il s’ouvre sur le monde, comment on exporte, comment les grandes entreprises font appel aux petites, comment le marché intérieur est régulé (et a tendance à protéger les gros acteurs au détriment des petits et des innovateurs).
Autre exemple de bêtise économique : la crise Lehmann nous aurait affaiblis à cause de la monnaie unique ! Pourtant, les anglais qui ont encore leur monnaie ont plus souffert de cette crise, à cause de leur forte dépendance du secteur financier dans leur économie. Tous les pays ont souffert de cette crise, monnaie unique ou pas, du fait de la titrisation des créances des subprimes à l’échelle mondiale qui a affecté tout le système bancaire international. Même la Chine a vu sa croissance ralentie par la crise Lehmann ! L’Euro a été à la fois un protecteur et un amplificateur de certains effets de la crise. Le marché unique permet une circulation libre des capitaux au sein de la zone Euro ce qui peut amplifier certains effets. Mais l’Euro est un élément de construction du marché intérieur européen car il fluidifie la circulation des marchandises et services au sein de la zone Euro. Sans cette fluidité, nos exportations seraient plus difficiles, leur coût serait plus élevé, notre balance des paiements affectée. Par rapport aux USA, nous sommes toujours désavantagés par une forte fragmentation culturelle et linguistique, mais il faut faire avec.
Réindustrialiser ? C’est ce que plein de pays occidentaux – France comprise – font déjà, avec plus ou moins de bonheur ! Faut-il soutenir des canards boiteux ou investir dans les nouvelles technologies porteuses ? Quel type de réindustrialisation faut-il provoquer ? Comme le marché est mondial, il faut le faire là où nous pourrions être compétitif ! Pas juste dans une économie manufacturière traditionnelle. Là encore, il y a confusion des genres entre “réindustrialisation” (qui est un peu un voeux pieux) et “innovation compétitive”. Car si on réindustrialise de force là où on n’est pas compétitif, cela nous mène à la situation de la RDA, d’une économie dirigée déconnectée de la réalité des marchés ! L’affaire Heuliez était intéressante de ce point de vue-là. On a vu l’Etat et la Région Poitou Charente se battre en duel pour soutenir cette entreprise en difficulté. Mais l’histoire oublie systématiquement de rappeler que les entreprises dans ce cas-là le sont à cause de déficiences stratégiques et managériales. Il n’y a pas de fatalité ou de pas de chance ! Juste des erreurs humaines ! Des lacunes en compétences, du népotisme, un dysfonctionnement des élites.
Par contre, Marine Le Pen touche un point clé avec la fonction publique territoriale, même si elle reste bien superficielle sur le sujet. Il faudrait avoir le courage de supprimer au moins un échelon administratif, chose que Sarkozy n’a pas voulu faire en écartant cette proposition de la première commission Attali. Il faut mieux délimiter les rôles, éviter les redondances, et analyser de plus près ce que certains dénoncent comme une gabegie au niveau régional. J’aimerai bien que cela soit détaillé d’un point de vue budgétaire. Il ne suffit pas de dénoncer, il faut creuser, un peu comme je l’avais fait en 2007 avec “Trop d’Etat, oui mais où ça?”. Quand on regarde les comptes, et bien, ce n’est pas évident. En faisant un petit tour sur http://www.vie-publique.fr, on voit par exemple que les communes représentent 49% des dépenses des collocs, les départements 36% et les régions souvent décriées seulement 14,6%. 42% des dépenses des départements vont aux aides sociales. 26% du budget des collocs sont des investissements, notamment en infrastructures (routes, écoles, etc) tandis que l’Etat n’investit que pour 6% de ses dépenses. 31% du budget de l’Etat part en charges salariales pour 21% pour les collocs. On trouvera bien entendu des dépenses contestables au niveau des collocs (hôtels de région dispendieux, aides culturelles pas toujours justifiables, aides à l’emploi à l’efficacité par prouvée, etc), mais sur quel % de leurs dépenses ? Il y a bien les Cour des Comptes régionales, mais la subsidiarité de ce contrôle est quelque peu contestable, les baronnies locales s’auto-protégeant facilement.
En fait, l’Etat et les collocs passent leur temps à colmater des brèches avec des aides à l’emploi, à l’innovation, des baisses de charges sociales en tout genre. La machine est tellement complexe que personne ne la maîtrise. L’Etat en vient à concurrencer inutilement le secteur privé (comme avec le grand emprunt et le Fonds national de la Société Numérique). Il ne sait pas mesurer les effets positifs et négatifs de son patchwork d’aides en tout genre. Il n’y a pas d’architecte d’ensemble. Il y a probablement beaucoup de rationnalisation à faire dans le domaine avec des économies substantielles à réaliser. Le problème pour les politiques (gouvernement, élus) est qu’ils n’arrivent pas à suivre ce qui se passe.
La campagne présidentielle est peut-être une occasion de mettre ces sujets sur la table…
En effet, mon propos est exagéré et l’analogie avec le son est un effet de manche, pas beaucoup plus. Et oui, il faut du bruit pour faire des découvertes ! Il faut juste savoir le doser pour éviter d’avoir un taux de découverte qui soit trop faible et de se noyer dedans au détriment d’autres formes de découvertes plus productives. Bref, on doit arbitrer en permanence. Exemple dans les réseaux sociaux : équilibrer le suivi de sa timeline Twitter et celle de Facebook. J’ai par exemple fait le choix personnel de priviligier celle de Twitter du fait de son caractère asymétrique (les gens que je suis ne sont pas ceux qui me suivent) alors que Facebook est symétrique entre suivis et suiveurs qui sont des “amis”, une notion qui n’existe pas dans Twitter. Ce qui fait que le bruit dans Facebook est à la fois plus fort et moins pertinent que celui qui provient de Twitter. Mais si je suivais autant de gens qui me suivent dans Twitter, il en serait autrement.
Pas surpris de voir que cela bouillonne un peu partout en France. Et d’ailleurs, le phénomène de fragmentation dans le supérieur qui est manifeste en Ile de France semble moins affecter les autres grandes villes universitaires. Le campus de Grenoble est un bon exemple, même si il est à forte dominante scientifique (je l’ai visité il y a 7 ou 8 ans donc ne le connais pas assez bien).
J’ajouterai à ma petite liste :
– Quels besoins spécifiques de financements la puissance publique couvre-t-elle ? Le démarrage, l’amorçage, le développement, la croissance internationale ? Aujourd’hui, ce n’est pas bien clair. L’Etat a tendance à être un peu partout.
– Lorsque la puissance publique intervient dans le financement de l’innovation, se positionne-t-elle sur des “gaps” structurels ou conjoncturels ? C’est-à-dire : pour combler des manques de financement durables liés à l’organisation des marchés financiers et à la régulation prudentielle qui évolue pour les banques et assurances, ou bien sur des lacunes sporadiques liées à la crise Lehmann.
– Comment les aides de l’Etat peuvent aider les entreprises à croître pour atteindre la taille critique. Cela concerne notamment les interventions au niveau des ETI (entreprises de taille intermédiaire). Comment se développer à l’international ? Comment devenir multi-national ?
– Comment l’état peut-il simplifier la vie des entreprises innovantes (moins de bureaucratie, de charges, etc) sachant qu’elles ne peuvent pas pour autant s’exonérer du financement de la protection sociale.
Je prépare un peu en avance de phase une contribution à venir pour la consultation qui va être lancée par Eric Besson pour son plan “France Numérique 2020″…
Avant d’avoir les réponses, il faut surtout se poser les bonnes questions !
Tout dépend de ce que l’on appelle “aide” ! Est-ce que cela sous-entend uniquement “subvention” ? Ou bien est-ce que cela intègre aussi déductions fiscales et sociales diverses, avances remboursables, prêts voire avantages en nature ?
Ton point est un peu radicalement négatif. La France est le pays au monde qui a le dispositif le plus complet en termes d’aides à l’innovation. Du temps ancien de l’ANVAR, le mix était différent mais beaucoup moins complet. C’est l’équilibre de ce mix qui est largement discutable et qui fait l’objet de ce débat.
Les grandes questions à creuser sont à mon sens :
– Les aides à l’innovation doivent-elles se focaliser ou non sur les startups et PME de croissance ? La France a choisi d’arroser plutôt “large”, notamment via les pôles de compétitivité, le CIR et le grand emprunt. Le jacobinisme est manifeste aussi dans ce domaine et c’est un peu regrettable.
– Les aides doivent-elles être génériques ou spécifiques, par domaines et avec appels à projets (comme dans les pôles et le grand emprunt) ? La balance penche trop vers le spécifique au détriment du générique, notamment avec la baisse de ces dernières années du budget de la branche Innovation d’Oséo et le rognage du statut JEI qui n’a pas été modifié dans la Loi de Finance Rectificative 2011.
– L’Etat a-t-il les compétences et moyens humains pour traiter en long et en large de l’allocation de ces aides ? Doit-il plus s’associer au privé ? Aujourd’hui, il a tendance à se mêler de trop de choses, notamment du fait du point précédent. Par exemple, dans le grand emprunt, il a confié à la CDC le rôle de sélectionner plus de 100 dossiers d’investissement (en equity) par an alors qu’elle n’en a pas les moyens réels. La logique de fonds de fonds est plus efficace.
– L’Etat doit-il encourager les investissements privés dans le startups par un dumping fiscal (TEPA ISF et IR, FCPI), comme le dénonce Nicolas Debock ? Il est regrettable qu’il faille en passer par là pour que le privé investisse dans les startups mais c’est peut-être un moindre mal pour y parvenir. Si ces dispositifs n’existaient pas, l’Etat devrait quasiment gérer lui-même TOUT l’investissement dans l’innovation. Il est déjà impliqué dans au moins la moitié des flux financiers allant vers l’innovation. C’est bien assez !
– Les banques peuvent-elles aider les startups ? La réponse est clairement non. Une banque prête uniquement aux entités solvables et les startups ne le sont pas par nature. Ce n’est pas un problème français. C’est partout pareil, même aux USA.
– La puissance publique peut-elle être un “bon client” innovant qui par sa politique d’investissement pourrait encourager les startups ? C’est une voie souhaitable mais sa structure en mille-feuille et son endettement rend cela difficile.
– Existe-t-il d’autres moyens d’encourager l’innovation ? A mon sens, oui. L’Etat a notamment un rôle à jouer dans l’aménagement du territoire dans l’enseignement supérieur. Comme je le souligne dans de nombreux article comme ce dernier sur le Mash-up, il faudrait rapprocher les disciplines complémentaires de l’innovation, ne serait-ce qu’au niveau des grandes écoles. Un vaste programme, complexe à mettre en oeuvre car les écoles de commerce dépendent en général des organismes consulaires comme les chambres de commerce.
Le sujet de l’aide à l’innovation est complexe. Il faut éviter d’être binaire dans l’analyse. Dans d’autres débats, certains trouvent les business angels nuls et les VCs tout aussi mauvais. En rejetant tout le système, on ne va pas aller loin ! Il faut trouver d’autres équilibres et pour ce faire comprendre les phénomènes de vases communiquants entre tous les dispositifs et aussi la nature humaine, notre culture et notre histoire.
Bonjour David,
Merci pour cette perspective intéressante qui met notamment en évidence le besoin de s’autodiscipliner dans l’usage des réseaux sociaux pour éviter de baigner dans trop de bruit.
Au passage, mon papier présente bien d’autres limites.
Prenons par exemple l’analogie avec la hifi. La plus adéquate serait de décrire comment on découvre de la musique que l’on peut apprécier. Quelle que soit l’époque, que l’on écoute la radio ou que l’on explore des “catalogues”, voire même que l’on écoute les 14 pistes d’un 33 tours ou d’un CD, il y a toujours du “bruit”, au sens, de la musique qui ne nous touche pas, que l’on n’a pas envie d’écouter. Sur un 33 tours et sur la radio, on ne pouvait pas zapper facilement. Aujourd’hui, on le fait bien plus rapidement, donc on évacue plus efficacement le bruit. En écoutant la radio (privée), on subissait aussi le “bruit” de la publicité. Autre remarque générationnelle : la musique dite “populaire” a toujours ressemblé à du “bruit” pour les parents. C’était vrai quand j’écoutais du hard rock comme ado dans les années 70 et c’est vrai aujourd’hui pour ce qui est à la mode aujourd’hui chez les djeunes.
Autre exemple : la consommation de la TV. Maintenant que l’on peut profiter de fonctions d’enregistrement (PVR), on peut à la fois zapper la pub (ce qui en gêne certains) et surtout zapper ce qui n’est pas intéressant dans un programme. J’aime bien l’émission Taratata, mais je zappe généralement tout le blabla pour n’écouter que la musique qui m’intéresse. J’évacue donc le bruit. Je ne consomme que ce qui m’intéresse, et principalement en mode délinéarisé. On peut dire que j’ai pu évacuer 90% du “bruit” de la TV grâce à cela. Malheureusement, l’usage de PVR n’est pas généralisé en France pour un tas de raisons que l’on ne va pas traiter ici. Ses substituts que sont la catch-up et la VOD s’en approchent fonctionnellement. Mais la catchup permet moins facilement de zapper la pub.
Dans la musique comme dans la TV, on voit donc plutôt un progrès permettant de limiter le “bruit”, c’est-à-dire le signal inutile.
Dans les réseaux sociaux, on en est encore à la phase de découverte et pas encore à celle de la régulation du flux par l’utilisateur avec les bons outils. On subit aussi un bruit “by design” dans certains sites. Facebook est d’un point de vue ergonomique un site très bruité. En effet, la page de base est assez lourde. Il y a de la publicité sur le côté et des sollicitations en tout genre.
Je dois admettre que j’ai aussi forcé le trait dans mon propos. Ma timeline Twitter est raisonnable (150 personnes suivies) et s’il y a du bruit dedans, le pourcentage n’est pas si élevé que cela. Dans Facebook, c’est un peu différent car ma timeline est construite différemment. Dans Twitter, il y a les gens que j’ai décidé de suivre pour les mêmes raisons que toi. Dans Facebook, il y a les “amis” que j’ai accepté passivement, qui sont pour un grand nombre des lecteurs de mon blog. Je devrais en fait avoir deux comptes Facebook, un de perso et un de “page du blog”. Mais bon, je suis fainéant. Et quand on est fainéant, on subit plus le bruit ! Comme devant la TV !
Tu mets le doigt sur un point que je n’avais effectivement pas abordé dans l’article : le bruit est une fonction indispensable dans un contexte d’exploration. C’est un peu comme lorsque l’on participe à une conférence pour “étoffer son réseau”. On rencontre un tas de gens qui ne seront pas utiles (à court terme en tout cas) et on tombe parfois sur une personne qui va nous aider pile poil là où on en a besoin et un peu par hasard. Seuls seuls ceux qui tentent leur chance peuvent gagner comme on dit !
Il est normal dans ces conditions que le bruit soit supérieur au signal. Il en est ainsi dans les réseaux sociaux. Mais leur fonctionnement et les usages courants que je décris dans l’article ont tendance à renforcer la composante bruit dans l’expérience utilisateur.
Pour ceux des réseaux sociaux dont la publicité n’est pas facturée à la performance, le bruit fait directement partie du modèle économique !
Pour les autres, c’est un outil très efficace pour augmenter la viralité.
Le premier filtrage est probablement situé dans l’allocation de temps que l’on passe dans ces réseaux !
Je pensais aux adolescents, donc en amont de la génération Y en fait, effectivement sans nom bien précis ! Ils ne sont pas encore influencés par le monde professionnel.
Les jeunes qui rentrent dans le monde professionnel ont tendance à “rentrer dans le rang” même s’ils peuvent parfois générer l’adoption d’outils 2.0 dans les entreprises.
Quid du bruit qui provient des “amis” ?
Suis particulièrement d’accord pour ce qui est des Appels à projets, notamment collaboratifs. Ils détournent en effet les startups des clients. Mais les aides plus génériques (avances remboursables, etc) ont un coût “temps” plus acceptable. Et elles ne diluent pas le capital de la startup lorsqu’elle démarre.
Merci pour cette très intéressante perspective qui explique bien pourquoi la course aux pixels n’a pas de sens dans les compacts et les smartphones. Elle valide indirectement le fait que l’appareil de Lytro sera probablement un hybride (capteur réflex sans miroir).
Je découvre Pelican Imaging. C’est encore une startup basée à Mountain View, comme Lytro, et qui a levé $17m (cf http://www.crunchbase.com/company/pelican-imaging). Mais avec une diffusion de la technologie en OEM visiblement.
Le procédé utilisant une matrice de petits capteurs+optiques semble intéressant. Il faut juste espérer que les problèmes de résolution d’optique ne se posent pas à cette échelle ! Sans compter la précision des processus de fabrication. C’est là que le bât peut blesser !
Une autre société à surveiller est Varioptic, française cette fois-ci. Elle a développé une technologie de lentilles fluides programmables (par champs électrique je crois). Cela fait des années qu’ils existent (2002 + $16m de levés en troisième tour, donc probablement au moins $20 au total). Leur technologie semble avoir été intégrée dans des blocs optiques d’origines variées (http://www.varioptic.com/en/partners.html). Mais dans quels smartphones au final ?
Les USA aussi font de l’interventionnisme public : http://www.mercurynews.com/rss/ci_18345765 “Obama announces $500m high-tech manufacturing effort”. Même volonté de réindustrialisation qu’en France. Et aussi à coup de subventions diverses. En quoi sont-elles différentes de ce que l’on a en France ? C’est une question…
Ne crachons pas sur la soupe. Cf le débat du post précédent qui n’est pas terminé d’ailleurs !
La France est à l’image du reste de l’Europe. Je pense que la faiblesse de nos investissements est le résultat direct de la fragmentation du marché européen. Petits marchés locaux => petits marchés pour démarrer => démarrage plus lent => succès plus difficiles + concurrents US qui vont plus vite => plus dur de se faire financer => pas de réamorçage de la pompe privée du financement par les succès. Seconde raison clé : la culture du risque et un manque d’ambition, conséquence de notre géographie. Les anglais sont une exception en Europe et se portent mieux. Probablement parce qu’ils parlent anglais et sont proches culturellement des USA où ils s’implantent plus facilement et plus directement.
Le bazar de nos financements publics est un palliatif aux insuffisances du secteur privé, lui-même lié à ce que je viens d’écrire. Pour en sortir, il faut réamorcer la pompe des succès et encourager plus nos startups à s’ouvrir sur le monde.
Ce genre de technologie ne va pas corriger l’un des principaux écueils des photographes amateurs (même équipés de réflexes) : la composition et le cadrage ! Il reste à créer un logiciel intelligent embarqué qui alerterait le photographe des erreurs en cours : visage au centre au lieu d’être en haut de la photo, pas assez de marges, marges pas équilibrées, règles des tiers pas respectée, jambes coupées au mauvais endroit, etc.
Pour ce qui est de la photographie professionnelle, notamment pour de la mode ou des portraits, on a encore besoin de vrais photographes, même si leur métier est de plus en plus difficile. Il ne faut pas négliger un point TRES important : la relation entre le photographe et les personnes photographiées. Cela va de la mise en confiance aux conseils pour la pose, si ce n’est vers une notion de “direction artistique”.
Pour la techno Lytro, il me semble qu’elle permet de reconstituer une vue avec profondeur de champ maximale rendant presque tous les plans nets dans l’image. Cela traînait quelque part dans les exemples fournis.
Il ne me semble pas que le principe de Lytro permette d’améliorer la dynamique des capteurs et donc de se passer de prendre plusieurs photos de suite pour générer une image à haute dynamique (HDR). Pour faire du HDR en une prise, il faudrait améliorer les capteurs et notamment leur capacité à distinguer encore mieux les nuances de hautes et basses lumières. C’est un problème de photonique et de semi-conducteurs.
Pour ce qui est du marché du post-traitement, la transformation est déjà bien en cours, même si les personnes sont souvent les mêmes au début et à la fin du process. Chez les utilisateurs de réflexes, les manipulations des photos à partir du format RAW apportent une énorme souplesse que l’on n’a pas au moment de la prise de vue. Sans compter le travail des photographes de mode qui passent des heures à retoucher les photos des top-models. Même si celui qui fait les retouches n’est pas forcément celui qui a pris les clichés.
A l’autre extrémité du spectre des utilisateurs, les applications mobiles comme Instagram et compagnie permettent de rajouter des fioritures autour de ses photos avant de les envoyer dans les réseaux sociaux.
La transformation du marché ne serait pas si radicale que cela. L’innovation évite des manipulations irréversibles lors de la prise de vue et apporte plus de souplesse dans l’usage des photos prises. C’est une évolution dans la lignée de l’apparition du format RAW avec les capteurs réflex qui a permis de corriger la luminosité des photos, ou la luminosité dans les hautes ou basses lumières, alors que le JPEG ne le permettait pas aussi bien car il détruisait des informations utiles dans les photos au moment de la compression (du 12/14 bits au 8 bits pour le nombre de couleurs différentes gérées par pixel et couleur primaire). Avec le plénoptique, au lieu de perdre une information captée (du fait de la compression JPEG), on en ajoute (la lumière incidente).
Espérons pour eux que leur succès ne sera pas empêché par une erreur de positionnement ! Attendons la fin de l’année pour voir et juger sur pièces ! Je n’ai fait ici qu’essayer de comprendre le contenu de la thèse du créateur de la startup. La thèse datant de 2006, il n’est pas impossible que depuis, ils aient réalisé des progrès significatifs qui ne sont pas encore documentés, et/ou sont dans des brevets en cours de dépôt.
Hello Fred !
Petite nuance sur la nature des aides publiques : la majorité d’entre elles sont des prêts à taux zéro et/ou des prêts couverts (pour les prêteurs, pas pour les emprunteurs) par Oséo Garantie. Les aides sous forme de subvention sont plus rares, et représentent moins du quart ou du cinquième de l’argent public injecté dans les startups il me semble.
Ton point sur le maintient des vieilles industries en déclin est valable pour certaines actions de l’Etat, mais quelque peu hors propos ici puisque l’on y parle surtout des aides aux startups. A priori, il ne s’agit donc pas de “vieilles industries”.
Ces vieilles industries sont peut-être concernées dans les pôles de compétitivité, et encore, cela se discute selon les pôles. Il y a peut-être aussi des “losers” dans des industries high-tech. Suivez mon regard…
L’aberration que tu évoques me semble en tout cas se renforcer dans le cadre du grand emprunt. L’Etat va y jouer le rôle “d’investisseur avisé” (en equity) en concurrence frontale avec les VCs. Comme ce fut déjà le cas avec le FSI dans le cas de DailyMotion où l’investissement y a été réalisé CONTRE des VCs qui proposaient une valorisation plus faible !
Dans le cas des aides qui interviennent très en amont du cycle de vie des startups, la distorsion de marché est moindre car elles entrent vaguement en concurrence avec les business angels. Comme elles financent souvent de la R&D en amont des produits, elles se situent dans une zone de risque très fort là où les investisseurs privés sont extrêmement frileux.
Pour terminer, je suis 100% d’accord avec le point de ton article et trouve plus justes et pratiques les aides génériques, notamment de nature fiscale, plutôt que les aides spécifiques où l’Etat fait du “cherry picking” des projets en fonction de critères variés parfois discutables. Le pire pour moi sont ces projets collaboratifs qui génèrent une énorme perte de temps pour les startups. Pour reprendre le contre-point de Nicolas Colin sur le sujet, je pense qu’une collaboration “près du marché” ferait plus de bien aux startups que ces collaborations “en amont du marché” (dans la R&D). Mais l’Etat n’a rien à y faire, sauf à éventuellement être un “bon client”.
Je souscris au constat d’un manque de culture économique et entrepreneuriale, si ce n’est pas marketing ou des basiques de la communication. On manque d’argent, mais on manque aussi beaucoup de compétences partagées dans ces domaines.
On peut noter le progrès lié à la création des Filières Entrepreneurs de certaines grandes écoles, mais ces cursus manquent encore de “charpente”.
Le Guide des Startups est téléchargé environ 8000 fois par édition (deux par an) ce qui est pas mal en tout cas !
Quelques commentaires sur tes points :
1 – La puissance publique juge que les financements publics servent à abonder les financements privés. C’est une manière de “rendre la parole aux marchés”. Pour les anti-Etat, c’est un moyen de ne pas trop fonctionnariser les aides. Pour d’autres, cela oblige à passer par des investisseurs privés qui auraient une vision moins long terme que l’Etat (ou les collectivités locales). L’extension des aides au delà de la R&D semble contrainte par la réglementation européenne. Tu connais bien le sujet. Est-ce vraiment le cas ou une excuse pour ne par en faire ?
2 – Il y a surtout une différence dans la notion d’expérimentation. Pour l’Etat, l’expérimentation relève de l’amont (R&D) avec un risque scientifique. Pour la startup (en tout cas dans le numérique et surtout le logiciel et l’Internet), l’expérimentation relève plutôt de la confrontation au marché. Elle est plus “sociale” que “technologique” même s’il faut un bon produit et maîtriser la technologie pour réussir.
3 – D’accord sur le besoin d’avoir des aides plutôt génériques, plutôt que de passer par des fonctionnaires (ou des consultants bossant pour eux). Même si par ailleurs, les entrepreneurs se plaignent AUSSI des investisseurs privés lorsqu’ils ne “comprennent” pas leur projet.
A mon sens, le débat sur le JEI et le CIR n’est pas celui que tu cites. Il porte sur l’évolution à la baisse de ces dispositifs pour les startups, pas sur les modalités pratiques d’obtention. Ces dispositifs n’étaient pas si lourds que cela à appliquer et étaient assez indifférentiés. Les critères pour les obtenir étaient génériques, même si dans le cas du CIR il y a un risque de redressement (alors qu’ils est très faible dans le cas du JEI). Ce sont les aides liées aux appels à projets thématiques et aux projets collaboratifs qui sont une plaie (dans les pôles de compétitivité et le grand emprunt).
Ce qu’il serait intéressant de “pondre” avec cette discussion consisterait en deux types de propositions :
– Des principes généraux sur les domaines où l’intervention de l’Etat a un sens pour accompagner les startups et l’innovation.
– Sur les modalités pratiques associées, avec évolution par rapport à ce qui existe.
Petite précision sur tes points 2) et 3): le biais R&D et techno dans les aides est à la fois lié à la structure de l’Etat (les élites des Grands Corps) mais aussi à la réglementation européenne. Elle ne permet ces aides que lorsqu’elles sont censées corriger une défaillance de marché. En l’occurrence, comme il y a faiblesse structurelle dans la R&D, les aides associées sont autorisées. Les aides à connotation business et marketing ne le sont pas, même s’il existe des voies détournées pour y parvenir.
Parfaitement d’accord sur le 1 et sur le 4, qui me rend pas exemple très dubitatif si ce n’est pire des aides du type “projets collaboratifs” (dans les pôles de compétitivité, les appels à projet, le Grand Emprunt). Je trouve que les aides plus génériques (type indirectes sur l’investissement TEPA-ISF) ou Oséo Innovation – JEI – CIR, sont bien moins piégeantes pour les entrepreneurs.
Les “mentalités des investisseurs” sont un sacré sujet. Il faut distinguer les business angels des VCs. Les premiers se sont développés depuis 2008 et de surcroît avec les fonds d’investisseurs type Kima/Jaina/ISAI. Les seconds sont trop souvent “frileux” car une grande part d’entre eux sont des émanations de banques et d’assurances. Et rares sont leurs General Partners qui sont des entrepreneurs ayant réussi (ou pas, d’ailleurs). A contratio, les grands fonds de la Silicon Valley ont été fondés à l’origine par les créateurs des grandes boites de “silicium” (Intel, Fairchild, etc). J’ai rencontré Pierre Lamond à Palo Alto en avril dernier. C’est un français cofondateur de National Semiconductor et maintenant VC chez Khosla Venture après être passé chez Sequoia. Un bon exemple de parcours que l’on trouve rarement chez nos VCs !
Je reprends ton point sur “Dans la Silicon Valley, point d’aide. Mais en echange, les montants leves aupres d’angels ou VCs sont plus eleves.”.
Ce n’est pas un “échange”. C’est une “situation”. Il y a 20 à 30 fois plus d’argent privé dans le financement des startups aux USA qu’en France, et la Silicon Valley en consomme environ 40%. Il y a aussi de l’argent public dans l’innovation aux USA, mais pas dans les startups btoc. Plutôt dans les projets liés au complexe militaro-industriel, et autour notamment de la DARPA et de la NSA. Il y a les SBIC (fonds d’amorçage privés qui bénéficient d’exonérations fiscales à la sortie), mais j’ai l’impression qu’ils ne jouent pas un grand rôle dans le financement des startups de la Silicon Valley.
Nous avons un phénomène de vase communiquant non vertueux en France qu’il faut cependant effectivement inverser : la faiblesse du financement privé génère un interventionnisme public par compensation. J’en avais évalué le poids en 2009.
D’où les remarques sur le besoin de dynamiser l’investissement privé. La loi TEPA-ISF a eu cet effet depuis 2008 et a surtout impacté le financement d’amorçage (business angels) et dans une moindre mesure, atténué l’impact de la crise sur les FCPI. Mais les VCs ont de plus en plus de mal à lever des fonds en ce moment. A la fois parce que pèsent sur eux des règles prudentielles qui deviennent démentes (Bâle 2,3, Solvency 2, etc) et aussi par ce que leur performance passée en font des classes d’actifs pas intéressantes, moins rentables en moyenne que les livrets A !
L’Etat me semble jouer son rôle lorsqu’il réinjecte des fonds chez les VCs via la CDC. Il en sort lorsqu’il se met à rentrer dans la gouvernance de l’investissement via les appels à projets en tout genre du Grand Emprunt. Sauf s’il prend un peu plus de risque que les supposés “frileux” VCs. Ce qui reste à voir et nous n’avons pas encore suffisamment de recul pour juger.
Donc, comment sortir du “yakafaucon” pour dynamiser l’investissement privé et éviter ce phénomène de vases communicants ?
Aussi signalé par Simon, et déjà corrigé.
Au passage, c’est toujours la galère pour trouver les noms des gens qui pitchent dans ce genre de conférence ! Avis aux organisateurs : publiez la liste des intervenants avant, pendant ou après les pitches pour que l’on s’y retrouve et que les bloggeurs évident ce genre d’erreurs déplaisantes pour les intéressés et aussi pour l’auteur !
Je suis allé sur societe.com pour certains… mais en me trompant parfois !
Il est où le Florent Gosselin dans les photos ?
Corrigé pour Tuttivox et pour nombre de participants.
Pas sûr que cela en était un des objectifs…
Pour ce qui est des propositions de Frédéric Le Parc de Smartdate, elles me semblent pour une part un peu fantaisistes.
1 – Un statut de la start-up : il existe déjà avec toutes les aides disponibles et le JEI, même raboté. Et puis, les start-ups n’ont pas de statut aux USA… La proposition me semble curieuse car elle se focalise uniquement sur les startups 100% web. Mais monsieur, il y a des startups dans d’autres domaines : dans le numérique “non web”, dans le hardware, les composants, dans la santé, dans les greentechs ! L’innovation ne se résume pas au web !
2 – Des pactes d’actionnaires standardisés créés par des fonctionnaires. Cela me laisse bien songeur. Cela devrait plutôt relever d’associations comme France Angels et l’AFIC, complétées d’associations d’entrepreneurs de startups.
5 – Pas de charges sociales pour les startups. Pourquoi ce privilège par rapport aux autres entreprises, notamment aux 3 millions de TPE et PME en France ? Faire payer la protection sociale des jeunes des startups – eux-mêmes financés par le capital risque lui-même bénéficiant de plein d’exonérations fiscales – par les autres est-il juste socialement ? Il faut bien la payer notre couverture sociale ! C’est un des problèmes les plus épineux pour les salariés aux USA. Le coût de la santé y est prohibitif, sans compter celui de l’éducation !
6 – Dans les faits, la flexibilité du travail existe déjà dans les start-ups. Flexibilité en échange de stock-options ? Je ne vois pas un gouvernement de droite et à fortiori de gauche inscrivant cela dans la loi ! Ce d’autant plus qu’en France et dans les startups, les SO sont une monnaie de singe compte-tenu des sorties moyennes.
7 – Accès aux capitaux par défiscalisation des plus-values. Mais elles le sont déjà dans pas mal de cas ! Autant pour les créateurs que pour les fonds d’investissement via FCPI et FCPR ! Par contre, étendre la loi TEPA à l’IR devrait être effectivement à l’ordre du jour, surtout si l’ISF disparaissait progressivement. Mais avec quel % de déduction ? 25% comme pour la part IR du FCPI ? Ou plus ?
8 – Assurer l’investissement ! Mesure bien contradictoire. Enlever le risque là où il y a du risque pour que les gens prennent des risques ? Dans quel pays cela existe-t-il et génère un effet positif ? Et nous avons déjà Oséo Garantie qui protège les VCs en couvrant 70% des fonds investis dans les FCPI ! Et le risque est aussi diminué via les déductions fiscales types TEPA pour les investisseurs privés eux-mêmes !
Je retiens surtout la proposition 3 même si je la formulerai différemment. Développer la culture startup ne se résume pas à mettre du web partout dans l’enseignement supérieur. Elle demande surtout de rapprocher géographiquement différents cursus : scientifiques, technologiques, design, marketing, vente, sciences humaines. Il est regrettable que cela ne soit pas le cas sur le campus de Saclay, l’un des plus grands chantiers de ce gouvernement en matière de “plan campus”.
Merci, corrigé pour Christophe Coquerel.
Merci de me l’avoir signalé, c’est corrigé!
Difficile de chiffrer cela. Pas sûr même que la compta analytique de France Télévision soit capable de le faire…
Pour les ouvertures d’objectif, je ne connais pas de modèle chez Canon qui ouvre à 1.5. En tout cas, 2.8 suffit largement pour le tennis. Surtout dans la mesure où c’est un sport de plein air, donc avec une bonne lumière. Une ouverture à 2.8 est surtout utile pour photographier en intérieur. Pour le basket ou le patin à glace par exemple.
Je n’ai rien vu de spécifiquement impressionnant au delà de la quantité de moyens techniques et humains mis en place pour ces retransmissions. Les caméras aériennes me fascinent un peu. J’imagine ce que cela pourrait donner si on mettait dedans un appareil photo réflex à la place d’une caméra vidéo…
Petites nuances sur votre commentaire :
HbbTV permet de faire plein de choses, dont de la catch-up mais les chaines n’en feront pas dans un premier temps car elles ont vendu ce service aux FAI. Si elles le font par elles-mêmes via HbbTV, elles vont perdre une source de revenus pas forcément facile à remplacer.
HbbTV permet de créer des services de VoD, et là encore, l’équilibre des relations avec les FAI est en question. HbbTV n’a pas réglé la question des moyens de paiement sur une TV connectée. Il semble qu’aujourd’hui, aucune solution viable de paiement n’existe sur TV connectée, avec ou sans HbbTV (source: une grande chaine TV). La solution des FAI avec leur billing est pour l’instant la moins mauvaise.
Les FAI ne proposent pas encore d’expérience utilisateur intégrée aux programmes pour la simple raison que les chaines n’en avaient pas encore créé et que celles-ci ont des accords très précis avec les FAI les empêchant “d’habiller” leur signal. Les chaines ne sont pas prêtes de lâcher le morceau là dessus et tiennent à être les seules à habiller le signal de leurs émissions avec du contenu associé. Elles sont de ce point de vue là soutenues par le CSA.
Oui, HbbTV pourra tourner sur tout device connecté. Mais le fonctionnement en mode dégradé et non connecté utilisant les informations downloadées via le canal broadcast ne sera possible que sur les devices dotés d’un tuner DVB (sat, câble ou TNT). Le reste n’est effectivement qu’une question de logiciel et de liaison Internet.
Google TV et Apple TV ont plusieurs possibilités pour enrichir leur offre : supporter des tuners TV et aussi ce qui va avec, à savoir un vrai guide de programme, ou bien ajouter à leur offre de contenus des chaines TV streamées via Internet. Le premier cas est difficile à gérer techniquement et il y a beaucoup de variantes de standards selon les pays. Les grands américains n’aiment pas trop gérer ces variantes. De plus, gérer des tuners créé des instabilités logicielles, des problèmes de drivers, de mise en veille, etc. Pour ce qui est de chaines TV streamées, il faudrait que celles-ci soient d’accord ce qui est plutôt mal barré. Apple TV et Google TV streameront s’il le font un jour des chaines TV qui ne sont pas les grandes chaines des pays. Et on retombera dans le problème de Joost…
L’univers de la TV est complexe car il n’est pas conditionné que par la technique. L’univers de l’Internet ou des PC est bien plus ouvert et ne subit pas toutes ces contraintes. La TV est contrainte par la réglementation, les accords commerciaux, le financement des contenus, la chronologie des médias, etc. Et c’est un business très “local”.
L’enjeu industriel critique est de glisser progressivement vers une défragmentation du marché des TV connectées sans trop déstabiliser le jeu et le revenu des acteurs en présence. Qui peut provoquer cette défragmentation ? On a d’un côté Google TV, seule plateforme horizontale, Apple ne fournissant pas sa solution logicielle à des constructeurs tiers. Elle commence à être adoptée par les constructeurs de TV, mais les chaines de TV résistent, et Google TV est une solution très partielle aux besoins des consommateurs. HbbTV est une alternative, encore en devenir, qui pourrait servir de barrage à Google TV. Il manque plein de choses pour que cela tienne la route, notamment une standardisation du packaging des applications, de la présentation d’un portail applicatif, et aussi un moyen de paiement. Et les expériences passées de standardisation dans la TV ont été décevantes (MHP, OIPF, etc).
Bref, aucune solution n’est parfaite à ce jour et pour reprendre la conclusion de mon article : les jeux sont encore ouverts.
Histoire d’être précis, c’est une spécification de box avec hard et soft, et un support de TV de rattrapage de 7 jours (320 Go minimum dans les specs) mais les sources seront multiples. La box ne reçoit la TV broadcast que via la TNT. Au Royaume Uni, le satellite est l’apanage de bSkyB (et ses chaines premium payantes), qui est hors de l’initiative YouView, propulsée uniquement par les chaines gratuites anglaises (BBC, iTV, Channel 4 & 5).
Les specs de YouView sont ici : http://www.youview.com/industry/wp-content/themes/youview/_site_media/resources/YouView_Core_Technical_Specification_1.0.pdf
S’il n’y avait que deux ou trois facteurs, cela serait trop simple. La situation d’un pays est le fruit de son histoire, de sa culture et de son système de valeur, de son système éducatif, du fonctionnement de ses élites et parfois de ses religions. Ainsi, pour certains, le problème remonte à la révocation de l’Edit de Nantes qui a fait fuir les protestants de France un peu avant les premières révolutions industrielles et le développement du commerce international. Après, tous les pays européens sont handicapés par la fragmentation des marchés de l’Union et doivent prendre le large (USA, Asie) pour atteindre la taille critique.
La France n’est pas en retard sur tout, il ne faut pas pousser non plus ! Nous avons des industries qui exportent et innovent bien et ou se portent bien à l’international (aérospatial, agroalimentaire, retail, luxe, hôtellerie / tourisme) et d’autres plutôt mal (machine outil, numérique).
Dans le numérique, on est tout de même présent à l’échelle internationale dans les jeux, les métiers de l’image (ne serait-ce qu’avec Technicolor) et aussi dans la CAO (avec le leader mondial, Dassault Systèmes). On a tout de même une industrie des composants (qui va du CEA LETI à SOITEC et STMicroelectronics et un paquet de startups autour, évidemment moins connues que celles du web). Et même si on jase beaucoup sur France Telecom, l’opérateur historique se porte mieux que ses homologues britanniques et allemands.
Il est vrai cependant que la France n’a pas fait suffisamment confiance à l’innovation “par la base” et s’est trop appuyée sur ses grandes entreprises et sur la puissance publique. On subit encore l’héritage des projets gaullo-pompidoliens qui ont durablement structuré notre industrie du numérique avec ses grands projets et ses grandes SSII. Ce n’est pas par hasard si le premier pôle de compétitivité en termes de financement est le pôle des “systèmes complexes”. Deux mots qui veulent tout dire sur notre positionnement marketing dans le monde ! Heureusement, on trouve derrière Cap Digital, plus positionné dans les usages grand public et les médias, qui rejoint une force relative de nos industries du numérique.
Oui, c’est peut-être une caricature.
Mais regardons les chiffres de plus près : chez News Corp, les bouquins, la presse écrite et divers services de contenus comme Dow Jones représentaient moins de 23% de leur CA consolidé en 2010. Tout ce qui est lié aux contenus cinéma et TV et à leur diffusion (satellite) représente 69%. Le reste comprend la participation dans diverses activités dont l’éditeur de logiciel NDS.
Cf http://www.newscorp.com/investor/annual_reports.html.
Ma phrase n’est donc pas inexacte d’un point de vue chiffré !
Désolé de ne pas reconnaître tous les grands de ce monde de l’Internet. Heureusement que certains ajoutent en commentaires les noms sur les photos dans Darqroom… 🙂
Pour le lieu de l’ICANN, les USA ne sont pas un mauvais endroit. C’est la tutelle du DoC qui créé un certain doute !
Au passage, je trouve que l’on y va un peu fort sur le retard de “la France” sur Internet. Ce n’est pas parce qu’une partie de sa classe de dirigeante est en retard et qu’elle fait voter des lois rétrogrades comme HADOPI ou LOPSSI 2 que le pays est en retard sur Internet. On a une bonne pénétration des usages dans le grand public tout comme de l’ADSL, le premier marché de l’IPTV, pas si mal placés dans l’administration électronique, le second marché des startups et du capital risque en Europe, etc. On est par contre en retard dans le commerce en ligne au niveau des PME. Bref, la situation est contrastée…
Est-ce que cela valait le coup d’y être. Oui pour les gens à y rencontrer, moins que pour les débats. Cela manquait de “TED Moments” comme on en trouve à LeWeb.
Merci pour le commentaire.
Mais je ne comprends pas le “certaines photos ne sont pas anonymes”. Cela veut dire quoi exactement ?
Sinon, quel est le rôle exact du Department of Commerce US vis-à-vis de l’ICANN?
Ca dépend de la manière dont l’OS est construit et de sa modularité. L’essentiel peut être commun pour les différents écrans couverts par Android. Les processeurs sont de puissance et caractéristiques voisines entre smartphones, tablettes, netbooks et TV connectées. Et on est dans une logique “client”, pas Client+Serveur comme avec Windows 7 qui partage pas mal de code avec Windows Server.
La grosse différence est liée à l’interface utilisateur, mais celle-ci représente généralement une petite partie du code d’un OS. Les spécificités du matériel relèvent ensuite de drivers, classiques dans un OS.
Ce qui sera intéressant de voir est l’approche modulaire de Google TV et d’Android 3.1 pour comprendre les modules spécifiques au premier au dessus du second…
Oui, en effet, pas de commentaires et merci d’être le premier à réagir ! L’article a tout de même été consulté 2800 fois ce qui est pas mal pour un secteur un peu obscur… pour les salles obscures. Les acteurs de ce secteur ont peut-être aussi moins l’habitude d’intervenir dans les “médias sociaux”.
Le secteur des jeux vidéo est quant à lui bien plus connu et plus médiatisé !
Cette stratégie de double OS complique la vie inutilement en effet. Android devrait être le seul OS de Google, avec des déclinaisons diverses. Ils le font bien converger sur les smartphones, tablettes et TV connectées, alors pourquoi pas sur les netbooks ?
Chrome OS devrait n’être qu’une version d’Android pour netbooks, avec une interface basée sur Chrome, voire un vrai bureau. La vision d’une interface de “bureau” basée uniquement sur un navigateur avec ses tabs me semble limitante. Il devrait au moins y avoir une métaphore applicative et une autre pour naviguer dans ses données.
Le pourquoi des deux OS reste à éclaircir. Il y a peut-être une simple bataille d’égos dans les équipes de Google et une direction qui n’arrive pas à trancher. Dès fois, c’est aussi simple que cela !
J’ai prévu d’y faire un tour !
On parle bien d’innovations de rupture. Même si elles sont assez rares dans les faits…
Oops, corrigé…
Non, pas d’échanges de liens sur ce site.
C’est une impression ! Car la puissance publique est omniprésente dans le financement de l’innovation et en représente une très grande part, par des moyens divers (aides et subventions, prêts, avantages fiscaux divers, financement des FCPI via la CDC). Cf http://www.oezratty.net/wordpress/2009/financement-public-et-priv-de-linnovation/.
Les banques prennent l’ascendant sur tout ? Dans l’économie en général oui, mais pas dans le financement des startups car le risque, elles ne connaissent pas et connaissent encore moins que les acteurs habituels du financement de l’innovation.
Je n’ai pas encore vu le plan UMP pour la présidentielle. Quand au plan du PS qui a été publié (http://www.parti-socialiste.fr/projet), il créé une séparation nette entre le financement bancaire des PME et le financement de l’innovation. Comme pour revenir à la situation antérieure à 2006 avec la BDPME et Sofaris d’un côté et l’ANVAR de l’autre. Cela pourrait signifier qu’ils ont entendu parler de la bancarisation d’Oséo au détriment de la mission d’Oséo Innovation dont les budgets ont diminué ces deux dernières années.
Que les startups fassent peur à René Ricol, possible, je n’en sais rien et ne le connait pas. J’ai par contre pu observer le lobbying des grandes entreprises auprès de l’Etat qui cherchent à faire croire que l’innovation ne vient pas des startups et que c’est peine perdue de les aider. Avec ça, on est effectivement mal barrés !
L’ambiance Silicon Valley a été effectivement tentée à plusieurs endroits, les trois majeurs étant Sophia Antipolis, Grenoble et Saclay. Du point de vue industriel et du mix universités/recherche/industries/startups/international, c’est probablement Grenoble qui est le plus aboutit. Mais la ville est géographiquement enclavée et le pôle est spécialisé dans les nanotechnologies alors que la SV est multi-disciplinaire ce qui lui permet de mieux s’adapter. Tandis que lorsque STMicroelectronics (un des plus gros employeurs locaux) ne va pas bien, Grenoble tousse fort ! A Sophia-Antipolis, il n’y a pas énormément de startups. Quand à Saclay et le grand plan associé du gouvernement, on s’apprête à en faire un énorme ghetto scientifique qui n’intègre pas ou très peu d’autres disciplines pourtant indispensables à l’innovation : le design, la sociologie, le marketing, le business, le droit, etc. Tout ceci n’est pas une question d’ambiance, mais d’aménagement du territoire et de compréhension des mécanismes non technologiques de l’innovation. Un domaine ou nos élites sont un peu à la ramasse ! Quand à voir les élites gouvernantes et surtout la haute fonction publique instiller une culture du risque, on en est effectivement encore bien loin !
L’Etat ne peut pas être acheteur car les entreprises publiques sont privatisées ? Pourtant, aux USA, il n’y a pas et n’y a quasiment jamais eu d’entreprises publiques comme chez nous. Par contre, le poids des dépenses militaires dans le budget fédéral est énorme et contribue beaucoup à ce rôle d’acheteur. La France a beau être l’un des pays de taille intermédiaire les plus militarisés et doté d’une industrie militaire en propre, ce qu’elle en fait n’a pas l’impact qu’il a aux USA.
L’Etat n’a plus un sous en raison d’une politique massive de défiscalisation des entreprises ? Oui, cela joue un rôle (avec environ 70Md€ au total, sachant qu’il faut faire un peu le tri dedans) mais pas seulement puisque le déficit public est actuellement bien supérieur à ces avantages fiscaux…
Le budget dépend de l’organisateur et de la formule. Pour une semaine, les formules vont de 3K€ à 5K€ selon le contenu et le niveau de personnalisation du voyage. Après, en format “étudiant”, cela revient moins cher : avion + hôtel + location d’un bus pour les trajets.
Bref, tout dépend de ce que l’on recherche et de qui organise le voyage et dans quel format.
En effet. Mais les cas que tu décris sont ceux qui ont choisi le salariat, qui est un choix de départ (en apparence) déjà le moins risqué. Donc, tu y trouves des gens qui sont averses naturellement au risque et de plusieurs manières. Tu prends un chouilla de risques en plus en travaillant dans une TPE.
Le fait qu’il y ait plus d’entrepreneurs en herbe est un choix en amont de celui-là.
Statistiquement, il reste cependant marginal. On est peut-être passé en quelques années de 1% à 3% ou 4% des élèves ingénieurs ou d’écoles de commerce. Je serais intéressé de trouver des statistiques sur ce point !
Voilà pourquoi ils ne le font pas :
– Un VC américain investit pour faire de “gros coups”, c’est-à-dire pour financer des sociétés qui seront valorisées idéalement à plus de $1B. Seules quelques unes y arriveront mais c’est le potentiel de valorisation que doit avoir une startup.
– Pour obtenir ce genre de valo, il faut avoir une présence mondiale ou au moins une présence sur de gros marchés. Le marché français est bien trop petit.
– Il faut donc soit viser les US, soit éventuellement l’Asie.
– Dans le premier cas, il faut avoir un bureau aux USA, et si possible dans la Silicon Valley et de préférence avec un des fondateurs sur place. Dans ce cas, les VC US sont OK pour investir dans la startup “française”, mais qui a une représentation aux USA.
Voilà pourquoi investir dans une startup dont les effectifs sont en France et aucun aux USA n’a pas de sens pour un VC américain !
On pourrait alors dire, pourquoi ne font-ils pas de la veille en France et en Europe pour identifier des startups qui auraient ce potentiel, les cueillir et ensuite les pousser à ouvrir un bureau aux USA ? La réponse est simple : pour eux, le centre de l’innovation c’est chez eux, pas en France. La France est un petit bout de l’Europe qui compte peu pour eux. Et le syndrome du “Not invented here” y est très fort.
Il faut juste faire avec !
On en a bien vu mais cela existe depuis des années aux USA. Plus de 10 ans il me semble, si ce n’est pas plus !
Ce n’est pas Freddy qui a mené ces levées de fonds de NetVibes (en deux tours). Il est arrivé après dans la société.
Ceci étant, elle suivait un modèle classique au départ qui est le propre des boites btoc dans le web : levée pour créer une audience puis monétisation. Le problème, c’est que la monétisation n’est pas toujours au rendez-vous. Dans le cas de Netvibes, il y avait plusieurs options qui se tenaient mais les dirigeants n’étaient pas d’accord sur la voie à suivre. Pour un tas de raisons dont celle-ci, deux d’entre eux sont partis (Pierre Chappaz puis Tariq Krim, le fondateur).
Puis, le modèle a évolué vers le btob sous la houlette de Freddy Mini. Un modèle qui est moins consommateur de cash, mais qui “scale” aussi moins, ou tout du moins, beaucoup plus lentement.
Le web marchand a certainement des côtés agaçants. L’ère actuelle est à la monétisation à outrance. Nombre de projets mobiles sont destinés à nous faire consommer plus. L’Internet est un accessoire bien outillé de la société de l’hyperconsommation !
Par contre, les pubs générées par Criteo ne sont pas des pubs EN PLUS. Elles remplacent des pubs auxquelles on aurait de toutes manières été exposés. Mais sont plus ciblées.
Il faut aussi noter que l’on peut faire un “opt-out” de leur système et donc échapper à toutes les publicités personnalisées qu’ils servent.
Il y a un peu de ça…
Mais les gens en rigolent déjà dans la SV !
Il faut aussi tenir compte d’une approche différente, plus positive, de la gestion de l’échec aux USA.
Le débit pourri de l’Internet dans la SV a au moins un avantage : il permet de concevoir des services en ligne qui fonctionnent bien dans le monde entier. De leur côté, les européens et les français qui ont un débit plus élevé n’en ont pas tant profité que cela d’un point de vue business. Mais il y a plein de raisons à cela qui n’ont rien à voir avec le débit Internet.
Je ne sais pas ce qu’il en est de Tariq Krim qui a sûrement du investir comme fondateur dans la boite. Pierre Chappaz qui a été DG de la société a été business angel dans le projet au même moment où Index investissait dedans en amorçage, alors qu’il y travaillait (ce qui n’est pas incompatible). La société a ensuite levé $15m, chez Index et Accel.
Quel commentaire péremptoire, et quels raccourcis sans nuances ! Vous êtes visiblement impatients de lire la dernière partie de ce tour d’horizon où je vais faire le point de l’évolution de l’écosystème français par rapport aux best practices de la Silicon Valley (dont il est vrai tout n’est pas à reprendre).
Où est-ce que je milite pour le tout privé ? Vous ne lisez visiblement pas ce blog régulièrement ! S’il y a des formes d’aides publiques qui me semblent mal organisées (comme dans le grand emprunt), d’autres, plus génériques (Oséo, JEI, aides régionales, fonds d’amorçages régionaux) me semblent tout à fait utiles.
C’est une affaire de vases communiquants : le privé est dynamique aux US et il y a plein de grands succès qui réalimentent la pompe du financement de l’innovation. L’Etat fédéral intervient donc moins, tout du moins dans le numérique “civil” et notamment dans le btoc. L’intervention fédérale fonctionne beaucoup en mode projet. L’Etat joue plus un rôle de client (comme pour la DARPA) que de subventionneur, même si les mauvaises langues assimilent l’un à l’autre.
En France, nous manquons de succès, donc de financements privés et la puissance publique comble le trou. Il y a un juste équilibre à trouver qui à mon sens repose sur l’encouragement au développement international de nos pépites pour leur faire atteindre la taille critique. Et à ne pas les qualifier de traîtres s’ils s’installent aux USA pour aborder le plus grand marché mondial, tout du moins si dans le même temps, ils préservent des emplois qualifiés en France. C’est le cas de deux sociétés que je vais décrire dans l’article suivant (Criteo et Netvibes).
J’avais fait le SRI en 2007 !
Blackberry hors du monde de l’entreprise ? Je n’y crois pas une seconde.
WebOS d’HP ? Pourquoi pas. Mais ce n’est pas un OS adopté par d’autres constructeurs donc je ne vois pas se constituer un écosystème bien dense autour.
Chrome OS ? Android suffit bien dans la panoplie de Google ! Et il faut un OS assez généraliste pour supporter une tablette multifonction.
C’est un risque, mais ce n’est pas vraiment le cas :
– Nombre de participants au voyage envisagent de s’installer aux USA d’une manière ou d’une autre.
– Les entrepreneurs du voyage (élèves comme autres) ont eu l’occasion de pitcher leur solution dans différents meetings du voyage.
– Certains vont y faire un stage (pour les élèves).
– D’autres comme moi cherchent à identifier les bonnes pratiques à récupérer chez nous.
Plutôt qu’un voyage de touristes, il vaudrait mieux donc parler d’exploration.
Les voyages organisés type Geek Trip ou Ubifrance permettent de prendre le relais pour rendre les participants encore plus acteurs.
OK, corrigé !
Je n’ai pas prévu d’y aller.
En tout cas, Google a de la suite dans les idées.
Ils lancement une initiative de soutien au développement des PME sur Internet, en présence de Frédéric Lefebvre, le 27 avril prochain.
Cf : https://services.google.com/fb/forms/inscription27avril/
Soutien sous quelle forme, cela reste à voir.
Article intéressant sur une expérimentation d’iPad dans le supérieur : http://www.ebouquin.fr/2011/04/01/reportage-50-ipad-en-test-a-lesc-grenoble. Et qui converge plutôt avec le point de vue de mon article : l’iPad c’est bien, mais cela ne peut pas remplacer l’ordinateur traditionnel pour les tâches de création. Pour l’instant.
Très urgent, peut-être. Mais la question mériterait d’être plus précise. Pour influencer quoi exactement ? Ce qui se passe dans les PME ou les aides de l’Etat aux PME ? Ou autre ?
Merci pour le retour Florian ! Et bonne continuation ! Prochains Startup Weekend pour ce qui me concerne : peut-être un petit tour sur celui de Paris en avril (de retour d’une semaine aux USA) et ensuite, celui de Bordeaux en mai.
Le lien est un grand classique du processus d’innovation : les mêmes idées peuvent éclore au même moment à des endroits différents. Certaines aboutiront à des succès et d’autres non selon un tas de paramètres qui ne sont pas liés à l’idée elle-même, mais à la force de l’équipe qui est derrière et à tout ce qui en découle. C’est-à-dire sa capacité à convaincre, à écouter, à s’adapter, à développer son réseau, à faire de la qualité (du produit, de la relation client, etc), et aussi un peu de chance. Le lieu compte aussi. La réussite globale est facilitée dans la Silicon Valley (pour ce qui est de l’Internet) par rapport à un pays Européen, voire à Paris par rapport aux régions. Question de masse critique, notamment de financements et de partenariats possibles. Mais on peut aussi réussir à New York ou à Limoges en s’y prenant bien, si on a une bonne vision globale du marché…
Merci du feedback. Le monde est petit. On se recroisera surement quelque part !
Précisions très utiles. En effet, je n’avais pas perçu ces nuances dans ton propos. Et constate qu’on est en fait parfaitement en phase. En fait, les jeunes entrepreneurs ont presque toujours besoin de financements, la question étant de cadencer cela, du love money aux VCs, étape par étape, sans les brûler.
Décidément, une famille sacrément impliquée dans les startup weekends ! Exemplaire !
Oops, grosse boulette ! Je corrige ce soir !
C’est en effet un constat qu’ont fait les personnes concernées du MinEduc et qui s’ajoute à mes considérations plus générales sur les limitations actuelles de l’usage des tablettes dans l’éducation.
Les expérimentations initiées par les politiques locaux sont effectivement peu réfléchies et très discutables. L’histoire a tendance à se répéter. Certains se rappellent peut-être du plan “Informatique pour tous” lancé du temps où Laurent Fabius était premier ministre, avec des TO7 pour l’éducation, jamais vraiment utilisés faute de pédagogie et de contenus adaptés. Ces erreurs d’il y a 27 ans se reproduisent encore aujourd’hui. Mais la régionalisation aidant, elles ont plutôt lieu à l’échelle locale que nationale.
Je ne me plains pas. Je décrypte l’origine de l’étude. En valeur absolue, elle est encourageante. En valeur relative par rapport aux autres pays, elle montre le chemin à parcourir. Il faut toujours avoir des défis sous le coude…
Les grandes boites françaises font aussi du lobbying ! A côté, les boites américaines sont des enfants de coeur ! Un petit tour chez les telcos : rien que chez FT, une ancienne Ministre, des membres des Corps des Télécoms liés à Bercy, etc.
Le rôle des pouvoirs publics est d’éviter à mon sens de se laisser enfermer dans une logique du développement de la “consommation de technologies” au détriment de leur “production”. L’étude McKinsey était ainsi particulièrement discrète sur la notion d’innovations et de productions de technos liées à Internet. Ce n’est pas par hasard !
Que de lamentations ! Et le verre à moitié plein qui parait soudainement vide !
Avec au passage quelques inexactitudes. Quelles idées Jean-Marie Hullot s’est-il fait piller ? Quand il était salarié d’Apple, il a (bien) fait son boulot, mais on ne lui a rien piqué ! Et maintenant, il est à tête de Fotonauts, une startup créée il y a trois ans. A noter qu’elle a été financée par des VC français (Banexi) et américains (Ignition). Son patron du bizdev est basé dans la Silicon Valley et l’équipe de dev et JM Hullot sont en France.
Pour le nucléaire, la centrale qui pète le feu au Japon utilise une technologie (eau bouillante) qui n’est pas celle de nos centrales (eau pressurisée, PWR)… Et qui sait si Areva n’est pas impliqué tout de même sans qu’il y ait eu de communication dessus ? La collaboration internationale ne fait pas toujours le 20h…
La France est tout de même une nation de technologies, mais on est un peu trop dans le lourd (transports et énergie) et pas assez dans le léger (loisirs numériques, etc).
Des erreurs aux USA ? Il y en a eu ! Apprenons de nos échecs et allons de l’avant au lieu de gémir sans cesse !
Et n’oublions pas les grosses lacunes qu’il nous faut combler en matière de capacités de vente, de marketing et de communication. Et aussi traiter notre pessimisme maladif.
Quel est cet article ?
Cela veut dire quoi “prendre le contrôle” ? Avoir des parts majoritaires ? C’est naturel si il y a eu de nombreuses levées de fonds dont certaines de plusieurs millions de $. On a rarement cela en France car les grosses levées sont rares. Pas sûr que cela soit une histoire de “grosse tête” des entrepreneurs même si l’on en trouve certains qui sont réticents à lever des fonds. A mon sens, ce sont tout simplement généralement des “petits joueurs” qui ne risquent pas de créer des sociétés innovantes de taille critique.
La question des aides publiques vs le financement privé est une affaire d’équilibre, de vases communicants et d’oeuf et de poule. En France, les investissements privés dans l’innovation et à risque sont encore très timorés. Les incitations fiscales qui sont des aides publiques les ont bien dynamisés ces dernières années. Il y a notamment bien plus de business angels depuis 2007.
Il y a aussi un problème d’oeuf et de poule : comme il y a moins de gros succès, il y a moins de génération de valeur (vente de boites, introductions en bourses) et donc moins d’argent à recycler dans l’innovation. A comparer avec les boites de la Silicon Valley qui au total valent des centaines de milliards de $ au Nasdaq, dont une part est recyclée par les fondateurs et cadres dans l’innovation.
Cf mes trois articles sur la Silicon Valley publiés en 2007 et qui sont toujours d’actualité (article 1, article 2, article 3).
Notons qu’il existe aussi quelques aides publiques aux USA. Elles prennent d’autres formes : plus de commande publique (grâce au Small Business Act qui aide un peu les entreprises du numérique en btob) et réduction des plus-values sur les investissements d’amorçage.
Que faire ? Justement, pousser nos acteurs locaux à devenir internationaux, à mettre le pieds aux USA, ou en Asie selon le type de business. C’est la seule solution pour créer des acteurs de taille critique, et pour créer une valeur (financière) significative qui en retour pourra être réinvestie dans l’innovation et réduire le besoin d’aides publiques (qu’elles soient directes ou sous forme d’incitations fiscales).
C’est tout à fait logique ! Et l’approche d’UbiFrance est tout à fait censée !
Le marché français pèse au mieux 3% à 4% du marché mondial. Le marché américain pèse 7 à 10 fois plus. Il faut donc s’y installer pour rapidement atteindre la taille critique. Au minimum pour y développer ses ventes et créer de grosses références (dans le btob).
Si on reste en France ou que l’on aborde le marché européen pays par pays, on va beaucoup moins vite. Et on risque de se faire dépasser par les boites américaines qui bénéficient d’un marché intérieur plus grand.
Exemple classique : Skyblog vs Facebook, ce dernier mordant de plus en plus sur l’audience du premier.
Bon exemple classique: Business Objects qui s’est établi aux USA un an après sa création (en France). Et est devenu une boite de plus de 1Md€ de CA. Certes, ensuite vendue à l’européen SAP, pour 5Md€ je crois. Mais au moins c’est resté européen !
Quand aux aides et aux VCs, le système y est un peu différent qu’en France. Il n’y a pas d’aides publiques comme en France, mais il y a plus de financement privé. Les VC ne cherchent pas “à prendre le contrôle tout de suite” ! Par contre, ils ont une plus grande capacité d’investissement.
Les petits gars qui ont créé Google, Facebook, Twitter et autres succès de l’Internet ne se plaignent pas des VCs que je sache. Ce sont les VCs qui leur ont permis d’atteindre la taille qu’ils ont atteint. En France, nos VCs n’ont pas les moyens de pousser nos startups aussi loin !
Il ne faut effectivement pas idéaliser les USA. C’est un grand marché assez homogène, c’est surtout ça ! La flexibilité du travail y est très grande. C’est plutôt apprécié des entrepreneurs, et un peu moins des salariés (en période de crise, mais pas en période de croissance). Les embauches sont dures en période de reprise car il y a de la concurrence entre les boites. C’est la loi de l’offre et de la demande. Ceci étant, trouver un bon développeur spécialisé n’est pas une sinécure non plus en France !
La situation réglementaire et fiscale est différente dans ces pays. Le marché l’est aussi. Le financement privé des PME innovantes est assez abondant aux USA.
Mais lorsque c’est nécessaire, le lobbying ne doit pas être facile. Il semblerait néanmoins que les politiques de ces pays soient plus au fait du numérique.
Il me semble que ceci n’est pas spécifique au numérique. De nombreuses décisions, notamment portant sur la fiscalité et l’économie sont souvent prises avec une vue très courte. Dès qu’un spécialiste se penche sur quelque question que ce soit, il trouve plein de bugs dans les lois…
@Alexis : est-on désavantagé par le fait que le numérique n’est pas encore un sujet qui préoccupe l’ensemble des politiques ? Il y a du pour et du contre : d’un côté, cela limite le nombre de politiques à convaincre dans le cadre du lobbying que je décris. De l’autre, cela rend difficile toute mobilisation. Le PS a par exemple choisi volontairement de ne pas rentrer dans le lard du gouvernement au sujet des exonérations JEI dans la Loi de Finance 2011. Ses élus ont tout de même voté pour les amendements proposant la suppression de l’article 78 concernant le rabotage.
Pour ce qui est de gagner ou perdre des élections, les libertés fondamentales liées à l’Internet deviennent de plus en plus critiques. On voit bien ce qui se passe dans les pays arabes en révolte contre leur pouvoir. L’un des réflexes des gouvernements est de couper brutalement l’accès à Internet. C’est donc bien un sujet clé !
Les difficultés de notre gouvernement peuvent venir d’une confusion des genres entre les réactions négatives sur ses lois diverses reliées au numérique et sur le fait que la toile est le lieu d’expression de toutes les contestations politiques. La droite y a bien des difficultés à se faire entendre et quand elle s’y lance, c’est assez maladroitement (cf les contributions de certains membres de l’UMP dans les forums ou le lancement de Atlantico…).
A force, l’Internet devient pour une partie du pouvoir une sorte d’ennemi ou toutes les contradictions sont rangées en vrac dans le même sac.
@Christophe : il existe déjà beaucoup d’associations diverses, il faudrait d’abord en faire un inventaire et identifier celles qui sont les plus adaptées à cette forme de lobbying. Et peut-être identifier ce qui peut clocher dans les associations existantes.
@Didier : no way ! Et (réponse au premier degré) tu sais bien qu’on ne “brigue” pas ce genre de position, mais au contraire, qu’on se met en situation d’être nommé après des années d’action dans un parti politique (et de préférence, après en étant élu local) ou bien dans la fonction publique.
Il faudrait discuter en s’appuyant sur les données brutes !
Dans le dernier rapport publié d’Oséo, il est indiqué que 2992 projets ont été aidés de manière générique par Oséo Innovation pour un total de 355m€, ce qui fait 121K€ par projet.
Pour ce qui est des TIC qui représentent 23% des montants d’intervention, 384 projets ont bénéficié de 74m€ d’avances remboursables, soit 192K€ par projet et 662 ont bénéficié de subvention pour 35m€, soit 52K€ par projet. Donc, pour ceux qui ont cumulé les deux, 244K€ par société.
Cela correspond pile poil à de multiples cas que je rencontre tous les jours de startups en phase d’amorçage qui ont un projet à forte teneur technologique.
Les données 2010 devraient être bientôt publiées et on verra comment cela évolue. Il est probable que c’est légèrement à la baisse, mais ces aides/avances n’ont pas disparu !
Oséo est loin d’être parfait, leur processus est discutable et très variable d’une région à l’autre, mais affirmer qu’ils n’aident que les ETI/PME ne me semble pas refléter la réalité !
Oséo continue d’aider les entreprises en phase d’amorçage ! Ce n’est pas parce que certaines se font éconduire que toutes sont dans ce cas là. Ils sont assez sourcilleux au niveau de l’innovation technologique. Ils évitent ainsi d’aider les activités de services Internet qui ne présentent selon eux pas de caractère innovant, surtout en Ile de France où les moyens sont plus limités au regard de la demande.
Fabien, 100% – 60%, cela fait 40%, ce n’est pas rien ! C’est trompeur de dire qu’Oséo n’aide plus les startups, surtout sans données chiffrées pour l’étayer !
Par contre, il est vrai que l’ensemble des aides publiques a tendance à s’orienter vers les projets collaboratifs de tout poil et les appels à projets type DGCIS et grand emprunt. Je le dénonce dans le Guide comme d’habitude car les aides génériques qui ne sont pas conditionnées par des projets collaboratives me semblent plus efficaces en phase d’amorçage que les usines à gaz collaboratives.
Mais que tout le monde tire la couverture à soi : les TPE, les PME, les ETI, n’a rien d’étonnant. Le MEDEF a plutôt tendance à aider ces dernières mais a aussi quelques activités pour les premières.
Hum hum…
Le lien est fourni dans le premier paragraphe de cet article !!!
Dès fois… je me demande… non, OK, je reste calme.
My pleasure !
Et maintenant que tu exerces une activité d’accompagnement de startups, n’hésite pas à à partager les bonnes pratiques ou retours d’expérience en contribuant aux prochaines éditions du Guide !
Hello Pascal,
Tu fais bien de le signaler ! Et hop, c’est corrigé, en ligne et en 10 minutes chrono ! 🙂
Olivier
Ok, corrigé.
Pour l’aspect transitoire des plateformes fermées, je ne mettrai pas main à couper. Au moins au niveau de l’échéance. Mais il est en effet souhaitable de revenir à des plateformes plus ouvertes qu’aujourd’hui.
En effet, j’ai quelque peu élargi les définitions dans le propos. La frontière est cependant ténue entre les différentes variations autour du thème de l’avarice.
Elle peut dépendre par exemple de son pouvoir d’achat. Quelqu’un qui vit au SMIC et doit compter tous ses Euros dépensés ne serait-ce que pour pouvoir s’alimenter ou se chauffer n’est pas dans la même posture face aux promos que la famille aisée qui en est souvent tout aussi friande ! A ceci près que cela ne porte pas sur les mêmes produits !
Bon et puis ces articles ne sont pas des thèses de philo… 🙂
Ca commence à bien faire le poil à gratter, Macha ! Il y a bien indiqué “startups” et “marketing” dans l’entête de ce blog. Et il y en a qui ont apprécié ! Cf http://twitter.com/#!/search/p%C3%A9ch%C3%A9s%20capitaux.
Peut-on rêver de contributions plus positives de ta part, notamment pour aider les entrepreneurs ?
C’est bien le propos de cet article ! Dans le suivant, je vais accentuer ce point sur la notion de combinatoire avec quelques exemples flagrants.
Les Bogdanov avaient déjà animé les TechDays en 2007 🙂
MSR n’est pas si coûteux que cela d’un point de vue financier. En plus, il a un impact plutôt positif sur l’image de Microsoft, ce qu’il est difficile de chiffrer.
Mais c’est un modèle d’innovation du passé, trop tourné vers l’intérieur de la société, même si MSR a de nombreux partenariats avec des chercheurs externes. Si encore les projets de MSR relevaient JUSTE de la recherche, avec un taux de réussite faible, ce qui est normal, cela ne ferait pas de mal. Le problème est que MSR influe sur la roadmap produit de Microsoft au point de créer des priorités (type Surface) qui sont complètement à côté de la plaque ! Sans compter les Live Labs (qui ne relevaient pas de MSR) qui ont généré aussi de piètres résultats alors que Facebook et autres Twitter et Foursquare se sont développés sur Internet.
Pour les limites du cloud que tu évoques, le coup du serveur sur chaque bureau (ou chaque TPE/PME) a déjà été fait dans les belles années de Windows NT (en gros entre 1996 et 2000 et quelques). Le sens de l’histoire est tout de même une augmentation et pas une diminution des débits de l’Internet. Ne reprochons pas à MS d’en tenir compte !
Merci, c’est maintenant corrigé.
L’édition de septembre 2010 est toujours valable pour l’essentiel ! http://www.oezratty.net/wordpress/2010/guide-startups-le-xiii/
Ce qui a changé significativement depuis est surtout lié à la fiscalité et à la Loi de Finances 2011 qui modifie le système de financement par les business angels et les fonds ISF.
Bravo pour s’être livrés ainsi, ce qui est encore rare. Vous pourriez être l’un des témoins pour la prochaine FailCon !
Anne et Bernadette,
Merci de vos témoignages. Roxanne Varza est en effet le bon contact pour GIT Paris. Et leur site : http://gitparis.com/.
Olivier
J’imaginais bien un iPad… 🙂
Je ne les connaissais pas. Visiblement, ils vont vendre leur technologie en OEM.
Je ne connaissais pas Gopro et ils n’exposaient pas au CES. C’est dans la même catégorie que les produits de LiquidImage, que je cite, mais en plus pro visiblement.
Pourquoi LaTeX ? Quel serait le bénéfice pour moi en tant qu’auteur ? Et pour les lecteurs ?
En effet. C’était sous le radar, ou mon radar, comme on dit.
Je ne connaissais pas cette boite, Dmailer. Basée à Marseille. Sympa !
L’intérêt de l’ePub est d’avoir une mise en page style HTML qui coule naturellement en fonction de la largeur de l’écran. Mais mon document a beaucoup de tableaux (Word, pour avoir des textes et des illustrations à leur droite) et d’illustrations qui sont difficiles à repaginer automatiquement pour l’ePub. Il faudrait quasiment refaire la mise en page spécifiquement pour l’ePub ce qui est trop long.
Net net, les utilisateurs d’iPad s’en tirent avec le PDF qui doit être assez lisible dessus. Pour les eBooks de petits formats (5, 7 pouces), c’est plus galère en effet.
Je ne comprend vraiment pas ce qu’il se passe. Je teste, et cela fonctionne chez moi sur exactement cette config (Chrome – FoxIt – Win7). Que les hébergeurs lâchent s’il y a trop de monde, je comprend. Mais qu’ils envoient des fichiers corrompus ?
Morale de l’histoire : réssayer, et tester les différents sites. Le premier (Free) a l’air plus rapide en général.
Curieux. Pas chez moi.
Je viens de refaire un test, concluant, avec Chrome, Firefox et IE8. Et en ouvrant le PDF avec Acrobat Reader 9.3, Acrobat 9 Pro et FoxIt Reader (tout ça sous Windows 7). J’ai aussi fait un test sur Macintosh et Safari. Là, le PDF s’ouvre bien, mais les polices de caractères ne s’affichent pas correctement. Cela reste toutefois lisible. Enfin, sous Ubuntu 10.04, je viens de tester que cela fonctionnait bien sous Firefox et Chrome.
D’autres ont le problème ?
DailyMotion raconte depuis plus d’un an qu’ils sont à l’équilibre. Mais j’aimerai bien voir les comptes en détail car il y a équilibre et équilibre ! (marge brute positive ou résultat net positif…).
Orange aurait du faire cela plus tôt, comme avec Deezer. Les grands acteurs locaux devraient encourager nos champions nationaux pour les aider à devenir internationaux. Il vaut mieux pour eux avoir à négocier avec un gros acteur français qu’avec un mastodonte américain ! Essayez de négocier avec Apple ou Google ! Avec eux, c’est vous qui vous faites “négocier” (référence au “Cinquième Elément”).
Autre réflexion : cet investissement pourrait signifier qu’Orange équilibre sa stratégie en faveur de l’intermédiation de services externes, au détriment de services créés ou gérés en interne (Read&Go, 2424actu, Pikeo, etc). Mais j’ai toujours l’impression qu’ils mènent toujours les deux simultanément. L’entreprise est tellement grande !
Tu n’es pas tombé loin ! C’est un frigo LG vu sur leur stand dans la zone de l’électroménager connecté où frigos et machines à laver sont pilotées par tablettes et dépannées via des smartphones.
Tu créés une startup ?
Merci Rémi, je télécharge et je teste asap !
Olivier
J’aimerai bien le faire.
Quelle est la manière la plus simple de le faire à partir de Word ?
Ca ne va pas vraiment dans le bons sens.
Cf http://www.oezratty.net/wordpress/2010/comment-tirer-parti-du-grand-emprunt/
et http://www.oezratty.net/wordpress/2010/aleas-fiscalite-encouragement-innovation/.
C’est parti dans le beans des appels à projets divers. Les aides par projets au détriment des aides génériques. L’Etat qui se veut expert sectoriel…
Très peu vu de NFC sur le salon à part dans quelques mobiles. Beaucoup plus vu de Bluetooth, qui ne sert pas vraiment à la même chose. Plus pour envoyer de la musique en live d’un device à l’autre.
On en voyait toujours au CES. Mais cela ne concerne sérieusement que les marchés coréens et japonais.
Renseignements prix auprès des équipes de STM que j’ai pu rencontrer au CES 2011 de Las Vegas, la fréquence du coeur ST40 du 7105 peut monter jusqu’à 540 MHz et celle des deux coeurs du 7108 peut effectivement monter jusqu’à 600 MHz.
Pour l’instant, oui, les STB des FAI ont encore de l’avenir.
Comme déjà écrit sur ce blog, cela pourrait changer le jour où :
– Le STB mondiales comme tu les appelles (Apple TV en tête, mais aussi les consoles de jeux) recevront l’ensemble des chaines TV du pays en mode streamé, en direct et en HD.
– Les acteurs mondiaux concernés seront donc capables de signer des accords de diffusion pays par pays et d’exploiter ou de sous-traiter les infrastructures télécoms nécessaires.
– Le débit IP sera suffisant pour recevoir ces chaines en HD et en mode “non managé” (au sens : pas de qualité de service garantie par le tuyau de l’opérateur).
Autre option, les “STB mondiales” se mettent à intégrer des tuners (TNT, satellite, câble) et deviennent “hybrides”. Mais cela n’en prend pas la tournure. La raison est qu’il est difficile de le faire de manière homogène et à un coût raisonnable pour l’ensemble du marché mondial.
De plus, l’hétérogénéité de la vitesse d’accès à Internet sur le territoire continuera de fragmenter ce marché pendant longtemps ce qui fait qu’aucune solution ne pourra être entièrement générique sur tout un pays comme la France.
Pour ce qui est de mon retour, et bien je croise les doigts pour que l’aéroport de Minneapolis ne gèle pas entièrement. Il y faisait tout de même -22°C cette nuit ! 🙂 Suis encore à Las Vegas en ce moment.
@matador : que penser de l’omniprésence d’Android ? C’est un phénomène moutonnier classique dans l’industrie. La gratuité de l’OS y joue un rôle certain.
@Daniel et Richard : merci pour vos encouragements !
@Stéphane : je ne crois pas trop au retour au devant de la scène de Motorola. Leur Atrix est bien, mais il sera imité. Ce n’est pas suffisant. Pour le karaoké, il me semble qu’il est encore possible de se passer d’iPad pour en faire… 🙂
La reponse est : on peut le faire (source : Free).
Je suis sûr que Flash sera supporté.
Ce qui est moins sur, c’est la version et quand.
Il semblerait que des pbs de fiabilité feront que Flash ne sera peut-être pas supporté pour les FB shippées en ce moment et qu’il faudra donc attendre une mise à jour logicielle.
Ils conçoivent eux-mêmes les cartes électroniques et les font fabriquer ensuite sur plans.
Hello Fred !
J’ai bien précisé que mes (toutes petites prévisions) étaient “genre “wishful thinking””. C’est un modèle rarement adopté : au lieu d’indiquer ce que l’on prévoit, on se focalise sur ce que l’on souhaite. D’où un peu de second degré sur les lois liberticides, sur les comportements dans les réseaux sociaux (qui m’agacent…), les réflex sous Android (avant que les japs s’y mettent, de l’eau aura coulé sous les ponts…), etc.
Pour la “social TV”, je me réserve un peu pour le retour du CES ! J’espère bien découvrir des choses intéressantes sur le sujet à Las Vegas ! Sinon, effectivement, cela sera une grosse déception. Bon, et le cadeau bonux sera le test de la Freebox V6 qui devrait arriver chez moi avant mon retour du CES !
Pour tectoc, tu t’es fait doubler par l’ami Jean-Michel Billaut pour qui je vais faire quelques Skype de débriefing tous les matins (heure PST => vers 16h heure française).
Côté article, voici mon programme : je publie un résumé rapide du salon juste avant d’embarquer sur le vol du retour (lundi 10/1 après-midi heure française) avant de m’enfermer chez moi comme un moine pour rédiger le Rapport CES complet, que je prévois de publier aux alentours du 25 janvier 2011. Je suis un peu nul côté “instantané”. Je préfère prendre du recul pour compiler et creuser la masse d’informations que l’on peut récupérer sur le CES. Une masse qui donne un vrai tournis en général !
A+,
Olivier
J’y ferai peut-être un tour le premier jour. Occasion de se croiser…
J’ai terminé par “On peut rêver un peu non ?”… :).
C’est bien une prédiction qui n’existe que dans les rêves à ce stade des pratiques dans les réseaux sociaux !
Je n’ai rien noté dans les prédictions compilées pour cet article sur la curation. Il y en a sûrement qui s’étendent là dessus. On a tellement entendu parler de ce sujet pendant ou autour de LeWeb 2010 que cela ne m’intéressait pas trop de revenir sur ce sujet.
You’re too kind Stéphane!
A+
Olivier
Votre sympathique commentaire relance le débat sur cet article qui date d’un an et demi maintenant.
Mais au juste, vous m’embrouillez un peu dans votre défense de Miraclean :
– S’agit-il d’un procédé d’amélioration du cycle thermodynamique de la combustion à base d’eau, voisin du Pantone ?
– Quel est le rôle exact de l’électrolyse de l’eau ? Le commentaire de Christian est-il la réponse ?
– Quels sont ses défauts qui pourraient limiter son industrialisation ? Comment les contourner ?
Je maintiens ce que j’ai écrit sur la manière de présenter les choses de Miraclean, notamment à Perpignan, qui est au minimum maladroite car donnant l’impression d’être malhonnête. Elle laisse à croire que l’eau est un carburant alors que ce n’est qu’un améliorateur de rendement de la combustion du carburant fossile traditionnel.
Je cite leur site web :
“La société MIRACLEAN a été crée au printemps 2009 afin de développer et commercialiser une gamme complète de produits et de services autour d’un moteur hybride utilisant l’Eau comme principal carburant.”
Eau = carburant ? Là est le problème ! Ce n’est pas un carburant. C’est au mieux un comburant, via l’électrolyse et au pire un agent qui améliore le cycle de combustion du carburant fossile. Ce n’est pas parce que le procédé semble utiliser un volume d’eau supérieur à celui d’essence que l’eau devient un carburant pour autant.
Quant à la vidéo (http://www.youtube.com/watch?v=D3_vxOojAkk), il aurait été préférable qu’elle ait été tournée dans un véritable laboratoire avec des appareils de mesure. Aucune école d’ingénieur n’est intéressée par cela ?
Bref, les promoteurs de ce dispositif ne s’y prennent vraiment pas du mieux du monde. C’est trop facile d’accuser l’establishment !
Ma réaction assez négative au premier abord n’est pas une réaction d’establishment. Je ne suis lié à aucun groupe dans les secteurs de l’énergie ou des transports. Je ne suis passé par aucun intermédiaire “obtus” ou autre dans mes recherches. Juste sur quelques sites sur Internet présentant le pour et le contre.
Je suis toujours curieux de comprendre comment ce truc peut fonctionner. Et la communication de Miraclean est/était des plus approximatives de ce point de vue là. Les conseils que je donne à la fin de l’article sont toujours valables.
Nous sommes en tout cas d’accord à 100% sur au moins un point : si cette technologie donnait à grande échelle les rendements évoqués et sans inconvénient caché, il faudrait la généraliser rapidement.
Au passage, vous écrivez “nous” dans vos propos. Qui représentez-vous exactement, histoire que l’on comprenne bien ?
Les développeurs de chez Free ont l’air de dire tout de même que le support de périphériques externes est facilité à la fois par Linux et par le choix d’une architecture Intel.
Mais il est vrai que d’autres processeurs comme les Texas OMAP ont une puissante toute aussi intéressante.
le plus puissant pour des applications multimédia, l’OMAP 4440 tourne à 1,5 GHz, c’est un double coeur ARM A9 avec un moteur graphique PowerVR SGX540. Donc, ça vaut sans doutes les Atom.
Au passage, les tablettes Archos sous Android fonctionnent sous OMAP…
Aucune idée !
Quel est l’investissement nécessaire pour un FAI pour supporter VDSL2 du côté des infrastructures et dans la relation avec France Télécom ?
N’est-ce pas un peu redondant avec l’investissement dans le FTTH qui touche d’abord les zones denses ?
Pour SFR, ce que j’ai vu dans leur showroom est l’interface de leur STB fonctionnant quasiment à l’identique en mode web sur un PC. Le lien http://tv.sfr.fr/tv-pc/ semble correspondre au service pour regarder la TV en direct. La nouvelle interface intègre cela plus l’accès aux fonctions média center, à la VOD, etc. C’est actuellement un plus de SFR par rapport à Free.
Pour Free et http://tv.freebox.fr/, il s’agit de l’interface TV direct. Elle ne reprend pas celle de la Freebox, autant V5 que V6, ni les autres fonctions de la STB.
La TV en direct, c’est la capacité de regarder une chaine TV en live (pas en différé). Dans l’offre SFR, certaines chaines sont intégrées dans l’interface smartphone/tablette/web commune avec celle de la STB. Pour ce qui est de l’interface Free pour tablette/smartphone que j’ai pu voir le jour du lancement, les chaines TV en direct ne sont pas comprises. Tout du moins pour l’instant. Ce n’est pas un problème technique mais plutôt de bouclage des accords avec les chaines TV qui acceptent cela (TF1 et M6 le refusant pour tous les FAI pour l’instant).
L’enjeu pour les opérateurs est d’homogénéiser les services proposés et l’interface utilisateur sur les différents écrans couverts (TV, tablette, smartphone, PC/Mac). Sachant bien entendu qu’il y a des ajustements entre les modes d’interaction télécommande, souris et tactile.
Sinon, merci pour ce retour très détaillé de l’expérience utilisateur d’accès aux supports techniques de SFR et Free. Le processus est en effet beaucoup plus intégré chez Free, notamment parce que rien n’est réalisé en sous-traitance.
Ce déjeuner à l’Elysée regroupait des entrepreneurs et des bloggeurs. Certains étant les deux à la fois, surtout Jean-Michel Planche. Xavier était bien invité comme entrepreneur.
Mélange de :
– L’OS des Freebox a toujours été constitué de briques diverses et variées, certaines open source, d’autres propriétaires à Free, qui en font des OS “sur mesure”. Bref, Meego ou pas, peut importe. D’autant plus que l’interface utilisateur est entièrement maison.
– Je n’en ai jamais entendu parler chez Free.
– Meego pour STB n’a pas l’air d’être encore “sec”. Pas de SDK téléchargeable sur leur site : http://meego.com/. Alors qu’il y en a pour les autres devices. Notamment les netbooks sous Atom.
– Si c’était sous Meego, pourquoi Free le cacherait ? Meego en ferait par ailleurs une promotion du tonnerre car cela serait une énorme référence pour eux.
Pour l’instant, seul Amino semble avoir annoncé, en septembre dernier, une STB sous Meego : http://www.linuxfordevices.com/c/a/News/Amino-Freedom/. Mais elle n’est pas encore dans le commerce.
Ah, en effet, c’est + logique. Je corrige de ce pas.
Il me semble que l’on paye aussi cette option lorsque l’on est abonné à Canal+/Sat via Canal+/Sat (pour celles des set-top-boxes qui ont un PVR). Cela s’appelle l’option Canalsat 5 Etoiles. Free ne fait que répercuter cela. Cf http://www.universfreebox.com/article7631.html. On ne peut d’ailleurs pas partager en FTP les fichiers ainsi enregistrés sur la Freebox TV (V5 et également V6, mais sur le DD qui est dans la Freebox Server).
En fait, dans les deux cas, Neufbox et Freebox, on paye le droit d’enregistrer Canal+. Il faut cependant comparer les prix dans le détail. Il y a un prix promo 1 an dans les deux cas (20€/mois chez Free, 18€ chez Neuf, peut-être privilégié car ils appartiennent au même groupe que Canal+, Vivendi). Ensuite, cela se monte à 35€ chez Free et 45€ (par mois) chez Neuf, les deux comprenant les 10€ permettant l’enregistrement. Bref, le maquis des tarifs…
Chacun des deux coeurs de ce processeur sont des ST40-300
mais la brochure de STM du 7108 ne précise pas leur fréquence d’horloge (cf http://www.st.com/internet/imag_video/product/248829.jsp). On trouve ailleurs, notamment sur le 7104 et le 7105, que le ST40-300 tourne à 450 Mhz. Je vais corriger l’article avec cette valeur avant de trouver 600 Mhz d’indiqué quelque part.
On peut aussi évoquer le GPU du 7108 qui a l’air d’être aussi très puissant. Et 100% d’accord comme indiqué dans l’article, le 7108 est bien plus proche de Sodaville que ne l’est le 7105.
Effectivement, il y a deux scénarios imaginables :
– Les composants sont déjà dans la gateway et il reste à les activer par logiciel. Auquel cas l’option serait probablement gratuite compte-tenu des habitudes de Free.
– Ils n’y sont pas et nécessitent un add-on matériel qui pourrait s’intégrer dans son logement libre. A quel prix ? 200€ comme chez SFR ?
Sachant que l’activation du femto chez Free devrait probablement intervenir lorsque son offre mobile sera disponible et pas avant.
Dans les deux cas, il y a aussi des infrastructure à mettre en place du côté de l’infrastructure réseau de l’opérateur. Ce fut le cas pour FreeWifi (l’accès au Wifi des autres Freebox pour un abonné) qui a été rendu disponible plus de 2 ans après la disponibilité des Freebox V5. Il fallait créer des millions de tunnels VPN pour assurer l’identification des utilisateurs.
Quelques billes glanées sur les composants nécessaires : http://www.thinkfemtocell.com/System/femtocell-components-and-building-blocks.html
http://www.thinkfemtocell.com/System/femtocell-gateway-components-and-location.html
En fait, je publie un extrait de mes articles automatiquement sur mon wall Facebook et là tu peux faire ce que tu veux : Like, commenter, etc. Ca revient un peu au même. Mais bon, tu as raison, il faut que je remplace le bookmarking par un “I like”.
Free développe le FreePlayer pour l’iPad et l’iPhone et est en relation avec le constructeur.
Il y en a une ici sur le site de l’Expansion, tournée visiblement dans le showroom du siège de Free à Paris : http://www.lexpansion.com/high-tech/freebox-revolution-la-video-exclusive_245547.html
Java et Flash arriveront sans doutes après janvier. Il y a probablement un délai de stabilisation. Free dépend d’autres sociétés (Intel, Adobe, etc) pour obtenir un bon support de ces stacks sur Sodaville. Comme ils sont les premiers à le supporter dans une set-top-box, ils en font un peu les frais.
Pour le SDK, il arrivera aussi. Mais chaque chose en son temps. Les développeurs de Free procèdent par étape et ils ne sont pas très nombreux.
Voui voui, j’en ai même vu un dans la démo du lancement.
Le lecteur de Blu-ray pour faire plaisir aux geeks ? N’est-ce pas un peu exagéré ? Si le Blu-ray ne concernait que les geeks, il n’y en aurait pas plein les rayons à la Fnac et dans la grande distribution en général !
Thanks. Je corrige à la fois le commentaire ci-dessus et le texte de l’article.
Bien, ce n’est pas Meego !
Jusqu’à présent, Free a réussi à vendre plus de 4,5 millions de Freebox sans boutique. Les réseaux de boutiques et les campagnes d’appels sortant des autres FAI constituent en effet un avantage concurrentiel pour eux. Mais ces boutiques sont justifiées par la complexité du choix d’un mobile et de l’abonnement associé, dans le maquis des offres des opérateurs. Avec la Freebox, c’est beaucoup plus simple. En fonction de son numéro de téléphone et/ou adresse, le site de Free propose les offres ADSL dégroupées ou pas, élibilité FTTH ou pas, etc.
Avec le lancement de leur offre mobile, la question se reposera certainement pour Free mais je ne serai pas étonné qu’ils choisissent de ne pas avoir de boutique. Et au passage, d’avoir une offre illimitée très simple à packager et vendre. Histoire de casser la baraque comme ils l’ont fait avec le triple-play à 29,99€ (ce sont des suppositions de ma part, pas des informations).
Côté VOD, les offres SFR et Free sont assez voisines. On rentre dans un ou plusieurs portails de VOD. C’est tout.
Mais il est vrai que l’intégration d’un lecteur BD va à l’encontre d’une tendance nette à la dématérialisation de la consommation de films. C’est le choix du “tout en un”, et le résultat de feedbacks utilisateurs qui souhaitent simplifier leur installation à côté de leur TV.
Surcout ? La SFR Neufbox Evolution est à 35€ et la Freebox V6 est à 36€ en dégroupage total (ADSL et FTTH) et à 30€ en dégroupage partiel.
Femto : suppositions pour l’instant.
NAS : aucun log de FAI n’est fourni à l’HADOPI. Ce sont les adresses des Freenautes qui sont pris la main dans le sac du peer to peer par les sociétés d’ayant-droits. Le FAI fait juste le rapprochement entre adresse IP et abonné. Et il le fait parce que c’est la loi. Que peuvent-ils faire d’autre ? Ils ont résisté tant qu’ils pouvaient au point de pousser le gouvernement à publier un décret précisant la manière dont ces données devaient être fournies. Mais la loi peut évoluer, et dans le pire, c’est sûr. S’il advenait qu’un gouvernement encore plus répressif que l’actuel faisait évoluer la loi HADOPI au point de demander aux FAI de surveiller les données intégrées dans les STB, et bien, les utilisateurs utiliseraient alors une autre solution. Et puis là, ce serait vraiment la fin des haricots !
Mes 20W sont une estimation. Ton calcul, fort simple, montre qu’effectivement, elle est peut-être trop basse. Mais 3A veut-il dire que cela consomme toujours 3A, ou un maximum de 3A ?
Mes cours d’électrotechnique sont bien loin dans le passé !
Le lien était dans le texte…
“Alors voici que voilà un petit tableau de comparaison (version PDF) qui donne une idée de l’ampleur des nouveautés de la Freebox au regard de celles de SFR. ”
Comme on dit chez les technies: RTFM…
Le PDF ne suffit pas ?
Bonjour Benoit,
Une STB sous Google TV serait un véritable suicide pour un FAI à court terme. Les “terms & conditions” de Google leur enlèveraient une grande liberté. C’est déjà le cas sous Android. Aujourd’hui, Google TV est plutôt une solution pour la consommation de contenus en “over the top”.
De plus, le produit est en V1, pas sec du tout et ce n’est pas une solution IPTV. Quand à son interface, elle est centrée sur la fonction de recherche. Une UI de STB, c’est beaucoup plus que cela. Et puis, si tu veux un épouvantail pour les chaines TV, c’est le bon.
Si Google TV réussit bien dans les TV connectées, cela pourrait amener les FAI à les considérer d’ici quelques années.
Questions intéressantes.
Signaux de synchro de programmes : je ne pense pas que cela existe. C’est effectivement un problème avec tous les PVR, leur EPG étant rarement suffisamment précis.
Pour la pub : vieille demande des utilisateurs, mais incompatible avec l’intérêt des chaines TV qui vivent de la pub. Donc exit !
PVR avec Canal d’accès limité : lié aux demandes de Canal+ qui ne souhaite pas voir ses contenus circuler sur PC. Au même titre, Canal+ ne certifie aucune solution de PVR sur PC avec son programme CanalReady.
Bref, tout cela ne dépend pas de Free !
Ah le Marco, quel plaisir de te lire ! Welcome !
Pour les codecs, je n’en sais rien. Ce qui change, c’est l’origine de ce support des codecs. Une grande partie est dans le silicium d’Intel Sodaville. Une autre dans les briques logicielles fournies par Intel. Et enfin, le reste vient de la communauté open source ou des développeurs de Free. Chaque codec doit donc avoir une histoire particulière. Certains sont peut-être même communs avec ceux de XBMC. Mais pas sûr que cela soit documenté. Il faudra aller à la pêche aux informations, ce que je ferai chez Free après le CES.
Pour AlloCiné, bonne question. Ce n’est pas un scrapper. Free tape dans des API AlloCiné. Ils ont un partenariat formalisé pour ce service, facilité par la très bonne relation entre le fondateur d’AlloCiné, Jean-David Blanc et Xavier Niel (cf les deux ensembles ici sur Darqroom).
Pour XBMC, ta question est-elle de savoir si un PC sous XBMC pourrait accéder aux fichiers stockés dans le DD de la Freebox Server ? A priori oui.
Tu es à XBMC ce que je suis à mes Windows Media Center que j’apprécie et utilise toujours malgré leurs innombrables défauts. La raison principale : on peut tout faire avec. Le défi pour Free est de rendre mes MCE totalement inutile. Je pense que cela sera le cas le jour où le FTTH arrivera chez moi. Donc d’ici deux ans environ.
Il y a toujours un tuner TNT.
Eric, on peut éviter l’invective et débattre calmement ?
J’admets que l’utilise le terme de design par abus de langage en l’approchant du sens “stylisme” tel que décrit ici.
Bien entendu, le design industriel ne relève pas du superflu. Mais il peut en créer lorsqu’il intègre des éléments de style qui n’ont pas de raison d’être fonctionnelle.
Superflu ne veut pas dire pour autant inutile. Le subjectif est souvent utile. C’est juste quelque chose dont on peut se passer pour utiliser l’objet.
On peut aussi facilement confondre design, style et ergonomie… Vaste débat sémantique. Le choix des matières (métal ou caoutchouc) dans la Freebox est à la croisée des chemins entre les trois. Il joue un rôle dans l’ergonomie notamment sur la télécommande. Mais aussi sur le look (donc le style) de ces objets. Et aussi sur le design (comme l’expliquait Starck : le métal protège le coeur des boitiers et le mou est au contact de l’utilisateur).
Il me semble que l’on pourra sans problème naviguer dans les contenus de son réseau local. Comme tous les formats sont supportés dans la Freebox Player, un XBMC sera en effet superflu.
Je ne le prend pas mal. Don’t worry. C’est juste un hola car je ne peux pas répondre à toutes les questions techniques. J’ai les bons contacts chez Free, mais j’imagine – j’espère – ne pas être le seul dans ce cas la !
@alkasar @vincent 2L2T : aucune idée. Ce blog n’est pas le conseil technique avant-vente de Free. Il y a des forums pour cela… Et je n’ai pas encore de FB6 chez moi pour faire des tests !
@kingdon : je vais traiter de ces sujets dans le quatrième article de cette série. Patience !
Il n’y a pas de récepteur infrarouge sur la Freebox Player. Il faudra passer par “IP” pour piloter la bête à distance. Donc, passer par exemple via une application iPhone comme c’est déjà possible pour la Freebox V5.
En gros, j’interprète cela comme l’intégration de Free dans une tendance du marché de remplacement des télécommandes universelles souvent assez chères par des applications pour smartphones.
Concepteur, oui.
Au même titre que Technicolor, non.
Ce dernier conçoit ses STB sur cahier des charges des opérateurs et elles sont diffusées en marque blanche, avec le branding des opérateurs (Orange, DirecTV aux USA, etc). De plus, dans une grande partie des cas, ses STB tournent avec un middleware externe. Thomson doit être fabless et sous-traiter une grande partie de sa production en Asie.
Free est plus proche d’un Apple voire d’un Dish/Echostar aux USA. Il conçoit son hard et son soft. Et la fab est ensuite sous-traitée. C’est une intégration plus verticale.
Tu rigoles ! Chez Free, ils prennent plutôt des distros de base (Debian ou autre) et ajoutent leur brique à eux. Ils se font leur propre distro en quelque sorte. Ce qui leur a d’ailleurs valu des ennuis avec la FSF au sujet de la licence GPL il y a quelques années.
Pas de HbbTV dans le pipe pour l’instant. Le standard a été finalisé cet été, alors que la FB6 était déjà bien avancée !
Côté overlay, le risque est limité car il ne sert qu’à changer de chaine. Cela existe déjà ailleurs, y compris dans certaines TV.
De plus, Free ne cherche pas du tout à générer de revenu publicitaire dans son modèle TV. Il ne présente pas le risque de Google TV pour les chaines TV.
Il me semble que c’est toujours supporté. Je l’ajoute dans le post.
Je ne le connais pas.
Je suis sûr qu’il y en a de plus dingues que moi qui le feront avant !
Ca dépend aussi de la démontabilité de la chose.
Et de la date à laquelle j’en obtiendrai une. Visiblement, pas évident de l’avoir rapidement pour les tests.
@vjeux : le navigateur est propriétaire et construit autour du Webkit.
@gidehault : merci pour l’info, je comprends mieux. J’ai mis à jour le post en intégrant ton information.
@Free4ever : pas connaissance de l’intégration d’un SoC Vixs dans la Freebox Player. N’est-ce pas une fonction implémentable en software avec Sodaville ?
@DDRstyle : oui, je parle d’expérience utilisateur dans le post suivant (mais c’est aussi couvert ailleurs …)
@ga : merci pour le feedback, c’est corrigé dans le post.
@macha : ce sont effectivement des entrepreneurs qui ont réussi sans le statut JEI parce que leurs premiers business étaient à faible composante technologique et que le JEI n’existait pas lorsqu’ils ont démarré. Mais cela démontre quoi ? Que cela ne sert à rien d’encourager les startups technologiques à se développer ? Dialectique à la con ! De toutes manières, Sarkozy parle 90% du temps. Sur disons 2 heures, cela fait 12 minutes à se partager à 8, soit 90 secondes par invité puisqu’ils sont huit (plus peut-être des personnes de l’Elysée et éventuellement Eric Besson). La surprise serait que Sarkozy écoute au lieu de parler. J’attend avec impatience le compte-rendu des bloggeurs invités et surtout celui de Jean-Michel Planche.
En effet les intervenants asiatiques étaient d’un très bon niveau. Je faisais allusion à l’audience dans l’article.
En fait, Google aussi fait des acquisitions cachées. J’en ai discuté avec le gars des M&A Europe de Google à LeWeb. Ils ne communiquent pas eux-mêmes, mais la communication leur échappe souvent donc ils doivent “annoncer” les deals après les fuites. Regarde la capacité à conserver le secret sur Groupon… !
Pour MS, leur acquisition sure est Canesta, un capteur 3D, concurrent de celui de Prime Sense utilisé dans Kinect. A n’y rien comprendre ! Complémentaire, concurrent, seconde source, va savoir !
Oops, la boulette ! Je vais donc éditer l’article en conséquence. L’arrangement de ces stands était donc quelque peu ambigu. La zone des startups CMS étant sans signalétique, il semblait qu’elle était attachée au stand Alcatel qui était en face. Je vois d’ici Julien Codorniou qui doit fulminer…
Que dire devant tant de pessimisme ?
Pourquoi les chefs d’entreprise sont-ils creux ? Il y a bien des projets foireux, mais il y en a aussi qui créent des emplois. Sans chef d’entreprise, il n’y a pas de création d’emplois. Les haïr, c’est couper la branche sur laquelle on est assis ! On dirait parfois qu’il n’y a qu’en France qu’on n’a pas encore compris cela.
Je ne serais sinon pas étonné que LeWeb 2011 fasse abstraction de l’élection présidentielle. Le meilleur LeWeb de ces dernières années est ce creu 2010 et il n’avait pas de politique français “on stage”.
Bon, il y avait juste Jean-Louis Missika qui intervenait rapidement dans une réception à la Mairie de Paris. Il est juste Maire Adjoint, et sans ambition au delà, ni d’ailleurs de carte de parti aussi curieux que cela puisse paraître.
Aucun rapport avec le Morbihan… c’est un homonyme et qui ne s’écrit pas de la même façon.
Les échos? Ni plus ni moins qu’avant. Il faut du temps pour digérer ce qu’on y voit. Je ne fais que commencer pour ma part !
Quel est ce “scandale actuel sur les startups” ?
Pas sûr que Loic ait cherché à avoir Besson. Cela aurait été probablement contre-productif par rapport au succès de cette édition.
Vendre la franchise LeWeb serait en tout cas une grosse bévue pour l’acquéreur, pour utiliser un langage châtié. LeWeb ne vaut rien sans le réseau et le véritable leadership des Lemeur !
J’évoque aussi la réaction des networks américains. Elle est plus explicite. Mais par certains côtés plus adaptée. Les networks refusent la monétisation sauvage de leurs contenus streamés via Internet par Google, par une mesure de blocage technique. Cela correspond bien aux nouveaux usages.
Les chaines TV françaises bloquent la diffusion de leurs contenus broadcastés traditionnellement autant que ceux qui sont streamés. En ce sens, les chaines françaises sont plus restrictives que les networks américains qui sont déjà habitués à des solutions type Slingbox et à l’usage des PVR (malgré le mal que cela leur fait dans les revenus publicitaires, ils n’ont pas pu y résister).
Bon, en même temps, j’écris cela en étant à LeWeb où France Télévision a un très beau stand et une approche “social networks” intéressante pour une chaîne publique. TF1/LCI est de son côté partenaire de longue date de l’événement (via la contribution notable de Cédric Ingrand de l’émission Plein Ecran).
Oui, le point de vue côté Google mérite d’être examiné. En fait, la boite cherche d’abord à imposer son modèle et ensuite, va faire les ajustements minimum pour le faire accepter par les “stakeholders”. Ils apprennent en marchant. Cela reste une approche très expérimentale “à l’américaine” sans forcément avoir de grand plan super-structuré comme on aime à l’interpréter vu de France.
Le modèle idéal consiste à s’installer commercialement aux USA mais à conserver tout ou partie de la R&D en France. Dans le numérique, si l’on veut devenir un acteur mondial, il n’y a pas trop de choix : il faut s’implanter aux USA. Et revenir en Europe ensuite.
La délocalisation complète n’est évidemment pas souhaitable pour nos emplois. C’est le choix de l’entrepreneur.
Pour ce qui est des aides qui ont alimenté les boites qui ont délocalisé, elles sont statistiquement très faibles. Pour une boite aidée qui s’est délocalisée aux USA, il y en a 50 qui sont restées en France. Ne faisons donc pas une histoire de ces délocalisations. Les grandes entreprises du secteur du numérique qui sont devenus des acteurs mondiaux (Dassault Systèmes, BO, Ubisoft, etc) ont tous des implantations dans le monde, aux USA, ET ont créé beaucoup d’emplois en France. Cela doit rester l’objectif. Keep focused… !
@Social TV : bonne remarque sur CPC vs CPM. Quel sera le modèle pour les pubs pre et post-roll non pas de contenus provenant de YouTube mais de contenus provenant directement des chaines broadcast, le jour où elles accepteront ce mode de diffusion ? Quant à Google = régie publicitaire ultime, c’est bien leur ambition. Même dans le offline, malgré l’abandon du print aux USA en 2009 (http://techcrunch.com/2009/01/20/google-bails-on-print-ads-and-newspapers/).
@Vincent: “Ce sont des gens intelligents qui les dirigent”. Ach ! La plupart des boites qui prennent de mauvaises décisions sur le moyen/long terme sont remplies de gens intelligents. Les entreprises et organisations humaines hiérarchiques sont ainsi faites. Sinon, nous sommes en phase: l’appétence du marché n’est pas démontrée et sera au mieux très différente selon les segments socio-démo, laissant en effet du temps aux chaines pour se retourner. Il n’empêche qu’elles continuent à se tirer une balle (voire plusieurs) dans le pieds avec leur attitude. Notamment sur les segments jeunes qui consomment la TV sur PC.
Je suis l’affaire JEI & autres de loin. Les pôles de compétitivité ont rencontré Eric Besson hier. J’ai bien peur cependant que le gouvernement soit autiste et ne change pas de position. Les startups n’ont aucun poids politique. Les JEI ? 2000 entreprises pour l’essentiel des TPE. Ce n’est rien face aux dizaines de milliers de cafés restaurants, des taxis, agriculteurs et autres professions qui savent mieux se faire entendre, souvent grâce à un pouvoir de nuisance certain.
Il ne faut pas tomber non plus dans le catastrophisme. Ce n’est pas 1% de taxe sur la pub en ligne qui va changer l’équation économique des startups. Ce qui m’inquiète, c’est plutôt la paperasserie que cela va générer pour pas grand chose. Comme souvent en France, les micro-taxes créent des macro-pertes de temps et d’efficacité qui s’additionnent en rendant infernale la vie des entrepreneurs, et surtout de ceux qui ont en charge la gestion financière et de la paye.
La redevance TV ? Elle ne s’additionnera pas à la redevance que l’on paye déjà dans un foyer qui dispose de TV si je comprend bien. Elle constituera une nouvelle redevance seulement pour ceux des foyers qui n’ont pas de TV et achètent les appareils concernés (PC, tablettes, etc). Il s’agit d’une minorité de foyers en général, à ceci près qu’ils sont plutôt jeunes. Comme ils peuvent aussi recevoir les chaines TV via la TNT ou l’IPTV, c’est une simple question d’équité. Vus les taux d’équipement qui dépassent les 95%, la redevance TV devrait être applicable à tous les foyers fiscaux sans se casser la tête de savoir quel est leur équipement. Et en continuant à appliquer des exonérations pour les personnes non imposables. Donc, le marché noir ou gris de PC n’est pas à craindre.
En effet, un scénario plausible est “tout ça pour ça”, à savoir beaucoup d’inquiétude pour un problème qui n’en est pas un. Ou un problème qui existait déjà et qui ne faisait pas tant de mal que ça.
Les grandes chaines de TV ont surtout subit la baisse de leur audience du fait de l’accroissement du nombre de chaines permis par la TNT ! Pas à cause de l’Internet, de l’overlay et autres écrans connectés.
Mais choisit-on le CPL pour être plus green ? En général, c’est parce que l’on ne peut pas tirer facilement de câble entre la gateway et la STB, et que le wifi ne passe pas non plus.
Le processeur de STM semble supporter Flash (cf http://androidnewsreleases.blogspot.com/2010/09/st