Contributeurs actifs

Voici la liste des principaux contributeurs du blog par leurs commentaires. Vous pouvez cliquer sur leur lien pour obtenir leurs commentaires dans cette page :

macha (113), Michel Nizon (96), Pierre (85), Fabien (66), herve (66), leafar (44), guillaume (42), Laurent (40), philippe (32), Herve Kabla (30), rthomas (30), Sylvain (29), Olivier Auber (29), Daniel COHEN-ZARDI (28), Jeremy Fain (27), Olivier (27), Marc (26), Nicolas (25), Christophe (21), najlepszy sklep (20), julien (19), Patrick (19), Fab (19), 카지노사이트 (19), sklep internetowy (19), jmplanche (17), Arnaud@Thurudev (@arnaud_thurudev) (17), Jeremy (16), OlivierJ (16), JustinThemiddle (16), vicnent (16), bobonofx (15), Paul Gateau (15), Pierre Jol (14), patr_ix (14), sklep online (14), Jerome (13), Lionel Laské (@lionellaske) (13), Pierre Mawas (@Pem) (13), Franck Revelin (@FranckAtDell) (13), Lionel (12), Pascal (12), anj (12), /Olivier (12), Phil Jeudy (12), Benoit (12), jean (12), Bacon999 (12), Louis van Proosdij (11), jean-eudes queffelec (11), LVM (11), jlc (11), Marc-Antoine (11), dparmen1 (11), (@slebarque) (@slebarque) (11), INFO (@LINKANDEV) (11), François (10), Fabrice (10), Filmail (10), babar (10), arnaud (10), Vincent (10), Nicolas Andre (@corpogame) (10), Michel Nizon (@MichelNizon) (10), Alexis (9), David (9), Rafael (9), Michel (9), FredericBaud (9), Laurent Bervas (9), Mickael (9), Hugues (9), ZISERMAN (9), Olivier Travers (9), Chris (9), jequeffelec (9), Yann (9), Fabrice Epelboin (9), Benjamin (9), Benoît Granger (9), laozi (9), Pierre Ygrié (9), (@olivez) (@olivez) (9), faculte des sciences de la nature et de la vie (9), Philippe Marques (9), gepettot (9), stamped concrete (9), dobry sklep (9), ecommerce (9), Frederic (8), Marie (8), Yannick Lejeune (8), stephane (8), BScache (8), Daniel (8), Emmanuel (8), Jean-Philippe (8), startuper (8), Fred A. (8), @FredOu_ (8), Nicolas Bry (@NicoBry) (8), @corpogame (8), fabienne billat (@fadouce) (8), Bruno Lamouroux (@Dassoniou) (8), Lereune (8), şırnak escort (8), ~laurent (7), Patrice (7), JB (7), ITI (7), Julien ÉLIE (7), Jean-Christophe (7), Nicolas Guillaume (7), Bruno (7), Stanislas (7), Alain (7), Godefroy (7), Sebastien (7), Serge Meunier (7), Pimpin (7), Lebarque Stéphane (@slebarque) (7), Jean-Renaud ROY (@jr_roy) (7), Pascal Lechevallier (@PLechevallier) (7), veille innovation (@vinno47) (7), YAN THOINET (@YanThoinet) (7), Fabien RAYNAUD (@FabienRaynaud) (7), Partech Shaker (@PartechShaker) (7), assignment help (7), Cheapest SR22 insurance (7), Cheap SR22 insurance (7), biolean reviews (7), Legend (6), Romain (6), Jérôme (6), Paul (6), Eric (6), Serge (6), Benoit Felten (6), Alban (6), Jacques (6), sebou (6), Cybereric (6), Poussah (6), Energo (6), Bonjour Bonjour (6), boris (6), MAS (6), antoine (6), canard65 (6), Richard T (6), PEAI60 (6), Free4ever (6), Guerric (6), Richard (6), tvtweet (6), loïc (6), Matthieu Dufour (@_matthieudufour) (6), Nathalie Gasnier (@ObservaEmpresa) (6), romu (6), cheramy (6), https://lamcaptoc.com (6), expired domain (6), aged domain (6), EtienneL (5), DJM (5), Tristan (5), Stéphane (5), Gilles (5), Thierry (5), Alphonse (5), apbianco (5), dePassage (5), Sans_importance (5), Aurélien (5), herve lebret (5), Alex (5), Adrien (5), Jean-Denis (5), NM (5), Nicolas Chevallier (5), jdo (5), Youssef (5), Renaud (5), Alain Raynaud (5), mmathieum (5), (@bvanryb) (@bvanryb) (5), Boris Defréville (@AudioSense) (5), cedric naux (@cnaux) (5), Patrick Bertrand (@pck_b) (5), (@arnaud_thurudev) (@arnaud_thurudev) (5), (@PLechevallier) (@PLechevallier) (5), Stanislas Segard (@El_Stanou) (5), Pierre Mawas (@PemLT) (5), Fabrice Camurat (@fabricecamurat) (5), Hugues Sévérac (5), Laurent Fournier (5), Pierre Metivier (@PierreMetivier) (5), Hugues Severac (5), hervet (5), Joel (5), Jean-Philippe de Lespinay (5), e-commerce (5), Victorooo (5), biolean review (5), Miltonlycle (5)

Contributions sous le pseudo olivier ezratty

1771 commentaires ont été soumis sous ce pseudo et avec le même email.

Le premier commentaire date du 5 juin 2006 et le dernier est du 2 décembre 2023.

Commentaire 1771 dans Comprendre l’informatique quantique édition 2020, le 2 décembre 2023

Désolé, je suis passé à l’anglais en 2021 sans revenir au français. Traduire un tel ouvrage (1366) pages d’une langue à l’autre est un travail herculéen, même avec des outils de traduction automatique. Sachant que l’ouvrage est gratuit !

Répondre à ce commentaire

Commentaire 1770 dans Decode Quantum avec Nicolas Sangouard du CEA, le 9 juillet 2023

Merci pour la précision ! J’ai complété l’article.

Répondre à ce commentaire

Commentaire 1769 dans Understanding Quantum Technologies 2022, le 1 décembre 2022

Thanks for this nice feedback Sangyun! I’m indeed updating the book for significant events until the end of the year. Then start over preparing the next edition!

Répondre à ce commentaire

Commentaire 1768 dans Bienvenue dans la nouvelle révolution quantique de Julien Bobroff, le 17 novembre 2022

Merci pour ton retour Julien.

Mon commentaire sur le nombre d’algorithme était lié à une autre partie du livre, je ne sais plus où. Il y a en effet deux points clés : les algorithmes quantiques remplacent rarement la panoplie existante d’algorithmes classiques, en tout cas pour les tâches informatiques usuelles. Il s’agit le plus souvent d’algorithmes d’optimisation, de simulations quantiques et de machine learning quantique.

Par contre, ils sont assez nombreux au vu du nombre de machines existantes capables d’en tirer entièrement partie (proche de zéro). Sans compter les méthodes et outils qui exploitent les ordinateurs quantiques dits analogiques à la D-Wave et Pasqal et qui sont encore plus exotiques que celles des ordinateurs quantiques programmables par portes quantiques.

Répondre à ce commentaire

Commentaire 1767 dans Assessing IBM Osprey 433-qubit quantum computer, le 14 novembre 2022

Indeed. It seems a lab experiment more than a full fledged quantum computer. This 2-qubit gate fidelity was generated with 2 qubits. With readout fidelities of 88% and a T1 of 13 µs for one of the qubit. Still way to go!

IBM has T1s over 100 µs and a 2 qubit-gate fidelity of 99,9% with 27 qubit in Falcon R10 (although, not described in a published or pre-print paper). Seems they also use tunable couplers there.

Répondre à ce commentaire

Commentaire 1766 dans Understanding Quantum Technologies 2022, le 30 septembre 2022

Non, désolé !

Il n’existe pas de système de traduction automatique d’un bouquin très technique de 1100 pages qui fonctionne convenablement et ne nécessite pas des dizaines d’heures de relecture et correction.

Ni de gens capables de le faire à la main en quelques jours.

La dernière version de mon livre en français est l’édition de 2020, maintenant périmée.

Répondre à ce commentaire

Commentaire 1765 dans Decode Quantum avec Benjamin Huard de l’ENS Lyon, le 28 septembre 2022

Quelle adresse IP est bloquée ? Par quoi ? L’accès au site ? Au podcast ?

Répondre à ce commentaire

Commentaire 1764 dans Guide des Startups 2019, le 24 mai 2022

Pour l’instant non. Sauf si des volontaires reprennent le flambeau. Je me consacre maintenant à 100% aux technologies quantiques. Et à mettre à jour un autre pavé, “Understanding Quantum Technologies”.

https://www.oezratty.net/wordpress/2021/understanding-quantum-technologies-2021/

Répondre à ce commentaire

Commentaire 1763 dans Decode Quantum avec Laure Le Bars de SAP et du consortium QuiC, le 15 janvier 2022

Il est possible que Laure fasse allusion à Krysta Svore qui a effectivement travaillé chez IBM au début des années 2000.

Répondre à ce commentaire

Commentaire 1762 dans Métaprévisions 2022, le 6 janvier 2022

Bonjour !

Cet article n’était pas une encyclopédie de la tech 🙂 !

Je ne suis pas trop ce qui se passe en domotique. La standardisation des protocoles est une vieille histoire dans ce domaine. Cela aboutit rarement et empile des couches à n’en plus finir.

Répondre à ce commentaire

Commentaire 1761 dans Decode Quantum avec Simon Perdrix, le 5 janvier 2022

Singapour a créé un labo consolidé en 2007, le CQT.
Le Royaume-Uni a effectivement lancé son plan fin 2013.
Les Allemands ont lancé leur plan en septembre 2019.
Les USA en décembre 2018.
Et la France en janvier 2021.
Les Pays-Bas en avril 2021.
etc.

Sachant néanmoins que cela ne veut pas dire que ces pays ne faisaient rien avant ces plans. La recherche française comme ailleurs était déjà bien active avant le plan quantique national.

Répondre à ce commentaire

Commentaire 1760 dans Métaprévisions 2022, le 1 janvier 2022

J’utilise en effet l’échelle courte, notamment pour les $ car elle est dominante dans la littérature business anglophone.
Donc $1B = 1 milliard (billion) et $1T = un trillion de dollars = mille milliards.

Répondre à ce commentaire

Commentaire 1759 dans Métaprévisions 2022, le 31 décembre 2021

Mon livre d’avril 2021 portait sur le bitcoin !

Celui sur le quantique, 4e édition, sept 2021, n’est qu’en anglais.
La version précédente de septembre 2020 était en français mais est un peu périmée.

Pour s’intéresser au quantique, il est préférable de lire l’anglais ! d’ailleurs, tous les chercheurs français publient leurs thèses et travaux en anglais.

Répondre à ce commentaire

Commentaire 1758 dans Métaprévisions 2022, le 31 décembre 2021

Pour le Bitcoin, c’est ici, mais il faut bien lire entre les lignes :
https://www.oezratty.net/wordpress/2021/a-quoi-sert-le-bitcoin/

Pour se mettre au quantique, c’est moins évident. Il y a pas mal de matière ici :
https://www.oezratty.net/wordpress/2021/understanding-quantum-technologies-2021/

Répondre à ce commentaire

Commentaire 1757 dans Métaprévisions 2022, le 30 décembre 2021

By the way, le Via.gra de Pfizer releve aussi du reciblage thérapeutique…

Répondre à ce commentaire

Commentaire 1756 dans Métaprévisions 2022, le 30 décembre 2021

Faut demander à ceux qui en sont morts, si le virus existe vraiment. A Grichka Bogdanov par exemple ?

Pour Pfizer, ils ont fait du drug retargetting un peu agressif et c’était avant 2005. Ca rappelle que les grosses boîtes font des conneries. Elles en font toutes. Les petites aussi, mais l’impact est moins visible. Les boîtes parfaites avec des gens parfaits qui respectent toutes les règles, cela n’existe que dans les contes de fées. Demande à Elise Lucet… 🙂 !

Répondre à ce commentaire

Commentaire 1755 dans Actualités quantiques de novembre 2021, le 30 novembre 2021

Merci. J’ai complété l’ebook avec les données les plus à jour sur les fidélités (en fait, dans la rubrique sur les Qubit Fidelity qui contenait déjà des données sur la fidélité des QPU de 27 et 65 qubits). Et indiqué à différents endroits que les données étaient disponibles chez IBM.

Ceci étant dit, si les fidélités s’améliorent au gré des évolutions de chaque classe de QPU (27, 65 et bientôt donc 127 qubits), le best-in-class actuel montre toutefois un décalage significatif lors que l’on augmente le nombre de qubits, en particulier sur le readout :

IBM Q27 Kolkata : 98,9% (2Q) et 98,6% (readout)
IBM Q65 Brooklyn : 98,7% (2Q) et 96,0% (readout)
IBM Q127 Washington : 98,0% (2Q) et 91,2% (readout)

Est-ce que cela pourrait s’inverser ? Est-ce que la baisse de fidélité du readout sur 127 qubits est due au multiplexage de la lecture qui a été introduit sur cette génération (sans passer par un TWPA je crois) ?

Par ailleurs, les fidélités des portes à 1 qubit ne sont plus indiquées. C’est dommage, même si l’on sait que les fidélités des portes à 2 qubits sont plus difficiles à obtenir.

Répondre à ce commentaire

Commentaire 1754 dans Actualités quantiques de novembre 2021, le 30 novembre 2021

Merci pour l’information. Au moment de la publication du podcast, ces données sur les 127 qubits n’étaient pas disponibles sur le lien indiqué que je connais bien. Il me semble que je le mentionne pour les processeurs de 5 à 65 qubits dans mon ebook mais il faut que je vérifie.

Au demeurant, on comprend pourquoi IBM ne communique pas beaucoup dessus sur les fidélités des 127 qubits, vu le taux d’erreur de 2% pour les portes à deux qubits et de 8% pour la lecture. Cela confirme que la performance se dégrade avec le nombre de qubits dans ce type de processeur. Seuls le T1 et le T2 s’améliorent.

Répondre à ce commentaire

Commentaire 1753 dans À quoi sert le Bitcoin ?, le 22 novembre 2021

Lisez les commentaires. Et aussi l’article. Il y a quelques indices qui expliquent cela.

Répondre à ce commentaire

Commentaire 1752 dans Décoder l’annonce de la stratégie quantique française, le 5 mai 2021

Un article est-il complet ? Ce n’est évidemment jamais le cas.
Par contre, j’évoque un peu ces questions de droit dans mon ouvrage ici : https://www.oezratty.net/wordpress/2020/comprendre-informatique-quantique-edition-2020/

Répondre à ce commentaire

Commentaire 1751 dans À quoi sert le Bitcoin ?, le 2 avril 2021

Oui, c’est voulu. C’est bien ça. Par contre, le résumé des pages blanches est dans le post lui-même qu’il faut lire… !

Répondre à ce commentaire

Commentaire 1750 dans Décoder l’annonce de la stratégie quantique française, le 21 mars 2021

Bonjour Patrick,

Le plan parle peu des applications dans la santé car pour ce qui est du calcul quantique, les applications associées sont assez éloignées dans le temps, ne serait-ce parce que qu’elles sont plutôt exigeantes en nombre de qubits. Par contre, les applications de la métrologie quantique dans les outils de diagnostic sont plus court terme. Et le plan contient une part sur le sujet.

Olivier

Répondre à ce commentaire

Commentaire 1749 dans Les usages de l’intelligence artificielle 2021, le 23 février 2021

OK, j’ajoute ces références clients en silent release…:) ! NanoEdge étant déjà cité.

Répondre à ce commentaire

Commentaire 1748 dans Décoder l’annonce de la stratégie quantique française, le 27 janvier 2021

Les deux (IA, quantiques) peuvent dynamiser l’industrie française. Dans le cas de quantique, il existe une plus grande opportunité pour la France de créer de la valeur exportable. Il y a de plus des débouchés importants dans ce que l’Etat appelle des technologies habilitantes ou capacitantes qui seront utiles dans tous les cas de figure.

Répondre à ce commentaire

Commentaire 1747 dans Que retenir de ce curieux CES 2021 ?, le 15 janvier 2021

InWith ?

https://www.forbes.com/sites/charliefink/2020/03/09/inwith-puts-smart-tech-in-bausch-and-lomb-lenses

D’après cet article, leur lentille ne fait pas de la réalité augmentée mais de la mesure de glycémie, envoyée au smartphone. Cela rappelle le projet de Google Contact Lens, abandonné en 2018 car la corrélation entre le glucose mesuré dans l’œil avec celui du sang n’était pas établie.

https://en.wikipedia.org/wiki/Google_Contact_Lens#:~:text=Google%20Contact%20Lens%20was%20a,was%20being%20tested%20using%20prototypes.

Je découvre Mojo. C’est de l’affichage d’information complémentaire à basse résolution. Mode Terminator. Ca ne fait pas envie.
https://www.youtube.com/watch?v=TzVAMRe3kmA

Répondre à ce commentaire

Commentaire 1746 dans Que retenir de ce curieux CES 2021 ?, le 15 janvier 2021

Pourquoi pas. Comment fait-on ça sous WordPress sans se prendre la tête ?

Répondre à ce commentaire

Commentaire 1745 dans Imprévisible 2021, le 31 décembre 2020

Bonjour,

Vous trouverez des informations toujours d’actualité autour de ces questions sur les batteries dans le Rapport du CES 2020, pages 235 à 260 (batteries à flux, variantes de batteries au lithium, …). Mais moins d’hydrogène que je prévois de creuser plus tard !

https://www.oezratty.net/wordpress/2020/rapport-ces-2020/

Olivier

Répondre à ce commentaire

Commentaire 1744 dans Imprévisible 2021, le 30 décembre 2020

Oui, tout à fait, le complotisme et les rumeurs ont toujours existé, et même eu des conséquences violentes par le passé. Le numérique le fait fonctionner à plus grande échelle et vélocité mais les émotions humaines se manipulent toujours de la même manière.

Répondre à ce commentaire

Commentaire 1743 dans Imprévisible 2021, le 30 décembre 2020

My bad.

Mais ce genre de sujet ne se traite pas à court terme sur les 12 mois à venir !

Répondre à ce commentaire

Commentaire 1742 dans Comprendre l’informatique quantique édition 2020, le 15 septembre 2020

Il est clair que l’actualité ne s’arrête pas le jour de la parution d’un ouvrage. J’y intègre d’ailleurs quelques silent releases les premières semaines après parution, comme j’avais du le faire en 2019. La fuite sur la suprématie quantique de Google était arrivée le jour de la publication de l’ebook !

Ces nouvelles d’IBM sont très intéressantes en tout cas car elles donnent des indications des moyens qu’ils ont retenu pour faire scaler leur nombre de qubits. Je les évoque d’ailleurs en pièces détachées dans l’ebook 2020.

Répondre à ce commentaire

Commentaire 1741 dans Les nombreux visages de l’innovation ouverte : 1, le 15 juillet 2020

L’innovation a une connotation très économique.
Elle semble sortir du cadre de la création artistique.
Cf https://fr.wikipedia.org/wiki/Innovation

Répondre à ce commentaire

Commentaire 1740 dans Le nouveau GPU A100 de Nvidia, le 19 mai 2020

Hello Vincent,

Bien vu ! J’avais l’impression que ces SFU (pas bien documentées) n’occupaient pas beaucoup de place sur le circuit (“real estate” comme ils disent). Ça répond à une question que je me posais puisque ces SFU ont l’air de gérer les fonctions type exponentielle et trigonométrie. Donc, qui ne sont pas en dur dans les ALU.

Mon calcul n’est qu’un ordre de grandeur. Si tu prends en compte les SFU et autres circuits et baisse les ALU à 30%, cela fait encore des centaines de milliers de transistors.

D’ailleurs, dans un vieux papier d’Intel, il est évoqué le fait que le calcul flottant dans un coeur Intel classique occupe un million de transistors. Cela converge bien !

https://www.intel.com/content/dam/www/public/us/en/documents/case-studies/floating-point-case-study.pdf

Répondre à ce commentaire

Commentaire 1739 dans De la faillibilité des GAFAMI, le 21 février 2020

En effet ! J’illustre d’ailleurs cela avec les prévisions d’IDC sur le marché de la réalité virtuelle/augmentée pour 2020, passées de $168B en 2016 à $18,8B en 2019. Dans le dernier rapport du CES. Merci pour la référence du livre de JL Cassely que je connaissais pas !

Répondre à ce commentaire

Commentaire 1738 dans De la faillibilité des GAFAMI, le 12 février 2020

Why not. Je ne saisis pas bien “lever des fonds régulièrement avec de la valorisation sur des clients (et pas forcément sur de la marge)”. En phase de buildup, les startups, même au stade de la licorne, lèvent rarement des fonds “sur de la marge”, en tout cas lorsqu’elles sont en B2C. Et il y a quelques exemple comme Magic Leap qui levait des fonds incédents sans produit, ni client et a fortiori de marge.

Répondre à ce commentaire

Commentaire 1737 dans De la faillibilité des GAFAMI, le 11 février 2020

Je n’ai heureusement pas couvert tous les ratages de la tech ! Netscape n’a jamais atteint le stade du GAFA. Tout juste une licorne post-IPO, vite engloutie par AOL qui a ensuite sombré après son rachat de Time Warner.

D’autres m’ont signalé des leaders d’un autre temps comme Wordperfect, Ashton Tate ou Lotus. Qui ont été mangés tous crus par Microsoft. Et, lessons learned oblige, c’était à la faveur d’une transition technologique clé de l’époque : le passage à l’interface graphique, que ces trois éditeurs avaient complètement loupée par aveuglement.

Répondre à ce commentaire

Commentaire 1736 dans De la faillibilité des GAFAMI, le 11 février 2020

Bien vu. On pourrait aussi parler de l’intrication quantique. Mais semble-t-il, celle-ci ne permet pas de transmettre une information exploitable. Dixit les grands spécialistes comme Alain Aspect.

Répondre à ce commentaire

Commentaire 1735 dans De la faillibilité des GAFAMI, le 11 février 2020

En effet. AT&T est un peu à part car du fait de la structuration du marché des télécoms (avant la déglementation), il n’était pas un leader mondial comme le sont le GAFA et nombre d’acteurs que je cite. Leur démantèlement concernait leur activité aux USA.

Pour AOL, oui, c’est un sacré roman. Leur domination de l’Internet a été de bien courte durée et avant l’éclatement de la bulle de 2000/2001.

Répondre à ce commentaire

Commentaire 1734 dans De la faillibilité des GAFAMI, le 11 février 2020

En effet, erreur. J’ai corrigé.
$1T. Donc en dessous de MS.

Répondre à ce commentaire

Commentaire 1733 dans Les startups font-elles de la fausse IA ?, le 31 janvier 2020

Ce n’est pas la première fois que vous me faites cette remarque. Avez-vous oublié que j’en ai tenu compte dans l’édition 2019 de l’ebook “Les usage de l’intelligence artificielle”, publiée en novembre 2019 ?

Répondre à ce commentaire

Commentaire 1732 dans Premiers retours du CES 2020, le 11 janvier 2020

L’objectif principal des LiDAR solidstate est de diminuer leur prix. Ceci étant Valeo indique avoir vendu 100 000 LiDARs mécaniques à ce jour.

Pour ce qui est de Sony, j’attends de lire un peu de prose avant de me prononcer. La voiture électrique que Sony a présentée au CES a l’air d’être un véhicule de démonstration des composants de Sony destinés au marché automobile. Un peu comme les petits robots de Murata ne servaient qu’à valoriser les capteurs et actuateurs de ce dernier.

Répondre à ce commentaire

Commentaire 1731 dans Les ambitions de la France dans le quantique, le 11 janvier 2020

Un rapport n’est jamais complet. J’avais bien senti de mon côté ce besoin d’attirer des chercheurs étrangers. Mais en fait, c’est déjà le cas. Je connais plein de chercheurs étrangers qui opèrent en France. Certains sont maintenant naturalisés Français ou sur le point de l’être. Mais plus on attirera de talents du monde entier, mieux ce sera effectivement.

Citons Elham Kashefi (Iran, CNRS LIP6), Iordanis Kerenidis (Grèce, de la mission Forteza, CNRS IRIF), Eleni Diamanti (Grèce, CNRS LIP6), Sara Ducci (Italie, Paris Diderot), Virginia D’Auria (Italie, InPhyNi Nice), Dominic Horsman (UK, UGA) et Silvano De Franceschi (Italie, CEA IRIG Grenoble).

Répondre à ce commentaire

Commentaire 1730 dans Les nombreux défis de la 5G, le 3 janvier 2020

L’article date de 2018. Mais je n’ai pas d’informations particulières sur la question de la couverture in-door 5G. A creuser…

Répondre à ce commentaire

Commentaire 1729 dans Méta-prédictions 2020, le 30 décembre 2019

Tous les ans, je titille la cryptomonnaiesphere avec mes prévisions… 🙂 !

Dans un pays comme la France et pour un usage courant dans le grand public, ça sert à quoi au juste une crypto-monnaie ? Quel problème cela permet de résoudre ? Et en quoi est-ce intéressant et utile d’avoir 5000 crypto-monnaies ?

Je suis et reste contrarian sur ce raffut sur les crypto-monnaies, sans pour autant l’être sur les usages non monétaires de la blockchain.

Répondre à ce commentaire

Commentaire 1728 dans Le vague de l’IA est-elle terminée ?, le 15 décembre 2019

Hello ! Je traite de ce sujet dans mon dernier ebook sur le quantique. https://www.oezratty.net/wordpress/2019/comprendre-informatique-quantique-edition-2019/, pages 178 à 183.

Répondre à ce commentaire

Commentaire 1727 dans A quoi ressemble le succès ?, le 25 octobre 2019

Bien vu. Un “bon” succès doit être collectif, tourné vers les autres. Créer un standard est un bon exemple.

Répondre à ce commentaire

Commentaire 1726 dans Comprendre l’informatique quantique – qubits, le 12 octobre 2019

Merci !
Et pour info, j’ai mis à jour tout ce contenu dans la dernière mouture de l’ebook qui consolide tous ces articles. Cf https://www.oezratty.net/wordpress/2019/comprendre-informatique-quantique-edition-2019/

Répondre à ce commentaire

Commentaire 1725 dans Interpréter la suprématie quantique de Google, le 23 septembre 2019

Bonjour Karim,

Comme je l’explique dans mon ebook, mais pas dans l’article, l’expression de quantum supremacy a été crée par John Preskill (USA, professeur à Caltech) en 2011.

Olivier

Répondre à ce commentaire

Commentaire 1724 dans Comprendre l’informatique quantique édition 2019, le 23 septembre 2019

Bonjour,

Désolé, pas d’epub pour cette version car la mise en page ne s’y prête pas ! Par contre la version PDF compressée est faite pour être lue sur les liseuses, mais avec un écran pas trop petit.

Olivier

Répondre à ce commentaire

Commentaire 1723 dans Les ressources du management quantique, le 20 août 2019

Merci Philippe !

Oui, la mécanique quantique doit faire réfléchir. Mais en comprenant bien que ce que l’on peut comprendre des bizarreries de l’infiniment petit ne s’applique pas forcément au monde macro. C’est ce que s’est évertué à expliquer ce malheureux Erwin Schrödinger avec son expérience de chat mort et vivant.

Au demeurant, il a commis une erreur que personne ne souligne : son expérience avec l’atome de radium et la fiole de poison n’ont rien de quantique ! La désintégration d’un atome de radium répond à une loi statistique (50% de chances qu’elle intervienne au bout de la demi-vie) mais ce n’est pas un phénomène quantique avec superposition d’état (atome de radium et/ou ses composants après désintégration). La désintégration (fission) est un processus irréversible sans apport d’énergie. Donc, à force d’expliquer un phénomène quantique par un autre qui ne l’est pas à l’échelle nanoscopique, il ne faut pas s’étonner qu’en passant de l’échelle nano à macro, des analogies aussi foireuses fassent leur apparition !

Répondre à ce commentaire

Commentaire 1722 dans Comment évaluer le Flyboard Air de Franky Zapata ?, le 9 août 2019

Je n’ai pas dit “pas d’intérêt”, j’ai écris “marchés de niche”. Celui que tu décris en fait partie. Pour évacuer des gens, il faudrait cependant pouvoir transporter deux passagers avec l’engin et il n’a pas l’air de pouvoir le faire en l’état. Va falloir trouver autre chose !

Répondre à ce commentaire

Commentaire 1721 dans Ce que prépare Neuralink, le 17 juillet 2019

Ils mesurent l’activité électrique à proximité des neurones. Cela leur permet d’identifier les impulsions (spikes) qui témoignent de l’activité des neurones. La résolution spatiale moyenne est suffisante pour capter des intentions de mouvement dans le cortex moteur. Des expériences récentes d’IRM fonctionnelle ont permis également d’identifier les zones du cortex actives lorsque l’on pense à un chiffre ou une lettre. Cela intéresse tous ceux qui veulent remplacer le clavier. Une équipe de Facebook travaille aussi là-dessus.

Répondre à ce commentaire

Commentaire 1720 dans Les GAFA, les entreprises et les données de l’IA, le 14 juillet 2019

Oui, ce point me semblait évident pour leur business de cloud (que j’évoque en filigrane sur la question des frameworks). Mon propos portait sur les activités des GAFA qui gèrent des données d’utilisateurs plus que leur business infra de cloud où les données sont celles de leurs clients b2b.

Pour ce qui est des données sur nous, mon schéma voulait plutôt montrer que certes les GAFA savent pas mal de choses sur nous, mais d’autres aussi !

Répondre à ce commentaire

Commentaire 1719 dans Les GAFA, les entreprises et les données de l’IA, le 14 juillet 2019

C’était bien l’objectif et la réflexion est probablement à étendre !

Répondre à ce commentaire

Commentaire 1718 dans Le chemin tortueux de l’innovation dans les transports, le 11 juin 2019

Bonjour,
J’avais lu cet article à charge sur les Hyperloops qui est bien documenté. J’ai ajouté la référence dans le post.
Olivier

Répondre à ce commentaire

Commentaire 1717 dans L’impression 3D en couleur, le 5 juin 2019

Merci pour ce commentaire ! L’article a 10 ans mais la technologie décrite n’a pas beaucoup évolué pendant ce laps de temps.

Répondre à ce commentaire

Commentaire 1716 dans Guide des Startups 2019, le 9 mai 2019

Fait ! J’ai ajouté la mention en essayant de ne pas me tromper de région !

Répondre à ce commentaire

Commentaire 1715 dans Rapport CES 2019, le 8 mai 2019

Merci. C’est corrigé et en ligne. Avec un champ sans année pour ne plus être gêné par la suite !

Répondre à ce commentaire

Commentaire 1714 dans Guide des Startups 2019, le 8 mai 2019

– Je publie certains de mes ouvrages au format epub, comme ce fut le cas pour la seconde édition de mon ebook sur l’IA. Cf https://www.oezratty.net/wordpress/2017/usages-intelligence-artificielle-ebook/.

– Cela correspond à 3% des téléchargements vs le PDF. Le lectorat préfère nettement le format PDF.

– Le epub est un format difficile à générer lorsque la mise en page n’est pas “au kilomètre” (avec des encadrés, des tableaux, …) ce qui est le cas de la majorité de mes ouvrages.

– Je génère un PDF compressé de moins de 32 Mo dans le cas où la version compressée dépasse les 32 Mo, pour qu’il soit exploitable dans les liseuses du marché. Pour le rapport CES 2019, cela représentait 5% des téléchargements.

– Je suis prêt à fournir le format Word d’origine pour permettre à des volontaires de rendre le document facilement exportable en ePub. Comme cela représente un gros travail, les volontaires ne se bousculent pas. C’est un ouvrage en open source, donc, pas de modèle économique, et pas de rémunération pour ce genre de travail comme pour le mien.

– Le PDF peut être imprimé à loisir par ceux que cela intéresse. La mise en page étant compacte (vs de l’epub), cela réduit la quantité de papier générée.

Voilà le rationnel !

Répondre à ce commentaire

Commentaire 1713 dans Les startups font-elles de la fausse IA ?, le 27 mars 2019

Ce qui est trompeur chez Boston Dynamics est que les vidéos publiées sur YouTube par eux-mêmes ne montrent pas l’opérateur. Pour l’avoir vu de près lors de la conférence USI, l’opérateur indique au robot les tâches à accomplir : aller en avant, utiliser son bras articulé pour prendre une pièce, etc. Le robot se débrouille ensuite pour gérer ses mouvements et son équilibre ce qui est déjà une belle prouesse. Ce qui est trompeur est de diffuser des vidéos qui donnent une apparence d’autonomie au robot dans sa prise de décision, comme lorsqu’il s’entête à vouloir ouvrir une porte dans un bureau. Après, on a le fameux épisode de Blackmirror qui reprend cela … !

Répondre à ce commentaire

Commentaire 1712 dans Les startups font-elles de la fausse IA ?, le 25 mars 2019

Pour Boston Dynamics, voir cette photo prise pendant la conférence USI en juin 2018 :https://www.oezratty.net/wordpress/photos/?ws=geEDNk.

Pour Hanson Robotics, c’est à la fois de l’observation des démonstrations et issu de témoignages de spécialistes de la robotique comme Laurence Devillers qui ont pu tester Sophia de près.

Tu as aussi le point de vue de Yann LeCun sur le sujet : https://www.theverge.com/2018/1/18/16904742/sophia-the-robot-ai-real-fake-yann-lecun-criticism

Olivier

Répondre à ce commentaire

Commentaire 1711 dans Les startups font-elles de la fausse IA ?, le 23 mars 2019

Comme l’indique d’ailleurs l’étude de MMC Ventures, les techniques de l’IA sont amenées à se banaliser et à être utilisées partout. Il ne faut pas se plaindre que des entreprises puissent les utiliser rapidement sans pour autant avoir des tonnes de spécialistes. C’est le sens de l’histoire avec la démocratisation des technologies. Presque n’importe qui peut créer un site web avec WordPress, sans développeur. Le résultat est tout de même bien un site web… !

Répondre à ce commentaire

Commentaire 1710 dans Les startups font-elles de la fausse IA ?, le 23 mars 2019

Oui, c’est pour cela que j’ai précisé “d’origine française”, le reste devant en effet américain : les équipes, la localisation et le financement. Cela met de l’eau dans mon moulin, car je passe mon temps à expliquer que l’on ne peut pas facilement créer d’unicorn si l’on n’a pas une stratégie pour pénétrer rapidement le marché US. Sachant que le choix de Snowflake n’est pas le seul. On peut le faire en conservant la R&D et un siège en France.

Répondre à ce commentaire

Commentaire 1709 dans Le mythe de la fin du développement logiciel, le 16 mars 2019

Pas grand chose, à part deux points : l’expérience du dev sous toutes les formes donne de la perspective sur les progrès accomplis, leur rapidité ou leur lenteur selon les cas, et elle permet de mieux comprendre comment fonctionne l’IA même si les paradigmes changent, comme avec les réseaux de neurones du deep learning.

Répondre à ce commentaire

Commentaire 1708 dans Le mythe de la fin du développement logiciel, le 14 mars 2019

Tout à fait ! En critiquant le code, on confond la fonction et l’outil. C’est un peu comme si on définissait le rôle d’un médecin généraliste par sa maîtrise du stéthoscope…

Répondre à ce commentaire

Commentaire 1707 dans Rapport CES 2019, le 13 mars 2019

Ah ah, merci Vincent de la bonne intention et je suis preneur de la bière au Web2day ! J’ai aussi le chocolat…:) !

Olivier

Répondre à ce commentaire

Commentaire 1706 dans Le mythe de la fin du développement logiciel, le 4 mars 2019

A qui le dis-tu ! A sa décharge, Andreas Schleicher ne va pas jusqu’à penser que la connaissance est finie. N’extrapolons pas son jugement outre-mesure. Il indique juste qu’apprendre à coder ne correspond pas forcément aux besoins du futur. Un peu comme notre apprentissage de la règle à calcul (pour les plus de 50 ans…) ne sert plus à rien aujourd’hui. Là où il se trompe, c’est dans la métaphore : on n’apprend pas un langage de programmation lorsque l’on apprend à coder, on apprend à comprendre les principes de la programmation qui régissent une bonne partie de ce bas monde. C’est une connaissance et une expérience assez générique et utile dans la durée.

Répondre à ce commentaire

Commentaire 1704 dans Premiers retours du CES 2019, le 13 janvier 2019

Réponses détaillées dans le Rapport que je publierai le 28 janvier où je fais un inventaire des annonces de 2018 des ultra-portables et autres convertibles 2-en-1. L’offre est maintenant abondante et de qualité avec de très bons modèles comme chez HP, Lenovo et Asus. Apple se refuse toujours à supporter les écrans tactiles dans ses Macbook. C’est pourtant bien pratique au quotidien. J’utilise des 2-en-1 tactiles sous Windows depuis 3 ans “and there is no turning back”.

Répondre à ce commentaire

Commentaire 1703 dans Premiers retours du CES 2019, le 12 janvier 2019

Hello André,

Marrant ton commentaire sur l’IA. Je n’affiche pas d’enthousiasme, je décris froidement ce que l’on pouvait voir.

Pour la privacy, tu as raison, c’est une préoccupation du marché comme chez nous mais elle n’était pas manifeste sur le salon. L’exemple le plus frappant : le nombre de stands qui badgent les visiteurs et les empêchent d’y entrer sinon, comme chez Amazon. Ou cette boite qui propose un test d’ADN gratuit (très partiel) sans te faire signer quoi que ce soit.

OK sur les drones en baisse. Et surtout pros, ou sous-marins mais comme en 2018. Mais cela s’explique par la baisse du nombre d’exposants chinois, lié à la guerre des tariffs.

A+,

Olivier

Répondre à ce commentaire

Commentaire 1702 dans Méta-prévisions 2019, le 3 janvier 2019

Je n’ai pas trouvé grand chose sur le sujet, à part Waymo que je cite. Les véhicules autonomes rentrent dans un cycle d’innovation qui dépasse le cadre d’une seule année !

Répondre à ce commentaire

Commentaire 1701 dans Méta-prévisions 2019, le 1 janvier 2019

Merci, corrigé ! Heureusement qu’il y en a qui suivent !

Répondre à ce commentaire

Commentaire 1700 dans Méta-prévisions 2019, le 31 décembre 2018

Merci Antoine, c’est corrigé. En effet, c’est bien 3 trillions de dollars, dont $3T. Et $2B = 2 billions = 2 milliards.

Répondre à ce commentaire

Commentaire 1699 dans L’ebook pour comprendre l’informatique quantique, le 15 décembre 2018

Jamais !

Vous pouvez sinon faire imprimer l’ebook dans un service d’impression en ligne. Ils sont très nombreux.

Répondre à ce commentaire

Commentaire 1698 dans Le pari haut de gamme de Free, le 15 décembre 2018

Il y a visiblement une sortie HDMI dans le Freebox Delta Player, qui devrait permettre d’alimenter un amplificateur externe avec l’audio et la vidéo joués. L’ampli pourrait alors alimenter la TV et d’autres éléments audio, complétant le Devialet. La documentation du player indique sinon que la prise S/PDIF est une entrée, pas une sortie.

Répondre à ce commentaire

Commentaire 1697 dans Le pari haut de gamme de Free, le 9 décembre 2018

Bonjour,

Le processeur du player, le Snapdragon 835 gère la résolution 4K mais pas la 8K, donc c’est cuit de ce côté là. Le port HDMI indiqué esn un 2.1 mais le 835 ne supporte visiblement que le 2.0A. Seul le HDMI 2.1 supporte la 8K. Voir https://www.qualcomm.com/products/snapdragon-835-mobile-platform.

Dans tous les cas de figure, le passage à la 8K réclamera donc une nouvelle Freebox Player. Mais par contre, rien n’empêchera de consommer de la 8K sur un autre device connecté sur la Freebox Server. Même avec une Freebox Revolution et en fibre. Il faudrait disposer d’une bande passante d’environ 80 à 100 Mbits/s pour profiter de la 8K.

La spécification HDMI 2.1 a été publiée fin novembre 2017. Les Snapdragon les plus récents ont été annoncés la semaine dernière, le 855 (smartphones et boxes) et le 8cx (pour des PC). Aucun des deux ne supporte la 4K. le 8cx supporte cependant deux moniteurs 4K (donc la moitié des pixels de la 4K).

Bon, soit dit en passant, à moins de disposer d’un écran de plus de 70 pouces, la 8K ne sert pas à grand chose. La 4K est largement suffisante pour 98% des foyers.

Répondre à ce commentaire

Commentaire 1696 dans Le pari haut de gamme de Free, le 9 décembre 2018

Suis pas assez calé en réseau pour répondre. Mais je pense que Free a prévu le coup. Ils veulent toujours séduire les geeks et leur permettront de mettre en place un réseau en 10G.

Pour ce qui est de l’usage du player en quittant Free, il est clair que cela lui enlèverait plein de fonctionnalités, en particulier l’accès l’IPTV. C’est un scénario théorique plus qu’autre chose. Il cache la volonté simple de réduire les capex de financement de la box du fait de son coût élevé. J’explique cela dans l’article : ils ont une box serveur plus chère et des accessoires domotiques plus deux télécommandes et les Freeplugs. Ils ont donc dégagé totalement ou partiellement les capex du player pour équilibrer l’ensemble.

Répondre à ce commentaire

Commentaire 1695 dans Le pari haut de gamme de Free, le 9 décembre 2018

Ta situation rend la Delta très attractive. 26 Mbits/s en DSL est une très bonne situation. Nombre de régionaux n’ont pas cette chance. Ils se contentent souvent d’un pâlichon 4 Mbits/s voir moins, s’ils sont trop loins des DSLAM.

J’oubliais en effet que l’IPTV est remplacée par la TNT pour les principales chaînes TV du bouquet Free, ce qui économise de la bande passante en DSL. En effet, pour comparer les offres, il faudrait intégrer le mobile, qui est avantageux pour les abonnés à Free en fixe. Les médias spécialisés vont sans doute produire des comparatifs détaillés entre offres ‘quadplay’ dans de beaux tableaux.

Répondre à ce commentaire

Commentaire 1694 dans Le pari haut de gamme de Free, le 9 décembre 2018

En effet. C’est probablement intégré dans les 2000€ que Free annonçait comme étant l’économie de matériel permise par la Freebox Delta.

Répondre à ce commentaire

Commentaire 1693 dans Le pari haut de gamme de Free, le 8 décembre 2018

Merci, c’est corrigé. Qu’est-ce que c’est difficile de ne pas se planter sur un si long tour d’horizon ! A plusieurs, on y arrive !

Répondre à ce commentaire

Commentaire 1692 dans Le pari haut de gamme de Free, le 8 décembre 2018

Merci de la précision. J’ai corrigé le texte.

Répondre à ce commentaire

Commentaire 1691 dans L’ebook pour comprendre l’informatique quantique, le 22 novembre 2018

Ca on sait très bien le faire. Initialisation des registres et lecture en fin de calcul, qui retourne des 0 et des 1. J’explique cela dans l’ebook. Ce qui est complexe hors partie physique est la conception d’algorithmes qui exploitent les propriétés quantiques des qubits et de leur intrication. Il y en a environ 60 de connus aujourd’hui ce qui est peu.

Répondre à ce commentaire

Commentaire 1690 dans L’ebook pour comprendre l’informatique quantique, le 21 novembre 2018

J’ai lu ce papier comme ceux de Gil Kalai, un chercheur israélien qui est encore plus précis dans sa critique de l’ordinateur quantique en creusant la dimension du bruit.

Intuitivement, je me dis qu’ils ont peut-être raison mais l’argumentation de Dyakonov semble plus faible que celle de Kalai. Notamment lorsqu’il s’appuie sur le nombre de particules dans l’Univers dans sa démonstration. Ce nombre de particules n’est pas homothétique avec une combinatoire de valeurs. On dirait qu’il n’a pas beaucoup creusé le fonctionnement des algorithmes quantiques.

Dyakonov indique aussi qu’une technologie qui ne fait pas ses preuves après une ou deux décennies est vouée à l’échec. Or l’IA qui est sortie du bois vers 2012 a l’âge de la retraite !

Je fais par contre confiance aux scientifiques qui explorent diverses voies pour créer des ordinateurs quantiques. Elles sont nombreuses et diverses. Rien qu’avec celle de D-Wave qui est fortement contestée par les physiciens qui veulent créer des qubits universels, on peut déjà faire des choses très intéressantes. Ils vont atteindre 5000 qubits l’année prochaine. D-Wave arrive à suivre une sorte de loi de Moore quantique depuis 2008 (dite loi de Rose, l’un des cofondateurs de la société). C’est encourageant.

Répondre à ce commentaire

Commentaire 1689 dans Les usages de l’intelligence artificielle 2018, le 17 novembre 2018

Merci, je corrige ! J’ai connu Scortex à ses débuts et la startup a évolué. Ce n’est pas facile à suivre pour les centaines de startups évoquées dans l’ebook !

Répondre à ce commentaire

Commentaire 1688 dans Les usages de l’intelligence artificielle 2018, le 17 novembre 2018

En fait, nous sommes en phase. J’évoque cette question avec la notion de “biais du rétroviseur” ! Si on se contente de n’utiliser que les données du passé, on est bloqué… dans le passé !

Répondre à ce commentaire

Commentaire 1687 dans L’ebook pour comprendre l’informatique quantique, le 8 novembre 2018

En effet, mon upload d’hier n’a visiblement pas été jusqu’au bout. C’est corrigé ! Olivier

Répondre à ce commentaire

Commentaire 1686 dans Les enjeux industriels de l’ordinateur quantique, le 27 octobre 2018

Je n’ai fait que relier l’annonce en question avec la table ronde de BIG. Où est le problème ou l’erreur ? Oui, le financement n’était pas annoncé le 11 octobre, c’est sûr (même si Maud m’en avait en fait déjà parlé avant… elle attendait l’annonce officielle).

Sémantique : mon “Bien oui” était un artifice de liaison avec la phrase d’après, pas une remise en question. Je trouvais super que Maud Vinet ait pu s’exprimer lors de cette table ronde.

Ce ne sont que de bonnes nouvelles, alors pourquoi s’invectiver ?

Répondre à ce commentaire

Commentaire 1685 dans Les enjeux industriels de l’ordinateur quantique, le 27 octobre 2018

Ai-je écris le contraire ? L’art de la contradiction… 🙂 !

Répondre à ce commentaire

Commentaire 1684 dans Les enjeux industriels de l’ordinateur quantique, le 26 octobre 2018

Bien oui. C’est l’équipe coordonnée par Maud Vinet du CEA-LETI qui participait à la table ronde à BIG !

Répondre à ce commentaire

Commentaire 1682 dans Comprendre l’informatique quantique – cryptographie, le 4 septembre 2018

En effet ! Mais avec les Qubits on est aussi bien servis… 🙂 ! On n’est donc plus à cela près !

Répondre à ce commentaire

Commentaire 1681 dans Les usages de l’intelligence artificielle, le 2 septembre 2018

Bravo pour votre initiative.

Je travaille en ce moment à l’actualisation des “Usages de l’IA”, à paraître en octobre/novembre prochain. Beaucoup de travail car les choses changent vite dans l’IA !

Répondre à ce commentaire

Commentaire 1680 dans Comprendre l’informatique quantique – startups, le 27 août 2018

Je n’ai pas dit qu’il ne se développerait pas hors du cloud, je dis que le cloud est un bon endroit pour le développer ! Notamment pour les startups qui ne vont pas de payer une bécanne à $14M (le prix actuel d’un D-Wave…) !

Ceci étant, si l’on suit la logique du cloud actuel, la tendance est d’avoir moins de serveurs dans les entreprises et plus dans le cloud.

Cela sera probablement encore plus le cas pour le quantique, tant que les machines n’auront pas le prix d’un serveur Intel ou même d’un Nvidia DGX-1 ($130K je crois…).

Répondre à ce commentaire

Commentaire 1679 dans Comprendre l’informatique quantique – applications métiers, le 22 août 2018

Il y a un chapitre sur la finance dans l’article qui recense tout ce que j’ai trouvé ! Analyse de risques et optimisation de porte-feuille. Il n’y a pas beaucoup de problèmes d’audit et de comptabilité qui nécessiteraient des algorithmes quantiques. Connaissez-vous des problèmes de ce type qui sont de nature exponentielle ? Il faut commencer à se poser cette question en premier !

Répondre à ce commentaire

Commentaire 1677 dans Comprendre l’informatique quantique – applications métiers, le 14 août 2018

Probablement, même si je n’ai pas encore vu d’étude de cas dans ce créneau… !

Répondre à ce commentaire

Commentaire 1676 dans Comprendre l’informatique quantique – complexité, le 27 juillet 2018

Merci pour cette précision. J’ai modifié légèrement le texte pour mettre en avant la définition par la réduction polynomiale de problèmes NP aux problèmes NP-Complet. Tout en soulignant qu’un problème NP-Complet n’avait a fortiori pas de solution polynomiale connue. Ce n’est pas faux, mais ce n’est pas sa définition.

Merci pour les autres liens. L’épisode sur le quantique de la chaîne Science Etonnante est bien, mais mon propos est d’aller plus loin que ces versions trop résumées à mon goût !

Répondre à ce commentaire

Commentaire 1675 dans Comprendre l’informatique quantique – ordinateur quantique, le 14 juillet 2018

Complexe, oui et non.

Si j’étais rentré dans les détails du fonctionnement d’un processeur traditionnel d’aujourd’hui, type Intel, cela aurait aussi été très compliqué à piger. Il se trouve qu’on les utilise avec des outils de développement accessibles quel que soit le langage de programmation utilisé. Et les usages qui vont avec ne requièrent pas de comprendre comment le matériel fonctionne.

Pour le quantique, on doit se contenter d’en comprendre les couches basses. C’est aussi vrai de la programmation que nous verrons dans l’épisode suivant. Comme si on ne pouvait programmer un ordinateur d’aujourd’hui qu’en assembleur, ce qui serait quelque peu rébarbatif !

Bref, oui, il faut s’accrocher. Mais quand le sujet sera plus mature, cela sera moins nécessaire !

Répondre à ce commentaire

Commentaire 1674 dans Comprendre l’informatique quantique – basiques, le 11 juillet 2018

Google travaille effectivement sur le sujet. Mais ils ont encore du chemin à parcourir. Ils ont annoncé un chipset supraconducteur à effet Josephson de 72 qubits en début d’année, mais son taux d’erreur est encore bien trop élevé pour être exploitable (aux alentours de 0,5% par qubit et sans information sur le taux d’erreur des portes quantiques). Sans compte l’absence d’information sur le temps de cohérence. Pour casser des clés RSA, l’objectif de la NSA, il faudrait disposer de plusieurs dizaines de millions de qubits. Donc, vous pourrez patienter un peu encore avant de voir la NSA faire ce que vous annoncez.

Au passage, on n’évalue pas la puissance de calcul d’un ordinateur quantique à portes universelles en exaflops ! La notion de “floating point operations per seconds” n’a pas vraiment de sens en quantique, dans la mesure où les calculs se font par superposition d’états et fonctions appliquées sur des états superposés.

Attendez la fin de ma série d’articles où je vais détailler tous ces éléments, notamment au niveau de la gestion des codes d’erreur, de la mise en oeuvre de l’algorithme de Shor et des moyens de se protéger contre celui-ci.

Pour ce qui est de D-Wave, leur génération la plus récente est de 2048 qubits. Ils en préparent une de 5000 qubits pour 2019. Mais ce sera tout aussi insuffisant pour casser les clés RSA de plus de 400 bits. Le record de factorisation de nombre entier réalisé sur D-Wave à 1000 qubits est 200 009.

Répondre à ce commentaire

Commentaire 1673 dans Comprendre l’informatique quantique – qubits, le 9 juillet 2018

Oui, je vais traiter de ces différents obstacles dans la partie suivante, notamment sur les différents systèmes de correction d’erreurs.

Répondre à ce commentaire

Commentaire 1672 dans Que devient l’IA symbolique ?, le 18 juin 2018

Bonjour, je n’évoque pas le cas des agents et des systèmes multi-agents car il me semble qu’ils font partie d’une autre catégorie de solutions. On en parle très peu en effet dans l’actualité qui est ultra-dominée par les avancées du deep learning. J’évoque les agents et réseaux d’agents dans mon ebook “les usages de l’intelligence artificielle”. Si vous avez des billes sur leur actualité et leurs avancées récentes, je suis preneur. Olivier

Répondre à ce commentaire

Commentaire 1671 dans Comprendre l’informatique quantique – pourquoi ?, le 15 juin 2018

L’imbitabilité de la mécanique quantique est un phénomène connu depuis les débuts de sa conceptualisation par Planck en 1900 ! Don’t worry. Il faut y aller étape par étape.

Je l’ai d’ailleurs constaté dans de nombreux ouvrages de vulgarisation ou des bouquins de méca quantique pour étudiants qui ne prennent pas la peine de raconter l’origine de certains concepts. Ils te disent, alors, voilà, c’est comme ça, cherchez pas à comprendre.

Le plus frappant est celui de la sphère de Bloch et de la représentation mathématique de l’état des qubits. J’essaye de traduire tout cela en langage compréhensible pour ceux qui ont un référentiel d’ingénieurs ou de développeurs de base. Certains le font bien, surtout aux USA dans certains tutos en ligne. Mais ceux qui font cela en 15 mn sont un peu trop rapides.

Répondre à ce commentaire

Commentaire 1670 dans La scorecard de VivaTech 2018, le 27 mai 2018

Oui, heureusement, les startups n’étaient pas toutes sur des stands d’entreprises du CAC40. Il y avait les régions et les écoles. Bref, ce n’était pas difficile et pas coûteux pour une startup d’exposer à Vivatech. Après, c’est une question d’allocation de son temps. Si on est content des rencontres réalisées sur place, tout va bien.

Répondre à ce commentaire

Commentaire 1669 dans La scorecard de VivaTech 2018, le 27 mai 2018

En effet.!

Ceci étant, le problème de la connectivité Wi-fi est à peu près le même au CES de Las Vegas ! Et c’y est même plutôt pire !

Ceci dit, ma 4G marchait très bien pendant Vivatech. Aucun soucy. Ca dépend peut être de l’opérateur.

Répondre à ce commentaire

Commentaire 1668 dans Les caméras d’Appolo 11, le 25 mai 2018

Il suffit de chercher un peu pour trouver la réponse…

Cf https://sterileeye.com/2009/07/23/the-apollo-11-hasselblad-cameras/

Répondre à ce commentaire

Commentaire 1667 dans La déterritorialisation de la santé, le 15 mai 2018

Bonjour, merci pour cet insight ! Qui montre que les blocages ne sont pas que technologiques pour faire évoluer ces services. Sachant qu’il existe aussi des blocages technologiques, là où certaines solutions, surtout à base d’IA, sont très survendues. Olivier

Répondre à ce commentaire

Commentaire 1666 dans Les cycles longs de l’innovation, le 4 mai 2018

J’utilise cette même définition pour l’innovation.

Les outils font partie des technologies. Ce sont des “enablers” qui permettent de créer des produits.

Répondre à ce commentaire

Commentaire 1665 dans Guide des Startups 2018, le 27 avril 2018

Et je l’ai corrigé immédiatement…

Répondre à ce commentaire

Commentaire 1664 dans Guide des Startups 2018, le 26 avril 2018

Hello Anthony,

Merci pour ces corrections que j’ai intégrées dans une silent release sans attendre 2019.

Ceci dit, c’est assez usant de suivre les évolutions incessantes de tous ces programmes dont la substance est finalement assez stable.

Répondre à ce commentaire

Commentaire 1663 dans Ce que révèle le Rapport Villani, le 11 avril 2018

Merci pour votre commentaire.

Malheureusement, vous me faites dire ce que je n’ai pas écrit ou vous extrapolez un peu vite. Je n’ai pas dit qu’il fallait évacuer les questions d’éthique mais souligné le déséquilibre par rapport à une vision industrielle permettant de se donner les moyens d’en bénéficier.

Dans certains cas, le trop d’éthique relève aussi de l’application du principe de précaution. Tout est question de définition. Ceci étant, je connais très peu de startups françaises dont l’avancée a été bloquée par des questions d’éthique, avec ou sans IA. Par contre, en génomique, la France n’avance pas bien vite et se fait carrément damer le pion !

Pour ce qui est des USA et de la Chine, je n’en fais pas des modèles, loin s’en faut. Je suis bien content d’être en France ! J’indique seulement que les USA sont un passage obligé en tant que marché pour créer un leader mondial dans le logiciel.

Je me pose aussi la question de l’usage de l’éthique dans le marketing des solutions innovantes, afin de créer des leaders. Il faudra faire preuve de créativité pour y arriver. C’est une nouvelle discipline à inventer !

Voilà…

Répondre à ce commentaire

Commentaire 1662 dans Comment faire évoluer la French Tech ?, le 10 avril 2018

Réponse simple : pour créer un leader mondial, il vaut mieux vendre hors de France, et si possible dans les plus grands pays, donc… les USA, l’Europe, etc. C’est aussi vrai pour les solutions B2B que B2C. La force économique et l’hypercroissance des startups provient de la capacité à créer des économies d’échelle. Celles-ci viennent du volume. Donc. L’export n’est pas facile, mais c’est un passage incontournable pour créer un leadership. Il faut apprendre à créer des boites internationales tout en maintenant leur ancrage en France, surtout pour leur R&D.

Répondre à ce commentaire

Commentaire 1661 dans Comment faire évoluer la French Tech ?, le 10 avril 2018

Je cite l’Asie dans l’article, mais il est vrai que je me focalise pas mal sur les USA pour ce qui est du développement international des startups pour en faire des leaders mondiaux.

Le passage par l’Asie est une option, mais rarement pour créer des leaders mondiaux. Pour ce qui est des valorisations des acteurs chinois que tu cites et qui sont bien connues, cela ne met pas spécialement d’eau dans le moulin de l’implantation chez eux. L’éviction de Google de Chine est aussi un bon exemple. Oui, cela créé des menaces vs l’Europe, mais est-ce que cela se transforme en opportunités pour attaquer ce marché ultra-fermé ? J’ai des doutes !

C’est toujours une question de vélocité. S’installer en Chine y est très lent. On n’a pas, de plus, aucun track-record de ce genre, et avec n’importe quel pays asiatique.

Au sens : startup française qui s’exporte d’abord en Asie, et en négligeant le marché USA. Sauf peut-être dans les jeux mobiles, et éventuellement dans certains composants électroniques. STMicroelectronics y fait la majorité de son CA je crois, mais ce n’est pas une startup.

Répondre à ce commentaire

Commentaire 1660 dans Comment faire évoluer la French Tech ?, le 8 avril 2018

Hello Philippe,

Bien nous sommes en phase ! Le Pass French Tech est une excellente opération qui accompagne bien les meilleures startups.hz

Ceci étant, il n’a pas entièrement supprimés les impôts temps et tracasseries administratives des entrepreneurs. Ceux qui touchent TOUS les entrepreneurs, et pas seulement ceux des startups en hypercroissance !

Olivier

Répondre à ce commentaire

Commentaire 1658 dans Modèle d’étude de cas de l’IA, le 3 avril 2018

Merci pour cet input.

Le premier point serait optionnel car nombre d’études de cas peuvent provenir d’acteurs étrangers, soit à l’étranger, soit réalisées en France.

Le second point est intéressant en effet.

Sachant que pour l’instant, les études de cas courantes sont extrêmement mal documentées et que mon template d’origine relève déjà de la science fiction dans le marketing des principaux fournisseurs ! 🙂

Répondre à ce commentaire

Commentaire 1657 dans Ce que révèle le Rapport Villani, le 2 avril 2018

L’approche industrielle française est très spécialisée dans les systèmes complexes vendus à faible volume comme avec les centrales nucléaires, l’exploration pétrolière ou l’aérospatial. C’est culturel et historique. Cela a alimenté une culture projet et SSII forte dans le pays. On a les ingénieurs qu’il faut pour faire cela.

A contrario, le pays (et l’Europe) sont déficients dans l’approche produits en volume. Les produits à forte dose techno mais qui se vendent en volume à l’échelle mondiale. Et ceux qui deviennent de véritables plateformes.

Dans les années 1980, je me rappelle par exemple que les ingénieurs logiciels français étaient très bon dans les outils de développement et les AGL (Merise, …). Mais pas dans les logiciels pour les vrais gens !

Dans la santé et les transports, on peut être donc tentés de s’attaquer à ces sujets via leur approche système : smart city, système de santé (DMP, …). Plutôt qu’à des briques qui se vendront en volume. Genre : tricorder (un Theranos qui marcherait), echographes portables, génomique grand public en ligne (domaine US par excellence), etc. Pour les véhicules, heureusement que nous avons Valeo qui à peu près dans l’épure d’un marché de volume. Mais quid des LiDAR (personne), des chipsets (presque personne), des logiciels embarqués (itou), … !

Répondre à ce commentaire

Commentaire 1656 dans Ce que révèle le Rapport Villani, le 2 avril 2018

Autre parallèle simplificateur : les Américains ont Salesforce et nous avons Louvois (l’interminable projet de paye du Ministère de la Défense).

Répondre à ce commentaire

Commentaire 1655 dans Ce que révèle le Rapport Villani, le 2 avril 2018

Le “mais passons” est un peu “passable” dans ce commentaire avec des “on” partout ! Mais bon, c’est comme ça.

La conférence accueillait de nombreux orateurs étrangers et je m’en félicitais. Cela n’enlève rien au reste ! C’est une chose d’organiser une conférence, c’en est une autre d’avoir une stratégie ! Nicolas Sarkozy avait organisé une belle conférence eG8 en mai 2011 avec un panel d’intervenants étrangers encore plus prestigieux. Cela n’avait pas spécialement aidé la France à briller dans le numérique.

Oui, il faut “se bouger”, mais encore faut-il identifier où dans la chaîne de valeur de l’IA. Je constate que l’approche est très locale et trop focalisée sur les données. On est tellement focalisé dessus que l’on en oublie les services qu’elles permettent de créer et dans quelle condition.

A contrario, le développement sur le matériel est déficient, ignorant un domaine où quelques startups françaises s’investissent. Dans l’automobile, où veut-on aller ? Dans les composants, dans les véhicules, dans la cartographie, dans le pilotage de flottes de véhicules autonomes, dans les services 5G V2X ? Rien de tout cela n’est mentionné.

Répondre à ce commentaire

Commentaire 1654 dans Ce que révèle le Rapport Villani, le 2 avril 2018

En effet, d’autres entrepreneurs m’ont indiqué que les CIFRE étaient une bonne chose, modulo la difficulté pour la startup de s’engager sur le long terme vis à vis d’eux.

Répondre à ce commentaire

Commentaire 1653 dans Ce que révèle le Rapport Villani, le 30 mars 2018

L’Etat se focalise naturellement sur l’amont de l’innovation avec l’enseignement et de la recherche. Mais dans l’aval, l’Etat a tout de même un rôle de facilitateur à jouer, ne serait-ce qu’avec ses services publics comme Bpifrance, Business France, Coface et l’INPI. Puis la fiscalité. Aucun Etat moderne dans le monde ne reste les bras croisés sur l’innovation, même les USA. Les pays dont les Etats sont les moins impliqués sont en général des “failed states” ou des Etats très pauvres.

Répondre à ce commentaire

Commentaire 1652 dans Les batailles industrielles de l’intelligence artificielle, le 29 mars 2018

Je ne cite pas tous les acteurs en effet.

Ceci étant dit, la stratégie “neuromorphique” de Qualcomm est pour l’instant en retrait par rapport à ses concurrents HiSilicon, Apple et même Mediatek et VIA. Ils utilisent leur DSP Hexagon qui fait du calcul vectoriel. La stratégie IA de Qualcomm repose pour l’instant surtout sur les couches logicielles. C’est un peu l’équivalent de ce que fait Intel sur ses chipsets serveurs Xeon Phi avec ses jeux d’instruction vectoriel AVX2. Cf https://software.intel.com/en-us/articles/tensorflow-optimizations-on-modern-intel-architecture.

Quand à Tesla, ils utilisent un mix de Nvidia et de Mobileye… !

Répondre à ce commentaire

Commentaire 1651 dans Où en est l’IA émotionnelle ?, le 2 mars 2018

Pas sûr qu’il ne s’agisse que d’une affaire d’ingénieurs ! D’ailleurs, Robert Plushnik était un psychologue. Et ne cofondons pas amour et émotions, le premier étant plus complexe et plus rare que les secondes.

Répondre à ce commentaire

Commentaire 1650 dans Où en est l’IA émotionnelle ?, le 2 mars 2018

Merci !

Faut-il mettre à chaque fois un disclaimer pour s’excuser de ne pas être exhaustif dans un article de 15 pages ? 🙂

Bon, j’ai ajouté spoon.ai dans l’article, à côté du Buddy de BFR.

Olivier

Répondre à ce commentaire

Commentaire 1649 dans Rapport CES 2018, le 20 février 2018

Merci, c’est corrigé !

Répondre à ce commentaire

Commentaire 1648 dans Les projets Hyperloop et Elon Musk, le 12 février 2018

OK, j’ai corrigé et ajouté ces deux projets. Deux de plus. Mais pas plus réalistes que les autres côté financement !

Pour la SNCF, c’est une erreur classique liée au fait que les tickets de financement ne sont pas précisés dans des tours de table à plusieurs. Il est vrai que cela me semblait un peu énorme. Dans le cas où ils ont mis moins de $10M (?), cela fera un tout petit investissement dans la pratique.

Répondre à ce commentaire

Commentaire 1647 dans Rapport CES 2018, le 12 février 2018

Je le rédige seul. Par contre, j’ai une vingtaine de relecteurs en fin de parcours pour le copy-proofing ! Olivier

Répondre à ce commentaire

Commentaire 1646 dans Les projets Hyperloop et Elon Musk, le 11 février 2018

En effet !

Répondre à ce commentaire

Commentaire 1645 dans Rapport CES 2018, le 3 février 2018

La réponse est très simple : Valeo et Faurecia comme nombre de sociétés françaises présentes (MicroEJ, STMicroelectronics, Dibotics, Arkamys) sont des fournisseurs de composants logiciels et/ou matériels qui rentrent directement dans la composition des produits b2c que sont les véhicules présentés au CES. Cela a toujours été le cas au CES. Ce n’est pas un phénomène nouveau. Il y a toujours eu des équipementiers automobiles et nombre de fournisseurs de composants électroniques en tout genre.

Le CES comprend en effet une bonne part de la “supply chain” amont des produits grand public. Au même titre que lorsque vous visitez le Salon de l’Agriculture, vous trouvez des fournisseurs d’alimentation pour bétail comme des tracteurs. Et vous n’achetez pas de tracteur pour consommer votre pain. Par contre, vous n’y trouvez pas forcément Facom ou des fabricants de boulons ou des éditeurs de logiciels de compta ou de bureautique.

Quand vous allez au Mondial de l’Auto, vous retrouvez Faurecia et Valeo (quoique pas sûr pour ce dernier), bien que les équipementiers ne soient plus très fans d’exposer dans ce salon qui est très grand public comme l’est celui de Detroit.

Dans votre cas, la solution, dont je ne remets pas en cause la qualité, cible les entreprises en général, pas spécifiquement la supply chain matérielle ou logicielle des produits grands publics du CES. C’est donc de l’informatique générale.

Si on allait dans ce sens, SAP, SalesForce, Oracle, Documentum, Sage, Cegid, Sopra, Murex, Cegedim et tous les éditeurs de logiciels d’entreprises “horizontaux” petits ou grands devraient être exposants au CES. Or ils ne le sont pas. Ce n’est pas un hasard. C’est une question de ciblage d’audience et d’optimisation de mix marketing.

Alors, oui, vous trouvez bien des prospects sur place. Mais imaginez que tous les éditeurs de logiciels d’entreprise français occupent Eureka Park ? Quel serait le message envoyé aux visiteurs qui cherchent pour la plupart des produits associant matériel + logiciel pour le grand public ou les composantes de ces produits ?

Je pose la question d’une autre manière en mettant en regard l’intérêt individuel des exposants et celui, collectif, de la présence française lorsque’elle est accompagnée par la puissance publique. Votre intérêt est tout compris. Mais dans le contexte de la présence française et avec les autres sociétés du même genre, il rend moins lisible la présence des startups françaises et réduit l’efficacité collective de la French Tech sur ce salon. Je rappelle que vous n’étiez pas un exposant classique mais étiez sur le stand d’une région. Vous avez donc bénéficié sous une forme ou une autre d’aides publiques. C’est un effet d’aubaine et un effet de bord.

Reste le cas de Dassault Systèmes. Ils couvrent bien plusieurs industries et sont donc très “horizontaux”. A ceci près qu’ils sont le numéro un mondial des outils de conception (CAO) et en particulier dans la conception des produits que l’on voit au CES et que leurs grands clients y sont à la fois comme visiteurs et exposants. Par ailleurs, sur le stand, ils ne présentaient pas leur offre mais un écosystème de startups qu’ils accompagnent et qui avaient pour l’essentiel une offre grand public.

Est-ce que sinon vous reviendrez comme exposant ? Est-ce que le jour où vous ne pourrez plus être exposants sur Eureka Park, vous prendrez un stand “normal” en payant plein pot ? Et dans quelle zone du salon ? La logique en effet, pour les entreprises exposantes du CES est de s’extraire d’Eureka Park pour devenir des exposants établis dans la durée.

Indice 1 : Air Liquide avait une zone avec des startups au CES 2017 et ils ne sont pas revenus en 2018. Air Liquide est très générique et éloigné des offres grand public. Le seul lien étroit concerne les véhicules utilisant des piles à combustibles (je les avais vus une année sur le stand de Toyota qui en est fan) et les hôpitaux.

Indice 2 : je connais nombre de startups B2B de votre genre qui étaient sur Eureka Park par le passé, étaient assez contents de leur présence mais ne sont pas revenus pour autant au CES. Les leads étaient difficiles à closer et par ailleurs, ils ont revu leur mix marketing et se sont investis dans d’autres salons ou événements plus intéressants de ce point de vue là, compte tenu de la nature de leur activité. Et j’en connais au moins deux qui sont revenus cette année : Klaxoon et Magency, le premier ayant un stand normal, sur Sands Level 2, donc pas subventionné par les deniers publics.

A votre décharge, il y avait bien une petite zone dite “Enterprise” dans Eureka Park, pas associée à un pays particulier. Mais c’était une allée très peu fréquentée et assez inintéressante dans le contexte du CES.

La B2Bization du CES est un leurre, un peu entretenu par la zone Smart City qui était marginale sur le CES. Il y avait aussi une famélique zone Retail mais elle a du sens car le visitorat numéro 1 du CES est dans le retail !

Finalement, mon avis n’est qu’un avis, certes visible. Libre aux uns et aux autres de faire ce qu’ils veulent.

Répondre à ce commentaire

Commentaire 1644 dans Rapport CES 2018, le 1 février 2018

Je n’ai pas listé toutes les annonces de smartphones Android qui se ressemblent souvent, surtout chez les constructeurs chinois. Et les smartphones de ce constructeur n’ont rien de bien particulier à signaler (One Plus 5). Et tout simplement, cela m’avait échappé dans mon suivi de l’actualité des smartphones. Et btw, ils n’étaient pas exposants au CES. Enfin, j’évite de lister dans mon catalogue les smartphones milieu de gamme. Je me focalise sur le haut de gamme qui imprime une tendance sur le marché. C’est pour cela par exemple que je n’ai pas évoqué les modèles d’Archos, Alcatel, etc.

Répondre à ce commentaire

Commentaire 1643 dans Rapport CES 2018, le 30 janvier 2018

Hello JP !

Les avis sont en effet très partagés sur le “better world”. L’Histoire est très ouverte avec le meilleur comme le pire dans ce qui est envisageable.

Répondre à ce commentaire

Commentaire 1642 dans Rapport CES 2018, le 30 janvier 2018

OK !

Répondre à ce commentaire

Commentaire 1641 dans Rapport CES 2018, le 30 janvier 2018

Bonjour Christophe,

Non, pas de Barcelone, je n’y vais jamais. Le CES me donne du boulot pour quelques mois et je ne passe pas ma vie dans les salons. Mais le MWC est le point de départ pour moi de la préparation du Rapport CES de l’année suivante !

Olivier

Répondre à ce commentaire

Commentaire 1640 dans Rapport CES 2018, le 29 janvier 2018

Je n’avais pas noté cette annonce de FLIR et surtout, son usage potentiel dans les véhicules autonomes. L’infrarouge n’est pas mentionné dans la littérature. On voit surtout LiDAR + radar + ultra sons + caméras RGB. Mais j’avais déjà fait un point sur l’infrarouge dans l’édition 2017 du Rapport !

Répondre à ce commentaire

Commentaire 1639 dans Rapport CES 2018, le 29 janvier 2018

Ils sont aussi Belges visiblement, et déclarés comme tels sur l’annuaire du salon : https://ces18.mapyourshow.com/7_0/exhibitor/exhibitor-details.cfm?ExhID=T0004535

Donc, ils doivent être au moins binationaux !

Répondre à ce commentaire

Commentaire 1638 dans Rapport CES 2018, le 29 janvier 2018

Ce qui est aussi un travail de titan… 🙂 !

Répondre à ce commentaire

Commentaire 1637 dans Premiers retours du CES 2018, le 15 janvier 2018

Oui, j’ai bien vu cela. J’en parlerais dans le Rapport complet. Le principe d’un exec summary est qu’il ne contient pas tout ce qu’il y a dans un document complet.

D’ailleurs, cette solution relève d’un beau pipeau que je vais décortiquer dans le détail au niveau technique. Cela s’appuie probablement sur des réseaux de neurones génératifs qui ont encore des limites. Et c’est le même topo que les constructeurs nous servent à chaque fois que la résolution des TV augmente !

Répondre à ce commentaire

Commentaire 1636 dans Premiers retours du CES 2018, le 15 janvier 2018

Il y a plusieurs opérations génératrices de buzz de ce genre que je n’ai pas évoquées dans l’exec summary. Ce sera dans le Rapport complet… 🙂 !

Répondre à ce commentaire

Commentaire 1635 dans Premiers retours du CES 2018, le 15 janvier 2018

Bonjour Olivier,

Oui, bien entendu, la voix ne va pas remplacer tout. Mais on constate que son adoption a un effet de vase communiquant dans les efforts des fournisseurs, au moins au niveau de leur marketing : ils ne mettent plus en avant du tout quoi que ce soit du coté des interfaces graphiques. C’était observable au CES cette année.

Répondre à ce commentaire

Commentaire 1634 dans Premiers retours du CES 2018, le 14 janvier 2018

Peut-être une erreur. J’avais noté cela quelque part… mais ne le retrouve plus.

Répondre à ce commentaire

Commentaire 1633 dans Premiers retours du CES 2018, le 14 janvier 2018

En effet. Fillon en 2017 et Macron en 2016 qui, s’il n’était pas encore candidat déclaré, était déjà en pré-campagne et superstar !

Répondre à ce commentaire

Commentaire 1632 dans Méta-prédictions 2018, le 14 janvier 2018

On pourrait démonter une à une ces “bonnes nouvelles” qui reprennent la propagande Trumpesque que je lis aussi dans certains médias américains. Vous faites du Fox News, un marqueur classique de la pensée d’extrême droite en France.

Exemples :

1) C’est faux. Cf http://www.politifact.com/truth-o-meter/statements/2017/oct/26/donald-trump/donald-trump-wrong-his-tax-plan-biggest-cut-ever/. Et tous les fiscalistes américains pensent que cette loi va pénaliser les classes moyennes sur le moyen/long terme et ne pas être aussi bénéfique que prévue. Par contre, cela pourrait revaloriser les revenus des retraités via les dividendes récupérés par les fonds de pension. C’est donc surtout une redistribution entre classes d’âges (jeunes => seniors) et vers les plus fortunés. Il en va de même pour les droits de succession.

4) “réglementations liberticides” : celles qui protègent les citoyens américains contre la pollution de l’eau par exemple ? Celles qui les protégeaient contre les abus de Wall Street, les mêmes qui ont généré la crise des subprimes ? Come on…

6) La suppression du personal mandate alors que celui-ci fait partie des basiques d’un système de partage des risques et des coûts entre générations. Endettement ? Il peut y avoir eu des effets de bord ! Mais saviez-vous qu’avant Obamacare, on pouvait mourir du cancer très rapidement quand on ne pouvait pas être couvert par les assurances ? Les “prexisting conditions” tuaient environ 50 000 personnes par an aux USA avant Obamacare. Et cela ne concerne d’ailleurs que les indépendants et les entrepreneurs, pas les salariés qui étaient déjà bien couverts avant Obamacare. Etudiez un peu le système de santé américain !

12) Père Noël pour le complexe militaro-industriel sans doutes, alors que les USA sont déjà de loin le plus gros acheteur d’armes de guerre.

14) ” aurait détruit 6 millions d’emplois américains et aurait coûté 3000 milliards de dollars à ce pays jusqu’en 2040.” : c’est de la propagande trumpesque qui n’a aucun fondement sérieux. Au contraire, les investissements dans les énergies renouvelables sont créatrices d’emplois aux USA. Même s’il n’était pas question d’abandonner les énergies fossiles du jour au lendemain. Et le coût du réchauffement climatique ? C’est à crédit…

Vous avez aussi oublié côté Père Noël la fin de l’interdiction du port d’armes à feu pour les personnes atteintes de troubles psychiatriques.

Chacun de ces sujets mérite mieux que la reprise d’une liste à la Prévert encensant Trump et les Républicains !

Répondre à ce commentaire

Commentaire 1631 dans Premiers retours du CES 2018, le 14 janvier 2018

Je partage tes impressions !

Répondre à ce commentaire

Commentaire 1630 dans Méta-prédictions 2018, le 13 janvier 2018

Ah oui ? Comme le fait de supprimer l’accès à la santé à 20 millions de personnes en sabotant Obamacare ? En supprimant toutes les régulation de protection des consommateurs ? En permettant aux industriels de polluer l’eau et l’air à qui mieux mieux ? En redistribuant la richesse vers les plus riches en s’attendant à ce qu’elle ruisselle sur les autres ? En promettant monts et merveilles aux salariés de Carrier, qui sont maintenant licenciés. En racontant des salades sur le charbon qui n’est de toutes manières pas compétitif, au-delà d’être polluant ? Come on… look at the facts.

La caricature de Trump n’a pas besoin des médias officiels. Trump est une caricature en chair et en os, sans passer par des intermédiaires. Il suffit de l’écouter ou de le lire dans n’importe quelle interview où il est incapable d’élaborer une phrase grammaticalement correcte ou un raisonnement. L’Amérique a majoritairement honte de son Président et peur pour son pays.

Répondre à ce commentaire

Commentaire 1629 dans Méta-prédictions 2018, le 10 janvier 2018

Peut-être. Mais 1) il n’y est pas forcément pour grand chose et 2) cela ne l’empêche pas de faire le pitre , ne serait-ce que dans ses tweets matinaux qui ne sont vraiment pas dignes d’un chef d’état.

Répondre à ce commentaire

Commentaire 1628 dans Méta-prédictions 2018, le 2 janvier 2018

Je découvre ! J’hésite pour ce qui est d’Apple. Leur ADN peut les pousser à créer un véhicule de toutes pièces, contrôlant toute l’expérience utilisateur. La real-politik peut les freiner dans leurs ardeurs. Mais Musk l’a fait, lui. Alors pourquoi pas Apple ? Ils arrivent peut-être trop tard sur ce marché.

Répondre à ce commentaire

Commentaire 1627 dans Méta-prédictions 2018, le 31 décembre 2017

Merci !

Répondre à ce commentaire

Commentaire 1626 dans Méta-prédictions 2018, le 31 décembre 2017

Cela pourrait en effet s’accélérer sur certains usages. Je faisais allusion (sans l’écrire…) à l’entrainement de très gros modèles avec des bases de millions d’images. Sur des applications plus simples, comme dans certains cas d’imagerie médicale ou industrielle, cela peut en effet être beaucoup plus rapide.

Répondre à ce commentaire

Commentaire 1625 dans Méta-prédictions 2018, le 31 décembre 2017

Merci !

Ma réponse à “pourquoi tel article ne parle pas de ci et de ça” est universelle : parce que ! Parce qu’il est impossible de couvrir 100% d’un sujet quel qu’il soit et que n’importe quel lecteur trouvera toujours qu’il manque tel ou tel aspect. Et aussi parce que je ne connaissais pas ces économistes indo-américains ni ne suis tombé dessus lors de mes recherches pour ce papier. Simple.

Pour les prévisionnistes catastrophistes cités, je n’en fais pas trop ma spécialité. J’ai bien lu les deux bouquins de Harari et aussi “Collapse” de Jared Diamond. Des ouvrages qui montrent tous que le balancier entre la stupidité et l’intelligence collectives de l’Humanité est assez instable.

Répondre à ce commentaire

Commentaire 1624 dans Modèle d’étude de cas de l’IA, le 21 décembre 2017

Intéressant. Sachant cependant qu’une étude de cas n’est pas une thèse de doctorat en économie ou en sciences sociales !

Répondre à ce commentaire

Commentaire 1623 dans L’IA est-elle vraiment créative ?, le 19 novembre 2017

Bonjour Yves,

Nous sommes … d’accord !

L’explicabilité de l’IA ne porte pas que sur les algorithmes mais aussi sur les émotions !

Olivier

Répondre à ce commentaire

Commentaire 1622 dans Publications, le 18 novembre 2017

Merci d’avoir signalé ces oublis. J’ai fait la mise à jour. Par contre, je n’ai pas prévu une mise à jour de l’article sur les logiciels photos ! Désolé. Ni sur les lecteurs RSS d’ailleurs.

Répondre à ce commentaire

Commentaire 1621 dans Les usages de l’intelligence artificielle, le 16 novembre 2017

Merci à nouveau pour ces commentaires !

J’ai intégré les corrections. Et aussi ajouté PyTorch au passage dans le tableau.

Les modes vont et viennent avec ces différents outils ! Un peu comme pour les frameworks JabaScript pour les front-end web !

Pour bien faire, il faudrait expliquer la différence entre langage statique et dynamique. Je réserve cela pour la prochaine édition du doc!

Répondre à ce commentaire

Commentaire 1620 dans Les conséquences pratiques d’AlphaGo Zero, le 13 novembre 2017

Merci Arthur, le lien est corrigé !

Répondre à ce commentaire

Commentaire 1619 dans Les usages de l’intelligence artificielle, le 10 novembre 2017

Je vais regarder cela. Je suis d’ailleurs à la recherche d’études de cas récentes d’applications des systèmes experts / moteurs de règles / solveurs pour alimenter la prochaine édition de mon ebook qui est fait pour s’améliorer dans le temps.

Répondre à ce commentaire

Commentaire 1618 dans Les usages de l’intelligence artificielle, le 4 novembre 2017

J’ai ajouté une mention de ND dans la rubrique sur les systèmes experts.

Les oubliés se plaignent toujours. C’est le risque de n’importe quelle publication !

Répondre à ce commentaire

Commentaire 1617 dans Les usages de l’intelligence artificielle, le 4 novembre 2017

Il l’est. Le lien est indiqué en-dessous de la couverture dans l’article. C’est un test d’attention ! 🙂

Répondre à ce commentaire

Commentaire 1616 dans La sémantique de l’intelligence artificielle, le 2 novembre 2017

Nous sommes en phase ! L’IA est souvent considérée comme IA lorsqu’elle conserve un côté magique. Quand on ouvre le capot, la magie disparaît et ce n’est plus de l’IA, mais de la plomberie probabiliste !

C’est pour cela que je préfère éviter ces querelles épistémologiques et plutôt adopter un regard historique. L’IA est une discipline scientifique à la croisée des chemins qui a été créée en 1955. Avec de nombreux objectifs pas encore atteints. C’est un peu la même chose avec la cancérologie, qui n’a pas permis, pour l’instant, de guérir tous les cancers, même si elle permet d’améliorer petit à petit le taux de survie des patient.

Et il faut accepter le côté artificiel de l’IA, qui ne ressemble donc pas et ne peut pas ressembler à ce que l’on croit comprendre de l’intelligence humaine. Il faut sortir de la vision anthropomorphique pour décrire des machines !

Répondre à ce commentaire

Commentaire 1615 dans Douze mythes de l’intelligence artificielle, le 24 octobre 2017

Je ne les ai pas cités dans cet article car il se dit moins de choses décalées à leur sujet.

Voici ce que j’ai écrit au sujet des BATX dans l’ebook “Les usages de l’IA” publié la semaine dernière (http://www.oezratty.net/wordpress/2017/usages-intelligence-artificielle-ebook/) :

“Est-ce que les leaders chinois vont dépasser les GAFAMI ? C’est une hypothèse à la mode. Les grandes entreprises chinoises du numérique et les startups chinoises bénéficient d’un terrain favorable : une masse de chercheurs et développeurs formés en Chine ou dans le reste du monde, un marché intérieur de plus de 500 millions d’Internautes, un marché mobile ultra-développé et une règlementation qui se pose beaucoup moins de questions sur la protection de la vie privée.

Malgré tout, il subsistera encore longtemps un cloisonnement des marchés au niveau des données et des applications entre la Chine et le monde occidental. Sauf accidents de parcours, les grands chinois ne feront pas l’acquisition de GAFAMI. Si Baidu et d’autres font quelques progrès significatifs dans le deep learning, les techniques utilisées qui sont généralement open source ne sont pas des différenciateurs stratégiques suffisants. Seule la donnée acquise dans leur pays l’est et les données captées par les leaders chinois manquent de diversité pour bien couvrir les besoins à l’échelle mondiale.

Ces grands leaders chinois ont recruté des talents chez des concurrents américains. Rien que chez Baidu, Andrew Ng qui était auparavant chez Google tandis que Qi Lu provenait de Microsoft et Yahoo. Quand à Hugo Barra, ex Google passé avec fracas chez Xiaomi en 2013, il les a quittés début 2017 et est devenu VP de la réalité virtuelle chez Facebook. La recherche chinoise fait des progrès mais est encore en « piggy-back » d’une bonne part de la recherche nord-américaine (USA + Canada). Et la recherche ne suffit pas à définir la position stratégique d’un pays.

Bref, comparer la Chine aux USA en matière d’IA n’est pas évident, surtout si les indicateurs sont anecdotiques et pas économiques.”

J’ajouterai qu’il faudrait plus s’intéresser aux entreprises technologiques chinoises qui exportent beaucoup. A ce titre, Huawei est à surveiller de plus près que les BATX.

Répondre à ce commentaire

Commentaire 1614 dans La sémantique de l’intelligence artificielle, le 24 octobre 2017

J’ai ajouté un “généralement” dans mon point sur les données nécessaires pour les principales solutions de de l’IA.

Il serait intéressant de segmenter les applications entre celles qui ont besoin de données et celles qui n’en ont pas besoin. Au nez, celles qui n’en ont pas besoin font de la simulation s’appuyant sur des lois bien définies et immuables, comme les règles de jeux de société, ou les lois de la physique ou de la chimie, d’où le repliement des protéines ou la simulation du comportement de matériaux qui sont évoqués.

Celles qui ont besoin de données ont un lien avec le monde extérieur qui ne peut pas être facilement représenté par les lois de la physique, comme le comportement des consommateurs, le cours de la bourse d’une entreprise ou même, le comportement du vivant au niveau macro, comme l’imagerie médicale. Et tout ce qui a trait au lien entre le monde et sa description par le langage, que l’on retrouve dans la vision artificielle ou le NLP.

Quand aux annonces de DeepMind, je les prendrais avec des pincettes, notamment pour ce qui relève du repliement des protéines. L’arbre de décision à élaguer pour gagner au jeu de Go présente une forte combinatoire mais est “discret”. Alors que le repliement des protéines n’est pas discret mais continu. Il s’agit de trouver le moyen d’optimiser une fonction d’énergie avec un nombre incroyable de paramètres qui sont continus et non discrets. Donc, l’approche de AlphaGo Zero n’est pas directement applicable à ce problème.

Il faudrait peut-être coupler leurs techniques avec des processeurs quantiques, y compris ceux sur lesquels bossent Google, et pas juste les D-Wave qui font du recruit quantique qui n’est pas considéré comme étant un véritable ordinateur quantique par les spécialistes.

L’horizon de tout cela est plutôt lointain. Au sens… au-delà de 5 ans.

Répondre à ce commentaire

Commentaire 1613 dans La sémantique de l’intelligence artificielle, le 24 octobre 2017

Oui, c’est vrai dans un tel cas. Mais gagner au Go n’a aucune application dans la vie courante. Les chatbots, la reco d’images, le machine learning et les systèmes experts ont tous besoin de données. Dans le cas d’Alpha Go, la data, ce sont juste les règles du jeu. Certaines IA savent détecter elles-mêmes les règles du jeu en observant des parties.

Répondre à ce commentaire

Commentaire 1612 dans La sémantique de l’intelligence artificielle, le 12 octobre 2017

En effet, bien vu ! Le cognitif est un moyen de contourner le problème. Même si le terme est aussi un peu survendu.

Répondre à ce commentaire

Commentaire 1611 dans Les avancées de l’intelligence artificielle… en ebook, le 3 octobre 2017

Je viens d’en tester le téléchargement et j’arrive à le lire, notamment dans Edge sous Windows et avec Adobe Digital Edition. Ce document commence à dater, je prévois de publier très bientôt une V2 bien plus riche et surtout, actualisée.

Répondre à ce commentaire

Commentaire 1610 dans Douze mythes de l’intelligence artificielle, le 1 octobre 2017

En effet ! Les mythes ne portent pas que sur les attentes irréalistes. Elles concernent aussi les méconnaissances sur la manière dont sont menés les projets dans l’IA, sur le rôle respectif des algos, des données et du matériel. C’est une phase d’apprentissage normale pour toute technologie, comme pour ce que l’on a connu avec l’arrivée du web en 1995 qui n’est pas devenu “mainstream” instantanément. Il n’en reste pas moins vrai que les applications pratiques sont immenses ! Il faut juste faire le tri entre les surpromesses et ce que l’on peut faire de concret aujourd’hui.

Répondre à ce commentaire

Commentaire 1609 dans Douze mythes de l’intelligence artificielle, le 29 septembre 2017

Merci Xavier ! Sans compter Microsoft Experience de la semaine prochaine qui j’imagine sera aussi prolixe sur le sujet…

Répondre à ce commentaire

Commentaire 1608 dans Les technologies et l’assassinat de JFK, le 23 septembre 2017

OK merci. Et quel est ce complot ?

De tout ce que j’ai pu lire, j’ai tendance à pencher pour un complot de la mafia, mêlant des ressources de la CIA non pilotées par cette dernière, et cette dernière cherchant ensuite à le cacher. Les thèses d’un coup d’état fomenté par LBJ ou son entourage existent mais ne tiennent pas très longtemps à part quelques très rares témoignages. Ils sont plus nombreux pour incriminer la mafia. Ne serait-ce que tout ce qui a été écrit sur le parcours de Jack Ruby et ses liens avec la mafia des états du sud et de Chicago.

Le problème des enquêtes est qu’elles peuvent toutes utiliser des témoignages et des experts qui vont aller dans un sens ou dans l’autre. A la fin, tout est embrouillé. On a besoin de techniques plus sophistiquées pour analyser tout cela.

Et je suis d’accord sur un point clé : les USA ne sont pas prêts plus de 50 après à accepter que leur président ait été assassiné par la mafia ou du fait d’un autre complot. D’où cette omerta.

Avez-vous vu le documentaire de Robert Baer, ex CIA, fait pour History Channel ? Il va dans le sens d’une implication cubaine et russe. Et la diffusion de la série a été interrompue en cours de route.

Est-ce que les dernières archives qui vont être publiées nous apprendrons quelque chose de majeure ? J’en doute un peu. Mais on verra bien ! Les archives de l’Etat fédéral sont une chose. Mais quid des archives de la mafia et autres organisations ?

Répondre à ce commentaire

Commentaire 1607 dans De l’astronomie à l’entrepreneuriat en ebook, le 30 août 2017

En effet. C’est maintenant corrigé !

Répondre à ce commentaire

Commentaire 1606 dans Les hauts et les bas du plan France Intelligence Artificielle, le 8 août 2017

Oui, les chinois communiquent beaucoup sur leurs avancées dans l’IA. Reste à savoir ce qu’ils entendent par devenir leaders mondiaux en 2020. Quelle est l’unité de mesure de ce leadership ?

Répondre à ce commentaire

Commentaire 1605 dans Les avancées de l’intelligence artificielle – 6, le 26 juillet 2017

Merci pour ce complément. Depuis mes articles qui datent d’il y a plus d’un an, diverses initiatives d’inventaire des startups françaises de l’IA ont été lancées, comme par FranceisAI (d’ISAI). Je note en tout cas ces trois là pour les intégrer dans une éventuelle/probable mise à jour à venir de l’ebook lié aux 9 articles sur l’IA de 2016.

Répondre à ce commentaire

Commentaire 1603 dans De l’astronomie à l’entrepreneuriat : l’Univers, le 14 juin 2017

Merci Mikael ! Mes articles ne font que compiler des informations publiques et facilement récupérables, ne serait-ce que sur Wikippedia. Par contre, j’en ai extrait effectivement l’aspect dimensions et les quelques objets les plus intrigants que j’ai pu croiser dans mes lectures.
Cheers !

Répondre à ce commentaire

Commentaire 1602 dans L’écosystème entrepreneurial de la Guyane, le 27 avril 2017

Merci pour les précisions. J’ai corrigé l’article pour en tenir compte.

Répondre à ce commentaire

Commentaire 1601 dans Retour vers le futur avec Leade.rs, le 15 avril 2017

Si tu joue à ce jeu là, il en manque sûrement plein d’autres. Bon, et puis, je n’y vais pas. Et ce n’est pas orienté deep techs… !

Répondre à ce commentaire

Commentaire 1600 dans Les hauts et les bas du plan France Intelligence Artificielle, le 15 avril 2017

Des choses se préparent mais n’ont pas encore été annoncées en détail car pas encore finalisées.

Répondre à ce commentaire

Commentaire 1599 dans Les hauts et les bas du plan France Intelligence Artificielle, le 31 mars 2017

C’est intéressant, mais ne reflète pas assez bien les enjeux du monde réel et des villes. Et l’expérience est déjà menée ailleurs. Il y a a d’ailleurs celle qui a été lancée sur les quais par la Ville de Paris avec Navya et la RATP. L’enjeu est de sortir justement des environnements maîtrisés.

Cela doit être aussi relié à une approche marketing. Le marché de la ville est plus grand que celui des environnements maîtrisés !

Répondre à ce commentaire

Commentaire 1598 dans A la découverte de la “fab” chez STMicroelectronics : 2, le 7 mars 2017

Je ne sais pas comment faire pour une association. Essayez de leur écrire.

Répondre à ce commentaire

Commentaire 1597 dans Startups scientifiques : imagerie et medtechs opératoires, le 28 février 2017

En effet. Ils m’avaient échappé ! Ils ont été acquis pour 20m€ en 2011.

Répondre à ce commentaire

Commentaire 1596 dans Startups scientifiques : medtechs logicielles, le 23 février 2017

Tu as raison. Grosse boulette, je corrige. Mais sans rentrer dans les détails…

Répondre à ce commentaire

Commentaire 1594 dans Startups scientifiques : imagerie et medtechs opératoires, le 19 février 2017

Oui, énormes erreurs. J’en rougis ! C’est corrigé…

Répondre à ce commentaire

Commentaire 1593 dans Startups scientifiques : génomique et analyses biologiques, le 9 février 2017

Merci du feedback. En effet, DxtER est le nom du produit de Basil Leaf et pas celui de Dynamic Biomarkers.

Répondre à ce commentaire

Commentaire 1592 dans Startups scientifiques : génomique et analyses biologiques, le 8 février 2017

Merci pour l’insight !

Je note que la donnée qui a de la valeur est le croisement entre le génome et le phénotype, d’où l’intérêt de collecter toutes les données de santé et pas seulement celles du génome.

Répondre à ce commentaire

Commentaire 1591 dans Startups scientifiques : génomique et analyses biologiques, le 8 février 2017

La piqûre ne fait pas de mal car les aiguilles ne rentrent pas assez profond sous la peau pour taper sur les nerfs. On les sent à peine, je l’ai testé.

Pour ce qui est de la fiabilité, je ne sais pas trop. C’est une mesure indirecte. Il doit y avoir une courbe de corrélation entre la glycémie mesurée sous la peau et celle du sang. Reste à savoir si cette corrélation est la même pour tous les patients et ne nécessite pas de calibrage. Ils ont du tester la chose sur plusieurs patients avant de se lancer. Et comme je l’indique dans le rapport, il y a trois autres sociétés dans le monde qui utilisent ce procédé d’une manière ou d’une autre.

Pour le vendre, il faut obtenir l’agrément dispositif médical des autorités de santé des pays/régions ciblées. Ensuite, il faut qu’il soit recommandé par les diabétologues, comme pour tout produit de ce genre. Enfin, il faut l’agrément des tiers payants (CPAM, mutuelles, …) pour qu’il soit remboursé. C’est le lot commun de toutes les medtechs. Long et fastidieux.

Répondre à ce commentaire

Commentaire 1590 dans Rapport CES 2017, le 31 janvier 2017

C’est débat vieux comme le numérique, sur les transitions entre anciens et nouveaux formats et les promesses marketing de l’upsampling. On a aussi connu cela avec la TV HD. Quand on est au niveau d’un master en CD audio des origines, même upsamplé, on ne peut pas vraiment parler de HiRes.

Cela a du sens, soit par masterisation HiRes à partir d’un enregistrement analogique, en général sur bandes magnétiques bien conservées, soit avec des masters HiRes de studio. C’est en fait un faux problème car une bonne partie des masters de la production audio sont nativement en HiRes. Enfin, je crois…

Répondre à ce commentaire

Commentaire 1589 dans Rapport CES 2017, le 31 janvier 2017

Je les avais mis un peu de côté car, historiquement, ils proposaient majoritairement du très haut débit essentiellement via un partenariat avec Numericable en donc via le câble et pas le FTTH. Bon, je les ai ajoutés dans la liste comme cela, il ne manquera personne.

Répondre à ce commentaire

Commentaire 1588 dans Rapport CES 2017, le 27 janvier 2017

Merci, je corrige. Je n’ai jamais été bon en orthographe et ces remarques en public m’humilient et remuent le couteau dans la plaie. C’est pour cela que j’ai des bêta testeurs qui sont, eux, plus discrets et utilisent un autre moyen de communication plus 1/1.

Répondre à ce commentaire

Commentaire 1587 dans Rapport CES 2017, le 27 janvier 2017

Merci pour le feedback. Pour nos lecteurs, les erreurs concernaient le prix de certains roduits et le fait que certains ne sont pas liés à l’offre Picowan.

Répondre à ce commentaire

Commentaire 1586 dans Rapport CES 2017, le 25 janvier 2017

Merci, c’est corrigé. Il existe une loi non écrite comme quoi ce document n’est jamais parfaitement corrigé, malgré les nombreux relecteurs en bêta et après ! Avec > 1 millions de signes, c’est un tonneau des Danaïdes !

Répondre à ce commentaire

Commentaire 1585 dans Rapport CES 2017, le 24 janvier 2017

Bonjour Jade,

Intéressant ! C’est la seule explication raisonnable ? Pourtant, les scooters à batteries étaient nombreux. Il n’y a donc pas de basculement du marché ?

Olivier

Répondre à ce commentaire

Commentaire 1584 dans Premiers retours du CES 2017, le 23 janvier 2017

J’utilise des 2-en-1, des laptops convertibles en tablettes sous Windows. Comme je n’utilisais l’iPad que pour lire des choses que l’on peut aussi lire sous Windows, ou des apps qui existent en version browser, je m’y retrouve. Mais ce n’est pas valable pour tous les usages. Par exemple, l’application Relay n’existe pas sous Windows, et plein d’autres applications qui n’ont pas d’équivalent sur un navigateur ou sous Windows.

Répondre à ce commentaire

Commentaire 1583 dans Premiers retours du CES 2017, le 17 janvier 2017

Oui, on peut parler de vagues d’innovations. Et pour bien voir les vagues, il faut prendre du recul !

Répondre à ce commentaire

Commentaire 1582 dans Premiers retours du CES 2017, le 16 janvier 2017

Ah, vaste débat sur le sens d’une innovation ! Pour ce qui est de l’iPhone, l’assemblage était innovant, pas les pièces détachées, comme pour la plupart des innovations numériques. Et à la décharge d’Apple, ils étaient parmi les premiers à intégrer un écran capacitif multitouch dans un smartphone. Avant, on avait le droit à du résistif, qui était horrible côté usage. D’ailleurs, Nokia continuait à utiliser des matrices résistives dans son N97 sorti en 2009. Là, c’était tout le contraire de l’innovation : c’était du retardisme avancé. Ca ne les a pas aidés !

Répondre à ce commentaire

Commentaire 1581 dans Premiers retours du CES 2017, le 12 janvier 2017

Hello Juliette,

Bien, pas tant que cela, car ce n’est pas trop l’objet du CES. Je vais tout de même aborder certaines questions industrielles dans la longue rubrique sur les composants électroniques, les processeurs, les réseaux et aussi sur l’impression 3D.

Répondre à ce commentaire

Commentaire 1580 dans Premiers retours du CES 2017, le 10 janvier 2017

L’explication est simple : Renault n’est pas présent aux USA alors que Nissan l’est.

Répondre à ce commentaire

Commentaire 1579 dans Méta-prévisions 2017, le 7 janvier 2017

En effet ! C’est la magie des process ! Demande aux exposants du CES qui ont affaire aux installateurs de Freeman par exemple !

HNY !

Répondre à ce commentaire

Commentaire 1578 dans Guide des startups 2016, le 30 décembre 2016

Oui en effet. C’est vrai pour la métaphore de la balance mais inversé pour l’impact sur les revenus. Ce qui est en vert fait bien monter les revenus et ce qui est en rouge les fait bien descendre. Le sens des flèches méritera une mise à jour en 2017 en effet. Ce, d’autant plus que ce schéma est présent dans le guide depuis les toutes premières versions…

Répondre à ce commentaire

Commentaire 1577 dans La grande intox des objets connectés, le 27 décembre 2016

L’article reste toujours d’actualité plus d’un an après sa publication. Je ferais le point là-dessus dans le Rapport CES 2017 publié le 24 janvier 2017.

Répondre à ce commentaire

Commentaire 1576 dans Les caméras d’Appolo 11, le 13 décembre 2016

Il faut se plonger dans les archives de la NASA. Pour ma part, j’ai eu l’occasion de rencontrer Jim Lowell, commandant de la mission Apollo 13. Et il n’avait pas l’air de raconter des bobards ! Ce n’est pas parce que l’on ne comprend pas tout d’un point de vue scientifique qu’il faut remettre en question une si belle aventure !

D’ailleurs, les sondes qui sont sur Mars, elles sont bien sur mars ? Ou est sont en Arizona ?

Répondre à ce commentaire

Commentaire 1575 dans La renaissance des startups scientifiques – 1, le 13 décembre 2016

Il s’agit de Positron Dynamics.

Répondre à ce commentaire

Commentaire 1574 dans La société du topinambour, le 24 novembre 2016

Ah ah ! Bien oui, avec les progrès exponentiels, tout va très vite ! 🙂

Répondre à ce commentaire

Commentaire 1573 dans La renaissance des startups scientifiques – 1, le 24 novembre 2016

En règle générale, les sociétés non cotées ne communiquent pas sur leurs résultats financiers.

En France, elles devraient le faire au greffe des Tribunaux de Commerce et on devrait les retrouver sur societe.com. Mais nombre d’entre elles ne respectent pas cela.

Les licornes américaines communiquent très peu sur leur résultats. Tu ne trouveras pas d’information sur leur site. Et ils n’ont pas de pages “investor relations”. Parfois, les informations financière fuitent ou sont distillées au compte-goutte. Par exemple, dans la perspective de lancer une IPO.

Ce qui compte est le CA d’une part, puis la croissance et enfin, la profitabilité.

L’absence de Blablacar aux USA s’explique par leur modèle économique et de service. Blablacar permet aux conducteurs de partager les frais de trajets longue distance avec des passagers. Ces frais sont notamment évaluables par l’essence et les péages. Or aux USA, les highways n’ont pas de péages et l’essence y est beaucoup moins chère qu’en Europe. Et sur les longues distances, l’avion est l’autobus local. Mais cela pourrait changer, on ne sait jamais.

Des médias ont cherché à estimer le CA de Blablacar et il pourrait être largement supérieur à celui d’une brasserie, même de la Gare du Nord ou de Lyon ! Cf par exemple http://uk.businessinsider.com/how-much-money-blablacar-could-be-making-2015-9 qui date d’il y a un an.

Répondre à ce commentaire

Commentaire 1572 dans L’origine et les conséquences de l’élection de Donald Trump, le 22 novembre 2016

Désolé de ne pas avoir fact-checké le nombre précis de Carats d’or de l’avion de Trump, qui se trouvent visiblement surtout dans la salle de bain. Cf la visite ici : https://www.youtube.com/watch?v=UZq3iCn2y74 et un documentaire complet ici : https://www.youtube.com/watch?v=OygETK3-oN4. C’est en tout cas le premier président américain qui sera downgradé en utilisant Air Force One, que ce soit le 757 (C-32) ou le 747 (VC-25A) ! Mais qu’est-ce que cela change ? Le gars a une fortune significative et ne s’en cache pas.

Pour ce qui est des manifestants payés pour protester contre Trump (pendant la campagne), il s’agit d’un hoax bien documenté, comme de nombreuses fausses nouvelles qui ont alimenté la campagne de Trump et sont largement dénoncées, au point que Facebook a du s’en préoccuper.

Cf http://www.politifact.com/truth-o-meter/statements/2016/nov/17/blog-posting/no-someone-wasnt-paid-3500-protest-donald-trump-it/, http://www.theaustralian.com.au/news/world/the-times/us-election-fake-news-guru-paul-horner-takes-credit-for-trump-win/news-story/66beb020cf6adb13e341cd05f0a64ce3 et http://www.ibtimes.co.uk/trump-supporters-duped-by-fake-news-generated-macedonia-1590319.

Quant aux éventuelles sources qui disent du bien de Trump, elles sont bien rares, même en cherchant, y compris dans le camp Républicain. J’ai lu plusieurs biographies le concernant, certaines datant d’avant sa campagne électorale, donc pas marquées par sa polarisation extrême. Et il est difficile d’en sortir avec une quelconque admiration du personnage. Et ne parlons pas des gens qui l’entourent.

Ce n’est pas suffisant de rappeler que les gens votent en fonction de leurs colères. Les solutions proposées par Trump relèvent pour leur grande majorité d’un baratinage de la plus belle facture. Les classes moyennes et défavorisées vont en pâtir s’il les applique. Et s’il ne les applique pas, et bien, rien de changera.

Il serait intéressant de reprendre une par une les propositions de Trump pour voir en quoi elles pourraient améliorer la vie des gens. Dans la santé, dans l’éducation, dans les droits civiques, dans la fiscalité (qu’il veut surtout alléger pour les plus fortunés, jusqu’à supprimer entièrement les droits de succession dont l’exonération est déjà bien plus élevée qu’en France, de plusieurs millions de $), dans le rapatriement des emplois délocalisés, dans la relance du charbon, …

Au passage, le programme d’infrastructures de Trump (http://www.forbes.com/sites/timworstall/2016/11/19/donald-trumps-infrastructure-program-is-much-worse-than-the-democrats-one-oh-yes-undoubtedly/#63a5db1e70fb) emprunte dans une certaine mesure à celui que Sarkozy a lancé, plus modestement, en 2009 après le début de la crise financière. Il avait relancé la construction de manière artificielle, par la dette. Et la loi ALUR de Cécile Duflot a ensuite plombé le BTP.

En France, les candidats de droite n’ont pas tenu certaines de leurs promesses pour diverses raisons, notamment les blocages syndicaux à répétition. Sarkozy en avait peur lorsqu’il était président. Quand à Hollande, il a eu un certain courage politique en prenant des décisions économiques pour lesquelles il n’avait pas été élu. Mais des demi-mesures dans la majorité des cas. Il a déjà assez énervé sa base comme cela.

Après, on peut toujours fantasmer sur une amélioration de la compétitivité de la France par la sortie de l’Europe et de l’Euro, qui est la principale thèse économique du FN. Malheureusement, la compétitivité n’est pas qu’une question de monnaie. Sinon, ce serait trop facile !

Répondre à ce commentaire

Commentaire 1571 dans L’origine et les conséquences de l’élection de Donald Trump, le 19 novembre 2016

Tient, lisez cela : https://www.greatagain.gov/policy/financial-services.html.

Un enfumage complet, au service des grandes institutions financières. Et un mensonge sur la situation de l’économie américaine qui s’est grandement améliorée depuis la grande récession de 2008/2009.

Répondre à ce commentaire

Commentaire 1570 dans L’origine et les conséquences de l’élection de Donald Trump, le 19 novembre 2016

Vous déformez mes propos en les tournant comme vous avez envie de les entendre !

J’ai écrit précisément :

“Ce serait la juste vengeance des électeurs pauvres et non éduqués qui n’ont pas été pris en compte. Les aristocrates à la lanterne ! A ceci près qu’ils ont élu un milliardaire narcissique et menteur escroquant ses fournisseurs et clients voyageant dans un avion plaqué or. Mais dans les esprits, un self-made man, même nettement malhonnête et serial menteur, ne peut pas être aussi pourri qu’un politique. ”

“Ce serait” est du conditionnel faisant référence à “ce qui se dit”. Et justement, dans mon papier, je montre que ce n’est pas forcément le cas puisque les électeurs de Trump n’étaient pas significativement plus nombreux que ceux de Romney en 2012. Que ce sont les électeurs démocrates de 2012 et 2008 qui ne sont pas retournés voter parce que Clinton était une candidate décevante ou inspirant doutes et méfiance.

Je n’ai insulté personne dans mon papier. J’ai juste évoqué le besoin d’améliorer l’éducation en général des citoyens. Vous projetez sur mon papier ce que vous avez lu ailleurs !

Par contre, ce que j’écris sur Trump et qui reprend effectivement la docta du moment est vérifiable de plusieurs manières. Son avion et son immeuble sont effectivement plaqués or. C’est un fait. Ses pratiques business ne sont pas des plus élégantes pour ses clients et ses fournisseurs, c’est documenté. J’ai aussi lu une demi-douzaine de livres à son sujet, tout comme sur Hillary Clinton, et je les cite dans mon papier, notamment concernant cette dernière. Ce sont des livres à charge dans les deux cas.

Quant aux problèmes d’insécurité mondiale, une bonne part a été léguée à Obama par l’administration Bush. Une administration qui était soutenue par les Républicains qui sont derrière Trump. Certes, Clinton n’était pas la plus pacifiste des démocrates, mais l’héritage guerrier du moyen orient est surtout dû à Bush 43. C’est la guerre en Irak de Bush qui a coûté trois trillions de $. Celles d’Obama, beaucoup moins.

Pour ce qui est des importations qui ruinent les américains et les pays occidentaux en général, elles sont le fruit d’une mondialisation complexe qui favorise en effet les grandes entreprises. Mais la réponse de Trump à cette question complexe relevait de la pure propagande. Il prétend renégocier les contrats en mode win-lose plutôt que win-win avec les autres pays. Il veut relancer le charbon là où cela n’a pas de sens et est dangereux pour la planète. Il prétend avoir sauvé des usines de Ford dans le Kentucky alors que c’est un mensonge. Il veut abaisser les impôt des plus riches sans augmenter la dette. Il veut supprimer les règles de régulation de la finance et de protection de l’environnement. C’est un énorme baratineur !

Côté sécurité, Trump veut virer 2 à 3 millions de criminels mexicains. C’est le nombre de prisonniers dans toutes les prisons des USA. Il annonçait vouloir construire un mur sur la frontière avec le Mexique et payé par les mexicains. Et ce n’est pas prêt d’arriver. D’ailleurs, s’il fallait le construire, il faudrait faire appel à des travailleurs mexicains car les américains ne font plus de BTP (au niveau exécution).

Oui, il existe des problèmes économiques et de sécurité concernant une frange délaissée de la population, mais Trump racontait des salades sur le sujet. Il faut faire la part des choses entre la reconnaissance des problèmes des gens qui sont tout à fait légitimes et compréhensibles et les solutions à l’emporte pièce des démagogues. A force de répéter que l’on ne comprend pas les problèmes de gens, on renforce dans la pratique des démagogues dangereux.

Tous les partis politiques français cherchent à résorber le chômage et à améliorer la sécurité. Ils proposent juste des moyens différents pour y arriver et c’est là-dessus qu’il faut discuter sérieusement et avec du recul. Entre les approches de droite qui veulent principalement lâcher la bride des entreprises et réduire les charges sociales sans trop se soucier des prestations associées, celles des écolos qui veulent transformer l’économie de fond en comble, celles de gauche et d’extrême gauche qui sont plus redistributives et l’Europe qui sert de bouc-émissaire géant à l’extrême droite.

Répondre à ce commentaire

Commentaire 1569 dans L’origine et les conséquences de l’élection de Donald Trump, le 18 novembre 2016

“Votre texte est une caricature de ce qui a été rejeté par les électeurs.”

Ca fait toujours plaisir ce genre d’invective ! Il faudrait être un peu plus précis ! Mes 10 points sont factuels et d’ailleurs, je ne m’aventure pas trop dans les programmes des deux candidats.

Un monde dominé par des irresponsables économique et va-t-en guerre ? Oui, certainement. Mais Trump et son entourage de républicains ultra-conservateurs ne sont pas les mieux placés pour donner l’exemple. Et ce mec est un menteur maladif, encore plus que ne l’était Hillary Clinton.

http://mashable.com/2016/11/18/trumps-misleading-tweet-fake-news

Et son National Security Advisor, Michael Flynn, est justement un va-t-en guerre caractériel ! Viré pour cela de son poste de patron de la DIA il y a deux ans.

1,3 millions d’électeurs ont tout de même préféré Clinton à Trump. Et Trump ne doit son élection qu’à un différentiel de 155 000 voix. Ce n’est donc pas un rejet, c’est plutôt de l’ordre du clivage 50/50. Et ce clivage a été accentué par le fait que Clinton n’était pas forcément une bonne candidate pour son camp, ce que je relève bien dans mon papier.

Quand un president-elect prend comme principal conseiller un équivalent en pire de Buisson chez nous, un responsable de l’environnement qui est un climato-sceptique, etc, on a quelques raisons de s’inquiéter.

Quelles leçons ai-je donné concernant la démocratie ? J’explique comment elle fonctionne aux USA et décrit les débats associés, notamment sur le système des grands électeurs. Je suis équilibré, expliquant les avantages et inconvénients de ce système.

Oui, on peut prendre date, en effet…

Répondre à ce commentaire

Commentaire 1568 dans L’origine et les conséquences de l’élection de Donald Trump, le 15 novembre 2016

Trump a gagné l’élection présidentielle selon ses règles bien établies, c’est clair. Et ces règles font que les candidats se battent surtout dans les swing states.

Mais le vote populaire reste une indication intéressante.

Il ne faut pas oublier que les élections portent sur plusieurs points le même jour : les sénateurs (1 état sur 3) et tous les représentants. Les électeurs, même hors états swing states, sont motivés à aller voter pour leurs représentants locaux. Sans compter divers référendums et les élections de gouverneurs.

Donc, on a avec le vote populaire un avis agrégé des gens qui votent pour un ensemble. Si la règle était différente, il y aurait peut-être une plus grande participation mais on n’en sait rien. Le fait que pour le total législatif+exécutif, ils aient un taux de participation inférieur à celui que l’on constate en France est un problème en soi. Nombre d’adultes ne se sentent pas concernés par les élections et pas seulement parce que Trump et Clinton étaient de mauvais candidats l’un comme l’autre.

Notons qu’aux mid term elections de 2014, la participation était très basse: 36.4%. Et là, d’environ 60%. Donc, la participation à la présidentielle motive de nombreux électeurs, même dans les états qui ne sont pas des swing states. D’ailleurs, j’ai vu dans les tableaux que le taux de participation n’était pas corrélé par la polarisation ou pas de l’électorat. En ce sens qu’il y a un spread aussi important de taux de participation dans les swing states que dans les autres états.

Répondre à ce commentaire

Commentaire 1567 dans L’origine et les conséquences de l’élection de Donald Trump, le 14 novembre 2016

Très intéressant, merci !

Répondre à ce commentaire

Commentaire 1566 dans L’origine et les conséquences de l’élection de Donald Trump, le 14 novembre 2016

Je me suis penché sur cette question dans les données. J’imaginais une faible participation dans les états où les votes sont acquis à l’avance et plus forte dans les swing states. Et bien, il n’en est rien ! La distribution est assez aléatoire si on croise l’abstention et le résultat Trump/Clinton.

Mais objectivement, si si, Clinton a pour l’instant bien gagné le vote populaire, même s’il ne détermine pas l’issue du scrutin. Et au gré de l’avancement du décompte qui n’est pas encore terminé, du fait du lent dépouillement des votes par correspondance dans en Californie et à New York, la différence augmente entre Clinton et Trump. Sans changer le résultat en EV. C’est lié au fait qu’il y a plus d’américains de l’étranger issus des états démocrates que républicains, j’ai l’impression.

Répondre à ce commentaire

Commentaire 1565 dans L’origine et les conséquences de l’élection de Donald Trump, le 13 novembre 2016

Bien oui, j’explique tout cela en détail pour montrer que l’élection s’est jouée dans 4 états et sur 155 000 votes alors que Clinton a gagné le vote populaire avec plus de 575 000 voies d’avance !

Tu as raison, nos institutions nous protègent d’une situation à l’américaine. Mais les Cassandre vont tout de même s’y donner à cœur joie pour prédire une victoire du FN au second tour dans la lignée des surprises du Brexit et de Trump.

L’équivalent de l’anti-élites de Trump sera l’anti “UMPS”. Aux USA, les américains n’ont en pratique que deux choix, les autres candidats étant exclus du jeu médiatique et institutionnel. En France, c’est maintenant un jeu à au moins trois choix.

On voit déjà poindre un rejet de nombreux candidats LR qui sont dans la politique depuis des décennies.

Oui, Marine Le Pen n’a pas beaucoup de chances face à Juppé. Mais elle fera un bien meilleur score que son père face à Chirac en 2002. Même si elle ne gagne pas, cela enclenchera un processus, comme l’éventualité de l’intégration d’une part de proportionnelle dans les législatives. C’est une dynamique.

Et si Le Pen est face à Sarkozy, on se retrouvera dans une situation à la Trump/Clinton avec un vote “impossible” pour plein d’électeurs.

Répondre à ce commentaire

Commentaire 1564 dans L’origine et les conséquences de l’élection de Donald Trump, le 12 novembre 2016

Ca me rassure ! Enfin, un mec pas d’accord !

Répondre à ce commentaire

Commentaire 1562 dans L’origine et les conséquences de l’élection de Donald Trump, le 12 novembre 2016

Les alternances passées ont été bien plus marquées électoralement : celle de Reagan en 1980, celle de Clinton en 1992, puis celle de Obama en 2008. Seule celle de Bush 43 était faiblement marquée en PV et EV. Comme celle-ci. Et ce sont les deux dernières alternances partant des démocrates.

Ton hypothèse sur une présidence à la Reagan n’est pas exclue mais nombre d’analyses et observations ne sont pas rassurantes, ne serait-ce qu’au niveau de la composition de la transition team. Le seul signe vaguement positif étant le remplacement de Chris Christie par Mike Pence pour diriger cette équipe. C’est d’ailleurs une première qu’elle soit dirigée par un Vice-President Elect.

Répondre à ce commentaire

Commentaire 1561 dans L’origine et les conséquences de l’élection de Donald Trump, le 12 novembre 2016

Oui, la paille et la poutre… !

Répondre à ce commentaire

Commentaire 1560 dans L’origine et les conséquences de l’élection de Donald Trump, le 12 novembre 2016

Où avez vous vu que j’écrivais que ISIS reculait grâce aux USA ? Les russes y jouent évidemment un rôle. J’y évoque un scénario qui déplacerait le problème ailleurs : en Libye, dans d’autres pays, et vers une recrudescence d’attentats spectaculaires provoquant Trump et ses réactions un peu rapides.

J’ai aussi lu beaucoup de matière concernant Clinton, dont les bouquins à charge contre elle ainsi que les “rebutals” les concernant. Et la pédophilie des Clinton est documentée notamment ici : http://www.fawkes-news.com/2016/11/declarations-chocs-du-lanceur-dalerte.html. J’écris à plusieurs endroits dans mon papier que Hillary Clinton n’était certainement pas une bonne candidate et que cela explique qu’elle n’ai pas pu mobiliser l’électorat démocrate. Est-ce aussi biaisé ?

Répondre à ce commentaire

Commentaire 1559 dans Le numérique peut-il améliorer les démocraties ? – 4, le 31 octobre 2016

Oui, je n’ai pas balayé toutes les 16 candidatures retenues. J’avais bien lu le programme de Roxanne Revon. J’y ai trouvé un programme très européen proche de ceux des centristes. Il est un peu utopistes sur les bords mais c’est une bonne chose que de donner une direction. Philippe Mazuel a une action qui s’inscrit dans le cadre d’un parti politique existante, le Pace. Ce qui est une exception du genre pour les finalistes de LaPrimaire.org. En ce sens, on en revient aux structures représentatives traditionnelles.

J’ai complété mon texte avec une description de ces deux candidatures, ce qui n’altère pas le reste du propos.

Répondre à ce commentaire

Commentaire 1558 dans Le numérique peut-il améliorer les démocraties ? – 2, le 21 octobre 2016

Je n’ai pas vu cette passe d’armes mais l’intervention d’Alexandre Jardin dans le meeting d’Emmanuel Macron du 12 juillet à la Mutualité (en streaming). Je trouve qu’Alexandre Jardin en fait un peu trop. Il mélange l’activité terrain d’association, souvent de l’entrepreneuriat social et solidaire et la politique générale du pays. Il y a toujours de très bonne idées venant du terrain bien évidemment, mais elles ne se transforment pas en politique nationale pour autant. D’autant plus qu’une fois fonctionnarisées ou généralisées, elles perdent de leur fraîcheur et de leur naturel.

Par exemple, Alexandre Jardin s’intéresse à l’exclusion, mais pas à l’enseignement supérieur, à la recherche, à l’innovation technologique ou à la politique étrangère, qui sont aussi du ressort de l’Etat et des politiques.

Bref, c’est un peu un dialogue de sourds qui ne sont pas sur le même registre.

Répondre à ce commentaire

Commentaire 1557 dans Le numérique peut-il améliorer les démocraties ? – 2, le 18 octobre 2016

Je traite de la présidentielle dans la partie 4 de la série, me penchant sur les programmes des candidats qui sortent de processus participatifs comme celui de LaPrimaire.org. Dans l’ensemble, je trouve la méthodo intéressante mais le résultat décevant. Les citoyens de base ne sont pour l’instant pas bien meilleurs que les politiques professionnels. Ils ont ce côté frais et naïf qui plait au premier abord. Mais quand on creuse, on a du mal à dépasser les discussions de salon. Il leur manque une vue d’ensemble, surtout pour une présidentielle. Certains ne savent même pas comment fonctionne l’exécutif, comment est votée une loi, comment on gère le temps long et le temps court. Aucun n’émet de vision de politique étrangère. Rare sont ceux qui intègrent les enjeux technologiques à venir et engagent une réflexion sur l’avenir du travail avec la robotisation.

Répondre à ce commentaire

Commentaire 1556 dans Le numérique peut-il améliorer les démocraties ? – 3, le 18 octobre 2016

Ah ah ! En fait, je suis toujours tout seul. Cela n’a rien de surhumain. Je pourrais un faire un cours de deep-digging sur Internet pour expliquer le processus qui est très empirique et manuel. J’ai aussi passé du temps dans un événement sur le sujet (Forum des Civic Techs il y a 10 jours).

Le nous, c’est une manière d’englober le lecteur dans le propos et d’éviter de trop parler à la première personne.

Répondre à ce commentaire

Commentaire 1555 dans Le numérique peut-il améliorer les démocraties ? – 2, le 16 octobre 2016

En effet.

Il y a plein d’autres questions de ce genre :
– Les démocraties face à l’IA et à la robotisation.
– Les démocraties face à la crise environnementale.
– Les démocraties face aux GAFA…

Répondre à ce commentaire

Commentaire 1554 dans Le numérique peut-il améliorer les démocraties ? – 1, le 14 octobre 2016

J’avais entendu parler de cet événement qui a l’air pas mal en effet. Il tombe pendant le Web Summit de Lisbonne où je serais pendant toute cette semaine-là !

Olivier

Répondre à ce commentaire

Commentaire 1553 dans Guide des startups 2016, le 13 octobre 2016

Je ne le diffuse pas en version papier. Trop compliqué. Par contre, il existe des tonnes de services d’impression en ligne qui peuvent l’imprimer à partir du PDF qui est librement téléchargeable. Cela coûte moins de 100€ l’unité. C’est plus cher en couleur.

Répondre à ce commentaire

Commentaire 1552 dans Le numérique peut-il améliorer les démocraties ? – 1, le 4 octobre 2016

Je n’y crois pas une seconde et cela me semble un peu court et prétentieux sur les bords.

Essayez déjà de régler le problème de la paye de l’armée en allant bosser chez Sopra et après on en rediscutera ! Ou en essayant d’accélérer le déploiement du DMP.

La complexité de ces systèmes d’information vient de toutes les règles complexes qu’ils doivent respecter et de la complexité de l’administration. Twitter est extrêmement simple à gérer à côté. Il y a de gros volumes d’information mais des règles très simples. Le MCD de la base de Twitter doit être simplissime à côté de n’importe quelle implémentation de SAP.

Pour simplifier les SI de l’Etat, il faudrait commencer par simplifier les règles de gestion sous-jacentes. Et ce n’est pas une affaire de geek, pas encore en tout cas. Il ne faut pas oublier non plus que certains systèmes sont cloisonnés pour protéger les citoyens côté vie privée. Tout du moins en théorie.

Les projets “clean state” sont toujours plus faciles à penser que ceux qui intègrent un existant complexe.

Le pays qui a fait cela très bien est l’Estonie, avec un système d’information intégré et une architecture unifiée. C’est un pays de 1,4 millions d’habitants qui a tout remis à plat en 1992.

Répondre à ce commentaire

Commentaire 1551 dans Les margoulins de l’Internet, le 28 septembre 2016

Petit auto-commentaire. Viens de recevoir une offre d’iPhone à 1€ de la part de Bouygues Telecom Entreprises.

http://www.partenariat-bouygues-telecom-entreprises.fr/iphones6/index.html?idp=

Ce n’est pas très malin d’utiliser une pratique marketing qui fait penser à une arnaque. D’ailleurs, elle était filtrée par mon antispam… !

Ah ces marketeurs !

Répondre à ce commentaire

Commentaire 1550 dans L’écosystème entrepreneurial de la Guyane, le 28 septembre 2016

La Floride est-elle un bon exemple ? Attention au mirage de Cap Kennedy. C’est un centre de lancement mais les industries associées sont ailleurs aux USA, surtout en Californie. C’est lié au fait que, comme pour les industries militaires, les Présidents américains depuis JFK ont saupoudré les investissements industriels dans plusieurs états pour s’en attirer les faveurs.

Il en va de même pour Kourou qui occupe à peine 2000 personnes, ce qui est une goutte d’eau par rapport aux industries amont, pour la construction des éléments des fusées et des satellites, et sur l’aval, dans l’exploitation desdits satellites.

La Floride est surtout connue pour être un Etat pour les retraités et, en effet, aussi pour le tourisme (Orlando et Disneyland, Key West, Everglades…). L’agriculture est la seconde activité. L’activité militaire avec 24 bases contribue plus à l’économie locale que l’industrie spatiale.

Le tourisme vert est en effet un gisement potentiel intéressant pour la Guyane. La fiscalité est déjà avantageuse en Guyane mais pourrait probablement l’être un peu plus.

Dubaï me semblait un exemple approprié car ce petit état a beaucoup investi dans ses infrastructures pour en faire une plaque tournante dans le transport, la finance et divers autres domaines.

Répondre à ce commentaire

Commentaire 1549 dans L’écosystème entrepreneurial de la Guyane, le 28 septembre 2016

Désolé de cet oubli. Je me focalisais sur les formations techniques dans mon propos.

Répondre à ce commentaire

Commentaire 1548 dans L’écosystème entrepreneurial de la Guyane, le 27 septembre 2016

OK, je corrige. Il faudrait aussi le faire sur le site de Mediaserv… : http://www.mediaserv.com/guyane/accueil-client.html !

Répondre à ce commentaire

Commentaire 1547 dans Les margoulins de l’Internet, le 15 septembre 2016

J’interviens déjà dans plein d’endroits sur plein de sujet ! Peut pas être partout !

La plateforme signal spam relève de l’utilité publique. C’est une très bonne initiative.

Il serait intéressant de faire évoluer le site pour partager les bonnes pratiques côté internaute et expliquer les mécanismes des arnaques et des spams pour éduquer les Internautes. Et avec des exemples ! Je n’ai pas trouvé ce genre d’infos sur le site.

Répondre à ce commentaire

Commentaire 1546 dans Les margoulins de l’Internet, le 15 septembre 2016

Peut-être. Mais la proportion des startups qui ont des pratiques très douteuses est tout de même faible. Rien ne prouve qu’elle soit plus élevée que dans d’autres secteurs d’activité. Par exemple, dans le BTP… !

Répondre à ce commentaire

Commentaire 1545 dans Les margoulins de l’Internet, le 15 septembre 2016

Très intéressant. Cela permet d’améliorer la segmentation des répondants. Et relève d’ailleurs d’une forme d’abus de faiblesse… linguistique.

Répondre à ce commentaire

Commentaire 1544 dans Les margoulins de l’Internet, le 14 septembre 2016

Bien vu en effet. J’ai ajouté cette pratique dans l’article.

Répondre à ce commentaire

Commentaire 1543 dans La pédagogie de la réforme au MEDEF, le 14 septembre 2016

C’est Luc Ferry qui avançait ce chiffre dans son intervention. Cela doit probablement intégrer les dirigeants de toutes les TPE/PME et si cela se trouve, aussi les autoentrepreneurs.

Répondre à ce commentaire

Commentaire 1542 dans La pédagogie de la réforme au MEDEF, le 7 septembre 2016

La question a été souvent évoquée. Il y avait un débat sur le sujet, où intervenait notamment Isabelle Kocher de Engie. Et Pierre Gattaz en a plus parlé que de numérique dans son keynote, indiquant qu’avec ses grands groupes, la France était très bien placée pour être championne industrielle dans le domaine. Les politiques en ont aussi parlé.

Répondre à ce commentaire

Commentaire 1541 dans La pédagogie de la réforme au MEDEF, le 6 septembre 2016

Ceci étant, rares sont les candidats qui promettent de la croissance. Ils parlent plus de plein emploi que de croissance. Et des pays arrivent à avoir un taux de chômage voisin du plein emploi. Dans une économie concurrentielle, même en stagnation globale, il est possible de faire mieux.

Répondre à ce commentaire

Commentaire 1540 dans La pédagogie de la réforme au MEDEF, le 6 septembre 2016

Oui, en effet, sauf chez certains écologistes, ce sujet de la croissance est tabou. Il y a aussi des explications macro-économiques et moins liées à l’environnement comme celles de Larry Summers : http://voxeu.org/article/how-secular-stagnation-spreads-and-how-it-can-be-cured. Il manque une analyse montrant, éventuellement, que même un croissance dans l’immatériel, ne suffirait pas…

Répondre à ce commentaire

Commentaire 1539 dans L’Etat peut-il encore avoir une stratégie industrielle ? – 6, le 2 septembre 2016

Oui, ce NBIC fait désuet, comme “informatique” ou “numérique”. Il permet d’éviter de parler de singularité ou de transhumanisme ! Luc Ferry est un philosophe, pas un spécialiste des sciences dures ou des sciences de la vie. Il commettais d’ailleurs dans son intervention de nombreuses erreurs d’appréciation de l’histoire des technologies, faisant par exemple inventer l’électricité par Edison.

Le risque, il n’en parle pas trop. Il évoque le fameux principe de précaution, à supprimer. C’était aussi le point de nombreux candidats RL.

Qui sont donc ces français qui ont créé un séquenceur de 4ieme génération ?

Répondre à ce commentaire

Commentaire 1538 dans L’Etat peut-il encore avoir une stratégie industrielle ? – 6, le 1 septembre 2016

On est ici au-delà de l’Etat car la communauté scientifique est divisée sur la question. L’auditabilité de la fusion froide est toujours sujette à caution. J’ai suivi au gré des années la filière que Rossi cherche à lancer ET a été financée. Cela avance bien lentement. La communication scientifique autour est encore très moyenne. Les scientifiques traditionnels sont très conservateurs bien avant que l’Etat s’en mêle en tant que tel.

D’habitude, dans la physique des particules, la théorie précède l’expérimentation, comme ce fut le cas pour l’énergie nucléaire, la bombe atomique et récemment, le Boson de Higgs. Ici, l’expérimentation précède la théorie et c’est déstabilisant pour les scientifiques.

La fiche Wikipedia bien documentée sur la fusion froide conclue ainsi :

“Les annonces de résultats positifs de fusion froide en dehors des publications scientifiques à évaluation par les pairs sont controversées et sont sujettes à caution. Néanmoins, échaudées par la polémique de 1989, la plupart des revues à comité de lecture, dont Nature, considèrent que la fusion froide n’appartient pas au domaine scientifique et refusent toute publication à son sujet63,64,65. L’éditorial de Nature publié en janvier 1990 par John Maddox, qui marque un jalon important dans l’histoire de la controverse, considère pour sa part que la fusion froide était une affaire classée car toutes les expériences sérieuses se sont avérées négatives.

La plupart des experts impliqués dans l’étude de la “fusion froide” ont conclu, malgré tous les travaux réalisés depuis 1989, aucune preuve n’était venue confirmer, de façon claire et univoque, l’existence du phénomène de la fusion nucléaire « froide ». Un rapport de 2005 précisait que les organismes qui octroient des subventions devraient soutenir les travaux portant sur l’absorption du deutérium dans les métaux comme le palladium mais qu’il ne fallait plus investir autrement.”

https://fr.wikipedia.org/wiki/Fusion_froide

Répondre à ce commentaire

Commentaire 1537 dans L’Etat peut-il encore avoir une stratégie industrielle ? – 1, le 7 août 2016

Galileo ? On sait que le projet a coûté plus cher que prévu et est très en retard. C’est un hybride Ariane – Airbus – Qwant : chercher à concurrencer une solution américaine déployée à l’échelle mondiale (Qwant) avec une approche européenne (Airbus, Ariane), le tout avec un fort apport technologique français. Au delà des péripéties du projet, il semble qu’il va butter sur un point clé : faire adopter ce système de géopositionnement par les constructeurs de matériels grand public, à commencer par les smartphones. Ce support vient tout juste d’être annoncé par Qualcomm pour ses Snapdragon : https://www.qualcomm.com/news/releases/2016/06/21/qualcomm-announces-broad-support-galileo-across-snapdragon-processor-and. Il faudra donc attendre les modèles 2017 pour en voir la couleur, sur Android en premier lieu.

La délocalisation du savoir faire industriel est un fait acquis en Europe en général et pas seulement en France. Je n’ai cependant pas vu de quantification de cette perte de savoir faire comparée entre l’Allemagne et la France. L’Allemagne est connue pour ses produits finis haut de gamme comme dans l’automobile et dans les machine outils. La France n’a jamais été bonne dans les machines outils, bien avant le phénomène des délocalisations. Comme je l’indique dans cette série d’articles, on importait des machines à tisser des anglais au début du 19e siècle pour s’adapter lors de la première révolution industrielle.

Oui, j’ai vu cette annonce de plan de Mathilda May. Pour l’instant, cela semble encore relever du plan consistant à faire un plan qui n’a pas été publié.

Répondre à ce commentaire

Commentaire 1536 dans L’Etat peut-il encore avoir une stratégie industrielle ? – 3, le 29 juillet 2016

Ne pas se laisser berner par les solutions simplistes est déjà un progrès !

Répondre à ce commentaire

Commentaire 1535 dans L’Etat peut-il encore avoir une stratégie industrielle ? – 1, le 26 juillet 2016

Bonjour Philippe,

Oui, bien sûr, tu as raison, le GSM ! J’en parle dans un des posts à venir de cette série, comme une bonne pratique oubliée et à reproduire de collaboration européenne. Même si le bénéfice économique est moins évident aujourd’hui, tandis que les grands équipementiers télécoms européens battent de l’aile. Le départ soudain du CEO d’Ericsson en est un exemple, pas encore élucidé d’ailleurs.

Oui, l’Etat ne peut pas aider directement l’innovation pour les raisons que tu évoques et que l’Etat chercher à contourner tant bien que mal. Mais comme il peut aider au niveau de la R&D, il le fait là où cela ne devrait pas être fait.

Pour Quaero, c’était foutu dès le départ, avant Sarkozy, car 1) ce n’était même pas structuré comme un projet unifié et 2) qu’il fallait se battre sur autre chose que chercher à concurrencer Google sur son terrain.

Répondre à ce commentaire

Commentaire 1534 dans L’Etat peut-il encore avoir une stratégie industrielle ? – 3, le 25 juillet 2016

C’était un peu l’objet des PIA que de fournir cette manne financière destinée à financer le futur, notamment via la R&D.

Limiter le poids de la masse salariale de l’Etat passe par plein d’initiatives, dont l’efficacité par le numérique et par une simplification des textes. Mais je n’aborderai pas trop cela dans ces papiers.

Répondre à ce commentaire

Commentaire 1533 dans Guide des startups 2016, le 25 juillet 2016

Merci du feedback.

Pour l’affichage du sommaire à côté du document, ce serait plutôt une fonction de la liseuse PDF que du document. Malheureusement, Adobe Acrobat Reader ne sait visiblement pas afficher le sommaire du document à gauche du document. Il ne fait qu’afficher optionnellement les vignettes des pages. Il y a peut-être d’autres liseuses de PDF qui savent faire cela.

Répondre à ce commentaire

Commentaire 1532 dans L’Etat peut-il encore avoir une stratégie industrielle ? – 2, le 13 juillet 2016

Il me semble que ce n’est pas financé par l’Etat mais par les collectivités locales ou des structures associatives locales comme Atlantic 2.0 à Nantes, qui existaient avant la French Tech et avaient déjà des sources de financement publiques et privées.

Les 200 m€ ne financent que des accélérateurs, et en fonds propres avec un % au capital.

Ces accélérateurs prenant eux-mêmes des parts dans les startups accompagnées, et les récupérant en cas d’exit de ces startups. On attend de valider ce modèle économique en France. N’est pas Y-Combinator qui veut !

Répondre à ce commentaire

Commentaire 1531 dans L’Etat peut-il encore avoir une stratégie industrielle ? – 1, le 11 juillet 2016

J’ai vu, en préparant la seconde partie, que je Japon avait été utilisé comme référence dans le Rapport Beffa en 2014. Mais c’est loin d’être une belle référence maintenant. L’industrie japonaise a perdu des parts de marché face aux chinois et aux coréens. Elle s’est rabattue vers les composants (cf http://www.eu-japan.eu/sites/default/files/publications/docs/nanotechinjapan.pdf), va mal dans la partie grand public (cf Sharp, Toshiba), fait sa mue vers les énergies renouvelables (Panasonic), etc.

Le Japon étant deux fois plus grand que la France en habitants et PIB, ils ont un marché intérieur plus important pour leurs grandes entreprises, ce qui les handicape pour l’international.

Leur écosystème de startups est quasiment inexistant pour des raisons culturelles. Le tissu industriel ne se renouvelle donc pas assez. La notion de plateformes leur est étrangère car leur culture logicielle est faible, comme ailleurs en Asie. Qui plus est, leur population décline.

Leur modèle d’intervention publique a consisté par le passé à lancer quelques grands projets, comme dans les supercalculateurs, financé par le MITI (leur Ministère de l’Industrie). L’influence de ce Ministère (devenu METI) et de ces grands projets a ensuite décliné, depuis au moins 15 ans.

Il y a eu des efforts de création de clusters comme à Tsukuba (au Nord) ou Fukuoka (au Sud). Et le plan du Ministre Hiranuma en 2001, de création de 1000 startups à partir des universités. Cf http://www.meti.go.jp/english/information/data/cPlan010525e.html. J’ai l’impression qu’ils ont une vision de l’innovation “linéaire” allant de la R&D au marché, comme dans une bonne partie de la France d’aujourd’hui.

Bref, c’est loin d’être un modèle de référence d’intervention publique. C’est plutôt devenu dans les faits un modèle de faible interventionnisme public. En tout cas, comparativement aux USA comme à la France.

Répondre à ce commentaire

Commentaire 1530 dans L’Etat peut-il encore avoir une stratégie industrielle ? – 1, le 6 juillet 2016

Merci Philippe,

Intéressant, je découvre. Mais dans la pratique, plutôt anecdotique ! Car 11500 terminaux en tout, c’est loin d’en faire des exportations significatives. Une véritable goutte d’eau.

L’article de Libération est aussi éloquent : France Télécom se décide à exporter le Minitel en 1992, onze ans après son lancement en France. Une curieuse idée du time to market. Surtout dans la mesure où le Minitel n’avait pas besoin d’upgrade des infrastructures télécoms puisqu’il fonctionnait sur le réseau téléphonique commuté.

On peut aussi dire que le Minitel à permis à des entrepreneurs comme Xavier Niel de démarrer, puis ensuite, de créer Iliad/Free. Qui, malheureusement, n’est pas véritablement devenu un acteur international, malgré une petite diversification de son fondateur (Monaco Telecom, Golan Telecom, 42 aux USA, …).

Olivier

Répondre à ce commentaire

Commentaire 1529 dans L’Etat peut-il encore avoir une stratégie industrielle ? – 1, le 6 juillet 2016

Oui, en effet, Apollo 1…

Répondre à ce commentaire

Commentaire 1528 dans Le business des bases de données de startups, le 5 juillet 2016

Il y a toujours la Crunchbase devenue payante pour une exploitation des données. En France, le projet CanopeeZ est en train de voir le jour dans ce domaine.

Répondre à ce commentaire

Commentaire 1527 dans L’Etat peut-il encore avoir une stratégie industrielle ? – 1, le 5 juillet 2016

Est-ce un pb d’Etat stratège ou simplement, un échec d’ingénieurs ? D’autres pays, USA compris, ont eu des échecs technologiques. La question est de savoir les interpréter, de corriger le tir et d’aller de l’avant. Sinon, les 3 morts d’Apollo 7 en 1967 auraient empêché d’aller se poser sur la lune en 1969 ! Deux ans seulement séparent les deux événements. Aujourd’hui, on attendrait bien plus longtemps !

Répondre à ce commentaire

Commentaire 1526 dans L’Etat peut-il encore avoir une stratégie industrielle ? – 1, le 5 juillet 2016

Il n’y a pas que la Bpi, il y a aussi tous les PIA gérés par la DGE avec moult appels d’offres. Oui, il y a une très grande distribution des financements. Mais il est aussi assez élevé aux USA. La principale différence aux USA est l’effort de R&D fédéral dans le complexe militaro-industriel (armée, renseignement) qui représente la moitié des investissements américains. En France, les investissements portent plus en proportion sur les technos civiles. Et surtout, tout ce qui est fait aux USA est x fois plus important qu’en France, avec x allant de 7 à 20 selon les cas. On est un plus petit pays, c’est tout. Donc, en effet, on devrait moins saupoudrer. Or, on fait le contraire comme je vais le décrire dans le second article.

Répondre à ce commentaire

Commentaire 1525 dans L’Etat peut-il encore avoir une stratégie industrielle ? – 1, le 5 juillet 2016

Bien sûr. Mais l’administration américaine distribue aussi des subventions et prêts dans un tas de domaines. Pas seulement chez Tesla. Il y a le solaire, la génomique, etc.

Répondre à ce commentaire

Commentaire 1524 dans L’Etat peut-il encore avoir une stratégie industrielle ? – 1, le 5 juillet 2016

C’est documenté notamment ici : https://medium.com/insurge-intelligence/how-the-cia-made-google-e836451a959e#.ctea1aiuy. Mais sans préciser les montants qui devaient être assez faibles à l’époque, car il s’agit de financement de projets universitaires de Stanford.

Répondre à ce commentaire

Commentaire 1523 dans L’Etat peut-il encore avoir une stratégie industrielle ? – 1, le 5 juillet 2016

En effet. Leur construction était planifiée mais a été ensuite annulée. Ce que j’ai précisé par un ajout entre parenthèses.

Répondre à ce commentaire

Commentaire 1522 dans La société du topinambour, le 24 juin 2016

Le topinambour se cuisine à toutes les sauces ! Tu as ma bénédiction Pierre ! Il y a aussi, le Brexit et le topinambour ! Parce qu’avec la faiblesse de leur agriculture, les anglais vont énormément dépendre de l’Europe côté topinambour !

Répondre à ce commentaire

Commentaire 1521 dans La société du topinambour, le 22 juin 2016

Gilles Babinet ne parle jamais du topinambour. Il est très focalisé sur le big data et les MOOC ! 🙂

Répondre à ce commentaire

Commentaire 1520 dans SIEL-SATIS 2009 – l’éclairage, le 17 juin 2016

Merci. Mais était-ce valable dans des offres grand public en 2009 au moment de la rédaction de cet article ?

Répondre à ce commentaire

Commentaire 1519 dans Sapiens et technologies à l’USI 2016, le 14 juin 2016

Excellent ce papier sur les Blockchains qui remet les pendules à l’heure sur l’enthousiasme un peu débridé du moment. Merci !

Répondre à ce commentaire

Commentaire 1518 dans Comment s’y retrouver dans les réseaux M2M ? 2/2, le 2 juin 2016

Ca dépend du marché visé et de l’originalité de la solution ! Il ne peut pas y avoir de réponse absolue à ce genre de question !

Répondre à ce commentaire

Commentaire 1516 dans Les avancées de l’intelligence artificielle… en ebook, le 17 mai 2016

Oui, j’ai bien vu ton papier ! Très bien !

Pour que la programmation soit robotisée, il faudrait aussi que les besoins des clients le soient. Or, ils changent tout le temps… et ils ne savent pas forcément bien l’exprimer. Aller, zou, toutes les PME auront le même template de site web comme cela, ce sera plus simple 🙂 !

Répondre à ce commentaire

Commentaire 1515 dans Les avancées de l’intelligence artificielle – 8, le 15 mai 2016

Oui, en effet. C’est d’ailleurs un point soulevé par les tests réalisés sur les ordinateurs quantiques de D-Wave par Google. En utilisant des algos optimisés pour ordinateurs traditionnels, le D-Wave n’est pas plus rapide avec ses algos dédiés ! L’IA se définit plus par ses effets que par ses techniques. Si une technique permet d’ajouter de l’intelligence à une machine mais qu’elle ne repose pas sur du machine learning ou des réseaux neuronaux, cela reste une forme d’IA.

Répondre à ce commentaire

Commentaire 1514 dans Les avancées de l’intelligence artificielle – 9, le 14 mai 2016

Merci Hervé !

Il y aurait matière à gamberger sur le fonctionnement des démocraties dans le monde complexe. La démocratie classique demande de la simplicité dans les messages, ce qui pousse au populisme ou bien, au minimum, à décider des choses contradictoires comme dans le domaine économique.

Comment gérer la démocratie dans une société de plus en plus complexe ? C’est une méga-question. Cela passe par l’éducation et les médias en effet. Egalement, par un développement de la culture scientifique et technologique qui a tendance à aller complètement à vau-l’eau.

Anecdotes :

– D’un côté, Laurent Alexandre (fondateur de Doctissimo et DNAvision) m’a félicité pour ma “synthèse”. Mes 9 articles font 134 pages A4 soit l’équivalent d’un bouquin. Donc, considéré, à juste titre d’ailleurs, comme une synthèse de la question.

– De l’autre, une chaîne de TV m’a récemment demandé de résumer “ma synthèse” en deux minutes. J’ai débordé, et fait 3 minutes.

Tout est dit…

Olivier

Répondre à ce commentaire

Commentaire 1513 dans Les avancées de l’intelligence artificielle – 9, le 11 mai 2016

Je ne suis pas inquiet sur la vitesse d’apprentissage car on ne parle pas de la même chose : les machines n’apprennent pas de nouvelles méthodes plus rapidement que l’Homme, elles vont plus vite à gérer de gros volumes d’information. La créativité, le fonctionnement par analogie, la reconnaissance de patterns (au sens large) sont des compétences transversales qui s’apprennent et que les machines n’ont pas encore. On doit les développer. Qui plus est, les machines font ce que l’Homme lui dit de faire. On gamberge sur la perte de contrôle du processus quand la machine apprend par elle-même. Mais cet auto-apprentissage est pour l’instant limité. C’est le problème de la représentation symbolique dans les machines, un domaine où l’on bloque pour l’instant.

La formation des systèmes experts ? C’est mythe des années 1980 qui s’est bien évaporé depuis. Parce qu’il est difficile d’encoder le savoir des experts. On a remplacé les systèmes experts par la force brute du traitement de données, par le traitement du langage, qui permettent de modéliser le savoir de manière très approximative, comme le fait Watson dans Jeopardy ou bien Google Search.

Mais ces différences de vitesse d’apprentissage se manifestent déjà sans l’IA : dans le monde du travail, la non maîtrise des outils numériques et technologiques est déjà un énorme handicap. Une PME qui n’a pas de site web en anglais ne peut pas exporter facilement, etc. L’Histoire a montré que les économies et civilisation qui progressaient le mieux étaient celles qui s’appropriaient à grande échelle les progrès technologiques, aussi bien dans la production que dans la communication, et qui faisaient évoluer leurs démocraties au passage.

Pour ce qui est de la peur, je suis circonspect. Je ne pense pas que la peur bloque l’adoption tant que la valeur est là. Sinon, personne n’utiliserait Facebook ou Google ou même un micro-ordinateur, tant les risques dans la sécurité ou dans la vie privée sont importants. Oui, la culture française est peureuse dans l’ensemble et cela peut ralentir sa capacité d’assimilation de nouvelles technologies. On l’a vu dans le cas des OGMs ou dans la position de la profession médicale vis à vis de la génomique.

Répondre à ce commentaire

Commentaire 1512 dans Les avancées de l’intelligence artificielle – 8, le 11 mai 2016

Oui, bien sûr, c’est en GHz, je corrigé évidemment. Une faute d’inattention quand on remplit un énorme tableau avec plein d’unités différentes. Le pire est ce qui concerne l’énergie et la comparaison entre mAH et Wh, qui dépend de la tension.

Pour la comparaison de puissance des processeurs, j’ai utilisé les Passmark pour les CPU et les G3D Benchmark qui sont couramment utilisés dans des sites comme https://www.cpubenchmark.net/. Donc, peut-être pas la même chose que les Flops, mais il me semble que les proportions sont les mêmes.

Pour les disques durs, je n’ai effectivement comparé que la vitesse des bus et pas celle des disques car je n’ai pas trouvé de benchmarks précis sur les disques de ces deux laptops. Sur un desktop, avec un HDD 7200 rpm, on atteindrait une vitesse de lecture proche de 80 Mo/s donc une évolution de x6 sur 10 ans ce qui est pas mal mais en deçà de la loi de Moore. Avec x10, on est aussi en-dessous de Moore. Cqfd.

Répondre à ce commentaire

Commentaire 1511 dans Les avancées de l’intelligence artificielle – 7, le 10 mai 2016

Ah ! Je viens de terminer ces deux bouquins et vais en faire une petite synthèse dans l’article suivant (le 9e) et dernier de la série sur l’impact de l’IA et de la robotique sur l’emploi. J’ai parcouru comme cela un grand nombre de livres sur ce sujet.

Dans ma synthèse, j’indiquerai ce qui peut éventuellement manquer de manière générique dans leurs analyses. En général, un manque d’approche macro à l’échelle mondiale. Ces bouquins sont un peu trop US-centric. Ils évacuent aussi un peu rapidement les aspects énergie – matières premières – environnement – démographie. Enfin, ils ne s’attardent pas du tout sur la réalité scientifique et technique du sujet qu’ils abordent. C’est un “given” pour eux, sans beaucoup d’analyse critique.

Répondre à ce commentaire

Commentaire 1510 dans Les avancées de l’intelligence artificielle – 8, le 8 mai 2016

OK. Je corrige Watts/h en Watt (puissance).

Répondre à ce commentaire

Commentaire 1509 dans Les avancées de l’intelligence artificielle – 6, le 21 avril 2016

Merci Laurent. J’ai donc précisé cela à chaque fois dans l’article !

Répondre à ce commentaire

Commentaire 1508 dans Les avancées de l’intelligence artificielle – 6, le 17 avril 2016

Merci ! Par esprit de contradiction, je les ai mis dans la catégorie e-commerce car cela a l’air d’être leur cœur de cible client, au sens large du terme.

Répondre à ce commentaire

Commentaire 1507 dans Les avancées de l’intelligence artificielle – 5, le 11 avril 2016

J’évoquais ce flou autour de la notion d’IA dans le premier article de la série entre IA faible et IA forte. L’IA restera probablement très longtemps faible et mono fonction en effet.

Pour ce qui est de la reco de pièces de monnaie, il s’agit surtout d’un système de reco d’images et de rapprochement avec des bases de données.

Répondre à ce commentaire

Commentaire 1506 dans L’écosystème entrepreneurial de La Réunion, le 11 avril 2016

Oui, c’est clair. D’où l’intérêt d’actions de ceux qui se bougent pour monter le niveau et sortir de l’assistanat qui gangrène l’île !

Répondre à ce commentaire

Commentaire 1505 dans Les avancées de l’intelligence artificielle – 4, le 10 avril 2016

Merci du feedback.

J’ai bien prévu de parler de Snips dans la sixième partie, dédiée aux startups françaises !

D’autres français à ne pas oublier ?

Répondre à ce commentaire

Commentaire 1504 dans L’écosystème entrepreneurial de La Réunion, le 8 avril 2016

Non pas vu. C’était un peu “hors scope” par rapport au thème de ma visite.

Répondre à ce commentaire

Commentaire 1503 dans L’écosystème entrepreneurial de La Réunion, le 8 avril 2016

Corrigé. L’erreur n’a pas été relevée par les zoreys qui ont relu l’article… 🙂

Répondre à ce commentaire

Commentaire 1502 dans Guide des startups 2016, le 1 avril 2016

Je ne sais pas trop, à part potasser un bon bouquin sur la comptabilité standard d’entreprises !

Répondre à ce commentaire

Commentaire 1501 dans Guide des startups 2016, le 27 mars 2016

Pour la version epub, jai juste besoin de volontaires pour la produire à partir de la version Word. C’est du travail car il faut réintégrer les encadrés dans le corps du texte. Ceci étant, cela a été testé dans une version antérieure et l’expérience montre que cela n’intéresse que 2% des lecteurs, donc effectivement c’est du luxe en terme de retour sur investissement temps.

Pour la notification de réponses à des commentaires, ce n’est pas une option par défaut dans WordPress pour des utilisateurs non enregistrés (il n’y a pas d’utilisateurs enregistrés d’activés sur ce blog). Je pourrais éventuellement installer un plugin qui ajoute la fonctionnalité. A étudier au calme un de ces jours !

Répondre à ce commentaire

Commentaire 1500 dans Guide des startups 2016, le 26 mars 2016

Bonnes idées ! Le point de départ peuvent être les deux rubriques sur le développement international (l’une dans la première partie sur les basiques et l’autre dans la description de l’écosystème). Elles ne demandent qu’à s’enrichir.

Pour ce qui est de la high-tech, c’était un biais initial du document qui s’est un peu estompé avec le temps. Je viens d’intégrer une rubrique sur l’ESS. Une bonne partie des conseils sont génériques sur l’entrepreneuriat mais d’autres plus proches des startups qui sont pour l’essentiel dans le numérique ou dans la santé. Notamment quand j’aborde les notions de produits.

Je prévois d’ajouter une rubrique sur le monde de la santé dans la prochaine édition pour élargir le champs.

En tout cas, oui, les bonnes volontés et contributions créatives sont les bienvenues !

Répondre à ce commentaire

Commentaire 1499 dans Guide des startups 2016, le 23 mars 2016

OK, je corrige.

Répondre à ce commentaire

Commentaire 1498 dans Guide des startups 2016, le 21 mars 2016

Ajouté, presque instantanément ! Ceci étant, ce tableau existe depuis quelques années… 🙂

Répondre à ce commentaire

Commentaire 1497 dans Guide des startups 2016, le 21 mars 2016

Il y a tout de même des introductions, une conclusion, des parcours de visite du guide (Margaux Pelen), etc ! Quand la pagination serrée, si elle ne l’était pas, le guide ferait 1000 pages ! Une version courte est en préparation. Stay tuned.

Répondre à ce commentaire

Commentaire 1496 dans Guide des startups 2016, le 21 mars 2016

OK. Ajouté et mis en ligne !

Répondre à ce commentaire

Commentaire 1495 dans La nouvelle Livebox d’Orange, le 21 mars 2016

Bonne remarque ! Il me semble que le chipset supporte le décodage HEVC 10 bits et que le reste est une affaire de logiciels. Je me renseigne à la source pour voir !

Répondre à ce commentaire

Commentaire 1494 dans La nouvelle Livebox d’Orange, le 19 mars 2016

Pourquoi pourquoi pourquoi…

C’est très simple : conserver son client, le fidéliser, lui proposer des services packagés. Un marché horizontalisé où l’on choisirait sa gateway indépendamment de l’opérateur n’est évidemment pas son intérêt. Il ne veut pas être un simple tuyau. C’est même sa hantise.

Sinon, les telcos font peu de firmware. Ne pas confondre avec le middleware. Une gateway contient surtout un ou deux chipsets qui concentrent la valeur et un middleware pour le management au-dessus. Chez Orange, il vient de SoftAtHome. Habituellement, les box TV sont moins fiables que les gateways des telcos.

Il est fort probable cependant qu’un phénomène de “débundle-isation” des box pourrait se produire, mais en commençant d’abord par la box TV. La gateway arrivera bien après.

Maintenant, il faut se garder d’extrapoler une expérience personnelle à tout le marché. En général, les box fonctionnent sans broncher. Et puis des bugs attribués aux boxes peuvent provenir d’ailleurs, comme du réseau. En ADSL, cela peut venir de la qualité de la paire torsadée (il m’est arrivé d’avoir des coupures de ma box et cela venait de là). Des coupures de fibre sont normalement plus rares.

Et puis, sinon, tout ce qui est informatique plante. Les PC plantent tout le temps. Même les Macintosh ont des problèmes. Les smartphones se bloquent facilement, y compris l’iPhone qu’il faut parfois rebooter pour retrouver le réseau 4G/3G. Est-ce que les gateway des telcos plantent plus ou moins souvent que ces appareils génériques ? Je n’en ai pas l’impression. Mais pour en être sûr, il faudrait disposer de statistiques des opérateurs.

Sinon, c’est bizarre : votre ERLITE-3 a l’air d’être un simple switch Gigabit 3 ports. Ce n’est pas une gateway fibre. Donc comment remplacez-vous une gateway Livebox par un simple switch ?

https://www.senetic.fr/product/ERLITE-3?gclid=CjwKEAjw8bO3BRDp0bP_vL-7_lASJACL_d6w91lbeOJN2U4K0M-dV2dQW-I73owqp6pqtssc1GP79RoCb_3w_wcB.

Répondre à ce commentaire

Commentaire 1493 dans Les avancées de l’intelligence artificielle – 2, le 16 mars 2016

Bel article auquel je souscris ! Je vais m’épancher sur cette question du dépassement de l’homme par la machine dans le dernier article de cette série !

Répondre à ce commentaire

Commentaire 1492 dans La TV 3D ou l’extinction annoncée d’une technologie, le 13 mars 2016

En fait, la 3D est très ancienne et survivra. Quand j’ai visité la foire de la photo de Bièvres il y a quelques années, j’ai été étonné d’y trouver plein d’appareils photos argentiques 3D d’avant-guerre ! Exemples : http://www.oezratty.net/wordpress/photos/?ws=geECBN et http://www.oezratty.net/wordpress/photos/?ws=geECBP.

La définition des écrans n’a pas besoin de monter jusqu’au ciel. Elle est limitée pratiquement par celle de l’oeil. Déjà, pour un écran 4K, il faut avoir un format supérieur au 55 pouces à 3 mètres pour faire la différence avec du Full HD. Sur un mobile, le Full HD est déjà à la limite de la résolution de l’œil pour un 5 pouces ! La 8K n’a donc d’intérêt pratique que pour les salles de cinéma et conférences, ou pour le marché domestique, à partir d’un format de 65/75 pouces environ. Ca calme !

Répondre à ce commentaire

Commentaire 1491 dans Méta-prédictions 2016, le 7 mars 2016

Je ne connaissais pas les filières d’écoles de commerce sur l’accompagnement à l’entrepreneuriat. J’interviens dans les filières entrepreneuriale de certaines écoles de commerce comme HEC ou Neoma et je constate en fait qu’un grand nombre des élèves qui les choisissent ne n’orientent pas d’emblée vers la création d’entreprise. La plupart vont suivre une carrière plutôt classique dans les entreprises traditionnelles. La filière entrepreneuriale est choisie parce qu’elle est hype, généraliste et un peu passe-partout pour la suite.

Oui, j’ai sinon découvert juste après cet article la présence de BNP Paribas Real Estate au CES de Las Vegas, ils étaient sur le stand de La Poste ! Mais bon, ce n’est pas l’activité centrale du groupe. Ceci étant, IBM était auparavant aussi une banque, pour financer (avec intérêts) les achats de mainframes de ses clients. Maintenant qu’ils vendent moins de matériel, cette activité s’est estompée.

On observe depuis des décennies un flux et un reflux des grandes entreprises entre leur métier d’origine et les métiers périphériques. Les études macro-économiques montrent qu’en général la diversification à outrance n’est pas la plus génératrice de valeur qui soit.

Répondre à ce commentaire

Commentaire 1490 dans La TV 3D ou l’extinction annoncée d’une technologie, le 7 mars 2016

Elles ne l’étaient pas toutes mais une bonne partie, dans le haut de gamme. La nouvelle, c’est que les constructeurs vont retirer cette fonction qui avait un coût (filtres polarisants au minimum dans les dalles LCD + processing associé + lunettes). Alors que la couleur, elle n’est pas retirée pour ceux qui aiment les films en noir et blanc.

Le cinéma en 3D continue d’attirer les audiences les plus jeunes au cinéma. Mais pas au point d’en faire un “must have”. C’est même un repoussoir pour les autres. J’ai bien cherché ma salle en 2D pour aller voir Star Wars VII, et en VO of course. Mais je suis du début de la génération X !!!

Répondre à ce commentaire

Commentaire 1489 dans Les avancées de l’intelligence artificielle – 1, le 7 mars 2016

Très intéressant, merci ! Il remet bien les pendules à l’heure sur les visions approximatives de Ray Kurzweil et consorts.

C’est l’un des articles de blog les plus longs que j’ai jamais vu ! D’ailleurs, il date de juillet 2015 et il n’a toujours pas publié la seconde partie annoncée. Il a d’autres papiers intéressants sur le deep learning avec les GPU que je cherchais pour ma seconde partie !

Répondre à ce commentaire

Commentaire 1488 dans Les avancées de l’intelligence artificielle – 1, le 6 mars 2016

Agreed. On a trop tendance à identifier les métiers qui disparaissent et à ne pas imaginer ceux qui peuvent apparaître !

Répondre à ce commentaire

Commentaire 1487 dans Les avancées de l’intelligence artificielle – 1, le 6 mars 2016

Merci. Je les ajoute dans les antériorités du concept de l’IA et vais m’intéresser aux réseaux neuronaux dans la seconde partie.

Répondre à ce commentaire

Commentaire 1486 dans Peut-on sécuriser l’Internet des objets ?, le 24 février 2016

Oui certainement, cela mériterait ce genre de seconde partie mais je ne suis pas inspiré sur la question ! Elle est d’un autre ordre que le thème central de cet article. Elle relève de la relation client-fournisseur, des “CGU” comme on dit, et aussi de la création de marchés bifaces d’un genre nouveau avec un consommateur qui accède à un service plus ou moins gratuit et ses données qui sont monétisées non pas pour de la publicité comme d’habitude mais pour d’autres besoins, comme la modulation de polices d’assurances.

Dans ces cas de figure-là, cela pose des questions éthiques importantes du genre : est-ce la fin de la mutualisation des risques ? Est-ce la course à leur hyper-individualisation ? Et donc à l’émergence de nouvelles formes d’inégalités de traitement, justifiées ou pas ? Pour l’assurance automobile modulée en fonction du style de conduite, cela peut se comprendre car cela serait dans la lignée des bonus/malus existants. Pour l’assurance santé, cela dépend : si c’est en fonction du style de vie et d’alimentation, why not, mais avec une objectivité de la mesure à garantir. Si cela devient lié à des pathologies qui ne sont pas liées au style de vie, alors là, le Rubicon serait largement dépassé !

Répondre à ce commentaire

Commentaire 1484 dans L’overdose d’événements digitaux et entrepreneuriaux, le 12 février 2016

Très bon article de Ben Costandini sur les événements et les startups dans le monde et comment les organiser pour qu’elles trouvent leur compte: https://medium.com/@objetivarte/5-ways-events-help-startups-grow-35414adf3f5d#.qg8cw4shh

Répondre à ce commentaire

Commentaire 1483 dans Les disruptions numériques dans les professions libérales, le 10 février 2016

Tous les métiers sont concernés donc les journalistes bien évidemment. Mais il ne s’agit pas à proprement parler d’une profession libérale. Les pigistes, il y en a de plus en plus, sont plutôt dans la catégorie des auto-entrepreneurs.

Répondre à ce commentaire

Commentaire 1482 dans Les disruptions numériques dans les professions libérales, le 9 février 2016

D’où le risque fort d’automatisation…

Répondre à ce commentaire

Commentaire 1481 dans Les disruptions numériques dans les professions libérales, le 8 février 2016

Heureusement qu’il y en a qui suivent ! J’ai déplacé ce bout mal placé dans la partie sur les professions médicales. Merci !

Répondre à ce commentaire

Commentaire 1480 dans Les disruptions numériques dans les professions libérales, le 8 février 2016

Oui, tous les secteurs peuvent être potentiellement touchés. Mais les équations économiques et les contraintes technologiques en protégeront certains plus longtemps que d’autres. Il faut nuancer les jugements à l’emporte pièce !

Répondre à ce commentaire

Commentaire 1479 dans Premiers retours du CES 2016, le 3 février 2016

On en fait probablement un peu trop, cf http://www.oezratty.net/wordpress/2015/grande-intox-objets-connectes/, mais c’est injuste de dire qu’ils ne se vendent pas. Leurs ventes sont en croissance et elle dépend des secteurs. Les wearables se portent mieux que les objets de la maison connectée. Le marché des montres connectées a plus que triplé en 2015 du fait de la sortie de l’Apple Watch. GFK France va publier les chiffres de vente en France la semaine prochaine sur 2015 et on en saura un peu plus. Ensuite, il y a les objets connectés dans les environnements professionnels et c’est un marché également en plein développement.

Après, oui, ils posent des problèmes de sécurité. Mais l’usage d’Internet, des micro-ordinateurs et des mobiles aussi et cela n’empêche pas des milliards de gens d’en utiliser tous les jours !

Répondre à ce commentaire

Commentaire 1478 dans Rapport CES 2016, le 1 février 2016

Just call 911… 🙂 !

Répondre à ce commentaire

Commentaire 1476 dans Rapport CES 2016, le 30 janvier 2016

Pourquoi pas. Mais as-tu des sources ? Et le genre de statistiques que tu aimerais avoir ?

Répondre à ce commentaire

Commentaire 1475 dans Premiers retours du CES 2016, le 26 janvier 2016

Oui, j’enrage de ne pas vous avoir repérés. En fait, vous êtes tout de même cités en page 50 comme ayant pitché à la soirée French Entrepreneurs. Mais vous n’apparaissez pas dans l’annuaire des exposants. Sur Internet, on trouve que vous étiez au CES avec Laval Virtual. Et au bout du compte, je vous retrouve sur le stand et dans le keynote d’Intel (auquel j’ai assisté mais sans savoir que vous étiez français lorsque j’ai vu la démo de scan 3D). Vous étiez moins faciles à repérer qu’Ubisoft dans ce keynote !

J’ai donc en tout cas mis à jour la liste des français du CES. On en est maintenant à 251.

Répondre à ce commentaire

Commentaire 1474 dans Rapport CES 2016, le 25 janvier 2016

OK, noté.

Pour l’anglais, il faudrait trouver quelqu’un pour traduire 150 000 mots en quelques jours et gratuitement. Ou à l’envers, de l’anglais en français si je le faisais en anglais. Pas évident…

Volontaire ?

Répondre à ce commentaire

Commentaire 1473 dans Premiers retours du CES 2016, le 25 janvier 2016

Parce que mes clients sont pour la plupart francophones ! Si j’écrivais en anglais, j’aurais moins de lecteurs en France, donc je m’éloignerai de mon marché. Je n’ambitionne pas de devenir un consultant international passant son temps dans les avions…

Répondre à ce commentaire

Commentaire 1472 dans Rapport CES 2016, le 25 janvier 2016

Je ne sais plus trop. J’ai dû déjà expliquer cela par le passé soit dans le post soit dans le rapport. Mais il faut le rappeler chaque année !

Répondre à ce commentaire

Commentaire 1471 dans Premiers retours du CES 2016, le 22 janvier 2016

Bien je vous supprimais de la liste des boites faisant de la géolocalisation d’intérieur ! Simple. Je précisais dans ma réponse que les solutions applicatives outdoor existaient déjà. Je ne vais pas en faire une tendance de ce salon. C’est tout ! C’est peut être un peu court mais c’est factuel. Toutes les sociétés exposantes au CES aimeraient bien être dans les tendances clés du salon ou gagner des awards. Il y a peu d’élus ! Faut-il justifier à chaque fois pourquoi on ne cite pas untel ou untel ? Non !

Je suis bien allé voir ce que vous faisiez ! A noter que dans le Rapport du CES, je me focalise sur ce qui fait la spécificité de ce salon : le matériel, éventuellement couplé à du logiciel. Les solutions purement logicielles sont un peu hors sujet dans ce salon. Ce d’autant plus qu’il y en a des myriades.

Répondre à ce commentaire

Commentaire 1469 dans Premiers retours du CES 2016, le 15 janvier 2016

Ah bon, erreur de ma part. J’ai donc supprimé votre nom de la liste puisque vous n’êtes pas dans le sujet de l’indoor, mais plutôt de l’outdoor qui est moins nouveau.

Répondre à ce commentaire

Commentaire 1468 dans Les nombreux prismes du 13 novembre – 1, le 13 janvier 2016

Une chose a changé qui rend plus difficile les “complots invisibles” comme ceux que l’on a connus jusqu’aux années 1980 : l’Internet, les réseaux sociaux et les mobiles.

Mitterrand a pu cacher sa fille pendant ses deux septennats (jusqu’en 1994). Hollande n’a pas pu cacher sa liaison avec Julie Gayet ! Ce n’est pas simplement parce que Mitterrand était plus prudent que Hollande et utilisait l’appareil d’Etat pour se protéger, mais aussi parce que l’information circule maintenant plus facilement.

Pour ce qui est de la NSA, il ne faut pas lui donner un pouvoir qu’elle n’a pas. Elle sert principalement au “Sigint”, la collecte d’informations par des moyens techniques. C’est l’équivalent de la Direction Technique de notre DGSE.

L’exploitation de l’information est du ressort des services utilisateurs : la DIA, le Pentagone, la CIA et l’exécutif. Si coups bas il peut y avoir, il faut surtout chercher chez ces derniers, pas à la NSA. Les “coups bas” de la NSA sont essentiellement liés à la manière de collecter les renseignements : interception des lignes optiques Internet qui relient ce dernier aux USA, stations d’écoute dans les ambassades, etc. Ils doivent aussi protéger leurs infrastructures, situées principalement aux USA et dans les pays associés du Commonwealth (UK, Australie, …).

Répondre à ce commentaire

Commentaire 1467 dans Les nombreux prismes du 13 novembre – 1, le 13 janvier 2016

Je n’y crois pas une seconde pour ce qui est du gouvernement français. Monter un tel projet serait à la fois compliqué et suicidaire d’un point de vue politique. Aucun secret ne peut être préservé, au moins sur le long terme. Pour ce qui est d’autres pays, notamment non démocratiques, c’est une autre histoire.

A supposer que le pouvoir en place ait intérêt à ce qu’un tel attentat ait lieu, il n’a qu’à ne rien faire et attendre qu’il arrive tout seul. Le montage peut être au mieux le résultat d’une forme de passivité devant un risque identifié. Mais là encore, je n’y crois pas pour ce qui est de l’actuel gouvernement et du 13 novembre. A noter que lorsqu’il y a une faille “des services”, on leur prête des intentions sombres alors qu’il ne s’agit que de problèmes de manque de moyens et, parfois, d’incompétence.

ISIS existe bel et bien. Ce n’est pas un rêve.

Répondre à ce commentaire

Commentaire 1466 dans Les nombreux prismes du 13 novembre – 1, le 12 janvier 2016

L’histoire est complexe, c’est ce qui fait son charme. Quel est votre point de vue sur le déclin de l’empire Ottoman à partir du 13ième siècle (pour certains) ou du 16 ième (pour d’autres) ? Mon point initial était de comparer l’évolution de l’Europe par rapport à l’empire Ottoman du point de vue économiques, scientifique et technologique entre le 13ième et le 19ième. Les parcours ont été bien différents tout de même !

Répondre à ce commentaire

Commentaire 1465 dans Méta-prédictions 2016, le 12 janvier 2016

Tesla ?

Répondre à ce commentaire

Commentaire 1464 dans Méta-prédictions 2016, le 12 janvier 2016

Quand je serais grand, je ferais comme Vinvin !

Répondre à ce commentaire

Commentaire 1463 dans Les nombreux prismes du 13 novembre – 1, le 12 janvier 2016

Merci pour cette mise en perspective intéressante. Je maintiens cependant mon point dans l’ensemble que je n’ai d’ailleurs pas inventé mais trouvé dans de nombreuses sources diverses sur l’histoire de l’Europe.

Les guerres de religion protestants/catholiques ont été concentrées sur le 16ième siècle. En Europe, ces guerres comme la guerre de trente ans ne s’expliquent pas que par les conflits religieux.

Les chasses aux sorcières ont démarré bien avant la Renaissance. La monarchie absolue a surtout, avec Louis XIV, mis un terme aux pouvoirs régionaux des seigneurs locaux. Elle n’a pas ralenti les progrès culturels et scientifiques en France.

Pendant le même temps, le Royaume-Uni a été constitutionnellement bien plus stable, même si quelques rois, reines et conseillers ont perdu leurs têtes. L’Allemagne s’est progressivement consolidée, même s’il a fallu attendre Bismarck pour en venir à bout. Et Garibaldi en Italie.

Le développement culturel, économique et scientifique européen a tout de même bien connu une accélération entre les 16ième et 18ième siècles malgré tous les faits historiques que vous rappelez.

La mise en abîme de l’inquisition mérite d’être faite : 1492 correspond à la fois du départ de Christophe Colomb vers l’Amérique et à l’expulsion des juifs d’Espagne.

1685 est la révocation de l’Edit de Nantes en France.

Dans les deux cas, cela a contribué à un brassage de populations en Europe qui a eu des effets bénéfiques indirects pour les pays ayant accueil les juifs d’Espagne et les protestants français. Sur le long terme, l’Espagne et la France y ont perdu au change.

Le cas des colonies est aussi intéressant : il correspond bien à une période de développement économique et scientifique de l’Europe. Au détriment des populations envahies ou exterminées comme en Amérique ou en Afrique et dont les ressources naturelles comme humaines ont été exploitées. L’alignement entre développement économique et droits de l’homme n’a jamais été parfait. La Chine est un bon exemple encore aujourd’hui.

Mais OK sur le fait que l’on a trop tendance à noircir la période du Moyen-Age européen.

Avant le 12ième, l’éducation et l’enseignement en Europe étaient sous la main mise totale de l’église. C’est au 12ième siècle que l’université de Paris a été créée ainsi que celles du Royaume Uni et de ce qui est l’Allemagne aujourd’hui. Ce décollage intellectuel et pour une bonne part séculaire représente une différence importante avec le monde musulman de cette époque, voire encore aujourd’hui.

Ceci étant dit, sur ces trois papiers sur les origines du 13 novembre, il y a forcément plein de choses sur lesquelles on peut tiquer. Le contraire serait étonnant.

Répondre à ce commentaire

Commentaire 1462 dans Premiers retours du CES 2016, le 12 janvier 2016

J’ai vu ce qu’ils faisaient sur place. C’est bien, mais un peu loin de ce que j’avais en tête en termes de densité technologique. Je vais les citer dans le Rapport complet en tout cas.

Répondre à ce commentaire

Commentaire 1461 dans Premiers retours du CES 2016, le 11 janvier 2016

je répondrais au premier point dans le Rapport complet mais vous pouvez obtenir les chiffres en consultant le site du ces

pour l’age des visiteurs et exposants, je ne suis pas sur que des stats existent

a vue d’oeil, toutes les classes d’âge sont représentées. de jeunes exposants comme le nantais de moins de 20 ans derrière sensorwake jusqu’à des rédacteurs de médias américains ´régionaux’ plus que séniors et en chaise roulante !

Répondre à ce commentaire

Commentaire 1460 dans Premiers retours du CES 2016, le 11 janvier 2016

Oui, la reco vocale est très présente. Mais bon, ce n’est pas très nouveau.

Je suis moins enthousiaste que toi sur e-ink. Je suis passé sur leur stand et vu leurs références clients. Il n’y en a vraiment pas des masses. Surtout dans des produits grand public. Ils s’orientent plus sur du professionnel.

Répondre à ce commentaire

Commentaire 1459 dans Méta-prédictions 2016, le 6 janvier 2016

Tout à fait !

Répondre à ce commentaire

Commentaire 1458 dans Rapport CES 2015, le 5 janvier 2016

Je vais voir ce qu’il est possible de faire. J’ai déjà intégré quelques liens internes dans le document notamment reliant la partie produits avec la partie composants. Je n’ai par contre pas compris le premier point sur les titres de section. J’utilise Word et sa sortie PDF pour générer le rapport.

Répondre à ce commentaire

Commentaire 1457 dans Les nombreux prismes du 13 novembre – 1, le 28 décembre 2015

J’aurais tendance à répondre que les trois religions du livre peuvent obstruer les facultés humaines de discernement des croyants. Il n’y a qu’à voir les fondamentalistes de chaque bord : les fondamentalistes chrétiens américains et leurs thèses sur le créationnisme et les fondamentalistes juifs d’Israël qui sont allés jusqu’à assassiner Rabin en 1995 et continuent de donner le mauvais exemple en exacerbant les tensions avec les palestiniens.

L’Islam se distingue des deux autres religions du livre car il porte un projet politique qui est toujours d’actualité pour une partie de ses croyants. Autant les chrétiens et les juifs ont accepté le sécularisme presque partout, même s’il subsiste le “In god we trust” aux USA, qui est relativement anodin, autant ce n’est pas le cas dans les pays musulmans. La charia fait partie de la loi dans nombre de ces pays, même si c’est de manière plus ou moins édulcorée selon les cas. Autre point inquiétant, les pays riches et musulmans ne sont pas plus progressistes que les pays pauvres et musulmans. Donc, ce n’est pas qu’une affaire de richesse et de développement économique.

La modernité n’est pas suffisamment au rendez-vous sur le rôle des femmes dans la société, sur le rôle de l’éducation, sur la place des sciences.

Quand à “l’humiliation”, elle est mise à toutes les sauces dans l’histoire de l’Islam. Les Califats et l’Empire Ottoman ont aussi humilié leurs voisins pendant plusieurs siècles. Ils ont raté la révolution industrielle pour des raisons que j’évoque dans le troisième article de la série. Les pays européens se sont ensuite développés grâce à leur colonialisme. Mais celui-ci n’était qu’une pâle copie du colonialisme façon “califats”. D’ailleurs, dans certains pays islamiques et notamment chez les plus extrêmes, l’esclavage est toujours d’actualité.

Après, nous avons dans certains pays européens dont la France, une véritable humiliation des descendants d’immigrés d’Afrique et du Maghreb, mais pas (que) pour des raisons religieuses. Des noirs d’origine africaine et catholiques subissent aussi des discriminations en France ! Les Italiens et les Polonais qui arrivaient en France aux débuts du 20ième subissaient aussi un racisme généralisé et il s’est résorbé en quelques décennies. Dans le cas présent, cela dure depuis trop longtemps.

Quand par ailleurs, les comportements sont exacerbés avec la volonté affichée de ne pas s’intégrer (le voile, certaines traditions, …), cela ne fait qu’empirer la situation.

Répondre à ce commentaire

Commentaire 1456 dans Le hacking des appareils photos, le 11 décembre 2015

Je ne sais pas trop. Quel est serait d’ailleurs l’utilité ?

Répondre à ce commentaire

Commentaire 1455 dans Biologie de la prise de parole – 2/4, le 9 décembre 2015

Je m’auto-commente avec ce très bon papier trouvé sur Forbes : http://www.forbes.com/sites/nickmorgan/2015/12/08/the-secret-formula-for-professional-public-speaking-happiness/.

Quote : “5. Learn voraciously. I love Mitch Joel’s word for this: an infovore. Always scanning the environment for new material, other people who know something about your area of expertise, and opportunities to become a student again will keep you energized, fresh, and relevant. I once worked with a speaker who had given the same speech for 16 years. Even the same (lame) jokes. She was terrified of change and the result was an ever-diminishing audience. Of course. Don’t let that happen to you. The Internet makes learning easy – take advantage.”.

Répondre à ce commentaire

Commentaire 1454 dans Les technologies de séquençage du génome humain – 4, le 6 décembre 2015

J’explique cela dans cette partie de cette série d’articles : http://www.oezratty.net/wordpress/2012/technologies-sequencage-genome-humain-6/. J’ai aussi mis à jour l’état de l’art du séquençage dans cet article plus récent : http://www.oezratty.net/wordpress/2015/derive-exponentielles-3/.

On est en effet largués de ce point de vue. Ce, malgré les travaux réalisés en France, notamment à l’Institut Pasteur et au Généthon, pour contribuer au premier séquençage du génome humain.

La France peut encore se rattraper sur l’impression d’ADN. J’ai découvert cette semaine une startup prometteuse du secteur : DNA Script qui ambitionne de créer une solution technique bien moins coûteuse et plus rapide que les solutions existantes, dominées par les américains, comme chez SGI-DNA.

Répondre à ce commentaire

Commentaire 1453 dans Les nombreux prismes du 13 novembre – 2, le 4 décembre 2015

Oui, merci d’avoir détecté cela ! Cordialement, Olivier

Répondre à ce commentaire

Commentaire 1452 dans Les nombreux prismes du 13 novembre – 2, le 2 décembre 2015

Le pays l’est comme tous ceux de la région. Sa stratégie est voisine de celle de la Turquie, à savoir contrôler l’amont, avec le Jourdain.

C’est bien expliqué dans l’un des liens de l’article. http://www.lesclesdumoyenorient.com/Eau-et-conflits-dans-le-bassin-du.html

Répondre à ce commentaire

Commentaire 1451 dans Les nombreux prismes du 13 novembre – 2, le 2 décembre 2015

Quand un débat commence avec une critique de ce genre, c’est mal barré ! Vous pourriez être plus précis ! Ce d’autant plus que je cite de nombreuses sources qui elles-mêmes font référence à de nombreux travaux de spécialistes divers. Mais j’admets (dans la première partie), ne pas être un spécialiste du sujet.

Votre critique porte-t-elle d’ailleurs sur l’eau ou sur les énergies fossiles ?

Vous faites référence à Pierre Hillard, que je ne connais pas. Je consulte sa fiche Wikipedia (https://fr.wikipedia.org/wiki/Pierre_Hillard, qui relève surement de la propagande américaine), et je constate que le mec est aussi très biaisé, qu’il écrit dans Boulevard Voltaire (http://www.bvoltaire.fr/auteur/pierrehillard), débat avec Alain Soral, élabore des complots pan-européano-atlantiques genre “Nos politiciens sont porte-paroles et diffuseurs, pour la plupart inconscients, d’une politique conduisant à l’asservissement mondialiste.” etc. Bref, oui il a des avis et des opinions géopolitiques, bâti des constructions historiques à partir d’influences diverses. Mais ça pue.

Répondre à ce commentaire

Commentaire 1450 dans Les nombreux prismes du 13 novembre – 1, le 30 novembre 2015

C’est juste un point cassant quelques idées préconçues. La majorité des chiites ne sont ni arabes ni iraniens. Ils sont donc… issus d’autre part. C’est-à-dire, d’Asie comme je l’indique après, et aussi d’Afrique, dans une moindre mesure.

Répondre à ce commentaire

Commentaire 1449 dans Les nombreux prismes du 13 novembre – 1, le 29 novembre 2015

Bien oui, comme indiqué au début et à la fin, c’est pour la seconde partie.

Répondre à ce commentaire

Commentaire 1448 dans Quelques startups du Web Summit, le 28 novembre 2015

Merci pour cette page de pub !

Répondre à ce commentaire

Commentaire 1447 dans Les français de la TV connectée : Globecast, le 11 novembre 2015

je n’en sais rien et ce blog n’est pas fait pour cela.
ceci étant, voici un lien qui sera peut-être utile : http://fr.kingofsat.fr/pack-canalsat.php

Répondre à ce commentaire

Commentaire 1446 dans Les leçons entrepreneuriales du Web Summit, le 9 novembre 2015

Malgré ses défauts, cela peut valoir le coup d’aller au Web Summit, comme visiteur ou exposant. La majorité des startups que j’ai interrogées ont trouvé cela utile.

La structure de coûts est sommes toutes raisonnable : on peut s’en tirer au pire à 1800€ de frais de conf, les vols low-cost ne sont pas chers pour Dublin (mais un peu plus pour Lisbonne) et avec Airbnb on trouve de quoi se loger pour pas cher non plus. C’est le temps qui est la valeur la plus rare car cela prend 3 à 4 jours en tout.

Répondre à ce commentaire

Commentaire 1445 dans La banalisation des exponentielles et des disruptions, le 22 octobre 2015

Il serait intéressant d’étudier le pourquoi du comment de l’avancement du progrès scientifique.

L’observation montre qu’il n’est pas véritablement plus rapide qu’avant. Si on prend l’exemple de la physique des particules, il a fallut des décennies pour vérifier la théorie des bosons de Higgs, parce que l’investissement du LHC de Genève qui l’a permis était gigantesque.

Dans la santé, le progrès des thérapies est encore bloqué par la durée des tests in-vitro puis in-vivo. Il se débloquera peut-être le jour où la puissance des processeurs sera telle que l’on pourra faire des tests in-silico à grande échelle. On en est encore très loin.

Ce qui s’accélère est la mise sur le marché et le test par les consommateurs de solutions diverses, souvent logicielles, qui intègrent peu ou pas de progrès scientifiques. C’est lié à la puissance des réseaux à l’échelle mondiale et au retour rapide d’expérience que l’on a d’une mise sur le marché. Ca conditionne la vitesse de l’innovation sociale des logiciels.
Le smartphone et ses usages en fait partie.

Mais les cycles d’évolution technologiques sous-jacents suivent un rythme assez stable: 2G, 2,5G, 3G, 4G, 5G. Ce sont des cycles à la fois scientifiques (OFDM, techniques de multiplexage du signal, …), technologiques (composants qui les gèrent) et industriels (déploiements de réseaux) qui prennent toujours du temps.

Parfois, cela se ralentit. Exemple récent avec la gravure en extrême ultra-violet (EUV) pour les masques de semi-conducteurs, une technique qui est bien plus longue à mettre au point que prévu (chez le hollandais ASML). Résultat : un ralentissement de la loi de Moore côté intégration. Même si les ingénieurs ont trouvé des parades avec le multi-patterning et les FinFET ou le FD-SOI. Cf http://www.oezratty.net/wordpress/2014/decouverte-fab-stmicroelectronics-1/.

Dans la santé, les protocoles de tests sont bien plus longs pour départager des dizaines de nouvelles thérapies contre, par exemple divers cancers ou maladies neurodégénératives, qui voient régulièrement le jour. La boucle de feedback reste lente par construction.

Répondre à ce commentaire

Commentaire 1444 dans La banalisation des exponentielles et des disruptions, le 20 octobre 2015

Bonjour Hervé,

J’ai déjà traité du sujet de la SU dans deux autres papiers : http://www.oezratty.net/wordpress/2015/strategies-industrielles-singularite/ et http://www.oezratty.net/wordpress/2015/derive-exponentielles-1/ et je me suis farci plusieurs ouvrages de RK cet été (Singularity is near, How to Create a mind et Transcend.

Les thèses de RK sont parfois intéressantes, parfois un peu trop déjantées (comme sa vision de la colonisation spatiale ou les nanomachines dans le corps humain). En lisant ses différent bouquins, j’ai surtout vu un patchwork extrapolant les travaux de recherche connus. Il met tout le progrès scientifique dans ses exponentielles ce qui est un peu abusif. J’ai l’impression que le progrès scientifique n’est pas si exponentiel que cela, même s’il peut s’appuyer dans pas mal de cas sur des progrès technologiques qui sont jusqu’à présent exponentiels.

L’autre aspect un peu désagréable de la SU est sa marchandisation galopante. L’executive program à $14K devient un truc “branché” du moment qui a déjà attiré quelques français. S’il est intéressant d’avoir une vision un peu anticipatrice de certains progrès technologiques, il faut éviter d’en avoir une vision simpliste, conserver une vision “humaniste” de ces progrès et aussi, savoir les appliquer aux stratégies des entreprises qui ne peuvent pas être très long terme.

Répondre à ce commentaire

Commentaire 1443 dans La banalisation des exponentielles et des disruptions, le 13 octobre 2015

Corrigé…

Répondre à ce commentaire

Commentaire 1442 dans Comment s’y retrouver dans les réseaux M2M ? 2/2, le 6 octobre 2015

Merci pour la publicité pour ce service. C’est un peu hors sujet dans le cadre de cet article. Twilio est un service pur logiciel “OTT” au-dessus de HTTP, indépendant de la couche physique réseau utilisée (Ethernet, Wi-Fi, …). Ce n’est donc pas vraiment un réseau dédié M2M.

Répondre à ce commentaire

Commentaire 1441 dans Comment s’y retrouver dans les réseaux M2M ? 1/2, le 30 septembre 2015

Merci Hugues pour cet éclairage !

Je suis entièrement d’accord avec ton dernier point sur la croissance lente de ce marché, que j’avais évoqué dans un papier précédent “La grande intox des objets connectés” : http://www.oezratty.net/wordpress/2015/grande-intox-objets-connectes/.

Pour les points précédents, je serais moins catégorique.

Qu’une startup fasse des effets d’annonce, certes. Mais la mise en place du réseau Sigfox en France et ailleurs a été réalisée plutôt rapidement, surtout comparativement à celle des réseaux 3G et 4G par le passé chez les opérateurs télécoms. Cf par exemple leur partenariat avec TDF en 2013 pour accélérer les choses. Comme une startup avance structurellement plus vite qu’un gros paquebot télécom et que le déploiement des réseaux M2M est plus léger que les réseaux GSM, il leur a été possible d’être établi rapidement. Les lacunes de ce réseau proviennent plus de ses capacités techniques réelles que de la rapidité de son déploiement.

Leur difficulté actuelle vient de ton dernier point : les cycles de vente sont lents dans l’industrie et les déploiements d’antennes ne sont pas accompagnés de suffisamment de déploiements d’objets connectés chez leurs clients. Qui plus est, le marché est déjà très concurrentiel à la fois sur les prix et sur les capacités techniques.

Certains spécialistes de l’IoT sont plus nuancés sur le besoin de mettre à jour le firmware des objets connectés quand ceux-ci sont simples, avec quelques capteurs et un bête micro-contrôleur. Est-ce que d’ailleurs les compteurs d’eau connectés actuels ont besoin d’avoir des mises à jour de firmware ? Est-ce d’ailleurs possible avec la technologie HomeRider actuellement déployée chez Veolia Eau, aussi dans la bande des 868 MHz ? Cf http://www.homeridersystems.com/public/pdfs/Cyble_Water_Trak_FR_SPT_20090622.pdf.

Répondre à ce commentaire

Commentaire 1440 dans Comment s’y retrouver dans les réseaux M2M ? 1/2, le 29 septembre 2015

One more…
C’est une sorte d’architecture “mesh” ?

Répondre à ce commentaire

Commentaire 1439 dans Peut-on mieux dormir grâce aux objets connectés ? 1/2, le 25 septembre 2015

Je viens de les ajouter dans la seconde partie où je traite des produits qui agissent sur le sommeil : http://www.oezratty.net/wordpress/2015/dormir-objets-connectes-2/.

A ce stade, il est difficile de juger, au moins sur la partie scientifique car même s’ils ont un bon “backing” de ce côté là, leur procédé n’est pas du tout documenté, aussi bien dans le fonctionnement du système que dans des papiers scientifiques prouvant qu’en émettant telle ou telle onde vers le cerveau, on lui permet de mieux dormir. Il est possible qu’ils soient prudents dans leur communication pour éviter de révéler quoi que ce soit avant dépôt et validation de brevets…

Répondre à ce commentaire

Commentaire 1438 dans Peut-on mieux dormir grâce aux objets connectés ? 1/2, le 20 septembre 2015

Oui, en effet. Je ne vais pas tous les citer car la liste est assez longue ! Surtout dans la mesure où il s’agit maintenant de fonctions commoditisées.

Répondre à ce commentaire

Commentaire 1437 dans Le recyclage des talents dans les écosystèmes d’innovation, le 8 septembre 2015

On joue sur les mots. Je suis d’accord avec ton point sur le fait que le vécu est déjà un succès. J’évoque au début le cas de “plantage” au sens de la disparition de la startup. Qui est tout de même un peu moins bien vécu que lorsqu’elle se développe avec succès !

Répondre à ce commentaire

Commentaire 1436 dans Guide des Startups 2014, le 7 septembre 2015

Je l’ai aussi intégré dans l’édition 2015 du Guide !

Répondre à ce commentaire

Commentaire 1435 dans La grande intox des objets connectés, le 2 septembre 2015

C’est toujours vrai. On peut en effet dire cela dès lors qu’un marché n’est pas encore bien structuré. Il est cependant difficile d’identifier des programmes industriels qui prennent le chemin indiqué par Henri et Nicolas dans leur papier.

Répondre à ce commentaire

Commentaire 1434 dans La grande intox des objets connectés, le 27 août 2015

Et il y a aussi les nombreuses startups qui n’arrivent pas à atteindre leurs (modestes) objectifs en crowdfunding. Mais ça me semble plutôt normal. Toutes les grandes ruptures technologiques ont attiré des entrepreneurs mal préparés et un peu amateurs. Après, la sélection se fait naturellement.

Répondre à ce commentaire

Commentaire 1433 dans La grande intox des objets connectés, le 26 août 2015

Mince, horrible confusion ! J’ai corrigé dans le texte. Merci de l’avoir signalé.

Répondre à ce commentaire

Commentaire 1432 dans La grande intox des objets connectés, le 25 août 2015

Oui, ce site est extraordinaire ! Au passage, c’est un site créé par une agence de communication marketing UK, rehabstudio ! D’où l’humour un peu British du site !

Répondre à ce commentaire

Commentaire 1431 dans La grande intox des objets connectés, le 25 août 2015

D’où la distinction que je fais entre le monde industriel et celui des produits destinés au grand public. La connectivité est déjà ancienne et continue de se développer dans l’industrie. Dans le grand public, le sujet est plus jeune et se cherche encore !

Répondre à ce commentaire

Commentaire 1430 dans Actualités estivales, le 18 août 2015

Je n’ai lu que le début et quelques passages à ce stade. La partie qui recommande de remplacer les sucres lents par des graisses saturées est tout de même un peu curieuse, et pas très bien étayée ! Il y a bien entendu des idées préconçues sur la question. Mais c’est un peu léger de traiter la connaissance existante de “pseudo science”.

Répondre à ce commentaire

Commentaire 1429 dans Brainstorming média au SNPTV et chez NPA, le 2 août 2015

Plutôt moins bien. La poussée de la consommation non linéaire, qu’il s’agisse de TV de rattrapage ou de VOD et S-VOD attaque inexorablement les sources de revenus des TV classiques : d’un côté la pub et de l’autre les abonnements à la TV payante (pour Canal+/Sat). Ils ont négligé Netflix et n’ont pas réussi à créer d’offre locale unifiée. Quant à Hadopi, depuis 2012, elle a perdu une bonne part de son effet !

Répondre à ce commentaire

Commentaire 1428 dans Technicolor peut-il devenir un leader du Smart Home ?, le 25 juillet 2015

Bon papier en effet. Mais je doute que Lutron soit un acteur clé pour débloquer ce marché de la domotique qui est un vrai serpent de mer depuis 20 ans ! Je plus d’espoir avec les plateformes logicielles fédératives.

Répondre à ce commentaire

Commentaire 1427 dans Déboguer le logiciel économique français – 1, le 4 juillet 2015

Bien trois plus tard, le gouvernement a du revenir sur ses pas et non seulement moins taxer l’investissement dans les startups mais encore inventer de nouveaux dispositifs pour l’encourager.

Répondre à ce commentaire

Commentaire 1426 dans Les dessous de la bataille entre Apple et Google, le 28 juin 2015

Ce n’est pas spécifique au numérique. Les entreprises à la recherche de croissance ont souvent tendance à verticaliser leurs activités et à tenter de capter une plus grande part de la valeur dans leur industrie. Elles le font avec plus ou moins de bonheur selon les cas. Ce d’autant plus que la diversification les amène à s’occuper de secteurs moins profitables que leurs secteurs d’origine.

La diversification a du sens dans le numérique si elle consolide le rôle central de la “plateforme” de la société.

Pour ce qui est de Uber, ils se diversifient mais pas au point de créer une diversification verticale intense. Sinon, ils feraient aussi de l’intermédiation dans le transport routier de marchandises. Peut-être le feront-ils un jour d’ailleurs.

Répondre à ce commentaire

Commentaire 1425 dans L’overdose d’événements digitaux et entrepreneuriaux, le 24 juin 2015

Vous étiez une belle délégation du Québec si je me rappelle bien non ?

Répondre à ce commentaire

Commentaire 1424 dans L’overdose d’événements digitaux et entrepreneuriaux, le 24 juin 2015

Bon complément Christophe !

Le réseau et la médiatisation sont aussi devenus des “commodités”. On trouve actuellement toujours les mêmes médias (Maddyness, Frenchweb, etc) comme partenaires médias des conférences entrepreneurialonumériques. Parfois, ils viennent vraiment pour la couvrir, parfois pas vraiment et se contentent d’un petit billet d’annonce. Il est bon d’avoir des partenaires médias permettant d’élargir un peu la cible, comme la presse éco par exemple.

Pour le reste, tu décris les trucs de vente btob habituels : on joue sur les péchés capitaux et notamment la jalousie en indiquant à l’un que l’autre sera là, et hop. Ca marche… ou pas ! Cf http://www.oezratty.net/wordpress/2011/peches-capitaux-dans-marketing-et-vente/ !

Répondre à ce commentaire

Commentaire 1423 dans L’overdose d’événements digitaux et entrepreneuriaux, le 24 juin 2015

Hello !

Ton truc des tracks fonctionne assez bien comme on a pu le voir au Web2day. Ces tracks designer, développeurs et RH étaient très bien remplis et appréciés. Il n’en reste pas moins que les plénières doivent être aussi au niveau !

En secouant le cocotier et en mettant en avant un plus haut niveau d’exigence, on peut espérer que cela va avoir un impact sur les organisateurs d’événements.

A+,

Olivier

Répondre à ce commentaire

Commentaire 1422 dans L’overdose d’événements digitaux et entrepreneuriaux, le 22 juin 2015

Quand j’ai l’occasion d’animer une table ronde, je saute cette étape et rentre directement dans le vif du débat avec des questions posées aux intervenants. Mais même avec cette méthode, les tables rondes restent souvent bien ennuyeuses.

Répondre à ce commentaire

Commentaire 1421 dans L’overdose d’événements digitaux et entrepreneuriaux, le 15 juin 2015

Ah oui, dans le luxe, on trouve normalement des produits de qualité… 🙂

Répondre à ce commentaire

Commentaire 1420 dans L’overdose d’événements digitaux et entrepreneuriaux, le 15 juin 2015

Tout à fait. Mais les événements auxquels je fais allusion ont tendance à attirer toujours les mêmes personnes et avec des contenus et des formats qui ne se renouvellent pas assez. Et le sujet n’arrive pas suffisamment dans le grand public, qui ne peut aborder la question que sous l’angle l’usage “consumer” de ses outils quotidiens. Quand aux médias grand public, ils tombent facilement dans le côté anxiogène.

Répondre à ce commentaire

Commentaire 1419 dans Les beaux morceaux de futur de Grenoble – 2, le 13 juin 2015

J’ai viré la mention erronée à ISORG au début, la société étant bien décrite plus loin dans l’article et bien sur les capteurs d’image souples. J’ai corrigé aussi le point sur l’hydrogène même si c’est un peu du pinaillage… :), en séparant le stockage et la production.

Il y a d’autres erreurs à corriger ?

Répondre à ce commentaire

Commentaire 1418 dans L’overdose d’événements digitaux et entrepreneuriaux, le 13 juin 2015

Oui, elle est très présente (ou annoncée et non présente) dans un grand nombre d’événements. Parfois d’importance inégale. Il serait intéressant de la voir dans des événements externes à la sphère digitale et entrepreneuriale pour porter le flambeau du numérique. Il est possible qu’elle y soit d’ailleurs.

Son dernier agenda publié : http://proxy-pubminefi.diffusion.finances.gouv.fr/pub/document/18/19309.pdf. Un grand classique avec des keynotes de conférences, des obligations traditionnelles (accompagner le PR à Angers) et des rdv 1/1 avec des entrepreneurs et investisseurs.

Répondre à ce commentaire

Commentaire 1417 dans L’overdose d’événements digitaux et entrepreneuriaux, le 12 juin 2015

Cela dépend de qui on parle. Les entrepreneurs qui témoignent souvent (comme Fred Mazzella de Blablacar) sont des faiseurs !

Répondre à ce commentaire

Commentaire 1416 dans L’overdose d’événements digitaux et entrepreneuriaux, le 12 juin 2015

My pleasure! Ton animation de cette conférence est un très bon souvenir qui en fait un “best pratice” malheureusement rarement rencontré depuis !

Répondre à ce commentaire

Commentaire 1415 dans L’overdose d’événements digitaux et entrepreneuriaux, le 12 juin 2015

Le trop plein d’événements est en effet un bon signe de vitalité d’un écosystème entrepreneurial. Les événements divers sont aussi la marque de fabrique de la Silicon Valley. Il serait intéressant de les comparer avec ceux que l’on observe en France. Une impression ?

Quand au radotage, il peut en effet avoir du bon, mais c’est mieux si le discours s’affine à chaque itération !

Répondre à ce commentaire

Commentaire 1414 dans L’overdose d’événements digitaux et entrepreneuriaux, le 12 juin 2015

J’ai organisé plus d’événements que tu ne le crois cher commentateur anonyme courageux. 15 ans passés dans le marketing, ça laisse des traces !

Et j’y contribue régulièrement en jouant tous les rôles : modérateur, intervenant, panéliste, membre de jury de concours de startups et aussi sous la “couverture” de photographe. C’est un bon poste d’observation. Cela fait aussi 25 ans que je croise des organisateurs d’événements, que je connais leurs questionnements et leur soucis de bien faire. Sachant que cela peut varier d’un cas à l’autre. Et j’ai eu l’occasion de prodiguer quelques conseils à certains qui ne s’en sont pas plaints, surtout lorsqu’ils ont pu les appliquer, en fonction des moyens dont ils disposaient.

Quand à la critique, avez-vous remarqué que je mets aussi en valeur les “best practices” du secteur ?

Répondre à ce commentaire

Commentaire 1413 dans L’overdose d’événements digitaux et entrepreneuriaux, le 12 juin 2015

Bravo pour cette bonne préparation !

Répondre à ce commentaire

Commentaire 1412 dans Roland Garros 4K troisième, le 5 juin 2015

Ils ont invité les médias pour une annonce. C’est au conditionnel. Il semblerait que la 4K ne soit toujours pas au rendez-vous cependant…

Répondre à ce commentaire

Commentaire 1411 dans Roland Garros 4K troisième, le 5 juin 2015

Ca fait quatre ans que le sujet est tombé à l’eau à Roland Garros. La plupart des broadcasters ont abandonné la 3D, aussi bien pour le sport que pour la diffusion de films. Il reste les consoles de jeu et les films en Blu-ray.

Répondre à ce commentaire

Commentaire 1410 dans Les stratégies industrielles de la singularité, le 25 mai 2015

bonjour philippe,

précisions intéressantes ! la littérature fait même remonter le concept de la singularité aux années 30 avec john b sparks !

la question de la sagesse est clé dans l’histoire. l’homme a tendance à s’en écarter facilement. que ce soit dans les guerres ou les addictions du quotidien dont il n’arrive pas à se débarrasser. l’homme comme l’animal a tendance à privilégier le court terme. le contrôle de soi consiste à ne pas en être trop dépendant.

si un homme sage programme une super intelligence avec des règles qui imposent la sagesse aux hommes, ceux ci vont-ils l’accepter ? si on demandait à une super intelligence de “sauver la vie sur la terre” que proposerait-elle comme solution ? si on y mettait un algo de décroissance (qui peut se justifier), cela pourrait avoir des conséquences inacceptables pour une grande partie de l’humanité, préférant jouer à l’ile de Paques ( dont les ressources naturelles ont été épuisées par leurs premiers habitants) !

dans la pratique, c’est déjà en place avec les objets connectés wearables. leurs utilisateurs leur confient les données de vie qu’ils génèrent dans leur activité pour obtenir des recos : distance à parcourir, parfois quoi manger. etc. bientôt, on aura des fonctions dans les réseaux sociaux qui permettront d’éviter les personnes dites toxiques !

la théorie de la singularité me semble bien séche sur une dimension clé : l’intelligence émotionnelle. je suis étonné de constater que les théoriciens du sujet n’évoquent quasiment pas le futur du plaisir, des émotions. de l’amour et de la culture. sont-ils aussi gérés par la super intelligence des machines ou est-ce ce qui nous restera d’humanité ?

Répondre à ce commentaire

Commentaire 1409 dans Quelques startups de la Frenchtech Montpellier, le 14 mai 2015

Corrigé. Ils ont été impliqués en tout cas. J’ai des traces…

Répondre à ce commentaire

Commentaire 1408 dans Quelques startups de la Frenchtech Montpellier, le 14 mai 2015

J’exerce ma curiosité dans d’autres domaines comme dans la santé et la génomique. On ne peut pas être partout. Et pour les jeux, bien, à part la dimension hardware (GPU), cela ne n’intéresse pas du tout. Mais heu…

Répondre à ce commentaire

Commentaire 1407 dans Quelques startups de la Frenchtech Montpellier, le 14 mai 2015

Corrigé pour l’huile.

Pour les startups, il en manque bien entendu et j’en avais aussi visité en 2013. J’ai focalisé mes visites après un screening de ce qui m’intéressait et les jeux vidéo ne m’intéressent pas du tout !

Répondre à ce commentaire

Commentaire 1406 dans La dérive des exponentielles 1/3, le 7 avril 2015

Ne pas confondre dérive et dérivée…

Répondre à ce commentaire

Commentaire 1405 dans Guide des startups 2015, le 30 mars 2015

Merci du signalement. Comme il est planqué dans la couverture que seuls les intéressés dépiautent comme cela, je le mettrai à jour dans la prochaine édition. Avec d’autres logos qui ont subi le même sort, celui d’Ubifrance en premier.

Répondre à ce commentaire

Commentaire 1404 dans Guide des startups 2015, le 30 mars 2015

Merci du compliment !
Cela rejoint l’intention créatrice de ce document.

Répondre à ce commentaire

Commentaire 1403 dans La dimension financière de l’uberisation, le 28 mars 2015

OK sur ces points.

Il est vrai que les levées de fonds de Lyft sont intrigantes. Mais il semble que ce dernier ne soit pas sur le même positionnement que Uber. Lyft, est proche de la sharing economy avec des voitures de particuliers mutualisées tandis que les voitures et chauffeurs de Uber relèvent plutôt d’une activité professionnelle.

Dans la région SF/SV, il y a aussi l’Atelier BNP-Paribas et une nouvelle tête de pont d’Axa. Est-ce que les grands comptes américains sont aussi présents dans la SV et comment ? On n’en entend pas souvent parler.

J’ai corrigé pour Menlo Park, qui est juste à côté de Palo Alto…

Répondre à ce commentaire

Commentaire 1402 dans Guide des startups 2015, le 27 mars 2015

Je n’ai pas prévu de diffuser à l’ancienne une version imprimée, tout comme dans le format liseuse (epub, Mobi) testé par le passé et qui a généré très peu de téléchargements.

Mais il existe des dizaines de services d’impression en ligne à qui on peut fournir un PDF ! Il suffit de googleizer. Search “impression document en ligne” … et il y a pléthore de résultat. Il en coûte moins de 100€ pour imprimer les 360 pages en couleur et 20€ en noir et blanc.

Répondre à ce commentaire

Commentaire 1401 dans Guide des startups 2015, le 26 mars 2015

Tu ne crois pas si bien dire, j’ai un projet (rédactionnel) qui n’en est pas loin !

Répondre à ce commentaire

Commentaire 1400 dans Guide des startups 2015, le 26 mars 2015

Le pdf est imprimable via n’importe quel service d’impression en ligne !

Répondre à ce commentaire

Commentaire 1399 dans Comment éviter de se faire Uberiser : 5, le 25 mars 2015

Certes. Mais autant éviter aussi que toute la valeur de ces services passe outre-Atlantique et serve à alimenter leurs fonds de pension… 🙂

Répondre à ce commentaire

Commentaire 1398 dans Comment éviter de se faire Uberiser : 5, le 25 mars 2015

Il faudrait préciser la question ? S’ils ont envie, et bien, qu’ils se fassent uberiser… :). Mais si ça continue, “va-te-faire-ubersiser” pourrait bien devenir une injure… !

Répondre à ce commentaire

Commentaire 1397 dans Au cœur de la prochaine Bbox de Bouygues Telecom – 1, le 15 mars 2015

D’après une boutique Bytel où je suis passé ce week-end, la box Miami sera proposée aux nouveaux abonnés à partir du 21 mars 2015.

Répondre à ce commentaire

Commentaire 1396 dans La dimension financière de l’uberisation, le 10 mars 2015

Il est certain qu’avec un PER (price/earnings ratio) de 72, l’action de Facebook est un peu haute ! En comparaison, celui de Apple qui est de 17 et est au-dessous de 20 depuis des années il me semble, on se situe dans une grande sagesse boursière !

Répondre à ce commentaire

Commentaire 1395 dans La dimension financière de l’uberisation, le 10 mars 2015

Toutes les remarques sont utiles ! C’est en fait en creusant la Crunchbase et en préparant une présentation que j’ai eu l’idée de traiter de ce sujet.

Répondre à ce commentaire

Commentaire 1394 dans Comment éviter de se faire Uberiser : 4, le 1 mars 2015

Ils vendent ces solutions aux entreprises. Ce n’est plus du tout du grand public, tant pour Exalead que pour Netvibes.

Répondre à ce commentaire

Commentaire 1393 dans Comment éviter de se faire Uberiser : 2, le 22 février 2015

Le terme est en effet d’origine américaine mais est maintenant utilisé couramment en français. Exemples ici : http://www.definition-qualite.com/commoditisation.htm et là : http://www.cairn.info/revue-gerer-et-comprendre-2011-2-page-102.htm.

Pour le reste des anglicismes, c’est souvent difficile à éviter puisque j’évoque des phénomènes en grande partie provenant des USA. Quand aux ordiphones au lieu des smartphones, on laisse cela aux puristes… !

Répondre à ce commentaire

Commentaire 1392 dans Comment éviter de se faire Uberiser : 1, le 11 février 2015

Il appelle cela le “price undercut” qui consiste à démocratiser une offre en s’en tenant à l’essentiel et en baissant les prix. Cela conduit à élargir le marché.

C’est une logique que l’on trouve à la fois dans les offres low-cost et dans celles qui bénéficient de la loi de Moore. Cela ne veut pas dire pour autant qu’il faut négliger les insatisfactions clients !

Répondre à ce commentaire

Commentaire 1391 dans Comment éviter de se faire Uberiser : 2, le 11 février 2015

L’uberisation est une addition de plusieurs phénomènes. Je les isole dans mon propos pour mieux les décrypter.

Apple a beau être intégré verticalement, il a tout de même eu un effet “défragmenteur” du marché avec l’iPhone et son App Store. Quand il est apparu, les applications mobiles (Java, iMode, …) étaient distribuées soit par les portails d’applications des opérateurs télécoms soit via des portails indépendants. Cela permettait aux opérateurs télécom de facturer les applications un peu comme FT avec le Minitel. Apple a fait voler cela en éclat avec l’App Store en reconcentrant l’intermédiation des applications et en enlevant ce pouvoir aux opérateurs télécoms. Il leur a piqué au passage la marge qu’ils dégageaient sur la distribution de ces applications. Il a aussi piqué de la valeur aux éditeurs d’applications en leur empêchant d’accéder aux informations sur leurs clients. Et il a fait tout cela à l’échelle mondiale. C’est bien de la défragmentation !

Les opérateurs télécoms ont été manipulés par Apple qui jouait sur l’aspect disruptif de son smartphone, sur la perspective de vente d’abonnements “data” (devenue rapidement une commodité) et sur celle de son image de marque pour faire pression sur eux. Apple a gagné, les opérateurs ont perdu à ce jeu.

Le phénomène de banalisation du travail, de la réduction de sa valeur faciale et tout le toutim correspondent à un autre point complémentaire de celui de la défragmentation et le je traite dans la partie suivante de cette série d’articles.

Répondre à ce commentaire

Commentaire 1390 dans Comment éviter de se faire Uberiser : 2, le 10 février 2015

Il ne me semble pas que la CNIL empêche cela. Le site d’Air France est aussi capable de conserver les coordonnées CB d’un client.

Répondre à ce commentaire

Commentaire 1389 dans Rapport CES 2015, le 9 février 2015

Bien vu pour l’erreur, mais elle était au niveau du titre, pas du texte. C’est de Marvell qu’il s’agissait. Un indice : les processeurs Armada sont des marques de Marvell. C’est donc corrigé.

Répondre à ce commentaire

Commentaire 1388 dans Comment éviter de se faire Uberiser : 1, le 9 février 2015

Bonjour Mathilde,

Capitaine Train est un cas intéressant en effet. Pour l’instant, ils n’ont pas encore uberisé la SNCF ou la Deutsche Bahn. Ils sont présents officiellement dans trois pays : France, Allemagne, Italie, mais leur trafic semble surtout venir de France (source : Google Trends). C’est donc un service local.

Le phénomène de l’uberisation provient plutôt d’acteurs transnationaux et au passage, très bien financés, ce qui n’est pas encore le cas de Capitaine Train.

Côté ergonomie, leur site est peut-être plus rapide mais on est obligé de se créer un compte pour démarrer une résa et par exemple, comparer les prix avec ceux de la SNCF. Sur le site de la SNCF, l’identification n’est pas nécessaire pour avoir accès à l’inventaire et aux prix.

Si la différence de service n’est située que dans l’ergonomie du site et pas dans le prix (ce qui pourrait se comprendre vues les marges), alors le bénéfice utilisateur n’est pas forcément suffisamment grand pour attirer la majorité d’entre eux.

En étant un peu dur, cela me rappelle ces nombreux projets de startups dont la mission est de créer un réseau social “plus ergonomique que Facebook”. Un plus dans l’ergonomie serait sympa face à Facebook mais pas suffisant pour les tuer. C’est pareil dans la résa. La proposition de valeur doit être radicalement différente pour emporter le morceau à grande échelle.

La plus grande concurrence de la SNCF provient des travel sites généralistes qui vendent de tout (transports, hôtels, etc).

Olivier

Répondre à ce commentaire

Commentaire 1387 dans Comment éviter de se faire Uberiser : 1, le 9 février 2015

Je traite ce sujet dans la seconde partie. Il n’existe pas beaucoup d’autres solutions qu’une uberisation préventive du marché par ses acteurs en place. Cela demande une approche collaborative complexe à mener mais pas impossible.

Répondre à ce commentaire

Commentaire 1386 dans Comment éviter de se faire Uberiser : 1, le 9 février 2015

En effet, je confonds toujours les deux, les ayant vus à leWeb plus ou moins la même année…
Corrigé !

Répondre à ce commentaire

Commentaire 1385 dans Rapport CES 2015, le 1 février 2015

Héhé…

J’ai utilisé les résultats Q3 (CY2014, leur Q2) au niveau financier pour être homogène avec les autres sociétés comparées. Leur rebond sur le trimestre annoncé en décembre dernier (leur Q3) n’en est pas du tout un. Le communiqué du lien contient du baratin de financiers pour expliquer qu’ils perdent moins d’argent qu’avant. Mais les “highlights” ne mentionnent rien au niveau chiffre d’affaires.

Et pour cause puisqu’il continue de baisser à la fois séquentiellement ($916m en Q2 vs $793m en Q3), et “year over year”, avec un Q3 de l’année précédente à $1193m. Bref, la chute libre continue !

Les résultats au niveau du cash flow se sont améliorés uniquement grâce à une baisse drastique des coûts, aussi bien dans la R&D que dans la vente et le marketing.

Une stratégie financière ne fait pas une stratégie tout court et Blackberry reste très mal barré dans la concurrence sur les smartphones, une bataille dans laquelle ils se sont engagés trop tard tout comme Nokia et Microsoft. Ils ont par contre une petite filiale intéressante, QNX, qui est présente dans les systèmes embarqués et l’automobile. Mais pas suffisamment grande pour redresser la boite.

Vouala !

Répondre à ce commentaire

Commentaire 1384 dans Rapport CES 2015, le 27 janvier 2015

Roost, on a compris la même chose. J’ai bien écrit que c’était intéressant pour les détecteurs de fumée à pile et pas à alimentation secteur.

ULE : j’ai été un peu laconique en indiquant que c’était fumeux malgré le support de certains opérateurs. On constate en tout cas que ce standard n’est adopté par quasiment aucun fabricant d’objets connectés.

Par contre, indiquer que c’est du logiciel et que cela concurrence Zigbee et ZWave me semble quelque peu contradictoire puisque ces derniers sont des stacks réseau sans fil et pas du logiciel, justement.

Olivier

Répondre à ce commentaire

Commentaire 1383 dans Rapport CES 2015, le 26 janvier 2015

Sachant qu’en fait, une fois disponible en epub ou mobi, la version PDF reste largement dominante dans les téléchargements (>96%).

Répondre à ce commentaire

Commentaire 1382 dans Rapport CES 2015, le 26 janvier 2015

Pour l’instant non. J’attends un volontaire pour faire la conversion à partir du master qui est en Word.

Olivier

Répondre à ce commentaire

Commentaire 1381 dans Premiers retours du CES 2015, le 24 janvier 2015

Les vrais détails seront dans le rapport complet, publié lundi 26 matin. On change d’échelle et ça passe à plus de 300 pages… 🙂 Avec du Novitact dedans cette fois-ci !

Répondre à ce commentaire

Commentaire 1380 dans Premiers retours du CES 2015, le 12 janvier 2015

Hola, tout cela sera détaillé dans le Rapport du CES…

Répondre à ce commentaire

Commentaire 1379 dans A la découverte de la “fab” chez STMicroelectronics : 1, le 1 janvier 2015

Ah, merci, je vais corriger cela dans le texte.

Répondre à ce commentaire

Commentaire 1378 dans A la découverte de la “fab” chez STMicroelectronics : 2, le 27 décembre 2014

J’en avais plus, mais j’ai du zapper certains points qui relèvent du secret industriel de ST… 🙂

Répondre à ce commentaire

Commentaire 1377 dans LeWeb 2014 : collaboratif, média et transformation digitale, le 18 décembre 2014

Merci.

Il faudrait peut-être songer à envisager prévoir de faire appel à un graphiste pour votre site web…

Répondre à ce commentaire

Commentaire 1376 dans LeWeb 2014 : vue d’ensemble, le 16 décembre 2014

Le compte-rendu est en cinq parties. Mais je n’ai pas pour autant prévu de parler de cette boite !

Répondre à ce commentaire

Commentaire 1375 dans LeWeb 2014 : vue d’ensemble, le 16 décembre 2014

Bien, tant que les Le Meur restent aux commandes sur le contenu, l’événement peut “survivre”. Loïc m’a affirmé qu’il voulait continuer et sur plusieurs années.

Répondre à ce commentaire

Commentaire 1374 dans LeWeb 2014 : vue d’ensemble, le 15 décembre 2014

Qui te dit que je l’ai raté et raté par rapport à quoi ? En fait, ce genre de sujet ne m’intéresse pas trop ! http://www.content-square.fr/.

Répondre à ce commentaire

Commentaire 1373 dans LeWeb 2014 : vue d’ensemble, le 15 décembre 2014

Hello Jessica !

Il y avait des femmes, mais pas énormément. Notamment, une seule dans les pitches du concours de startups. Dans les plénières, si, il y en avait, notamment Fidji Simo de Facebook, Ida Tin (santé), Sarah Wood, Jane Zavalishima, Jade McQueen, François Mercadale-Delassalles (Socgen), Virginie Fauvel, Soraya Darabi, Roxanne Varza, Marion Moreau, Kathleen Mitchell, Alex Depledge (Hassle), Jessica Richman, Tania Singer, Tanya Cordrey, et quelques autres. Cela donne à peu près leur niveau de leur proportion existante dans le monde entrepreneurial numérique qui est comprise, pour ce qui est de la France, à moins de 20%.

Nathalie Massenet était présente il y a 3 ans mais pas cette année.

Répondre à ce commentaire

Commentaire 1372 dans LeWeb 2014 : vue d’ensemble, le 14 décembre 2014

En effet. Mais bon, dans une intervention de LeWeb, un consultant disait que l’attention moyenne des Internautes était située entre 2,8 secondes et 8 secondes. Vue la position du tableau dans l’article, tu les as dépassées largement !

Répondre à ce commentaire

Commentaire 1371 dans LeWeb 2014 : vue d’ensemble, le 14 décembre 2014

troisième colonne…

Répondre à ce commentaire

Commentaire 1370 dans Les nombreux visages de l’innovation ouverte : 3, le 15 novembre 2014

J’ai réouvert les commentaires sur la quatrième partie, qui étaient fermés “accidentellement”.

Il y a peu de consultants qui utilisent la méthode Triz en France à ma connaissance. Certains inventent d’ailleurs leurs propres méthodes.

Olivier

Répondre à ce commentaire

Commentaire 1369 dans Les nombreux visages de l’innovation ouverte : 1, le 3 novembre 2014

Bonjour Hervé,

Tu mets le doigt sur des sujets que j’aborderai de manière empirique dans la troisième partie, portant sur la culture de l’innovation dans les grandes entreprises. Et aussi sur les consultants en méthodologie en innovation…

Olivier

Répondre à ce commentaire

Commentaire 1367 dans L’essor international de la FrenchTech, le 25 octobre 2014

On va arrêter là la discussion ! Oui, le rayonnement des français à l’étranger contribue à celui de la FrenchTech. Mais il n’a pas spécialement évolué récemment. A moins d’intégrer dans l’histoire la recrudescence du nombre d’expatriés – surtout jeunes – qui ne se sentent pas à l’aise en France.

Répondre à ce commentaire

Commentaire 1366 dans L’essor international de la FrenchTech, le 24 octobre 2014

J’ai vu ton commentaire sur LinkedIn. Vision “Institutionnelle”, tu y vas fort. Surtout dans la mesure où tu évoques un article qui ne traite pas du tout l’open source. C’est toi qui met le sujet sur la table dans les commentaires.

Oui, les boites sont internationales. Mais elles contribuent aussi à renforcer l’économie de leur pays d’origine. Google et Red Hat sont américains ou internationaux de ce point de vue ?

Open source ou pas, la question industrielle est toujours la même : comment migre la valeur ? Qu’il s’agisse des sociétés, des actionnaires, des salariés et des pays !

Donc, quand on a des ingénieurs brillants se retrouvent faire des choses brillantes dans des sociétés dont le siège et la majorité des effectifs n’est pas en France, qu’elles soient “tradi” ou “open source”, la valeur créée n’est pas la même que lorsqu’ils créent de véritables entreprises. Par contre, il est évident qu’une entreprise ne peut réussir qu’en devenant mondiale et distribuée.

Les industries du numérique ne sont pas neutres et lisses dans la répartition de valeur !

Répondre à ce commentaire

Commentaire 1365 dans L’essor international de la FrenchTech, le 24 octobre 2014

Eh eh, WordPress n’est pas français. Nous avions Dotclear en France. Chercher l’erreur !

La question est donc bien entrepreneuriale, et pas spécifiquement liée au modèle open source.

Répondre à ce commentaire

Commentaire 1364 dans L’essor international de la FrenchTech, le 24 octobre 2014

Ces contributions sont bien connues. Elles ont notamment été relevées par Tariq Krim dans son rapport sur les développeurs français publié au printemps dernier (cf http://www.oezratty.net/wordpress/2014/comment-valoriser-les-developpeurs/).

Ceci étant, il faut distinguer les contributions individuelles à des projets open-source et les initiatives entrepreneuriales de la catégorie que l’on retrouve chez des ISV comme Talend, Bonitasoft et autres Prestashop.

La culture ingénieur open source (un peu idéaliste au passage) rejoint la culture business et de la création de valeur identifiable quand les projets open source deviennent des projets entrepreneuriaux, qui plus est internationaux.

Répondre à ce commentaire

Commentaire 1363 dans CEATEC 2014 : intro et 4K, le 17 octobre 2014

Alors pourquoi ce chiffre 70 ? Ils ne comptent pas par milliers ?

Répondre à ce commentaire

Commentaire 1362 dans L’arbre Netflix qui cache la forêt, le 19 septembre 2014

Post-scriptum :

Bon, maintenant que Netflix est là, on va pouvoir juger sur pièces. Cf ce papier de Pascal Lechevallier qui est bien gentil avec l’animal : http://www.zdnet.fr/…/netflix-france-est-ouvert-39806273.htm.
J’ai testé Netflix “France” avec le pass VIP offert aux participants de la soirée de lancement du lundi 15 septembre 2014.
Résultat : énorme déception. Le catalogue est maigrichon aussi bien côté séries TV que films. Peu de grandes franchises, ou alors elles sont incomplètes (un seul Star Trek ou une seule série Stargate, par exemple). Quasiment pas de films “classiques” (essayez Hitchcock, Gary Grant, … : nada ) ! Quand on cherche les blockbusters d’il y a 4 – 5 ans, on en trouve très peu (testez par exemple 2008 avec http://www.imdb.com/list/ls057801589/, Netflix vous propose à peine 1/20ième des films du TOP 100 d’une année qui n’est pas bloquée par la longue chronologie des médias française, qui n’est donc pas une excuse valable). C’est cependant vrai de beaucoup de services de SVOD. Pour moins de 10€ par mois, il ne faut pas attendre la Lune !

Côté séries, c’est un peu mieux. On peut profiter de “Orange is the New Black” qui est inédit en France et se refaire toutes les saisons de Breaking Bad ou Prison Break. On peut visionner les deux premières saisons de Homeland mais, raté, pas la troisième, dont Canal+ doit probablement avoir les droits exclusifs pour quelques temps.

Le système de recommandation prend alors le relais en proposant des nanars (séries B) dans le même genre de ce que l’on recherche. Reco ou pas, cela reste des nanars. Et la reco reste approximative. Elle ne peut pas aller bien loin au vu de la maigreur actuelle du catalogue.
Dans les aspects techniques, les films ne sont souvent pas disponibles en HD (comme “2012” dont l’encodage est vraiment dégueu). Pour du son 5.1, n’y comptez pas non plus (en tout cas sur PC et avec Silverlight) mais c’est souvent le cas avec les services de SVOD.

En comparaison, l’offre de CanalPlay qui est le concurrent principal de Netflix en France, avec plus de 520000 abonnés, est bien plus étoffée aussi bien en séries TV qu’en films. Et au même prix.
Quand à la soirée de lancement de Netflix en France (cf Le Point : http://www.lepoint.fr/…/netflix-sait-faire-des-series-pas-d…), elle était étonnamment vide de sens : aucune décoration, aucun contenu, aucune “fact sheet”, aucune démonstration, juste un pass VIP pour tester le service et un tout petit discours de Reed Hastings rappelant ce que l’on savait déjà, notamment sur la production de quelques contenus français. Une désagréable impression d’être traités comme un pays de seconde zone. Aucun salarié français de visible, à supposer qu’il en existe. Même l’agence de presse ayant organisé l’événement était invisible. Bref, côté exécution, c’était très moyen.

On dit souvent que la première impression est la bonne. Ici, elle est mauvaise. Netflix va donc devoir remonter la pente en étoffant rapidement son catalogue. Le principe marketing repose aussi sur une mise à jour régulière du catalogue permettant de faire l’actualité.
Souvent, il faudra patienter jusqu’à deux ans pour que certaines exclusivités avec des diffuseurs français arrivent à échéance (comme pour House of Cards, diffusé par Canal+). On peut aussi espérer que sur les box d’opérateurs, à commencer par Bouygues Telecom qui sera le premier à le faire, la qualité son+image sera meilleure.

En tout cas, la SVOD sauce Netflix, c’est cheap et ce n’est pas près de remplacer toutes les autres sources de contenu vidéo ni de chambouler tant que cela le paysage de la SVOD qui a du mal à décoller en France. Surtout si vous voulez du “frais”.

Répondre à ce commentaire

Commentaire 1361 dans Les évolutions de LaBox de Numericable, le 2 septembre 2014

Le débit a son importance pour les contenus non linéaires, of course.

Pour ce qui est de Windows MCE, je l’utilise pour ma part depuis 2002 🙂 !

Répondre à ce commentaire

Commentaire 1360 dans Les français de la TV connectée : Quadrille, le 11 août 2014

Merci pour la précision. L’info venait de Quadrille et je n’avais pas pris la peine de la vérifier…

Répondre à ce commentaire

Commentaire 1359 dans Photographer Independence Day, le 5 juillet 2014

A disposition, peut-être.
Mais pourquoi faudrait-il que ce soit gratuitement ? Cela représente 5 mois de travail.
Puis-je vous commander aussi 5 mois de travail gratuit comme ça pour voir ?

Répondre à ce commentaire

Commentaire 1358 dans Au cœur de la prochaine Bbox de Bouygues Telecom – 3, le 29 juin 2014

Oui, il y a bien cette distinction entre ces deux activités de LG. Mais, de source informée, il semble que ce soit l’activité de set-top-box qui soit en lice dans cette histoire et pilotée via LG U+ qui en effet est un opérateur mobile.

Répondre à ce commentaire

Commentaire 1357 dans L’arbre Netflix qui cache la forêt, le 25 juin 2014

En effet, et même la diffusion à J+1 pour les autres épisodes est très bien. M6 a aussi testé cela sur d’autres séries américaines dans leurs offres VOD. Reste à le généraliser et pas à n’en faire que des coups marketing.

Répondre à ce commentaire

Commentaire 1356 dans L’arbre Netflix qui cache la forêt, le 23 juin 2014

Sauf que Netflix ne démarrera pas avec House of Cards, car c’est Canal qui en a les droits jusqu’à mi 2015 ! “Hemlock Grove” et “Orange is the new black” sont-ils suffisants ? Auront-ils Game of Thrones, Scandal, Breaking Bad ? Cela dépend d’une mécanique qui nous échappe, les contrats déjà signés avec les opérateurs français, les exclus, etc.

En tout cas, il sera intéressant de faire un benchmark sérieux entre services de S-VOD sur les studios signés, les séries diffusées, et les genres couverts. Il faudra y intégrer les fenêtres de diffusion, du fait que Netflix va pouvoir visiblement s’affranchir de notre chrono des médias (à moins qu’il évite de le faire pour se garder d’agiter le drapeau… rouge).

Ca existe aujourd’hui, d’ailleurs ? En Googlelisant, je constate que les benchs sont surtout quantitatifs, comme ici : https://medium.com/le-futur-de-la-distribution-de-films-en-france/comparatif-les-offres-francaises-de-svod-avant-larrivee-de-netflix-998db7692ae4. Il y a un peu plus de qualitatif ici : http://www.degroupnews.com/dossier/a144-comparatif-des-offres-de-vod-par-abonnement/.

En fait, il faudrait comparer non pas les dispos de telle ou telle série, mais avoir une liste des majors distribuées côté cinéma et séries TV et jusqu’à quand (car les contrats sont renégociés régulièrement, ce qui est vrai une année n ne l’est plus forcément en année n+1). Les films et séries arrivent par paquets ensuite.

Bon, sachant, ne l’oublions pas que ceci concerne la diffusion en S-VOD et à l’exception des séries produites par Neflix sur lesquels ils conservent les droits internationaux, Netflix ne propose que la diffusion de contenus déjà passés ailleurs (pay TV, DVD, piratage, …).

Répondre à ce commentaire

Commentaire 1355 dans L’expérimentation de broadcast 4K à Roland Garros, le 8 juin 2014

Le flux OTT n’était diffusé qu’en interne sur Roland Garros dans leur réseau Wi-Fi.

Le prochain flux OTT 4K en France à ma connaissance sera celui de trois matches de la Coupe du Monde diffusé par TF1 sur myTF1. Avec un codec HEVC.

La diffusion par satellite n’est sinon pas compliquée pour les chaines en clair : la plupart des TV ont un tuner DVB-S et S2. Par contre, pour Canal+, il faudra en effet attendre leur nouvelle box, voire une solution sans box faisant appel à un lecteur de carte CI+.

Répondre à ce commentaire

Commentaire 1354 dans Les propagandes de l’innovation – 4, le 6 juin 2014

Je n’ai rien confondu, ce sont les promoteurs du Bitcoin qui sèment le trouble en mélangeant les messages. Et à leur propre détriment.

Le Bitcoin est vendu, promu, présenté, adopté et utilisé massivement comme un système de crypto-currency, une monnaie virtuelle, un moyen de paiement. Basta.

Qu’il s’appuie sur une architecture et un protocole qui puisse servir à autre chose, très bien, mais c’est une autre affaire.

C’est comme les solutions de recommandation : elles peuvent servir à plein de choses. Criteo en a une et la focalise sur le retargetting publicitaire et cela lui réussi. S’il étaient généralistes de la reco, cela ne fonctionnerait pas.

La confusion des genres entre techno, usages et marchés autour du Bitcoin n’est vraiment pas une bonne approche “marketing” en effet.

Répondre à ce commentaire

Commentaire 1353 dans Les propagandes de l’innovation – 5, le 19 mai 2014

Déjà effleuré rapidement dans le premier article, au sujet des investissements en lobbying des grands acteurs américains…

Répondre à ce commentaire

Commentaire 1352 dans Les propagandes de l’innovation – 4, le 15 mai 2014

Cf autre commentaire plus bas. Si ce n’est pas une monnaie, c’est quoi ? En termes de valeur d’usage pour le particulier, j’entends. Pas au niveau de la tripaille technique ou d’autres applications de son architecture !!!

Il faut vulgariser pour faire adopter une innovation de rupture. Sinon, les gens s’y perdent !

Répondre à ce commentaire

Commentaire 1351 dans Les propagandes de l’innovation – 4, le 15 mai 2014

Où ai-je fait cette confusion ? Bitcoin est présenté en général comme une monnaie. Le protocole d’échange est un moyen technique, qui peut certes avoir d’autres applications. C’est comme si vous disiez “ceci n’est pas un smartphone” mais “c’est un engin mobile utilisant un system on chip et un modem data s’appuyant sur les radio-fréquences de 2,4 Ghz”. Allez vendre un smartphone au grand public avec un tel discours !!!

Si vous ramenez la discussion sur le Bitcoin à des éléments techniques de ce genre, vous n’êtes pas prêt de le vulgariser ! Cela me rappelle les puristes de l’open source qui considéraient il y a quinze ans que l’on n’était pas un utilisateur de micro-ordinateur digne de ce nom si on ne regardait pas le code source du système d’exploitation !

La comparaison transaction Bitcoin avec un virement SEPA me semble bien abusive. Cela peut concerner les entreprises, mais un particulier fait rarement un virement SEPA pour un achat en ligne et encore moins pour un achat dans le retail. La validation Visa 3D Secure, qui est l’une des plus casse bonbon qui soit, fonctionne en moins de 2 minutes avec l’aller et retour avec son mobile.

Votre point sur Apple et les autres qui ont commencé comme des startups ? C’est justement un point que je réfute dans cette série d’article : le fait que certaines innovations réussissent à pénétrer le marché n’empêche pas de porter un regard critique sur celles qui se présentent à nous aujourd’hui. On n’est pas obligé de tout gober d’un coup. On peut aussi porter un regard sur la valeur d’usage. Une valeur d’usage qui ne m’a jamais échappé quand les micro-ordinateurs sont apparus par vagues successives (Apple II, TRS80, puis IBM PC, Mac, PC sous Windows, serveurs, …).

Par contre, oui, l’aspect protocole est intéressant. Il avait été soulevé par Fred Wilson à Leweb en décembre dernier : Bitcoin ne réussira pas forcément, mais l’architecture associée pourrait très bien disrupter d’autres business. Pas forcément la monnaie. Il pensait à la gestion de l’identité, un autre grand serpent de mer de l’Internet.

Les processus de l’innovation sont ainsi faits : parfois, elle apparaît là où on ne l’attend pas. Ou bien des événements imprévus en accélèrent ou freinent voire stoppent l’adoption. Avec le Bitcoin, tout peut arriver !

Répondre à ce commentaire

Commentaire 1350 dans Les propagandes de l’innovation – 4, le 14 mai 2014

Bonjour Joannes,

Je ne pense pas que l’on puisse faire un parallèle avec pere-noel.fr et la bulle dotcom des années 1995-2000. La proportion de filous y était bien moindre ! Idem pour la désinformation. Il y avait par contre un phénomène d’euphorie ambiante qui conduisait l’écosystème à partir en vrille, notamment côté investissements. A l’époque, le réseau disponible n’était pas encore adapté aux usages de l’Internet. Il a fallu l’ADSL puis la 3G pour que le marché puisse réellement se développer. Et surtout, pour qu’il pénètre les foyers à grande échelle pour en faire un vrai marché de masse.

Côté consommation énergétique, il y a tout de même un rationnel technique à l’augmentation de sa consommation, du fait d’une augmentation de la complexité du mining avec l’ancienneté des bitcoins. J’imagine que les concepteurs ont anticipé que cette augmentation serait couverte par la loi de Moore.

En attendant, on voit des sociétés se créer pour miner en masse. Cela rappelle ce qui s’est passé avec Internet : au départ, conçu comme un système très distribué, sans “centre”. Un peu comme le Bitcoin aujourd’hui. Quinze ans plus tard, l’Internet est contrôlé par des monopoles concentrés bénéficiant d’économies d’échelle et de réseau tels que Google. Le Bitcoin a l’air de prendre le même chemin au niveau du mining au vu de certaines initiatives entrepreneuriales.

Pour ce qui est de Blockchain, leur “about” est quand même un comble de manque de transparence : https://blockchain.info/fr/about. On ne sait pas d’où vient la société, dans quelle pays elle est située, qui sont ses investisseurs, etc. C’est un basique de transparence pour savoir à qui on a à faire ! N’importe quelle boite peut (et doit) fournir un peu plus d’informations sans pour autant publier le mail du dirigeant !

Répondre à ce commentaire

Commentaire 1349 dans Les propagandes de l’innovation – 2, le 13 mai 2014

En effet, bien vu ! je corrige…

Répondre à ce commentaire

Commentaire 1348 dans Guide des Startups 2014, le 13 mai 2014

Bonsoir Tony,

L’édition 2013 dans ce format avait été crée par un volontaire qui avait généré la transformation à partir du source (Word). Il ne s’est pas manifesté pour cette nouvelle édition, ni un autre.

Pour information, moins de 8% de l’édition 2013 a été téléchargée au format ePub ou MOBI. Le reste en PDF. Pour le Rapport CES 2014 qui est disponible en version ePub, ce taux est à moins de 1%.

La demande reste donc marginale. Et comme ces deux ouvrages sont gratuits, la meilleure manière d’y remédier, c’est d’y contribuer et de réaliser la conversion en question ! Volontaire ?

Cordialement,

Olivier

Répondre à ce commentaire

Commentaire 1347 dans Les propagandes de l’innovation – 3, le 11 mai 2014

En effet, Better Place est un cas très intéressant, et aussi extrême de “reality distorsion field” qui ne fonctionnait bien qu’avec Steve Jobs ! J’ai eu l’occasion de voir Shai Agassi intervenir deux fois en France, une fois à Leweb et une fois à Nice au G20 Yes. Son discours était porteur pour des raisons que j’évoque dans le premier article de cette série : le mélange de considérations technico-business et idéologiques et surtout le rêve. Shai Agassi allait jusqu’à raconter que la voiture électrique allait entraîner la pays au Moyen-Orient. En réduisant la dépendance au pétrole !

Du point de vue de la gestion de l’énergie, il intégrait dans son équation la généralisation du solaire photovoltaïque pour charger ses batteries. Cela se tenait conceptuellement mais pas économiquement car le déploiement du solaire photovoltaïque pour cet usage ne pouvait pas se faire suffisamment rapidement. Donc, exit la paix.

Dans la voiture électrique, il y a aussi l’échec de Fisker, moins connu. Seul Tesla semble avoir le vent en poupe. Ce dernier a cramé près de $800m en cash depuis sa création. Mais sa croissance de CA est très forte : $2B en 2013 pour $413m en 2012 et $204m en 2011 avec des pertes “contenues” sur 2013 (http://ir.teslamotors.com/secfiling.cfm?filingID=1193125-14-69681&CIK=1318605). C’est encore gérable !

Chez nous, il y a Heulliez…

Pas mal cette histoire de Mike Cheiky que je ne connaissais pas ! Avec un autre scénario : le chimiste de Dow Chemical qui démonte le projet d’une manière très logique. Mais on va encore dire que ce sont les grosses compagnies qui tuent l’innovation.

Répondre à ce commentaire

Commentaire 1346 dans Les propagandes de l’innovation – 3, le 9 mai 2014

En tout cas, pas besoin de lire 20 bouquins sur l’histoire des sciences : si ça marche, je change ma chaudière tout de suite… :). Et effectivement, ce serait un séisme (positif) planétaire côté gestion de l’énergie et réduction du réchauffement planétaire. Au minimum sur le chauffage, qui consomme plus de 40% de l’énergie en France je crois.

Mais pourquoi Rossi est-il le seul à travailler sur la commercialisation de ce procédé ? Pourquoi faut-il autant de temps pour aboutir à des résultats tangibles ? Est-ce que cette réaction de fusion froide est si difficile que cela à contrôler ?

Répondre à ce commentaire

Commentaire 1345 dans Les propagandes de l’innovation – 2, le 8 mai 2014

Les courants de la fibre optique, ah, elle est bien bonne celle-là ! Il ne reste plus qu’à bâtir une théorie sur la création de champs magnétiques générés par les photos qui traversent les fibres optiques, qui eux-même génèrent des champs électriques. Il faudrait peut-être que cette personne vive dans le noir.

Répondre à ce commentaire

Commentaire 1344 dans Les propagandes de l’innovation – 1, le 5 mai 2014

Bonjour Laurent,

Je pensais surtout à la presse en ligne qui traite de l’actualité numérique, voire aux blogs qui sont devenus des médias à part entière avec des équipes de jeunes et/ou stagiaires. Et cela vaut pour tous les pays.

Mais il y a dans le tas des comportements et moyens différents. Il n’en reste pas moins facilement constatable que la majorité des news sont des “relais” d’annonces, sans grande analyse, et pour cause, puisqu’ils sont quotidiens. Le phénomène est beaucoup plus marqué dans les médias en ligne du numérique qui ciblent le grand public. Dans l’univers professionnel, c’est plus… pro.

Un exemple qui me frappe toujours : le bruit que peut générer sans rien faire une société comme Apple. Il suffit qu’un andouille fasse une photo d’un moule de coque d’iPhone 6 pour que cela se retrouve répliqué à l’envie dans toutes la presse en ligne “du numérique”. Apple a inventé la “fusion froide” de la propagande. Ca marche tout seul !

Côté presse généraliste chez qui ont peut mettre aussi bien Rue89, Médiapart que Le monde, Libé ou Le Figaro, il y a (encore) plus de moyens.

Olivier

Répondre à ce commentaire

Commentaire 1343 dans Guide des Startups 2014, le 17 avril 2014

Non, désolé !

Mais si des volontaires veulent le traduire, ils sont les bienvenus pour forcer le hasard !

Répondre à ce commentaire

Commentaire 1342 dans Comment valoriser les développeurs ?, le 4 avril 2014

Je n’en connais pas qui soient spécialisés. A noter le site http://www.myfrenchstartup.com/ comprend une base de plus de 2000 startups.

Astuce : identifier les startups qui viennent d’annoncer une levée de fonds (dans le Journal du Net ou ailleurs). Elles ont alors les moyens de recruter. Et donc, elles sont pressées de trouver de bons profils.

Au demeurant, il n’est pas difficile de trouver un poste de développeur dans les startups. Surtout si jeune, bien formé, pétillant et motivé…

Répondre à ce commentaire

Commentaire 1341 dans Les startups préférées des VCs français, le 27 mars 2014

Voir page 122 et suivantes dans le dernier guide des startups. Cf http://www.oezratty.net/wordpress/2014/guide-des-startups-2014/.

Répondre à ce commentaire

Commentaire 1340 dans Guide des Startups 2014, le 27 mars 2014

Ne pas oublier en effet que ce document est créé à titre bénévole tout comme peut l’être la conversion en epub réalisée par des contributeurs volontaires.

Il existe sinon des applications d’annotation de PDF pour tablettes…

Répondre à ce commentaire

Commentaire 1339 dans L’écosystème numérique français est-il en surchauffe ?, le 14 mars 2014

Merci pour cet élan et cet enthousiasme !

Répondre à ce commentaire

Commentaire 1338 dans L’écosystème numérique français est-il en surchauffe ?, le 11 mars 2014

Le Guide version 2013 (17ième) est déjà disponible en version MOBI et EPUB !

Répondre à ce commentaire

Commentaire 1337 dans Le plus grand business angel de France, le 5 mars 2014

Sur ce genre de cas précis, je n’en ai pas la moindre idée. En général, on trouve des business angels dans des domaines qu’ils peuvent comprendre du fait de leur expérience. Comme dans le matériel, il n’y en a pas beaucoup qui ont fait fortune en France, ils sont durs à trouver. Une solution consiste peut-être à s’orienter dans un premier temps vers des financements publics : Bpifrance, fonds et aides régionales.

Après, le projet peut ne pas plaire aux uns et aux autres pour tout un tas de raisons : l’équipe, la taille du marché, l’unicité du produit, la concurrence, le coût d’accès au marché. Il faut aussi noter que les investisseurs privés sont sollicités par plein de porteurs de projets et qu’ils font des choix et donc, systématiquement, beaucoup de déçus. C’est la règle du jeu.

Répondre à ce commentaire

Commentaire 1336 dans L’enjeu du temps dans la compétitivité, le 13 février 2014

En effet ! J’ai un autre exemple qui me concerne directement : quand tu enseignes dans plein d’établissements supérieurs différents comme “vacataire”, tu te tapes un processus de référencement avec de la paperasserie identique pour chaque école pour pouvoir être payé (65€ de l’heure de cours…). Et cela recommence chaque année. Tu passes donc un temps administratif significatif au regard de chaque intervention. Là-aussi, un système unifié serait le bienvenu. Mais on en est loin car cela ne concerne pas énormément de monde.

Répondre à ce commentaire

Commentaire 1335 dans Rapport CES 2014, le 31 janvier 2014

Les écrans incurvés reproduisent (en TV) le format des écrans de cinéma que l’on trouve dans certains pays comme aux USA. A une distance standard, toutes les parties de l’écran sont à la même distance de l’œil. Par ailleurs, un écran incurvé génère moins de reflets intempestifs.

Mais bon, on peut s’en passer sans problème…

Répondre à ce commentaire

Commentaire 1334 dans Rapport CES 2014, le 27 janvier 2014

Cela représente un mois de travail mais pas à temps plein. Au nez, 150 à 200 heures de boulot. Mais je ne suis pas aux 35 heures ! C’est aussi le résultat d’une veille technologique que je fais toute l’année. Le Rapport du CES est aussi mon pense bête des trucs intéressants que je glane toute l’année. Cela se voit par exemple dans la rubrique sur les capteurs photo/vidéos et les composants en général.

Répondre à ce commentaire

Commentaire 1333 dans Les caméras d’Appolo 11, le 20 janvier 2014

Hum hum… que dire.

Le coup sur le côté fake des lancements : que je sache, les fusées Saturn V ont bien décollé devant des vrais gens à Cap Kennedy ! Donc, ce n’était pas du fake !

J’ai sinon croisé Jim Lowell, le commandant d’Appolo 13 en juin dernier. Il n’avait pas l’air, vu son âge, de raconter des salades. Lui a fait deux fois le tour de la Lune. Dans Appolo 8, sans s’y poser, puis dans Appolo 13, sans s’y poser non plus.

L’accident d’Appolo 13 était fake, lui aussi ?

Répondre à ce commentaire

Commentaire 1331 dans Les français de la TV connectée : TeVolution, le 25 décembre 2013

well not really and it’s not a technical issue

you can received TV channels either through DTT so in UK, you would only receive local UK channel, or OTT channels, but this would require an agreement fromt the (French) TV channels to be distributed in UK.

it also depends on who would distribute the box: a retailer, a mobile operator or any other

in the end, it’s a business decision from the various stakeholders more than a technical issue

Répondre à ce commentaire

Commentaire 1330 dans LeWeb 2013 : politiques et épilogue, le 20 décembre 2013

Agreed. DailyMotion est à la vidéo ce que Quaero est aux moteurs de recherche ! Nos politiques s’accrochent comme ils peuvent aux branches sans bien connaître les ressorts des industries numériques et les phénomènes d’économie de réseau qui sont mondiaux.

Ils veulent aussi trop micro-manager cette industrie ce qui est une grave erreur. Les 34 projets de Montebourg, les 7 d’Anne Lauvergeon, les 9 pistes numériques du Plan d’Investissement d’Avenir, les appels à projets de la DGCIS ! Des silos d’investissements alors que les choses les plus simples et les plus génériques suffisent largement (JEI, CIR, …).

Répondre à ce commentaire

Commentaire 1329 dans Les technologies et l’assassinat de JFK, le 19 décembre 2013

Je ne crois pas trop à la thèse Armée/CIA/FBI. Tout d’abord, ce sont des organisations qui ont toujours été rivales. Elles ne peuvent pas et ne pouvaient pas se coordonner “par le bas” pour mener une telle affaire et préserver le secret aussi longtemps. Cela aurait impliqué trop de monde.

Par ailleurs, le mobile est un peu léger. JFK ne menaçait pas l’armée ni le FBI. D’ailleurs, quand le budget du Pentagone a baissé après la fin de la guerre froide et la première guerre du golfe, elle n’a ni assassiné Bush père ni Clinton ! Il a augmenté ensuite sous Bush fils après 9/11. Mais n’en déplaise aux théories du complot qui sévissent encore, le gouvernement américain n’est pas derrière 9/11. Il est derrière les incompétences et manques de coordination qui ont empêché de le prévenir.

De toutes manières, Hoover tenait JFK car il était au courant de toutes ses frasques. La CIA ? Son patron de l’époque John McCone était loyal à JFK et nommé par lui. Des membres de la CIA ont pu être impliqué dans l’affaire, mais par par la tête.

LBJ ? Il avait un mobile sérieux car il risquait de passer à la trappe du ticket présidentiel en 1964 et était menacé d’enquêtes judiciaires sur des affaires liées au Texas. En même temps, JFK en avait encore besoin pour gagner à nouveau les états du sud, Texas en tête. C’était d’ailleurs la raison du voyage à Dallas.

Si LBJ était impliqué, il faudrait beaucoup de temps pour que cela deviennent “officiel”. En effet, cela serait un véritable traumatisme pour les USA qu’ils apprennaient qu’ils ont été gouvernés pendant 5 ans suite à ce qui serait assimilable à un coup d’état.

La thèse qui me semble la plus sérieuse est une implication directe de la mafia italienne, éventuellement aidée par des individus liés de près ou de loin à la CIA. De toutes les organisations pouvant avoir été impliquées dans le complot, c’est celle qui était la mieux à même de préserver le secret dans la durée (l’omerta). Et quand on analyse le “réseau social” d’Oswald, il croise surtout la mafia et les éléments de la CIA liés à Cuba et la baie des cochons.

La mafia avait de sérieuses motivations à se débarrasser de deux Kennedy qui menaient une guerre contre elle.

Il existe d’ailleurs des soupçons sérieux qui la relient à l’assassinat de RFK en 1968.

Pour les autres organisations (CIA, JFK, LBJ, …), elles ont été impliquées indirectement pour couvrir leurs petits secrets : le FBI qui suivait Oswald depuis son retour d’URSS, la CIA pour les opérations secrètes menées à Cuba, et pour ses relations maintenant bien documentées avec la mafia dans le cadre de ces opérations. La thèse mafia colle parfaitement avec le rôle de Jack Ruby dans l’histoire. Jack Ruby avait des liens directs avec la mafia de Chicago.

Toutes les autres thèses : Cuba, URSS, la finance, le Mossad, le Secret Service ne tiennent pas bien la route.

L’autre seule thèse qui pourrait tenir la route est que Oswald ait agit seul. C’est difficile à accepter au vu des nombreuses bizarreries de l’affaire. Le mec était quand même bizarre ! C’est parfois la solution la plus simple qui est la bonne !

Répondre à ce commentaire

Commentaire 1328 dans LeWeb 2013 : politiques et épilogue, le 18 décembre 2013

@tous, merci beaucoup pour vos compliments et remerciements. Cela motive à continuer… 🙂 Bonnes fêtes de fin d’année à toutes et à tous !

Répondre à ce commentaire

Commentaire 1327 dans LeWeb 2013 : vue d’ensemble, le 17 décembre 2013

Bonjour Aline,

Je ne suis ni surpris ni ne porte de jugement de valeur sur ce point. Au contraire, cette présence dénote la dimension internationale de la conférence qui s’améliore. Et en effet, les solutions innovantes peuvent venir de n’importe ou dans le monde. Et les approches multiculturelles bénéficient à tous.

Cependant, la réaction de Guy Kawasaki n’était pas exceptionnelle et assez représentative de la majorité des investisseurs de la Silicon Valley qui préfèrent investir dans leur “backyard”. D’ailleurs, ils tiennent le même raisonnement pour les pays européens et notamment pour la France. Hors US, il y a deux exceptions notables pour eux avec UK et Israel qui se vend bien comme “startup nation”. Ils investissent dans les boites étrangères une fois qu’elles ont soit décidé de s’implanter entièrement aux USA soit d’y créer une filiale destinée à devenir plus ou moins la maison mère. Et avec les critères habituels sur les équipes et l’innovation.

Il faut aussi faire la part des choses entre l’intérêt de ces marchés pour y implanter des filiales commerciales de boites américaines et celui, moins intéressant piur les VC US, d’investir dans des boites qui en sont originaires.

Notons au passage qu’il existe des sources de financement alternatives pour les pays du moyen orient, notamment dans les émirats.

Répondre à ce commentaire

Commentaire 1326 dans LeWeb 2013 : dans 10 ans, le 15 décembre 2013

Oui, un jour peut-être.

En attendant, les asiatiques, quels qu’ils soient, n’arrivent pas du tout à percer dans le logiciel et à l’échelle internationale.

Il y a des raisons culturelles multiples qui peuvent l’expliquer : la valeur de l’immatériel est faible chez eux au regard de la valeur du matériel, et les logiciels qu’ils développent chez eux sont faits pour leur immense marché intérieur.

Par contre, certains industriels comme Softbank ou Rakuten (Japon) ont des visées internationales assumées. En Chine, il y a surtout Huawei, un équipementier qui dans les faits est aussi un gros éditeur de logiciels. Mais pas encore pour le grand public. En Corée, pas grand chose. Samsung et LG doivent encore se sourcer à l’extérieur côté logiciels. Le premier vient de décider d’investir dans la Silicon Valley. Ils ont aussi racheté des boites comme l’israélien Boxee (logiciel de set-top-box). Mais pour l’instant, n’en ont rien fait. A moins que l’on voit quelque chose au CES 2014 !

On pourrait évoquer le cas de l’Inde qui a probablement le plus gros nombre de développeurs au monde, mais pas dans l’industrie du logiciel packagé ! Ils font surtout du service. Un peu comme nous en France, ou les sociétés de service représentent 10 fois l’emploi des éditeurs de logiciels…

Répondre à ce commentaire

Commentaire 1325 dans LeWeb 2013 : vue d’ensemble, le 15 décembre 2013

Ce message ressemble à du publirédactionnel et j’étais à la limite de le supprimer. Mais bon, allez, petite tolérance. Mais attention, c’est limite limite… !

En effet, je n’avais pas mentionné que le gars en question avait un badge Orange Business Service et qu’il était donc invité par Orange et là pour faire la couverture média de l’événement pour cet exposant et sponsor majeur de la conférence, par ailleurs représenté par son CEO en plénière.

Répondre à ce commentaire

Commentaire 1324 dans LeWeb 2013 : vue d’ensemble, le 14 décembre 2013

Semble que oui, mais je ne me souviens plus lesquelles…

Répondre à ce commentaire

Commentaire 1323 dans LeWeb 2013 : vue d’ensemble, le 14 décembre 2013

Pour les caméras, c’est ma spécialité ! Pour les hôtesses, je fais de la photo et ai une bonne mémoire des visages. De plus, je leur ai demandé si elles étaient bien les mêmes que l’année dernière ! Rien de surnaturel…

Répondre à ce commentaire

Commentaire 1322 dans Les recettes de la French Tech, le 3 décembre 2013

Hello Philippe,

En reprenant mes notes, cf http://www.oezratty.net/wordpress/2010/tentative-decryptage-grand-emprunt/, le PIA annonçait bien 4,5 Md€ dont 250m€ assimilables au numérique mais qui correspondaient au “smart grid” et dont la gestion était confiée à l’ADEME. Il y a eu ensuite plusieurs modifications des allocations au sein du PIA qui ont généré des rognures diverses que je n’ai pas cherché à documenter. Si quelqu’un l’a fait, je suis preneur !

Pour les nouveaux 215m€ pris donc dans le PIA2 (qui, je dois l’admettre m’avait échappé…), OK ! Je vais corriger.

Cependant, quelle est la source de ces nouveaux 12 Md€ annoncés en juillet dernier ? Est-ce qu’il s’agira comme en 2009/2010 d’un emprunt aux taux courants sur le marché qui seront ensuite placés pour être dépensés au fil de l’eau par la méthode dite des consumptibles ?

Répondre à ce commentaire

Commentaire 1321 dans Les recettes de la French Tech, le 3 décembre 2013

C’est bien curieusement présenté avec une sémantique genre novlang qui n’inspire pas vraiment confiance. Cela ne colle pas avec l’entrepreneuriat dans le numérique.

Répondre à ce commentaire

Commentaire 1320 dans Où en est l’industrie française du logiciel ?, le 28 novembre 2013

Oui certes. Mais 15 milliards par rapport à une industrie qui en pèse plus de 300… C’est surtout une évolution marquante de l’architecture technique et du mode de commercialisation des logiciels. Mais pas forcément une source de croissance. Cela permet notamment aux éditeurs de lisser les revenus !

Répondre à ce commentaire

Commentaire 1319 dans Quelques réflexions sur les Startup Weekends, le 18 novembre 2013

Oui. C’est la partie du verre qui est à moitié pleine…

OK sur les deux premiers points mais pas sur le dernier. L’idée de génie, c’est très rare. C’est l’équipe et l’exécution qui font la différence. Je connais des personnes qui gardent pour elles leur idée de génie et ont peur de leur ombre. Cela fait rarement de grands entrepreneurs !

On ne sait qu’un projet est une “success story commerciale” que quand… cela l’est devenu. Rarement avant !

Par contre, il y a pas mal d’idées à la noix qu’il vaut mieux ne pas trop explorer dès le départ. Les mentors dans un Startup Weekend peuvent apporter ce genre de feedback.

Franchement, vu l’engagement demandé (un week-end et quelques dizaines d’euros), l’expérience apportée aux jeunes wanabee entrepreneurs n’est pas chère payée !

On se retrouve au Startup Weekend de Paris ce week-end ? J’y suis mentor… pour la première fois, n’ayant participé jusqu’à présent qu’aux SUW en région (Nantes, Sophia Antipolis, Rouen, Bordeaux, Montpellier, …).

Répondre à ce commentaire

Commentaire 1318 dans Epitech Innovative Projects 2013, le 18 novembre 2013

J’ai corrigé… oui, projets démarrés en troisième année et terminés en cinquième année.

Côté étiquette Internet, tu comprendras de ton côté que dans la vie, il vaut mieux corriger l’information inexacte que de balancer un jugement de valeur péremptoire genre “il a pas tout compris lui…” !

Par analogie, préfères-tu un prof (ou un manager) qui te dise que tu as tout faux ou bien qui t’aiguille vers la bonne piste ?

Répondre à ce commentaire

Commentaire 1317 dans Où en est l’industrie française du logiciel ?, le 19 octobre 2013

Oui, j’aurais pu. Je les ai zappés car ce fut une acquisition moins importante que les autres que j’ai pu citer.

Répondre à ce commentaire

Commentaire 1316 dans Les faux-semblants de l’emploi dans le numérique, le 13 octobre 2013

Article intéressant sur le même sujet et l’impact des “smart machines” à venir sur l’emploi des classes moyennes aux USA :
http://techcrunch.com/2013/10/10/the-ceos-are-wrong-smart-machines-will-replace-millions-of-jobs

Répondre à ce commentaire

Commentaire 1315 dans Le plus grand incubateur numérique au monde sera français, le 1 octobre 2013

C’est du pipeau ! Ils n’ont pas autant de startups ! Ils intègrent dans ces statistiques toutes sortes de TPE et PME qui ne sont pas des startups (sociétés à forte croissance, techno et financée par de l’apport en capital) !

Si on intégrait dans les stats Ile de France l’ensemble des TPE/PME créées on en aurait aussi plus de 1000 par mois ! Il s’en créé plus de 300000 par an en France.

Répondre à ce commentaire

Commentaire 1314 dans Le plus grand incubateur numérique au monde sera français, le 28 septembre 2013

Jamais content… 🙂
Faut pas cracher sur la soupe comme ça et faire le grincheux !

L’accompagnement : ce sont des gens, pas des infrastructures. N’attendons pas tout de Xavier Niel !

Même remarque sur les business angels ! Xavier Niel a fait ce qu’il fallait de ce côté là, tout comme d’autres entrepreneurs tels que Marc Simoncini, PKM dans ISAI, etc.

Les universités, labos et écoles ne manquent pas à Paris et ont ne va pas toutes les déplacer à Tolbiac !

Le reste (la vie des entreprises) dépend de l’Etat et Xavier Niel n’y pourra rien, sauf par un effet d’entrainement que l’on peut espérer.

Répondre à ce commentaire

Commentaire 1313 dans IBC 2013 : chipsets, HEVC et set-top-box, le 25 septembre 2013

OK, en effet, oubli. Et cela fait un acteur de plus pour la France dans ce secteur !

Répondre à ce commentaire

Commentaire 1312 dans IBC 2013 : le marché, le 19 septembre 2013

Poudre aux yeux la 4K ? Peut-être, mais il en va de même de la plupart des innovations dans le numérique depuis des décennies. Le numérique, c’est une économie de l’offre. C’est une économie poussée par une innovation permanente permise par les technologies de base que sont les composants, les capteurs, les écrans, les réseaux et les logiciels. Le reste suit.

Dès fois, cela plante. Quand la valeur d’usage n’est pas là comme avec la 3D. Mais quand l’industrie est bien alignée, qu’il y a des standards, et un minimum de valeur utilisateur, la techno prend.

Pour ce qui est de la disparition des STB, oui, c’est envisageable. Mais pas forcément avec la fragmentation actuelle du marché et aussi ses contraintes de régulation, notamment en France. Ce marché a besoin de standards partagés. Aujourd’hui, c’est la foire d’empoigne avec trop peu de standards de jure style HbbTB ou équivalent.

Donc, wait and see, or … act.

Répondre à ce commentaire

Commentaire 1311 dans Les banques face à la révolution numérique, le 15 septembre 2013

Google une banque ? N’est-ce pas pousser le bouchon un peu trop loin ?

Répondre à ce commentaire

Commentaire 1310 dans Les photographes face à la révolution numérique 2/2, le 11 septembre 2013

Merci pour ce témoignage ainsi qu’à tous les autres. Ça confirme la tendance au “quick and dirty” et à la commoditisation du genre.

Dans le genre Headoo, il y a aussi SoonLight, un site de partage de photos de soirées. Côté qualité, c’est encore plus du côté du plancher.

Reste finalement le travail qui n’est pas facilement délocalisable et avec des clients solvables : la photo d’entreprise et de leurs collaborateurs. J’ai récemment croisé des photographes professionnels qui s’en sortaient pas mal dans ce secteur.

Côté règlementation européenne, existe-t-il des sites où ces évolutions sont expliquées en détail ?

Répondre à ce commentaire

Commentaire 1309 dans Les photographes face à la révolution numérique 1/2, le 5 septembre 2013

Vécu récent avec un journal de la presse écrite professionnelle qui me demande une photo d’une entrepreneuse en haute résolution. Je lui propose un prix modeste pour soutenir l’opération http://www.qfdn.net.

Réponse :

“Bonjour,

Merci pour votre réponse, cependant, et malheureusement, nous n’avons pas de budget photo pour cette rubrique.

Bien cordialement,

x x
Service Photo”

Le boulot de ce service, c’est donc de demander à des photographes des photos gratuites pour les intégrer dans le canard ! La valeur proposée en échange : on mentionnera votre nom (ce qui est obligatoire…) !

Répondre à ce commentaire

Commentaire 1308 dans Les photographes face à la révolution numérique 2/2, le 30 août 2013

Intéressant comme témoignage ! La question de la mémoire numérique est en effet clé dans les familles.

Il est aussi possible d’expliquer aux femmes (comme aux hommes) comment bien sauvegarder les photos et les partager. Et de vendre ce qui va avec (disques durs, NAS, câbles, DVD-R qui reste une bonne solution de sauvegarde, en tout cas plus sûre que l’enregistrement – magnétique – sur disque dur…).

De mon côté, j’utilise une méthode aussi “analogique” : j’envoie directement des tirages papier de mes photos de famille à ma belle-mère (en région) qui les assemble dans des albums photos à l’ancienne ! Mais tu n’es pas à l’abri des dégâts des eaux et des incendies !

Marrant en tout cas que l’analogique redémarre au moment où Kodak ferme boutique ! Mais bon, ces chiffres de +15% ou +20 méritent d’être vérifiés dans la durée et avec des études précises. Je me méfie des extrapolations un peu rapides…

Répondre à ce commentaire

Commentaire 1307 dans Les photographes face à la révolution numérique 1/2, le 30 août 2013

Pour être précis, je parlais plutôt de 300 PPI (pixel per inch) ce qui est différent de 300 DPI (dots per inch).

Voici le raisonnement :

21×29,7 cm = 11,69 x 8,26 pouces
300 PPI au carré fois cela donne 8,7 millions de pixels.

Il y a plusieurs techniques différentes d’impression couleur. En print, la plus courante est l’offset avec en quadrichromie, de la synthèse soustractive dans laquelle pour chaque “pixel” imprimé, il faut au moins 4 “dots” utilisant les trois couleurs primaires cyan-magenta-jaune et le noir. Ils sont de diamètre variable pour donner l’illusion – de loin – de la gradation de luminosité.

Pour chaque générer chaque pixel RBG d’une photo converti ensuite en CMYK, on peut se contenter au niveau capteur photo d’avoir autant de photosites de couleurs primaires RGB mais cela fera le tiers d’information pour chaque couleur primaire + dématricage de Bayer (cf http://fr.wikipedia.org/wiki/Matrice_de_Bayer) qui interpole dans chaque position la valeur des photosites adjacents.

Pour être parfait, il faudrait à la fois avoir 3 fois plus de photosites que de pixels demandés, et que les photosites RGB soient superposés pour éviter les artifacts de la matrice de Bayer. Un seul capteur fait cela, le Fovéon de Sigma, mais il n’est pas très performant en sensibilité ce qui se comprend aisément du fait de l’empilement des récepteurs photosensibles.

Dans le marketing des constructeurs d’appareils photos, “un pixel” c’est en fait un photosite de couleur primaire (photosite CCB ou CMOS avec filtre de Bayer devant le capteur qui est en fait “noir et blanc”). Par dématriçage de Bayer, l’appareil va générer un fichier RAW ou JPEF d’autant de pixels RGB que de photosites.

Mais ce n’est que de l’interpolation puisque l’on a trois fois plus d’information à l’arrivée qu’au départ. Donc, idéalement, il faut sur-échantillonner au départ avec 24 millions de photosites pour atterrir à 8 millions de pixels RGB convertis ensuite en pixels CMYB pour l’impression. Et je ne parle même pas des filtres antialiasing, un grand sujet de discussion avec les phrographes “Leica” dont les appareils sont dépourvus, donnant un meilleur piqué aux images.

Un 5D Mark II, c’est 22,1 millions de photosites, dont la moitié en vert, le quart en rouge et le quart en bleu. Et en sortie, cela génère au max en JPEG et RAW, un fichier de 22,1 millions de pixels RGB (donc avec 3 informations de luminosité, une par couleur primaire en synthèse additive).

Les Sony Alpha haut de gamme font exactement 24Mpixels, le Nikon D800 fait 36mpixels. Et je ne parle même pas des Hasselblad qui montent à 50 mpixels. Ces niveaux “délirants” pour le commun des mortels sont utiles pour la sortie en print de haut niveau de qualité.

Dans les imprimantes couleurs à jet d’encre, certaines montent à 1200 DPI, ce qui permet de faire du bon 300 PPI… :).

En tout cas, pour faire simple : l’exigence de résolution pour faire du print de qualité est très élevée et seuls les appareils haut de gamme et avec une haute résolution répondent au cahier des charges. Pour les puristes, seul l’argentique convient…

Verstanden ?

Répondre à ce commentaire

Commentaire 1306 dans Les photographes face à la révolution numérique 1/2, le 27 août 2013

L’UGC a eu en effet cet impact dans tous les métiers qui relèvent des contenus.

La différence est peut-être dans le volume. Il y a énormément de photographes amateurs au regard des photographes professionnels et l’appoint de revenu qu’un Fotolia leur procure ne leur pose pas de problème si les tarifs sont bas. Et un grand nombre d’amateurs font un bon boulot, mus par la passion et un temps significatif qui lui est alloué.

Dans le journalisme, c’est un peu différent. Le nombre de contributeurs qui savent bien écrire des articles ne sont pas aussi nombreux.

Il y a un déclin lié au fait que les rédactions online ont une pression du temps et des coûts telles qu’il est impossible pour les journalistes de faire leur métier de base (enquêter, interviewer, …). Un quotidien génère entre 10 et 20 fois moins de revenu dans la version online vs la version papier. Cela se retrouve dans le boulot rédactionnel pour les articles publiés uniquement en ligne, sauf dans de rares exceptions.

D’où les répétitions des dépêches d’agence. Dans les médias aux cycles plus longs (notamment les hebdos), il subsiste encore des journalistes qui font un vrai boulot de journalisme. J’en connais, en tout cas dans le secteur de la high-tech, qui font encore de l’investigation, se lancent dans le fact checking, etc !

Pour ma part, j’évite en tout cas le jeu que me proposent plein de médias. Ils me demandent d’écrire pour eux plus ou moins gratuitement (et même le tarif pigiste est dérisoire) et qui plus est de manière régulière. Je leur réponds : j’écris pour mon site et au cas par cas, vous pouvez reprendre mes posts en re-publication, mais je n’écrirais pas spécialement pour vous. Après, si un papier relève d’une campagne de comm ou de lobbying défendant telle ou telle cause et méritant un relais dans des médias de grande diffusion, pourquoi pas. Les occasions sont rares.

Répondre à ce commentaire

Commentaire 1305 dans Les chaines de télévision face à la révolution numérique 2/2, le 23 août 2013

La pub sur la distribution est tellement encadrée qu’elle est interdite dans les faits. En voit-on souvent d’ailleurs ?…

Pour ce qui est de RIS, la production est assurée par TF1 Production, filiale à 100% de TF1. Elle n’est donc pas comptabilisée dans le quota de commandes de productions indépendantes. Cf http://www.ufcnancy.org/images/txt/20110105224728.pdf. Mon point est donc en effet plutôt inexact : les chaines doivent commander une part de ce qu’elles diffusent à des producteurs indépendants, mais elles peuvent toutefois produire leurs propres fictions pour la part qui sort de ce cadre.

Répondre à ce commentaire

Commentaire 1304 dans Guide des Startups 17ème, le 19 août 2013

Merci du feedback.

Je ne manquerai pas d’ajouter cet incubateur dans la prochaine édition du guide !

Cordialement,

Olivier

Répondre à ce commentaire

Commentaire 1303 dans Les faux-semblants de l’emploi dans le numérique, le 19 juillet 2013

Oui, vaste sujet, déjà largement défriché par le rapport Colin & Collin sur la fiscalité du numérique.

Les bénéfices d’Amazon ne sont cependant pas faramineux car la boite n’est pas très profitable. Le résultat net d’Amazon est très modeste au regard de ceux de Google, Facebook ou Microsoft qui dépassent les 27% du CA.

Cependant, leur performance internationale est un état de fait incontournable. On peut toujours chercher à mieux les taxer. Mais il est plus important d’aider par tous les moyens possibles nos propres boites à se développer à l’international. Même si après, on se plaindra de leurs propres techniques d’optimisation fiscale, régulièrement dénoncées pour les entreprises du CAC40.

Répondre à ce commentaire

Commentaire 1302 dans Les faux-semblants de l’emploi dans le numérique, le 18 juillet 2013

Inquiétant mais pas surprenant. Dans l’univers des startups, on sent que le marché va mal en France depuis au moins le début de l’année. Tout du moins en b-to-b.

Ce témoignage confirme un point clé : en temps de crise, la principale variable d’ajustement sont les petites structures, ce d’autant plus qu’elles n’apparaissent pas toujours intégralement dans les statistiques sectorielles.

Sur la feignasserie des développeurs en SSII (ESN), n’est-ce pas une généralisation un peu hâtive d’une expérience personnelle ?

Mais je suis d’accord sur un point : l’excellence de notre enseignement supérieur sans cesse mise en avant comme un atout de la France est en grande partie une illusion en valeur relative, même si il s’avère que de nombreux ingénieurs français trouvent leur (belle) place à l’étranger et notamment aux USA. On se gargarise souvent de la présence de tel ou tel ingénieur dans les boites américaines mais sans avoir assez de recul sur la présence identique ou supérieure d’ingénieurs indiens, chinois ou issus des pays de l’Est dans les mêmes boites. On a effectivement des pointures, des Normale Sup Ulm, des médailles Fields, et des cracks de la sécurité. Mais ils représentent une petite part de la production du système d’enseignement supérieur français. Par contre, des français de bon niveau travaillant dans des environnement d’excellence, dynamiques, bien financés et très motivants deviennent peut-être meilleurs que s’ils restent en France. C’est plus une question d’environnement que d’excellence scientifique ou technique. Lands of opportunities!

Au passage, les difficultés actuelles renforcent un point clé : la résistance à la crise est meilleure quand un business est très diversifié géographiquement et est notamment présent sur les marchés les plus porteurs.

Répondre à ce commentaire

Commentaire 1301 dans A quoi sert 42 ?, le 10 juillet 2013

Il me semblait (au moment de rédiger l’article) que le niveau BAC avait été évoqué par les intervenants lors de la conférence de presse. Niveau et donc pas diplôme. En gros, histoire de vérifier quelques basiques…

Bravo en tout cas pour être candidate car cela prouve une fois de plus que geek ne se conjugue pas qu’au masculin !

Répondre à ce commentaire

Commentaire 1300 dans L’Institut Montaigne et la croissance des PME, le 7 juillet 2013

On supposera qu’il s’agissait de prévisions. De toutes manières, la comparaison portait sur 10 ans. Donc 2000 vs 2009 ou 2010, cela ne changeait probablement pas grand chose au propos.

Répondre à ce commentaire

Commentaire 1299 dans L’évolution du bruit dans les réseaux sociaux, le 27 juin 2013

Oui, argumentée… 🙂

Répondre à ce commentaire

Commentaire 1298 dans L’évolution du bruit dans les réseaux sociaux, le 2 juin 2013

Rien n’empêche de contribuer au débat au lieu d’être frustrée ! Un article de blog, déjà assez long, ne prétend pas à devenir une thèse de doctorat en sociologie… 🙂

Répondre à ce commentaire

Commentaire 1297 dans L’Acte 2 en trompe l’oeil de l’Exception Culturelle, le 19 mai 2013

Non, position différente des acteurs. Apple est un “problème” dans le rapport. Un grand américain qu’il faut juguler/réguler et qui pourrait/devrait contribuer au financement de la culture, même si les yeux sont plus facilement rivés vers Google.

Archos relève lui d’une question de stratégie industrielle. Et il en est peu ou pas question dans ce rapport. C’est un grand classique : à Bercy, on fait du numérique et de l’industrie et à la rue de Valois, on fait de la culture. Mais le lien entre les deux est bien ténu.

Répondre à ce commentaire

Commentaire 1296 dans Méta-prédictions 2013, le 15 mai 2013

Précision utile en effet. Merci ! C’est en effet dans les zones urbaines actives que le manque de logement est significatif. Mais le manque de logements en France date il me semble de bien avant les bulles de crédit récentes. L’Abbé Pierre en 1954, c’était avant les bulles de crédit ! Et cela concernait le logement social, un sujet toujours d’actualité. Ce n’est pas pour rien que la loi SRU existe !

Autre point de benchmark : le coût du logement est plus faible en Allemagne qu’en France du fait d’un parc locatif plus important (bonnes explications ici : http://lexpansion.lexpress.fr/immobilier/comment-l-allemagne-empeche-les-prix-de-l-immobilier-de-flamber_249642.html, reste à savoir à qui appartient le parc locatif en Allemagne !) et il ne se construit pas assez de nouveaux logements en France par rapport à la demande.

En Allemagne, le logement pèse moins sur le budget des ménages qui peuvent ainsi consommer plus car ils sont moins endettés puisque plus souvent locataires. Avec un phénomène de vases communicants entre le coût de l’immobilier et la consommation interne et indirectement de la croissance… A méditer !

Répondre à ce commentaire

Commentaire 1295 dans Comment Alcatel-Lucent augmente les débits d’Internet – 1, le 10 avril 2013

Bonjour Laurent,

Merci d’avoir relevé l’oublie du lien sur la vidéo, qui est maintenant ajouté.

Concernant mon calcul, c’était une sorte de “worst-case scenario” qui présente l’intérêt, une fois que l’on applique toutes les optimisations imaginables (CDN et autres), de montrer que le broadcast à très grande échelle de la TV numérique sur IP et via la fibre est envisageable, y compris pour de la vidéo de très haute qualité (Full HD puis UHD/4K).

Côté data-center, le défi serait significatif, mais est-ce le plus difficile à réaliser ? Là-encore, c’est surtout une question de coût et d’équilibre économique. Aujourd’hui, la diffusion de la TV linéaire par TNT ou satellite revient bien moins cher que par IP. Cela restera le cas encore quelques années !

Répondre à ce commentaire

Commentaire 1294 dans A quoi sert 42 ?, le 4 avril 2013

Fait.

Répondre à ce commentaire

Commentaire 1293 dans A quoi sert 42 ?, le 1 avril 2013

C’est un peu plus compliqué que cela. Je connais plein d’entrepreneurs qui veulent faire du scalable et veulent conquérir le monde et n’y arrivent pas.

C’est un cercle vicieux dont il n’est pas évident de sortir :

– Pour faire un bon produit scalable, il faut à la fois des moyens financiers de départ et trouver des clients assez tôt. En btoc, le marché français est limité. En btob, il est lent à la détente.

– Les moyens financiers “levables” sont plus ou moins proportionnels à la taille du marché adressable dans l’immédiat. Le marché français étant limité et le marché européen atomisé, tout comme les principales sources de financement, font que les entrepreneurs “lèvent peu”.

– Ils doivent donc avoir des ambitions moyennes pour commencer. Comme le take-up de la boite est souvent bien plus lent que prévu, et qu’il est difficile de trouver d’autres moyens financiers, les sociétés “produit” évoluent graduellement vers le service. A la fin, elles ne sont plus “scalable”.

– Les moyens financiers limités du départ font que le produit est réalisé avec des bouts de ficelles : avec des stagiaires de courte durée voire de la sous-traitance offshore, tous deux difficiles à maîtriser. La qualité n’est pas au rendez-vous. Le logiciel n’est pas forcément bien architecturé, extensible et/ou scalable. Parfois, il faut tout refaire au bout de un à deux ans. Et le temps perdu est difficile à rattraper.

Ce cercle vicieux a tendance à réduire les ambitions des entrepreneurs français. Ils ciblent souvent des marchés ultra-niches mais avec des cycles de vente pas bien rapides. Ou alors, ils versent dans le “nice to have” et avec une différentiation insuffisante par rapport à l’état de l’art.

Comment sortir de ce cercle infernal ? Quelques pistes, évoquées dans le Guide des Startups :

– Faire une bonne analyse de la valeur du problème que l’on souhaite régler avec son produit pour trouver plus rapidement des clients. Il faut des problèmes qui ont de la valeur (le coût de leur non traitement par le client) pour beaucoup de clients et avec des déficiences marquées des solutions existantes. Les pivots, c’est sympa, mais autant limiter leur nombre dès le départ !

– Bien cibler ses marchés pour démarrer. Des marchés solvables, innovateurs, etc. Pas évident, bien entendu.

– Bien penser l’architecture du produit dès le départ. Les choix de départ sont très structurants. Cela concerne aussi les choix de l’équipe. Qui retombent dans le débat codeur vs développeur vs CTO.

– Afficher une ambition internationale forte dès le début et crédible. Cela doit se retrouver dans la conception même du produit.

– Ne pas hésiter à chercher des sources de financement originales : fonds d’entrepreneurs, family offices, investisseurs étrangers.

– Identifier de bons effets de leviers et partenariats pour aborder ses marchés.

– Bien entendu, se faire accompagner comme par un passage dans un accélérateur de startups.

Répondre à ce commentaire

Commentaire 1292 dans A quoi sert 42 ?, le 31 mars 2013

Ce n’est pas un “business” puisque c’est du goodwill…

Les données macro montrent en effet que ces 10 à 20 dernières années, les grandes écoles sont devenues plus élitistes. Qu’est-ce que cela veut dire précisément ? Que la part des classes sociales employés/ouvriers/classes moyenne a décru dans les origines des élèves de ces grandes écoles.

Je cite un site officiel (données datant de 2007) – http://www.vie-publique.fr/actualite/alaune/grandes-ecoles-recrutement-toujours-elitiste.html :

“Ce rapport sur “la diversité sociale et l’égalité des chances dans la composition des classes préparatoires aux grandes écoles” constate plutôt un recul en la matière : moins d’un élève sur dix (9%) est issu d’un “milieu défavorisé”, contre 29% il y a 20 ans, ce qui est bien, selon les rapporteurs, un signe de la “panne de l’ascenseur social”. Pour expliquer ce phénomène les sénateurs pointent les défaillances du système d’orientation et d’information, la persistance de handicaps financiers (frais d’inscription, incompatibilité avec le travail salarié, etc.) et les inégalités territoriales souvent associées à des inégalités socio-culturelles. Les propositions visent à renforcer l’information des familles, à revoir la carte des classes préparatoires (en créer davantage en banlieue et en zone rurale), à amplifier les systèmes de bourse, multiplier les internats ainsi qu’à coordonner et évaluer les expérimentations locales, notamment celles de “discrimination positive”.

Ces données sur l’origine sociale sont des agrégats. Ils intègrent je crois aussi bien les écoles d’ingénieurs que de commerce. Il serait intéressant de voir si cette discrimination sociale est aussi manifeste dans les écoles d’ingénieur associées aux universités.

Listons les problèmes évoqués et voyons si 42 apporte une solution :

– Système d’orientation : non.
– Frais d’inscription : oui, c’est gratuit.
– Incompatibilité avec travail salarié : ni plus ni moins que pour les autres cursus publics s’il faut payer son logement et de quoi s’alimenter.
– Inégalités territoriales : elle subsiste.
– Inégalités socio-culturelles : réduite dans une certaine mesure car il n’y a pas d’exigence particulière en culture générale.
– Information des familles : la communication a du faire son effet, mais ponctuellement.
– Présence en banlieues et zones rurales : non. 42 aurait été plus osé s’il avait été installé dans le 93 que dans Paris !
– Amplifier les bourses : Xavier Niel pourrait y penser pour attirer les élèves des régions.
– Internats : c’est un point clé. A la question posée sur ce sujet pendant la conférence de presse, XN a répondu qu’il allait en discuter avec la Ville de Paris.
– Discrimination positive : elle est implicitement au programme de par le processus de recrutement.

Après, comme cette école ne va pas régler un problème national qui dépasse le cadre du développement logiciel, elle recrutera à la marge “haute” de la population des exclus du système. Dans les plus de 140 000 élèves qui sortent chaque année du système éducatif sans diplôme, il faudra un tamis assez fin pour trouver les développeurs. Dans ces 200K, il y a une stratification entre ceux qui sont exclus car ils ont complètement largué toute forme d’éducation et n’ont même pas acquis les connaissances de base (écriture, lecture, etc), et ceux qui ont été exclus mais sont toutefois intéressés par les études et ont ces connaissances de base.

Répondre à ce commentaire

Commentaire 1291 dans A quoi sert 42 ?, le 31 mars 2013

Tu soulèves un point très important qui est le manque de culture “produit” dans la conception de logiciels en France. Cette culture requiert des réflexes et un savoir faire qui sont plus courant aux USA qu’en France. Ils relèvent d’une discipline qui s’appelle le ‘product management’ et qui est à la croisée des chemins entre le marketing, la gestion de projet et le développement logiciel. Cette discipline n’est pas vraiment bien formalisée ni enseignée. Et en effet, dans les formations françaises, on apprend à coder mais pas à créer des produits logiciels.

Qu’est-ce qu’un produit logiciel ? C’est un produit qui factorise des besoins pour un grand nombre d’utilisateurs. Il est construit en briques et avec des APIs permettant de l’étendre et de créer un écosystème autour. Il est documenté, maintenable, extensible, paramétrable, installable. Il a aussi une interface utilisateur et une ergonomie bien étudiée.

42 n’innove pas dans ce domaine et c’est dommage. Mais il ne faut pas jeter la pierre pour autant puisque cette discipline n’est visiblement pas enseignée ailleurs. Elle le serait difficilement chez 42 puisque la transmission de savoir passe par les pairs, soit essentiellement les élèves entre eux, qui n’ont à priori pas d’expérience dans le développement de produits logiciels industriels.

Côté formations à l’entrepreneuriat, l’écosystème français a fait d’énormes progrès ces dernières années. Que ce soit avec la palanquée d’accélérateurs ou d’incubateurs créés déci-delà, ou avec les filières entrepreneurs des grandes écoles. Il y a aussi de plus en plus d’entrepreneurs qui partagent leur expérience avec les entrepreneurs en herbe. On a également de plus en plus de fonds d’investissement d’entrepreneurs.

Au démarrage d’une startup, il faut certes des développeurs, mais il faut aussi et surtout un bon CTO qui va les gérer. Le CTO est plutôt un ingénieur généraliste et un manager tout en étant un bon côté technologie. Il doit savoir développer pour en comprendre les codes (facile…) mais aussi pour bien piloter ensuite ses développeurs.

Répondre à ce commentaire

Commentaire 1290 dans A quoi sert 42 ?, le 31 mars 2013

Ce sont bien des promos de 1000 par an. Et il y aura donc 3000 étudiants dans l’école d’ici fin 2015.

Le modèle sur le qui va faire quoi est visiblement exactement celui de l’EPITECH qui a été créé par les fondateurs de 42. La différence ici est qu’ils auront plus de moyens matériels qui apporteront de meilleures conditions de travail aux étudiants. Xavier Niel a indiqué que ce serait probablement l’école la mieux dotée d’un point de vue de l’équipement et des conditions d’accueil des étudiants.

Répondre à ce commentaire

Commentaire 1289 dans A quoi sert 42 ?, le 31 mars 2013

En quoi un concours est-il facteur d’exclusion ? C’est un moyen de sélectionner les meilleurs sans favoritisme. Cela nécessite évidemment un peu de préparation. Comme il y a beaucoup de concours et pas mal de places, il est relativement aisé de les réussir. Après, si on tombe sur une école groupe C, ce n’est pas la cata. Mon constat n’est pas lié au fait qu’il y ait concours ou pas mais aux origines sociales que j’observe dans les écoles diverses où j’enseigne.

Pour le 2, j’avais bien compris le montage. Je me suis mal exprimé.

Répondre à ce commentaire

Commentaire 1288 dans A quoi sert 42 ?, le 31 mars 2013

C’est comme pour les startups : on lance souvent sa boite pour créer une solution qui correspond à son propre besoin et en estimant qu’il y a un grand nombre de personnes ou sociétés qui ont ce même besoin.

Dans le cas de Xavier Niel, la volonté va bien au-delà du simple besoin de recrutement de Free. L’expérience de Xavier Niel a en tout cas fortement influencé son projet car il recrute beaucoup d’élèves issus des écoles type EPITECH, dont il apprécie beaucoup la pédagogie.

Il pense surtout pouvoir contribuer à faire grandir l’écosystème français du numérique avec cette initiative. Il ne faut pas chercher du “self-interest” traditionnel. Lis bien la conclusion de l’article qui explique pourquoi.

Répondre à ce commentaire

Commentaire 1287 dans A quoi sert 42 ?, le 31 mars 2013

Le chiffre de 4000 n’apparaît dans l’article que pour évoquer le nombre de candidats que 42 souhaite filtrer en amont pour en sélectionner 1000. La source : la conférence de presse du lancement de 42.

Puis, il y a les 5000 développeurs formés par les écoles privées et publiques évoqués par Xavier Niel comme indiqué. C’est un chiffre “doigt mouillé” que j’ai essayé de reconstituer en intégrant les effectifs des principales écoles privées d’informatiques (dont il ne faut prendre qu’une partie), des filières informatiques des grandes écoles généralistes (idem), et des filières universitaires. Et cela colle à peu près.

Il n’est pas évident d’évaluer le nombre d’informaticiens formés en France chaque année dans le supérieur et donc encore plus, pour les développeurs. Les estimations varient de 15000 à 30000 nouveaux entrants sur le marché du travail chaque année. Un tiers de développeurs dans tout ça sur la fourchette basse ? C’est à peu près cohérent.

Il persiste une bataille des chiffres sur le nombre d’informaticiens en France, le nombre de diplômés et celui des chômeurs. Notamment entre le Syntec et le Munci, un syndicat de salariés dans l’informatique : http://munci.org/La-France-forme-suffisamment-d-etudiants-aux-metiers-de-l-informatique et http://munci.org/La-desaffection-des-etudes-scientifiques-et-le-papy-boom-ne-concernent-pas-l-informatique. Son point de vue est qu’il y a du chômage dans l’informatique et que le manque de diplômés est gonflé par les organisations patronales style Syntec.

Débat expliqué ici : http://www.zdnet.fr/actualites/emploi-it-une-bataille-des-chiffres-entre-le-syntec-et-le-munci-qui-n-est-pas-anodine-39765773.htm.

L’emploi est un sujet complexe de mécanique des fluides : les seniors (>45 ans) ont du mal à trouver du boulot pour les raisons habituelles (parfois dépassés par les nouvelles technologies et aussi, laissés de côté par les entreprises qui préfèrent les jeunes, moins chers et plus adaptables) et les débutants bien formés s’en sortent plutôt bien dans l’ensemble. Il y a aussi beaucoup d’indépendants, je crois de l’ordre de 30 000. Et surtout des flux entre métiers informatiques et non informatiques. Les estimations du nombre d’informaticiens en France vont de 500 000 à plus de 800 000. La différence provient notamment de la comptabilisation de métiers non-informatiques dans les entreprises du numérique (un commercial ou un chargé de communication d’un constructeur, d’une SSII ou d’un éditeur de logiciel est-il un informaticien ?).

Autre source d’information qui date de quelques années, ce papier de Laurent Ellerbach de Microsoft France : http://www.anif.fr/UserFiles/File/documents/renouvinformaticiens.pdf. Qui explique un peu les flux migratoires dans la profession.

Répondre à ce commentaire

Commentaire 1286 dans A quoi sert 42 ?, le 31 mars 2013

Merci Fatiha pour ces précisions utiles.

1 – Je n’ai pas fait allusion à la notion de concours. Certaines écoles recrutent sur dossier, d’autres sur concours.

2 – Oui, au niveau de la maison mère. Après, les montages sont plus complexes…

3 – En effet, je n’ai pas cité les INSA et autres écoles liées aux universités. En existe-t-il qui forment beaucoup d’informaticiens et de développeurs ?

4 – Les crédits ECTS servent à valider des diplômes mais 42 n’en délivrera pas. Ces crédits sous-entendent-ils qu’ils chercheront donc un jour à valider les études avec un diplôme homologué ?

5 – En effet.

OK à 100% sur le besoin de valoriser la filière des développeurs de logiciels !

Répondre à ce commentaire

Commentaire 1285 dans A quoi sert 42 ?, le 30 mars 2013

Bonjour Loic,

J’ai un peu édité l’article au sujet du low-cost en réintégrant les capex. Cela positionne l’école dans la fourchette basse des structures de coût des écoles privées et en tenant compte de la nature “for profit” des écoles privées qui génère un résultat net et un impôt sur les sociétés. Si on prend l’exemple de Supinfo pour une bonne année où ils ont fait 20% de résultat net, cela donne une structure de coût qui doit être proche de 60% à 70% du CA. Dans le bas de compte d’exploitation, on va avoir 20% de net, 10% d’impôts sur les sociétés et des frais financiers en cas d’emprunt. Ces 30% et quelques sont absents dans le cas de 42.

Le choix d’un iMac a été expliqué par les fondateurs le jour du lancement : cela allège les frais pour les étudiants qui n’ont ainsi pas à acheter un laptop. Comme l’école est ouverte 24h/24, ils peuvent en profiter tout le temps sans contrainte.

Le codage dans la salle permet d’éviter la solitude. Cela peut favoriser les échanges entre étudiants, le coaching et l’entre-aide, qui est un élément clé de la pédagogie. Il faut voir le bon côté de la chose !

Il faudra aussi vérifier qu’ils ont prévu la sustentation alimentaire sur place, comme c’est le cas dans les boites hightech aux USA (les fameux restaux chez Google).

Répondre à ce commentaire

Commentaire 1284 dans Guide des Startups 17ème, le 29 mars 2013

Il faudrait probablement que tu réessayes le téléchargement. Parfois, il ne va pas jusqu’au bout pour des raisons que j’ignore. Ce n’est pas une question d’OS. La plupart des gens qui ont eu ton problème ont réussi à télécharger le guide en tentant à nouveau le coup.

Pour ce qui est de la mort des startups, le sujet est traité pages 114 à 116, et ce depuis la 11ième édition qui date de septembre 2009, et surtout sur l’aspect juridique et financier. Cette partie mérite certainement d’être complétée mais c’est un début. Peux-tu indiquer quelques exemples de points précis à traiter dans cette partie ?

Répondre à ce commentaire

Commentaire 1283 dans Guide des Startups 17ème, le 27 mars 2013

Non, pas de version ePub. Le reformatage du Word avant un export ePub est assez fastidieux. Mais si vous êtes volontaire pour le faire, je peux vous fournir le source Word.

Répondre à ce commentaire

Commentaire 1282 dans Guide des Startups 17ème, le 25 mars 2013

Cela m’est déjà arrivé de croiser des entrepreneurs de ce secteur qui avaient un lien avec le numérique. Mais c’est en effet plutôt rare. Je constate en tout cas un accroissement des velléités d’entrepreneuriat solidaire chez les jeunes. Cela vaut la peine d’évoquer le phénomène.

Répondre à ce commentaire

Commentaire 1281 dans Guide des Startups 17ème, le 25 mars 2013

Merci pour ce sympathique feedback Guillaume !

Des idées pour la 18ième édition ? 🙂

J’en ai encore en tout cas en “backlog” : l’entrepreneuriat solidaire, plus de matière dans la comptabilité et la finance des startups, un tour d’horizon plus approfondi des facteurs clés de succès et d’échec des startups en analysant le porte-feuille des grands VC français, etc.

Olivier

Répondre à ce commentaire

Commentaire 1280 dans Lytro va-t-il révolutionner la photographie numérique ?, le 21 mars 2013

Merci Richard pour ce très intéressant retour d’expérience. Pour l’instant, le bénéfice produit semble encore en retrait par rapport aux limites et contraintes. Cela s’améliorera sans doutes.

De mon côté, je suis plus en attente de progrès dans la sensibilité des capteurs et leur capacité colorimétrique (gamut) que dans cette gestion un peu compliquée de la profondeur de champ.

Répondre à ce commentaire

Commentaire 1279 dans Le nouveau plan numérique du gouvernement : valeurs, le 14 mars 2013

Ce sujet était en théorie traité dans la partie “compétitivité” traitée dans l’article précédent. Mais évidemment, on en est encore loin.

Répondre à ce commentaire

Commentaire 1278 dans Le nouveau plan numérique du gouvernement : compétitivité, le 7 mars 2013

Hello Louis,

En effet, il y a plusieurs solutions alternatives à la fibre pour relier les zones peu denses à l’Internet. Tooway est intéressant mais présente quelques limitations : en débit réel et surtout en latence du fait de l’aller retour avec le satellite géostationnaire. Et la bande passante est limitée par celles des transpondeurs alloués au service par le satellite d’Eutelsat.

Ce satellite est construit par le français Astrium et est doté d’une capacité totale de 70 GBits/s. Mais Tooway n’en exploite qu’une partie. On peut faire passer plusieurs dizaines de fois ce débit sur une fibre noire maintenant ! Ce satellite exploite la bande KA des 26 à 40 GHz avec un débit descendant plafonnant aussi à 10 mbits/s et 4 mbits/s en montant (par abonné).

Il a une autre solution passant par les satellites Astra avec les services de Nordnet (filiale de France Télécom), Viveole et Wibox. Astra utilise la bande Ku (entre 12 et 18 GHz, maximum de 10 mbits/s en descendant et 384 Kbits/s en sens montant, moins bon qu’avec la bande KA).

Dans les deux cas de figure, le débit est mutualisé sur les utilisateurs. On peut en mettre grand maximum quelques dizaines de milliers d’abonnés par satellite. Fais le calcul…

Mais OK avec ton raisonnement. En faisant simple, disons qu’il faut un réseau câblé (fibre) allant au plus près des abonnés selon ce que permet l’équation géographie/coût, car c’est le seul moyen d’avoir un débit en masse. Puis faire le reste du trajet par une voie hertzienne “de proximité” (le Wimax peut servir à cela mais ce n’est pas un grand succès), le satellite couvrant les zones très isolées qui ne pourraient pas être traitées par une voie hertzienne terrestre.

La voie régulatoire du partage des fréquences peu utilisées est aussi très intéressante. C’est ce que tu appelles le mode ASA. J’ai d’ailleurs croisé aujourd’hui même une société qui travaille sur un outil d’évaluation des fréquences disponibles pour ce partage. Après, faut négocier avec l’armée qui truste pas mal de fréquences, et avec l’Agence Nationale des Fréquences, sorte d’ARCEP des ondes, dont on parle peu.

Répondre à ce commentaire

Commentaire 1277 dans Le plus grand business angel de France, le 27 février 2013

Pour intéresser un investisseur, quel qu’il soit, il faut que l’argent investit puisse être récupéré avec un potentiel de “multiple” de l’investissement initial. Pas avec d’éventuels dividendes.

Dans tous les cas (que je connais en tout cas), cela passe par une entreprise qui peut ensuite être revendue ou éventuellement introduite en bourse (ce qui très rare). Par ailleurs, il faut une structure juridique pour pouvoir créer un pacte d’actionnaire avec les investisseurs.

Aller, un petit tour dans le Guides des Startups pour revenir aux basiques… Cf http://www.oezratty.net/wordpress/2012/guide-startups-16/.

Répondre à ce commentaire

Commentaire 1276 dans Un retard qui ne date pas d’hier 2/2, le 17 février 2013

Il semble que oui… la France a été très très en retard sur l’équipement des foyers en téléphone.

Répondre à ce commentaire

Commentaire 1275 dans Rapport CES 2013, le 1 février 2013

En effet. Tesla et Toyota sont partenaires sur un certain nombre de véhicules depuis 2010 (dans la série du RAV4 EV), mais pas sur celui-ci. C’est corrigé…

Répondre à ce commentaire

Commentaire 1274 dans Rapport CES 2013, le 29 janvier 2013

Merci Yann pour les précisions sur la TNT.

Concernant Nokia, leur absence (à part un bus en extérieur) était décevante. Au delà de leur situation qui n’est pas florissante, cela s’explique aussi par le fait que Nokia n’a jamais été présent aux USA. Ils misent donc plutôt sur le MWC.

Par contre, le parallèle avec Bouygues Tel ne me semble pas bon dans ce genre de business. Les services et le matériel sont deux business assez différents. Et Bouygues Tel, avant Free, s’est aussi distingué en baissant les prix côté mobile, puis fixe et enfin dans le quadplay.

Répondre à ce commentaire

Commentaire 1273 dans Rapport CES 2013, le 28 janvier 2013

Bonsoir Pierre,

Merci pour le retour. En effet, j’essaye de sortir de la langue de bois du moment dans ce Rapport et prendre un peu de recul. Et aussi, mettre en évidence quelques absurdités du secteur.

Bonne continuation !

Olivier

Répondre à ce commentaire

Commentaire 1272 dans Premiers retours du CES 2013, le 13 janvier 2013

Pas mentionné dans l’article, mais sera dans le Rapport CES 2013 ! Stay tuned…

Répondre à ce commentaire

Commentaire 1271 dans LeWeb 2012 : vue d’ensemble, le 21 décembre 2012

Bon, j’ai un peu généralisé. Mais je confirme cette impression de français de l’étranger qui sont souvent assez dépités, voire plus que ceux de “l’intérieur”. Et qui d’ailleurs prennent facilement mentalement leurs distances avec leur pays d’origine sauf dans des cas comme le tien ou les allers et retours sont fréquents entre USA et France. Je n’ai pas l’impression que ce genre de ressenti soit lié aux raisons qui les ont poussés à aller à l’étranger comme tu sembles l’indiquer.

En tout cas, je suis le premier à encourager les entrepreneurs à se projeter à l’étranger tout en tirant au mieux parti des capacités de notre pays. Ce n’est pas un truc de pleureuses…

Répondre à ce commentaire

Commentaire 1270 dans LeWeb 2012 : les services connectés aux objets, le 13 décembre 2012

Il est assez vain de faire ce genre de prédictions. Ce marché est pour l’instant trop immature pour se consolider.

Comme je l’indique dans le premier article sur les objets connectés, il me semble que ceux qui vont retirer de la valeur de ce business sont plutôt les fabricants de composants et les offreurs de services de base en cloud style Amazon.

Le marché des objets connectés est un mélange de composants, surtout des capteurs, de produits matériels et de logiciels. Pour l’instant, les logiciels sont bundlés avec les matériels. Un découplage pourrait intervenir avec des plateformes de workflow ouvertes sur des matériels aux API ouvertes, telles que celles qui ont été présentées à leWeb (Sen.se, …). Google a essayé avec Google Home puis s’est fait discret sur le sujet. Les autres prétendants sont pour l’instant petits.

Bref, le reste sera très fragmenté pendant longtemps.

Cela me fait d’ailleurs penser à l’état actuel du marché de la TV connectée, qui présente des caractéristiques voisines de fragmentation technologique et d’absence de leaders incontestables. Il est d’ailleurs tout aussi immature.

Répondre à ce commentaire

Commentaire 1269 dans LeWeb 2012 : les objets connectés, le 12 décembre 2012

Cela sera dans l’article suivant…

Répondre à ce commentaire

Commentaire 1268 dans LeWeb 2012 : les startups, le 10 décembre 2012

Merci pour le tuyau sur Wolfram dont j’avais entendu parler mais sans plus. J’ai testé l’outil en mettant plus de 15 boites et cela devient difficile d’obtenir quelque chose. Il faut avoir les stock tickets précis des boites évidemment !

Il doit y avoir pas mal d’outils pour les pros de la finance pour comparer les données financières des boites. Mais ce ne sont pas encore des données entièrement ouvertes, au sens… gratuites. Là, j’ai 60 boites à comparer en données YoY !

Répondre à ce commentaire

Commentaire 1267 dans LeWeb 2012 : vue d’ensemble, le 9 décembre 2012

Merci pour la coquille, corrigée illico.

Le lieu unique qui concentre le tout, cela s’appelle un trou noir en astronomie. Derrière lui, on trouve une fontaine blanche d’où jaillissent énergie et lumière. Quand on arrive à le traverser en conservant sa forme initiale :).

Répondre à ce commentaire

Commentaire 1266 dans Le numérique et la distorsion du temps, le 3 décembre 2012

Là, nous sommes plutôt dans les zones de résistance…

Il en va ainsi des délais de paiement des clients qui ne se sont pas significativement accélérés alors que le numérique, en théorie, permet d’aller beaucoup plus vite !

La fracture numérique se retrouve aussi dans vitesse à laquelle les gens se bougent !

Répondre à ce commentaire

Commentaire 1265 dans Les français de la TV connectée : Evergig, le 22 novembre 2012

Pas de plaintes en perspectives car Evergig ne diffuse des concerts qu’avec l’accord des maisons de disque et des artistes. Ne serait-ce que pour pouvoir récupérer la bande son d’origine, de bien meilleure qualité que ce que l’on peut récupérer avec un smartphone !

Est-ce que les concerts sur Switchcam sont publiés avec le même genre d’accord ?

Répondre à ce commentaire

Commentaire 1264 dans Déboguer le logiciel économique français – 1, le 17 novembre 2012

On pourrait aussi imaginer un monde avec juste des entrepreneurs qui emploient des autoentrepreneurs. En caricaturant un peu, c’est un peu la forme du marché du travail aux USA où la sécurité de l’emploi est assez faible, mais la mobilité très forte en retour. Cela profite aux salariés quand l’économie va bien mais moins quand elle va mal.

Votre point sur la Ferrari et les salariés est un peu déplacé dans le cas de nombreuses startups. En effet, les dispositions initiales de la PLF2013 allaient AUSSI pénaliser les salariés qui prennent le risque d’entrer dans une startup avec un salaire en dessous de celui du marché, risque rémunéré par des actions dans la société (sous forme de BSPCE ou autres).

Répondre à ce commentaire

Commentaire 1263 dans Tokyo CEATEC 2012 – affichage, le 5 octobre 2012

Bonne remarque ! En fait, le noir de la partie droite est lié au reflet, pas au noir du fond de la boite !

Répondre à ce commentaire

Commentaire 1262 dans Le nouvel essai de Google TV, le 4 octobre 2012

Bon, la boiboite qui fait tout pour la TV n’est en tout cas pas arrivée chez toi 🙂

Répondre à ce commentaire

Commentaire 1261 dans Le nouvel essai de Google TV, le 4 octobre 2012

Merci pour le témoignage Guillaume !

Que le joujou soit un peu difficile à trouver n’est pas très étonnant. Il est tout récent et n’existe qu’avec une marque. Par ailleurs, il est dans la catégorie des produits indémontrables dans le retail. Tout comme les fonctions de TV connectée qui ne sont jamais présentées dans les rayons, faute de connexion des TV et de formation des vendeurs. Et aussi, pour éviter d’y perdre trop de temps pour vendre les TV !

En résumé : tout ça pour ça ? Il aurait été plus simple de brancher un PC ou un Mac sur la TV… Oui, il manquerait la télécommande. En tout cas, si GTV ne sert qu’à regarder YouTube, cela restera un accessoire bien secondaire pour la plupart des foyers !

La différence entre YouTube sur TV connectée et sur Google TV peut aussi provenir du processeur qui est plus puissant sur cette dernière.

Répondre à ce commentaire

Commentaire 1260 dans Le nouvel essai de Google TV, le 4 octobre 2012

Oui, en effet. J’ai corrigé cela dans le texte. Très bon bouquin que je n’ai d’ailleurs pas encore terminé. Mais j’y bois du petit lait car je prêche les sujets qu’il contient assez régulièrement, et par ailleurs connait bien les deux auteurs !

Répondre à ce commentaire

Commentaire 1259 dans Le nouvel essai de Google TV, le 1 octobre 2012

Bonjour,

Pas sûr que ces éléments techniques aient tant d’importance que cela pour le succès ou l’insuccès de Google TV. Le support de Flash en particulier qui est une technologie en déclin. Les chaines sont déjà obligées de s’en passer pour les versions iOS de leurs applications…

Donc Apple TV est un hobby pour Apple et Google TV est un hobby pour Google. Les scénarios catastrophistes (du genre de celui de mon intro, qui était au second degré) sont donc assez peu probables.

Ou tout du moins, on peut s’attendre à des changements significatifs du marché, mais pas forcément dus à Apple ou Google !

Répondre à ce commentaire

Commentaire 1258 dans Les français de la TV connectée : Wiztivi, le 27 septembre 2012

Ca dépend de la ligne : le CA augmente de plus de 50% ce qui est pas mal. Mais le résultat d’exploitation est fortement négatif. Si c’est pour de l’investissement, pourquoi pas. Si c’est pour vendre des projets à perte, c’est une autre histoire. Reste à obtenir le détail…

Répondre à ce commentaire

Commentaire 1257 dans IBC 2012 – le reste, le 21 septembre 2012

En effet, corrigé !

Répondre à ce commentaire

Commentaire 1256 dans IBC 2012 – le reste, le 20 septembre 2012

Merci Jérémie pour tous ces détails intéressant sur le sujet !

Olivier

Répondre à ce commentaire

Commentaire 1255 dans Les technologies de séquençage du génome humain – 6, le 7 septembre 2012

La technologie utilisée dans ce cadre ne relève pas du séquençage. Elle utile une autre technique à base de marqueurs qui permettent d’identifier les polymorphismes (variations) bien précis dans certains gènes. La technique s’appuie sur des biopuces, ou DNA array et DNA microarray. Pour faire simple, après préparation, on envoie un échantillon d’ADN sur une sorte de matrice avec des cuves qui contiennent chacune un marqueur fluorescent différent qui va détecter des polymorphismes bien précis, jusqu’à plusieurs milliers voire centaines de milliers. On fait une photo du résultat et on obtient, après traitement informatique, la liste des variations dans les gènes que l’on souhaite étudier. La police scientifique en étudie certaines, la médecine, d’autres.

Du côté de l’offre, plus d’une vingtaine d’entreprises dans le monde proposent des machines automatisées pour ces analyses. Parfois ce sont les mêmes que celles, les plus grandes, qui proposent des systèmes de séquençage. Les analyses à base de biopuces coutent pour l’instant moins cher qu’un séquençage complet.

C’est la technique également utilisée par les sociétés américaines qui offrent en ligne de décoder votre génome. Aucune société ne propose pour l’instant un séquençage complet du génome humain personnalisé car cela coute encore trop cher (plus de $1000). Mais on descendra bientôt en dessous de $100 et la donne changera.

Répondre à ce commentaire

Commentaire 1254 dans Université d’été du MEDEF dans l’opposition, le 4 septembre 2012

L’expression est de moi, mais elle résume bien son propos !

Répondre à ce commentaire

Commentaire 1253 dans Université d’été du MEDEF dans l’opposition, le 4 septembre 2012

Hello Frédéric,
Corrigé…
Merci !

Répondre à ce commentaire

Commentaire 1252 dans Les technologies de séquençage du génome humain – 6, le 23 août 2012

Ne caricaturons pas les choses. Le Téléthon a fait avancer la science dans des proportions énormes et est à l’origine du Génopole d’Evry, un véritable pôle industriel dans les biotechs.

Pour ce qui est de l’activité industrielle, difficile à dire. Mais notre faiblesse existait déjà avant le séquençage du génome humain. La France n’a jamais été très bonne en matériel médical. Il suffit de faire un tour à l’hôpital, une clinique ou dans un laboratoire d’analyse médicale pour se rendre compte que le matériel y est américain, japonais ou allemand en général.

Pour la 3D, ce sont effectivement les solutions métier qui se déploient en ce moment, notamment dans la santé, y compris pour créer des prothèses. J’ai croisé une startup il y a un an dont j’ai oublié le nom qui a même créé une poudre spéciale et biocompatible pour en imprimer en 3D (pour des os), et avec une imprimante 3D laser française dont j’ai aussi oublié le nom.

Compte-tenu des habitudes françaises, il y a donc peut-être un espace à prendre dans l’impression 3D “haut de gamme”, de précision, pour les applications industrielles. Pour ce qui est du grand public, c’est plus difficile. Mais il ne faut jamais dire jamais.

Répondre à ce commentaire

Commentaire 1251 dans Les technologies de séquençage du génome humain – 1, le 21 août 2012

Merci ! C’est en fait la chute de la 5ième partie de la série, ici : http://www.oezratty.net/wordpress/2012/technologies-sequencage-genome-humain-5/.

Répondre à ce commentaire

Commentaire 1250 dans Les technologies de séquençage du génome humain – 4, le 16 août 2012

Bonjour Pierre,

Dans un des articles suivants, je reviendrais sur la structure de cet écosystème et pourquoi l’Europe est assez absente et en particulier la France.

La technologie d’Oxford Nanopore Technologies permet de faire des analyses de caractérisation de protéines.

Pour le reste, je suis un peu sec. Je n’ai pas trouvé de documentation sur les procédés de fabrication des protéines ou lipides divers de ces nanopores lorsqu’ils sont biologiques (vs pur silicium). Ils doivent être sûrement brevetés, donc cela doit pouvoir se retrouver quelque part. A moins que cela ne relève du secret industriel.

Répondre à ce commentaire

Commentaire 1249 dans Les technologies de séquençage du génome humain – 3, le 14 août 2012

Merci Patrick pour ces compléments d’information très utiles. J’ai corrigé le point sur Qiagen et sur l’électrophorèse capillaire. J’avais mal compris ce que j’avais lu. Il me semblait que les tubes permettaient de capter la couleur des marqueurs. J’ai extrapolé cela sous forme de chromato, qui n’en est effectivement pas une.

Répondre à ce commentaire

Commentaire 1248 dans Les technologies de séquençage du génome humain – 2, le 14 août 2012

En effet, je viens d’ajouter cette précision dans le texte.

Pour les technologies à base de nanopores que je suis en train d’étudier pour l’article suivant, j’ai vu que les brins d’ADN séquençables peuvent être plus longs, de plusieurs milliers voires dizaines de milliers de bases et qu’effectivement, on n’a pas forcément besoin de l’étape de “découpage”. Mais cela dépend un peu des technos.

Répondre à ce commentaire

Commentaire 1247 dans Les technologies de séquençage du génome humain – 1, le 4 août 2012

Je fais cela assez régulièrement, mais habituellement sur les sujets qui sont dans mon coeur de métier (médias numériques). Ici, c’est une digression d’été qui m’est venue car je souhaitais comprendre comment on séquençait le génome. La variété des technologies mises en oeuvre est assez fascinante.

Répondre à ce commentaire

Commentaire 1246 dans Les technologies de séquençage du génome humain – 1, le 26 juillet 2012

Bonjour, oui je suis preneur de toute littérature pour débroussailler le sujet ! Merci !

Répondre à ce commentaire

Commentaire 1245 dans Les technologies de séquençage du génome humain – 1, le 25 juillet 2012

Bonjour Hervé,

Merci pour l’encouragement car c’est un domaine assez particulier à appréhender. On est vite noyé sous les concepts. La biologie moléculaire est d’une richesse incroyable !

L’épigénétique ? Je vais voir cela dans les phases suivantes, peut-être au niveau des applications du séquençage.

Pour le (c), corrigé : c’était une fonction à désactiver dans un plug-in !

Répondre à ce commentaire

Commentaire 1244 dans Les français de la TV connectée : TDF, le 20 juillet 2012

Et merci à mon tour pour ton papier sur YouView, un service enfin disponible après une gestion qui a pris plus de temps que prévu.

L’approche de standard complet côté box est très intéressante mais n’a pu voir le jour que parce que les chaines TV étaient en position de force face aux telcos. Ce qui n’est pas vraiment le cas en France du fait du poids de l’ADSL.

Pour ce qui est du reverse EPG, j’avais aussi vu une démo de Snowflake faite par Olivier Lacour de NDS au CES 2011. Voir la seconde vidéo dans cet article : http://www.oezratty.net/wordpress/2011/videos-du-ces-2011/.

Répondre à ce commentaire

Commentaire 1243 dans Les français de la TV connectée : Mesagraph, le 11 juillet 2012

Oui, on pourrait baisser d’un ton. Expliquer “la crise” en quelques lignes et en s’appuyant sur l’histoire de la TV sort nettement du cadre de cette série d’articles !

Quand au débat sur les aides publiques aux “gadgets à deux balles”, il y a déjà eu lieu ici il y a deux ans : http://www.oezratty.net/wordpress/2011/aides-publiques-innovation/, et avec autant de pour que de contre.

Et attention quand on parle de “TV”. Ce vocable recouvre maintenant plein de notions différentes : le poste de TV “historique” du salon, les chaînes de TV “broadcast”, les autres chaînes, et maintenant, la consommation de contenus en mode multi-écrans aussi dénommés “transmedia”. Tout ça n’est pas mort. Même les chaînes de TV. Certaines souffrent car les audiences se fragmentent, mais d’autres gagnent au change.

Que la TV n’élève pas toujours le niveau intellectuel des téléspectateurs n’est pas une nouvelle. Les jeux du cirque des romains n’étaient pas meilleurs de ce point de vue là non plus… 🙂

Après, c’est une question de choix. On peut si on le souhaite regarder de la TV qui permet d’apprendre. Sur la TNT, prenez 100% de France 5, LCP et Arte et vous aurez votre compte. En premium, vous ajoutez Histoire, Discovery, NGC, Planète et le compte y sera. Après, vous avez vos box et la catch-up pour regarder tout cela quand vous voulez sans utiliser l’excuse du “bon programme diffusé trop tard”. Et ensuite, la tour de Babel YouTube et le reste sur Internet et la VOD pour de bons films. Bref, on n’a jamais eu autant de choix pour se faire “sa TV” et même de la “bonne TV” !

Après, si la majorité des téléspectateurs préfère le reste, c’est une question de société, de rapport aux loisirs et à la culture, à la pénibilité du travail qui alterne avec un “repos de cerveau pour se détendre”…

Laissons, voire aidons, nos entreprises et startups à se développer dans ce marché qui évolue et qui innove ! Même si parfois, elles font face à des concurrents mieux financés côté US. Cela n’empêchera pas quelques succès d’émerger.

Répondre à ce commentaire

Commentaire 1242 dans Les français de la TV connectée : Mesagraph, le 11 juillet 2012

Je l’ai entendu à plusieurs endroits. et on le trouve ici, pour ce qui est du marché US : http://www.marketingcharts.com/television/twitter-dominates-social-tv-landscape-21563/trendrr-social-tv-activity-by-source-in-feb-2012-mar2012jpg/. Selon Trendrr, un concurrent américain de Mesagraph… et il y a en effet des chances qu’il ne s’agisse que des conversations publiques.

Les conversations privées peuvent cependant être mesurées pour les utilisateurs de Facebook qui acceptent comme amies des applications qui font ce genre de mesure !

Répondre à ce commentaire

Commentaire 1241 dans Que peut donner l’initiative France Digitale ?, le 8 juillet 2012

Un exemple montre que c’est possible mais pas que c’est répétable. Et en particulier… en France !

C’est comme si en partant de l’IPO de Facebook, tu disais qu’une startup française pourrait avoir une valorisation de $75B en levant sur le second marché…

Répondre à ce commentaire

Commentaire 1240 dans Que peut donner l’initiative France Digitale ?, le 6 juillet 2012

La finance participative sur du late-stage ? Hum hum. Not sure it works. As-tu des exemples ?

Répondre à ce commentaire

Commentaire 1239 dans Les français de la TV connectée : httv, le 27 juin 2012

Merci pour la précision. Je pensais à la dernière génération pre-RNIS/ADSL qui était en 56K, et ce n’était déjà pas bien rapide… 🙂

Répondre à ce commentaire

Commentaire 1238 dans Futur en Seine et sa cour des miracles d’innovations, le 22 juin 2012

Oui, ce baby de CKAB est intéressant (http://ckab.net/babyfoot-numerique-b12). Je n’en ai pas parlé dans ce papier car je l’avais déjà cité après le Web2Day de Nantes. Cf http://www.oezratty.net/wordpress/2012/coeur-numerique-bat-aussi-region/. L’industrialisation de ce genre d’engin reste un beau défi.

Répondre à ce commentaire

Commentaire 1237 dans Futur en Seine et sa cour des miracles d’innovations, le 22 juin 2012

Oui, tout n’est pas subventionné, heureusement !

Répondre à ce commentaire

Commentaire 1236 dans Futur en Seine et sa cour des miracles d’innovations, le 21 juin 2012

Cf http://www.futur-en-seine.fr/prototype/arbreole/ qui indique une aide de la Région IDF, sans préciser sa nature. Et http://corpus.artoffailure.org/ qui semble aidé par le CNC. Pour les autres, pas de subvention d’identifiée. Désolé si le paragraphe semble faire l’amalgame entre ces différents projets. Mais cela n’a rien d’extraordinaire : la culture est souvent subventionnée dans ses différentes formes même si les subventions ont été significativement rognées pendant le précédent quinquennat, tout du moins au niveau du budget de l’Etat.

Répondre à ce commentaire

Commentaire 1235 dans Futur en Seine et sa cour des miracles d’innovations, le 21 juin 2012

Hello Henri,

Mon compte-rendu n’est pas une critique de l’événement en soi qui est exemplaire et une très belle réussite, mais une observation des phénomènes qu’il révèle sur les forces et faiblesses des innovations “à la française”.

On se pose souvent la question du moyen de faire réussir nos startups technologiques, de les faire grandir, devenir des ETI, des sociétés exportatrices. Question d’ambition, de financement et aussi de compétences.

Avec Futur en Seine, on est très en amont. Beaucoup de projets présentés doivent être expérimentés, challengés, triturés pour pouvoir aboutir à des business de volume permettant d’aller dans l’étape suivante du processus de l’innovation. On en est au stade de la souris de Doug Engelbart du SRI avec l’habituelle difficulté d’aller au-delà. Comme Moréno, TTT et bien d’autres.

Le concept même d’innovation – sous-tendant une réussite dans la diffusion de la technologie et au niveau économique – reste encore à vulgariser tant au niveau du grand public que des pouvoirs publics.

On pourrait reprendre tous les projets de FENS un par un et se poser la question : qu’est-ce qui pourrait les transformer en produits diffusés à grande échelle et puis en plateformes avec leur propre écosystème (comme l’AR Drone ou les objets connectés de Withings) ?

OK en tout cas pour contribuer à la prochaine édition. Notamment avec Jean-Louis Fréchin.

Répondre à ce commentaire

Commentaire 1234 dans Futur en Seine et sa cour des miracles d’innovations, le 20 juin 2012

Les mêmes idées apparaissent dans plusieurs pays simultanément sans forcément qu’il y ait de “vol” d’idées. Et de toutes manières, les idées ne se protègent pas, tout du moins en Europe. Seuls les procédés techniques peuvent l’être (par des brevets).

Répondre à ce commentaire

Commentaire 1233 dans Les français de la TV connectée : Wiztivi, le 8 juin 2012

Alors, c’est quoi ? Quelle est la différence entre une société détenue à majorité par une autre et une filiale ?

Répondre à ce commentaire

Commentaire 1232 dans Les français de la TV connectée : Wiztivi, le 8 juin 2012

Oui, c’est vrai. C’était une startup. Et c’est devenu une PME filiale de grand groupe.

Répondre à ce commentaire

Commentaire 1231 dans Les français de la TV connectée : TvTweet, le 7 juin 2012

Je crois qu’il s’agit du “firehose”…

Répondre à ce commentaire

Commentaire 1230 dans Les français de la TV connectée, le 25 mai 2012

Ca peut se faire…
Vu le nombre de sociétés prévues, cela sera en 2014 voire 2015 🙂 Bon sauf, si j’accélère le rythme, ce qui n’est pas évident.

A noter que j’ai déjà eu l’occasion d’écrire sur Neotion, après l’IBC 2010 : http://www.oezratty.net/wordpress/2012/francais-tv-connectee/.

Répondre à ce commentaire

Commentaire 1229 dans Les français de la TV connectée : TvTweet, le 25 mai 2012

Voui… mais. Les américains ont compris une troisième chose : les business qui gagnent sont les business de “plate-formes”. Et Twitter en est une. Twitter ne va pas choisir brutalement de verticaliser son business comme cela. C’est comme si Apple décidait qu’il allait développer lui-même toutes les applications de l’appstore. Certes, il peut décider de créer des applications par lui-même pour capter une part de la chaine de la valeur, mais sans empêcher pour autant les tiers d’être innovants sur sa propre plateforme.

Cf cet excellent article qui rappelle ce bon principe : http://colin-verdier.com/amazon-google-facebook-lart-de-la-guerre-a-lage-de-la-multitude/.

Sur le financement, oui, on est toujours battu par les startups américaines. Est-ce une raison pour ne pas se lancer ?

Répondre à ce commentaire

Commentaire 1228 dans Petit décryptage de l’IPO de Facebook, le 23 mai 2012

Pour que Facebook justifie sa valorisation actuelle, même après la chute post-IPO, il faudra que des sources de revenu nouvelles se révèlent significatives. Ce n’est à ce stade que conjecture. Pour l’instant, Facebook sait générer $5 par utilisateur. La croissance de ce nombre est en train de se calmer.

Les résultats de Q1 2012 montrent que l’ARPU se tasse aussi entre $5 et $6. Aller au delà sera donc le défi clé de la société.

Les jeux ? Pourquoi pas, mais regardons aussi ce que fait Zynga qui cherche à ne plus dépendre que de Facebook pour ses sources de revenus. Et la concurrence des appstore mobiles. Petite piste : proposer l’équivalent de la S-VOD dans les jeux…

Revenu mobile ? Cela reste encore une fois très hypothétique. Google arrive à générer à peine $2B de revenus directs et indirects dans la mobilité, sur un CA de près de $40B. Le marché de la publicité sur mobile n’a pas encore trouvé sa baguette magique. Le SOLOMO est un concept qui reste à prouver à grande échelle. Regardons Foursquare qui patine un peu, etc. Qui génère un ARPU de plus de $5 avec une application mobile ? Uniquement ceux qui vendent des applications gratuites dans les appstores. Et encore, la plupart font du freemium, donc avec deux manière de calculer l’ARPU (avec ou sans les utilisateurs de la version gratuite). Facebook payant ? Pourquoi pas. Mais c’est toujours difficile de passer du gratuit au payant. Sauf si les gens ne peuvent plus s’en passer.

Il me semble que Facebook ne pourra générer une forte croissance qu’avec un pivot assez fort de son activité ou de son modèle économique. Jusqu’à présent, seules les startups y arrivaient. Mais pour une boite qui atteint presque $4B de revenu, c’est beaucoup plus difficile.

Sinon, j’ai l’impression que Facebook va atteindre rapidement un pallier. Petit indice ici : http://www.google.fr/trends/?q=facebook.

Répondre à ce commentaire

Commentaire 1227 dans France Télévisions continue à innover sur HbbTV, le 18 mai 2012

C’est une magnifique opportunité pour les éditeurs de programme TV mais il semble qu’ils aient du mal à la saisir. Pas facile d’être à la fois éditeur de contenus (surtout papier) et en même temps innovateur avec une dose de techno.

Répondre à ce commentaire

Commentaire 1226 dans France Télévisions continue à innover sur HbbTV, le 16 mai 2012

Sur les TV Samsung et LG, comme je l’explique, le procédé pour rendre HbbTV opérable est assez alambiqué et il faut en effet être courageux pour y arriver.

A ma connaissance, le signal HbbTv est diffusé en TNT sur l’ensemble de la métropole.

Mais il est vrai que pour l’instant, l’audience qui utilise cette possibilité est très réduite.

Répondre à ce commentaire

Commentaire 1225 dans Les français de la TV connectée : Joshfire, le 15 mai 2012

Comme c’est le cas de beaucoup de startups, il doit bien y avoir une combinaison de CIR/JEI, de stagiaires et de fondateurs qui se payent peu ou pas. Sachant que s’ils sont aujourd’hui 17, ils devaient être la moitié il y a un an. Donc, il ne faut éviter de faire un calcul de revenu “idéal” en multipliant l’effectif actuel par un hypothétique revenu par collaborateur (100K€ par exemple).

Sachant que malgré touts ces éléments, plein de startups sont tout de même déficitaires. Il est vrai aussi que lorsque l’on démarre avec une forte activité de service, on peut plus facilement être rentable rapidement.

Répondre à ce commentaire

Commentaire 1224 dans Les français de la TV connectée, le 14 mai 2012

C’était déjà dans ma liste (j’en suis à 55 sociétés et elle s’allonge de jour en jour…) mais pas dans les logos. Au passage, le logo de la boite n’est pas facilement googleizable.

Répondre à ce commentaire

Commentaire 1223 dans Les français de la TV connectée, le 14 mai 2012

En effet, encore un oublié… 🙂

Répondre à ce commentaire

Commentaire 1222 dans Les français de la TV connectée, le 13 mai 2012

Merci beaucoup, je découvre cette société. Mais elle est un peu éloignée du sujet de cette série d’articles car elle couvre la partie production de contenus TV, un peu indépendamment du mode de consommation. On est donc semble-t-il hors du thème de la TV connectée qui comprend déjà comme vous pouvez le voir un très grand nombre d’acteurs spécialisés.

Répondre à ce commentaire

Commentaire 1221 dans Les français de la TV connectée, le 12 mai 2012

Et surtout, que l’Etat ne voit pas ce sujet qu’au travers du prisme des contenus comme cela risque d’être le cas. Le CSA s’est en tout cas emparé du sujet.

Répondre à ce commentaire

Commentaire 1220 dans France Télévisions continue à innover sur HbbTV, le 11 mai 2012

Oui, la bataille est ouverte sur le rôle respectif des TV et des tablettes. Une grande partie de l’interactivité est susceptible de se focaliser sur les tablettes. C’est (pour iOS, Android, et bientôt Windows 8) un environnement très ouvert, peu régulé, donc à même de générer bien plus d’innovations que les TV qui sont dans un environnement très contrôlé (CSA, lois, réglementations, constructeurs, broadcast, etc).

Donc, bataille au premier niveau entre constructeurs de TV connectées, opérateurs télécoms, Apple TV, Google TV & consorts et de l’autre, entre TV connectées et tablettes/smartphone, sachant que certains acteurs ont plusieurs marrons au feu et sont présents sur tous les écrans.

Cependant, dans la bataille purement “TV connectée”, HbbTV malgré tout le mal qu’on en a dit (et que j’ai pu en penser) me semble une solution qui commence à se tenir. Avec un avantage certain en terme de “product placement” par rapport à toutes les autres solutions. Et le contenu est en général relié au contenu “live” de la TV, qui reste l’usage principal de cette dernière malgré le phénomène de la délinéarisation.

Répondre à ce commentaire

Commentaire 1219 dans Fact-checking récursif de la présidentielle, le 7 mai 2012

Il y en aura comme il y en a bien eu pour Sarkozy dans la presse hebdomadaire et mensuelle. Pour ma part, je me focaliserai sur ce qui concernera l’entrepreneuriat et le numérique.

La prochaine étape est déjà d’observer qui va être nommé aux postes clés et comment les responsabilités seront réparties dans les Ministères. La plus grande crainte des industries du numérique, par exemple, et de se voir intégrées dans un Ministère qui couvrirait aussi la culture.

Répondre à ce commentaire

Commentaire 1218 dans Guide des Startup, seizième édition, le 4 mai 2012

Voir pages 53, 54, 98 (enca­dré sur ce sujet de Pierre Morsa), 99, 100, 138, 150, 151, 227, 245 et 246.

Répondre à ce commentaire

Commentaire 1217 dans Guide des Startup, seizième édition, le 29 avril 2012

Je vais intégrer cela dans la prochaine édition.
Il y a par contre déjà un petit topo sur le calcul de la valo d’une startup dans le guide. Suis preneur des “formules”.

Répondre à ce commentaire

Commentaire 1216 dans France Télévisions continue à innover sur HbbTV, le 29 avril 2012

Pour info, le lancement du portail des applications d’une TV connectée Samsung (en tout cas, la mienne…) prend plus de 20 secondes, soit plus que le lancement de l’application HbbTV “C’est dans l’air”. Il faut ensuite naviguer avec la télécommande pour sélectionner son application et la lancer. On en a donc pour au moins 30 secondes. Donc le double de HbbTV dans le pire des cas.

Répondre à ce commentaire

Commentaire 1215 dans Guide des Startup, seizième édition, le 27 avril 2012

Bonjour Cyril,

Mon expérience passée sur ces plateformes d’impression s’est soldée par un résultat plus que décevant : zéro commande ! Mais cela remonte à quelques années (2008).

Les utilisateurs qui veulent une version papier l’impriment par eux-mêmes ou via le service d’impression en ligne de leur choix. J’aurai tendance à encourager la lecture sur tablette, même si le papier a encore son charme, notamment pour la prise de notes et les Post-it.

Je vais tout de même retenter le coup d’un de ces 4.

Répondre à ce commentaire

Commentaire 1214 dans France Télévisions continue à innover sur HbbTV, le 26 avril 2012

A noter que la position des telcos et de leurs boxes et un peu une exception française. Dans les autres marchés européens, les solutions hybrides (TNT+IP ou Sat+IP voire câble qui sont proches de celles des telcos) sont dominantes. En Allemagne par exemple, les solutions “over the top” ont plus de potentiel du fait de la force des chaines TV broadcast gratuites émises en TNT ou SAT. Comme HbbTV est en train d’être adopté assez largement, sauf en Italie et UK, il sera intéressant de comparer les usages.

Répondre à ce commentaire

Commentaire 1213 dans France Télévisions continue à innover sur HbbTV, le 25 avril 2012

Coquilles corrigées, merci Sylvain !

Répondre à ce commentaire

Commentaire 1212 dans France Télévisions continue à innover sur HbbTV, le 25 avril 2012

C’est en effet un peu long mais 1) cela peut s’ameliorer, 2) pendant l’attente on continue de regarder l’emission en cours liee a l’appli que l’on lance et 3) on passe aussi du tps si l’on passe pae le magasin d’applis du constructeur ou de la stb de son fai.

Répondre à ce commentaire

Commentaire 1211 dans MIPCube : quelques startups de la TV connectée, le 22 avril 2012

Hello Fred,

HTML 5 est-il incompatible avec l’usage de DRM ?
Le DRM était dans la solution de Cleeng… Il faudrait fusionner les deux projets 🙂

Olivier

Répondre à ce commentaire

Commentaire 1210 dans MIPCube : les transformations de la TV, le 18 avril 2012

Auto-commentaire avec ce petit lien sur un article de TechCrunch US sur les “5 most over-hyped future of TV topics” :

http://techcrunch.com/2012/04/14/future-of-tv-is-overhyped

En résumé :

1) Contrôle par la voix et le geste : bien, ça ne marche pas de manière universelle.

2) La social TV partout : il faut relativiser en taux de pénétration.

3) Cord-cutting et over-the-top : ben non, les chaines contrôlent la distribution.

4) All about applications : ben non parce que la TV est faite pour se reposer pas pour les prises de tête.

5) C’est la mort des chaînes TV telles qu’elles existent aujourd’hui : ben non, cf supra.

Si ça peut en rassurer quelques uns !

Répondre à ce commentaire

Commentaire 1209 dans Les clivages de la présidentielle sur le numérique 5, le 18 avril 2012

Il y a bien eu 5 réponses aux associations d’industriels côté Collectif du Numérique. Il y en eu 2 pour le Conseil National du Logiciel Libre qui représente les industriels du libre (Hollande, Sarkozy) tandis que l’APRIL, une association que l’on peut qualifier de non-industrielle, a obtenu 5 réponses des candidats dont François Hollande (Fleur Pellerin) ce mercredi 18 avril même. Cf http://www.pcinpact.com/news/70314-fleur-pellerin-francois-hollande-candidatsfr.htm.

Sinon, il me semble avoir entendu Fleur Pellerin (qui représente Hollande) parler de péréquation. La création d’un pôle public pour l’infrastructure a aussi été évoquée dans le camp Hollande même s’il n’est pas évident qu’elle reste à l’ordre du jour après la présidentielle pour un tas de raisons, notamment techniques et liées à la réglementation européenne. Pour ce qui est d’un emprunt, je n’ai pas vu de candidat en évoquer l’idée. Mais un tel emprunt devrait être remboursable avec un taux d’intérêt raisonnable. Existe-t-il un business plan pour en envisager la faisabilité ?

Répondre à ce commentaire

Commentaire 1208 dans Guide Startups Quinzième !, le 17 avril 2012

Oui, elle sort très bientôt, avant la fin du mois (d’avril 2012).

Répondre à ce commentaire

Commentaire 1207 dans Les clivages de la présidentielle sur le numérique compilés, le 17 avril 2012

Merci pour la précision. Silent release de correction publiée !

Répondre à ce commentaire

Commentaire 1206 dans Les clivages de la présidentielle sur le numérique compilés, le 16 avril 2012

Bonjour Julien,

Pas si sûr que la contribution du numérique à la croissance soit si élevée. Mais ce n’est pas une bonne nouvelle en soi…

Quel que soit le président qui passera le cap du 6 mai, il devra de toutes manières traiter le sujet du numérique et de l’innovation. Il n’y a pas le choix !

Olivier

Répondre à ce commentaire

Commentaire 1205 dans MIPCube : quelques startups de la TV connectée, le 16 avril 2012

Merci de l’info. Etiez-vous présent au MIP-Cube ?

Répondre à ce commentaire

Commentaire 1204 dans 10 ans de Scientipôle Initiative, le 3 avril 2012

En effet. Cela rappelle que l’argent gratuit n’existe pas…

Répondre à ce commentaire

Commentaire 1203 dans Quelques réflexions sur les Startup Weekends, le 30 mars 2012

La figure du touriste n’est certainement pas appropriée pour les porteurs des projets dans les SUW. Elle s’applique plutôt à certains membres des équipes qui n’y ont pas un rôle très actif : on ne les entend pas beaucoup dans les réunions et ils n’interviennent pas du tout pendant les pitches, sessions de question-réponses comprises. Ils contribuent peut-être mais sur des tâches précises et plutôt techniques. Ils n’ont donc pas à proprement parler un profil d’entrepreneurs. Mais c’est déjà un bon point s’ils rejoignent les projets comme salariés ou bien avec un autre statut lorsque ceux-ci se transforment en startup.

Répondre à ce commentaire

Commentaire 1202 dans Une startup française derrière la standardisation des ebooks, le 18 mars 2012

Petit autocommentaire, pour noter ici la levée de fonds de 1m€ de Feedbooks réalisée en mars 2012 auprès d’A Plus Finance. http://www.ebouquin.fr/2012/03/17/feedbooks-leve-1-million-deuros-et-renforce-sa-position-a-linternational/. Deux ans après cet article ! C’est bien, mais finalement, un peu lent comme souvent en France !

Répondre à ce commentaire

Commentaire 1201 dans Le point sur le portail Mes Services TV, le 13 mars 2012

OK, j’abjure et je supprime cette phrase de trop pour sa chute inappropriée puisqu’il est effectivement possible (mais pas bien facile) de supprimer des applications.

Oui, les constructeurs améliorent leurs magasins d’applications mais ce n’est pas encore bien standardisé, malgré les efforts d’acteurs tels que LG et Sharp dans le domaine. Et l’ensemble est très lent pour l’instant.

HbbTV est effectivement une stratégie défensive des chaînes. Mais cela peut-être bien plus que cela. Le portail Mes Services TV en est une bonne démonstration puisqu’il n’est pas lié aux chaînes de la TNT. Et l’initiative devient aussi mondiale, avec d’autres pays européens et surtout la Chine qui l’a adoptée.

Répondre à ce commentaire

Commentaire 1200 dans Le point sur le portail Mes Services TV, le 13 mars 2012

Quel rapport ? Quaero était un méta-projet de 200 millions d’Euros sans produit ni service intégrés au bout et avec la moitié financée par les fonds publics.

Ici, on a un projet qui a du coûter en tout à peine quelques centaines de milliers d’Euros et a été financé par le secteur privé. Ce projet a tout son sens. Ce qui manque est une approche plus ambitieuse et plus concertée autour d’HbbTV.

L’Europe pourrait se bouger un peu plus d’autant plus que le marché n’est pas encore sédimenté. Ni Google ni Apple ne sont en mesure à court/moyen terme d’emporter la partie. Il est encore temps de prendre des initiatives, ne le leur reprochons pas. Cf mon article de novembre 2011 sur le sujet.

Répondre à ce commentaire

Commentaire 1199 dans Le point sur le portail Mes Services TV, le 13 mars 2012

A ce stade, aucun fonds public n’a été uti­lisé pour déve­lop­per ce por­tail de ser­vices. Ils pour­raient l’être dans une seconde étape, dans le cadre d’un pro­jet autour du search que je cite (par­tie sur le financement).

Répondre à ce commentaire

Commentaire 1198 dans Guide Startups Quinzième !, le 3 mars 2012

Il semblerait que non !

Répondre à ce commentaire

Commentaire 1197 dans Les clivages de la présidentielle sur le numérique 5, le 3 mars 2012

A tout seigneurs tout honneur, j’ai intégré votre mémorandum dans le texte comme source d’inspiration de la proposition de loi Maurey / Leroy !

Répondre à ce commentaire

Commentaire 1196 dans Les clivages de la présidentielle sur le numérique 5, le 3 mars 2012

Merci Michel,

J’ai intégré tes corrections dans le texte. J’étais en effet un peu perdu après la lecture des documents du Sénateur Maurey au niveau de ce qui était où dans chacun d’entre eux.

La différence de traitement du dossier entre NKM et Besson semble en effet importante. La première a passé beaucoup de temps à défendre l’intégration du numérique dans le grand emprunt, mais sans approfondir les aspects opérationnels. Comme secrétaire d’Etat au numérique, elle semblait plus intéressée par les aspects sociétaux du sujet que pas ses aspects industriels et d’infrastructure. Cela s’est par exemple traduit pas ses initiatives sur le télétravail.

L’équipe de Besson est plus rentrée dans l’opérationnel et avec l’ARCEP. Son intégration dans Bercy a probablement aidé. Et Besson passe moins de temps que NKM sur les questions sociétales du numérique. Il est plus “à la lettre” en charge de l’économie numérique.

Répondre à ce commentaire

Commentaire 1195 dans Les clivages de la présidentielle sur le numérique 1, le 1 mars 2012

Désolé, c’est dans le pire pour moi. Il vaut mieux se battre sur de nouveaux enjeux que sur les anciens. Contrer un produit dominant planétaire par un projet piloté par la bureaucratie de plusieurs pays a peu de chances de réussir.

L’exemple de Microsoft avec Bing doit faire réfléchir. Microsoft y a consacré maintenant plus de $10B (7 milliards d’Euros) et a bénéficié de ses divers travaux de recherche fondamentale (chez Microsoft Research, un laboratoire de très bon niveau), mais sans résultat très probant, surtout hors des USA. Et ses gains de parts de marché sont surtout liés au partenariat avec Yahoo!

La barrière à l’entrée est énorme et va bien au delà des moyens que l’Europe peut consacrer à ce genre de sujet. Ensuite, il faut être très innovant pour contrer Google, pas juste faire la même chose. Il y a certainement plein de bonnes idées en Europe, mais bon, pas toujours suffisamment en rupture.

Lisez aussi cet article que j’ai pondu il y a quatre ans sur Quaero. Même topo sur le projet français de Cloud Andromède qui n’a pas l’air de partir sur les bons rails non plus avec seulement trois partenaires !

Visiblement, la reproduction des conditions du succès d’Airbus, l’un des rares grands projets industriels européens qui ait réussi, n’est pas évidente. Il y a plein de raisons à cela. Mais je vois une différence clé entre Airbus et le numérique : les cycles industriels sont bien plus longs. Il faut entre 5 et 10 ans pour concevoir un avion et il vit plusieurs décennies. Google est devenu leader mondial en même pas 5 ans !

Pour reprendre la proposition du Munci, compte-tenu de la difficulté du sujet, elle gagnerait en crédibilité en exposant un peu plus en détails la manière de s’y prendre : les acteurs concernés, l’innovation, la gouvernance, le budget nécessaire, la dimension temps du projet, le lien entre ce projet et ceux du cloud, etc.

Répondre à ce commentaire

Commentaire 1194 dans Les clivages de la présidentielle sur le numérique 4, le 1 mars 2012

En effet, le parisianisme est une plaie pour les régions.

Quel est ce chargé de mission unique par région ? Quelle est sa fonction ?

Répondre à ce commentaire

Commentaire 1193 dans Les clivages de la présidentielle sur le numérique 1, le 29 février 2012

Merci de l’information, toute récente. Je vais inté­grer cela dans une révi­sion de l’article ou bien dans une ver­sion PDF de la série com­plète que je vais pro­ba­ble­ment créer après le der­nier article.

Les pro­po­si­tions du MUNCI méritent le détour. Il y a le meilleur et le pire dedans ! Le moteur de recherche euro­péen, entre autres…

Répondre à ce commentaire

Commentaire 1192 dans Les péchés capitaux dans le marketing et la vente, le 29 février 2012

A l’époque de la rédaction de cet article, ma source d’information était une startup de ce secteur d’activité que je n’ai pas pu nommer. Je n’ai pas connaissance d’études validant ce %. Les fournisseurs de coffrets cadeaux et autres SmartBox n’ont pas intérêt à faire connaître ce taux qui est l’une des recettes cachées de leur belle profitabilité et de leur système qui fonctionne qui plus est à BFR très négatif (le revenu arrive lors de la vente du cadeau et les dépenses uniquement quand il est consommé, des mois plus tard en moyenne).

Dans une source plus récente, le taux de 20% de coffrets cadeaux non utilisés est évoqué : http://www.com-unik.info/Revendez-vos-Coffrets-Cadeaux-non,19551.

Je découvre au passage le site http://www.findevalidite.com/ qui permet de se faire prévenir de la fin de validité d’un coffret. Bon, un simple agenda permettrait de faire la même chose !

Répondre à ce commentaire

Commentaire 1191 dans Publications, le 28 février 2012

OK, je rajoute cela dans la prochaine édition !
Merci pour la suggestion.

Répondre à ce commentaire

Commentaire 1190 dans Les clivages de la présidentielle sur le numérique 5, le 27 février 2012

Fleur Pellerin a effectivement démenti cela (ici), mais la presse s’était faite l’écho de cette proposition de FH (en reprenant cette information). Cela avait notamment généré (ou été généré par…) une réaction assez ferme de syndicats chez Orange.

Je vais donc modifier l’article en conséquence.

Répondre à ce commentaire

Commentaire 1189 dans Les clivages de la présidentielle sur le numérique 2, le 22 février 2012

Oui, l’avantage du JEI est qu’il réduit les dépenses “upfront” alors que le CIR les déduit après… les dépenses ! Il faut donc des fonds propres pour les engager.

Pour ce qui est de Google et de Microsoft, oui le CIR fait partie de l’équation de la présence R&D de ces acteurs américains en France. Ce n’est pas la seule raison, mais c’en est une d’assez convaincante. Comme certains aiment à le dire, la France est un paradis fiscal pour la R&D. Chacun son paradis !

Je suis en tout cas d’accord sur le besoin de rééquilibrer le dispositif avec moins de CIR pour les grands groupes et plus de réduction de charges génériques pour les PME innovantes via le JEI.

Répondre à ce commentaire

Commentaire 1188 dans Les clivages de la présidentielle sur le numérique 2, le 21 février 2012

Le financement n’est qu’un des aspects de l’innovation et le financement participatif n’est qu’une facette du financement, qui couvre plutôt l’amorçage et les petits tickets. Bravo pour ces initiatives et aussi pour le travail sur les blocages législatifs associés. Maintenant, en quoi est-ce un nouveau paradigme qui pourrait transformer le jeu concurrentiel entre pays ?

Répondre à ce commentaire

Commentaire 1187 dans Les clivages de la présidentielle sur le numérique 2, le 20 février 2012

En effet, c’est la composante culturelle d’une nation ! Les politiques peuvent-ils l’influencer dans le bon sens ? Je pense que oui, à petites touches impressionnistes…

Répondre à ce commentaire

Commentaire 1186 dans Les clivages de la présidentielle sur le numérique 2, le 20 février 2012

Merci Benoit pour l’info, je ne connaissais pas ce dispositif ! Je l’ajoute dans l’article suivant qui traite de l’enseignement !

Répondre à ce commentaire

Commentaire 1185 dans Les clivages de la présidentielle sur le numérique 1, le 17 février 2012

En tout cas, ces lois ont eu un impact désastreux indirect : elles ont consommé trop de bande passante de tout l’écosystème du numérique en France, au détriment du reste. Le reste ? Ce sont les secteurs les plus prometteurs en termes de croissance et de compétitivité. Comme un parfum d’erreur stratégique !

Les contenus c’est bien pour l’exception culturelle et pour les maisons de production, mais ils présentent la caractéristique d’être à la fois le plus petit business du numérique en volume et celui qui est le moins rentable. Bref, en s’occupant des losers des migrations de valeur en cours, on a oublié les véritables sources de croissance. Pendant ce temps là, les américains et autres créent les plateformes qui aspirent la valeur de toute l’industrie du numérique.

La concurrence dans le numérique tourne autour des batailles de plateformes, pas des contenus ! Et contrairement à ce que certains croients, les jeux ne sont pas faits partout ! Cf par exemple le cas de la TV connectée : http://www.oezratty.net/wordpress/2011/strategie-europeenne-de-la-tv-connectee/.

Le plus ironique dans l’histoire, c’est qu’une simple procédure judiciaire du FBI associée à l’application des conventions sur les extraditions (affaire Megaupload) a été visiblement bien plus efficace qu’HADOPI… et à l’échelle mondiale !

Répondre à ce commentaire

Commentaire 1184 dans Les infrastructures de France Télévisions – Régies, le 15 février 2012

Bonne remarque ! Cela ne semble effectivement pas le cas.

Répondre à ce commentaire

Commentaire 1183 dans Les infrastructures de France Télévisions – Régies, le 15 février 2012

Ce n’est plus le cas d’après ce que l’on m’a raconté. Le son est en effet différent. Et surtout, ce studio n’est pas isolé phoniquement du reste du bâtiment ce qui créé des nuisances qui passent parfois à l’antenne. D’où sa reconstruction à un autre étage qui va démarrer.

Répondre à ce commentaire

Commentaire 1182 dans Les infrastructures de France Télévisions – Studios, le 14 février 2012

Oops, corrigé… 🙂

Répondre à ce commentaire

Commentaire 1181 dans Petit décryptage de l’IPO de Facebook, le 6 février 2012

Il n’est pas mentionné, tout du moins en clair. On sait qu’il est compris entre $1,5B et $2B.

Répondre à ce commentaire

Commentaire 1180 dans Petit décryptage de l’IPO de Facebook, le 6 février 2012

En effet. Dans les actions Class B, il y a des investisseurs divers, qui correspondent donc à des investissements de Serie A, B, C et ultérieurs.

Répondre à ce commentaire

Commentaire 1179 dans Petit décryptage de l’IPO de Facebook, le 6 février 2012

You’re right. I’ve changed the text of the post to include the part of “cost of sales” that is not related to data center operations. In the end, data center costs seems to be 12% of Google revenue and above 20% of Facebook revenue.

23% of Google’s cost of sales is linked to acquiring advertising space as part of their AdSense operations.

Less that 1% of Facebook cost of sales is related to managing payment costs, so probably less than 1% of their revenue. Seems they don’t put here the acquisition costs of virtual goods and other applications (like those from Zynga) but only the cost of payment. Wondering why these accounting practices are different. In the case of Amazon, all the stuff they sell appears in cost of revenue. It’s their acquisition cost for all these goods, as all retailers do.

Répondre à ce commentaire

Commentaire 1178 dans Petit décryptage de l’IPO de Facebook, le 3 février 2012

On commence à comprendre ! Ce montage a l’air bien compliqué. Je me demande si c’est un cas particulier ou une pratique courante !

Répondre à ce commentaire

Commentaire 1177 dans Petit décryptage de l’IPO de Facebook, le 3 février 2012

Merci pour ces précisions Bertrand. J’ai édité la ligne en question tout en restant vague.

En effet, j’aimerai bien comprendre pourquoi la composition de l’actionnariat sur les classes C à E – si elles existent bien – n’est pas détaillée dans le document de l’IPO page 127. Il n’y a aucune allusion à des Class C à E dans le document. Il n’y a pas d’obligation de transparence de ce point de vue là ?

J’ai l’impression que ces actions un peu fantômes sont des actions non attribuées, une sorte de pool de réserve dans le capital. Est-ce que cela ne sert pas aussi à éviter une “hostile take over” ? Il est écrit je crois aussi que le board peut faire ce qu’il veut de ces actions.

Répondre à ce commentaire

Commentaire 1176 dans Petit décryptage de l’IPO de Facebook, le 3 février 2012

En effet. Corrigé…

Répondre à ce commentaire

Commentaire 1175 dans Rapport CES 2012, le 28 janvier 2012

Non, pas testé ! Mais une vidéo sur Youtube permet de s’en faire une idée : http://www.youtube.com/watch?v=mfoVaZ3uLQw. Je note un certain temps de latence dans la réactivité de l’iPad au stylet. Ca a l’air moyen.

Répondre à ce commentaire

Commentaire 1174 dans Rapport CES 2012, le 28 janvier 2012

Suis passé très rapidement sur le stand McIntosh. Ils y démontraient un ampli à lampe pour fêter leur 50 année d’existence. Cf http://www.whathifi.com/news/ces-2012-mcintoshs-50th-anniversary-mc275-power-amplifier-%E2%80%93-bling-it-on%E2%80%A6. Cela a l’air d’une réédition modernisée d’un ancien modèle. Cela ne m’a pas trop tapé à l’oeil donc j’ai zappé pour le Rapport CES…

Répondre à ce commentaire

Commentaire 1173 dans Rapport CES 2012, le 28 janvier 2012

Sens du détail, bravo ! J’ai corrigé cela avec plein d’autres modifications dans une version 1.01 publiée ce matin.

Répondre à ce commentaire

Commentaire 1172 dans Rapport CES 2012, le 27 janvier 2012

Il y avait en effet une catégorie de produit qui a plus ou moins disparu : le lecteur de DVD ou Blu-ray doté d’un disque dur.

Puis les Media Center – faits ou pas avec un PC – ont laissé leur place à des boitiers qui se contente essentiellement d’accéder à des contenus sur Internet, de YouTube à Netflix.

Reste le PC. C’est ce que j’utilise, et qui est en train de tomber en désuétude : un media center sous windows 7 avec tuner SAT et/ou TNT. Avec ça, j’enregistre ce que je veux. Mais c’est compliqué à stabiliser comme config.

Répondre à ce commentaire

Commentaire 1171 dans Rapport CES 2012, le 27 janvier 2012

C’est une fonction qui est maintenant généralisée dans les set-top-boxes des opérateurs télécoms, du câble et du satellite. En anglais, on appelle cela la fonction “PVR”, pour personal video recorder. Certains décodeurs TNT, je crois chez Sagem, ont aussi cette fonction d’enregistrement sur disque dur. La fonction est maintenant concurrencée par les services de TV de rattrapage (replay TV, catch-up TV) des chaînes TV. On la trouve sur Internet, sur tablettes et dans les boxes des opérateurs.

Répondre à ce commentaire

Commentaire 1170 dans Premiers retours du CES 2012, le 27 janvier 2012

C’est le débat classique de l’obsolescence programmée. Et comment elle est imposée ou pas par les fabricants et puis acceptée ou non, ou subie malgré eux, par les consommateurs. Que n’a-t-on pas entendu sur le sujet des PC surtout dans les années 90 !

Quand on regarde une démo d’un écran 4K, on se dit que c’est bien, que cela sera bien quand ça arrivera mais que ça n’est pas pressé. Et puis un jour, cela s’impose naturellement car tous les fabricants adoptent cette résolution, que les premiers Bluray arrivent (arriveront), etc.

Mais cela n’interviendra pas avant quelques années encore. Cela donnera d’un cycle technologique d’environ 8 ans au nez entre le Full HD et le 4K. Le problème étant que c’est un nombre d’année probablement inférieur au cycle de vie des TV dans les foyers. Mais ce décalage peut aussi simplement augmenter le taux de multi-équipement en TV dans les foyers.

Répondre à ce commentaire

Commentaire 1169 dans Premiers retours du CES 2012, le 18 janvier 2012

Merci et noté pour la relecture, comme pour tous les autres au dessus à qui j’avais répondu par email.

Répondre à ce commentaire

Commentaire 1168 dans Les logiciels et contenus de la Freebox 6, le 18 janvier 2012

En tapant “brancher souris et clavier Freebox Revolution” dans Google, on obtient plusieurs réponses !

Répondre à ce commentaire

Commentaire 1167 dans Retour de Corée et Japon – culture et innovations, le 9 janvier 2012

Merci beaucoup pour ces compléments et partages d’expériences.

Mon article datait d’il y deux ans et demi (février 2009) ! Mais les propos restent valables dans l’ensemble. Ils sont complétés par un tour plus récent au Japon qui date d’octobre 2011. Cf http://www.oezratty.net/wordpress/2011/retour-du-ceatec-2011-1/.

Une question qu’il serait intéressant de creuser est la manière dont les startups émergent et se développent au Japon, qui a une culture “corporate” très forte. Au CES où je suis en ce moment, je croise pas mal de startups coréennes, mais très peu de japonaises. Il en existe pourtant.

Répondre à ce commentaire

Commentaire 1166 dans Méta-Prédictions 2012, le 5 janvier 2012

la qualité d’image est appréciable ! On y viendra progressivement… Qu’on le veuille ou non, comme pour le Full HD.

Répondre à ce commentaire

Commentaire 1165 dans Les entrailles de la Freebox 6, le 4 janvier 2012

Il s’agit bien d’un décodeur H264 et pas H263. L’Atom CE4200 (Groveland) supporte le H264 en mode 1080p d’après Intel. Cf l’annonce d’Intel qui date de septembre 2010.

Répondre à ce commentaire

Commentaire 1164 dans Méta-Prédictions 2012, le 3 janvier 2012

Il me semble que Loic a obtenu la carte verte…

Je connais quelques entrepreneurs americains a Paris… Avec carte de sejour !

Répondre à ce commentaire

Commentaire 1163 dans LeWeb 2011 – Moyens techniques, le 28 décembre 2011

Merci pour le feedback, ce qui permet au passage de donner le crédit à la Zero 7 Productions !

Répondre à ce commentaire

Commentaire 1162 dans Les enjeux de l’appstorisation de l’Internet, le 26 décembre 2011

Bien vu pour HTTP. Ne pas confondre protocole et langage ! C’est corrigé !

La sixième raison est un after-effect de la non “searchabilité” des contenus des applications. Pas de search => pas de SEO ! Et si il existe bien des techniques de référencement des applications dans les appstores, elles ne sont pas “mécanisables” autant que dans le cas du SEO.

Répondre à ce commentaire

Commentaire 1161 dans LeWeb 2011 – Moyens techniques, le 23 décembre 2011

Thanks Michelle. Précision pour les non anglophones : tu entendaiss complet ou exhaustif avec ton “compréhensif” (comprehensive) !

Répondre à ce commentaire

Commentaire 1160 dans Les enjeux de l’appstorisation de l’Internet, le 23 décembre 2011

Oui, le web n’est pas parfait mais il évolue tout de même. Il était en effet fragmenté maisncomme on l’utilisait sur des systèmes ouverts et extensibles, c’était supportable. Ca ne l’est plus, au moins chez Apple, qui ne tolère pas ces extensions.

Et il reste à traiter d’autres points évoqués : search, aggrégation, exclusion de certains utilisateurs…

Répondre à ce commentaire

Commentaire 1159 dans Les enjeux de l’appstorisation de l’Internet, le 23 décembre 2011

Bon point ! Je constate cependant que plein d’applications n’exploitent pas ces fonctionnalites des smartphones. Par ailleurs, HTML5 va en supporter certaines comme la geolocation.

Répondre à ce commentaire

Commentaire 1158 dans Les enjeux de l’appstorisation de l’Internet, le 22 décembre 2011

Agree. Rien n’est perdu ! Les équilibres changent mais le web ne va pas disparaître, tout comme les PC et l’email. Quand on voit ce qu’il est possible de faire avec HTML 5, il y a de l’espoir et des innovations en perspective ! Au passage, elles ne viennent pas que des étudiants… 🙂

L’AppStore a fêté ses 3 ans. C’est un p’tit jeune en effet.

Le web a véritablement démarré il a 17 ans, avec l’arrivée de Netscape Navigator fin 1994. Même s’il y a eu le précurseur NSCA Mosaic un an avant, bien moins médiatisé et utilisé.

Répondre à ce commentaire

Commentaire 1157 dans LeWeb 2011 – Moyens techniques, le 19 décembre 2011

Eux seuls peuvent répondre à ces questions !

Londres ferait des pieds et des mains pour avoir LeWeb chez eux, de préférence de manière exclusive en Europe. Ils pourraient proposer par exemple que l’événement change de ville en Europe chaque année. Il ne perdrait pas forcément de lustre, mais la France y perdrait quelque peu.

Répondre à ce commentaire

Commentaire 1156 dans LeWeb 2011 – Plénières, le 18 décembre 2011

Je l’ai entendu dire cela. Il prêchait pour sa paroisse. Donc à prendre avec une pincée de sel. La question, c’est important en quoi et “so what” ?

La vidéo de Jung est ici.

Répondre à ce commentaire

Commentaire 1155 dans LeWeb 2011 – Startups, le 15 décembre 2011

Ah ! Génial ! Article mis à jour en conséquence !

Répondre à ce commentaire

Commentaire 1154 dans Amazon accélère le déclin des ebooks, le 12 décembre 2011

Une télé et un iPas n’ont rien à voir en termes de portabilité et d’usages. Mon point est le suivant :

“A format, poids et prix voisins, les produits généralistes l’emportent généralement sur les produits spécialisés”

Dans la durée, l’histoire valide ce point. Dernier exemple en date, les GPS qui se vendent encore, mais sont très sérieusement concurrencés par les smartphones.

Si les caractéristiques matérielles des tablettes rejoignent celles des ebooks (autonomie, légèreté), tout en bénéficiant de leurs caractéristiques propres (couleur + vidéo, magasin d’applications, connectivité) pourquoi avoir deux engins ?

Le point de départ de la démonstration est justement qu’Amazon a donné un signe en créant une tablette/liseuse généraliste avec le Fire. Oui, ils ne sont pas nuls en effet ! Ce n’est que le leader du marché des ebooks. Donc ce n’est pas anodin. Je ne suis pas plus malin qu’Amazon, j’observe ce qu’ils font justement !

Bon, et puis on ne s’apostrophe pas comme cela avec des invectives !

Répondre à ce commentaire

Commentaire 1153 dans LeWeb 2011 – Vue d’ensemble, le 11 décembre 2011

OK, merci de l’info, j’ai corrigé.

Répondre à ce commentaire

Commentaire 1152 dans Les ambitions de France Numérique 2020, le 7 décembre 2011

Merci Pierre pour ces précisions d’un acteur engagé dans le sujet et bien au courant de ses arcanes. OK sur la valeur apportée par la RNT, notamment pour désengorger la bande FM qui est très saturée surtout dans les grandes villes.

Je ne sais pas s’il s’agit d’une véritable mise à l’écart de la RNT dans le plan Besson 2020 sous la pression des grands groupes. Ce plan a fait l’impasse sur pas mal de sujets pour des raisons diverses. Il laisse un peu la voie libre aux candidats de la présidentielle pour y picorer et le compléter.

Mon point reste un sujet à discuter. L’atmosphère IP ne remplace certes pas entièrement un broadcast numérique notamment pour les populations “non connectées”, au même titre que l’IPTV ne peut pas remplacer entièrement la TNT du fait d’un haut débit à débit très variable sur le territoire. Mais la consommation de musique et de radio via IP est tout de même une tendance intéressante à observer. On a vu notamment fleurir depuis quelques années de nombreux “postes de radio” et “radioréveil” utilisant la connexion Internet comme source. Sans compter les devices plus classiques que sont les PC, smartphones et tablettes.

Répondre à ce commentaire

Commentaire 1151 dans Les ambitions de France Numérique 2020, le 6 décembre 2011

Merci pour cette précision.

Mais il faudrait pouvoir en savoir plus : quel est l’effectif de Google France aujourd’hui ? A quel rythme la filiale recrute-t-elle ? Cela permeftrait d’avoir une idée encore plus précise sur le dimensionnement de ce labo de R&D.

Répondre à ce commentaire

Commentaire 1150 dans Les logiciels et contenus de la Freebox 6, le 6 décembre 2011

Oui, avec le bouton PDF pres du titre de l’article, mais je l’avais désactivé temporairement, désolé.

Répondre à ce commentaire

Commentaire 1149 dans A quoi sert un business plan ?, le 4 décembre 2011

Bien vu.

Je note que le débat porte finalement plus sur le contenu et la méthode pour le créer que sur le contenant (du BP).

Le processus créatif est indispensable, le test de l’idée, les allers et retours, le prototypage, le lean startup, tout cela fait partie de la préparation de son plan. A un moment donné, on le formalise un peu. Pas la peine de faire 100 pages en effet ni des dizaines de tableaux comme certains l’exigent.

Mais un minimum ne fait pas de mal. Ce n’est pas de l’académisme à la française. C’est juste un besoin de base pour pouvoir sédimenter ses idées et les communiquer avec un minimum d’effet de levier. La tradition orale, c’est bien, mais l’écrit, c’est pas mal aussi pour gérer ses idées, les faire évoluer, les partager ! Si maintenant, l’écrit est considéré comme ringard, soit. Mais c’est un autre débat.

Répondre à ce commentaire

Commentaire 1148 dans A quoi sert un business plan ?, le 4 décembre 2011

Oui, il faut contourner les choses tant que possible. Je l’évoque dans mon article !

Mais aussi évaluer un peu plus que l’avant-dernière ligne de l’article ! C’est en débattant qu’on fait avancer les choses et pas en cherchant à décrédibiliser l’auteur par une invective un peu gratuite ! Sinon, tant qu’à être vache et dans la même lignée, on pourrait aussi affirmer que les vrais entrepreneurs le sont rarement devenus en suivant un cursus de formation d’entrepreneur dans une business school :).

Vous pourriez par exemple expliciter la méthode Synopp dont vous êtes à l’origine qui permet de se passer de business plan traditionnel (http://easydashboard.fr/?p=357). Ceci expliquant cela ! Mais à vous lire, je comprends que c’est la partie chiffrée du BP qui est superflue, pas le reste. C’est bien la structure de l’idée qui est importante, le problème résolu, sa valeur et celle de la solution. Vous n’évacuez pas ce que l’on appelle “l’ideation” et sa formalisation.

On ne parle pas ici de création d’entreprise au sens large du terme où il y a plein de cas de figure où un BP n’est pas nécessaire (que je liste). Mais de startups (boites à forte croissance) qui doivent lever des fonds auprès d’investisseurs publics et privés.

Si vous avez une recette miracle pour lever des fonds sans formaliser un minimum l’idée de la startup auprès des investisseurs ou prêteurs, les entrepreneurs seront heureux de la découvrir ! Que vous appeliez cela BP ou autre chose, peu importe. Qu’il intervienne avant ou après une présentation à un investisseur potentiel qui pourrait mordre à l’hameçon, il faudra laisser une trace écrite de toutes manières.

Répondre à ce commentaire

Commentaire 1147 dans Les ambitions de France Numérique 2020, le 3 décembre 2011

Je ne baisserai pas aussi vite les bras sur les batailles de plateformes. Il y en a encore à mener !

Pour ce qui est de la fiscalité, Bercy y travaille mais ce n’est pas évident. Il faut à la fois préserver nos acteurs locaux (ce qui n’était pas le cas de la fameuse taxe Google heureusement abandonnée) et respecter les accords internationaux (UE, OMC).

Le CIR qui attire les boites étrangères, oui, OK. Mais pour MS et Google, cela a un impact très symbolique. Quelques dizaines de personnes de part et d’autres en R&D en France. Mais Huawei en a déjà des centaines…

Répondre à ce commentaire

Commentaire 1146 dans Les ambitions de France Numérique 2020, le 3 décembre 2011

C’est effectivement une question d’appréciation. En termes d’emplois directs, l’impact de Google est très limité pour l’instant et ne risque pas d’atteindre celui d’IBM, autant celui d’aujourd’hui que celui de ses glorieuses années (70/80) où l’effectif avait atteint je crois 30000 personnes. Il y a au plus quelques centaines de personnes chez Google.

Sinon, les sociétés américaines utilisent toujours la même tactique pour mettre en valeur leur contribution économique, avec les emplois créés dans leur écosystème. C’est de bonne guerre. Mais c’est à comparer avec la valeur qui aurait été apportée par un écosystème mondial dont la plateforme d’origine serait française ou européenne. Google est en plein lobbying en ce moment. Création d’un (petit) labo de R&D, d’un “Centre Culturel” (on ne rigole pas…), financement d’études d’impact économique, programme PME, programme Startup Café. C’est un moyen de contrer la procédure en cours à Bruxelles, pour se faire des amis dans les capitales européennes. Exactement les mêmes tactiques que Microsoft avec son labo INRIA/MS, sa R&D MSN en France et ses programmes startups.

Les plateformes clés du marché captent une très grande partie de la valeur ajoutée de leur secteur, en laissant les miettes aux autres. Microsoft représente plus de 20% du marché mondial du logiciel, mais plus de 30% de son résultat net. Idem pour Google qui capte près de la moitié du revenu publicitaire en ligne au monde, et avec un résultat net qui en représente une plus grande proportion. Le tout alimentant les fonds de pension américains, surtout pour Microsoft qui distribue des dividendes tandis que l’action de Google est spéculative (sans rendement direct).

Ce que je dénonce dans la posture de la Présidence, c’est de faire ce déplacement pour un événement relativement mineur (un déménagement sans augmentation significative de l’effectif) alors qu’aucun geste du même type n’a été fait à ce jour pour l’écosystème français. Et pourtant, il s’y passe des choses ! Il y a deux ans environ, c’est François Fillon qui a inauguré les nouveaux locaux de Dassault Systèmes à Vélizy, pas NS. Pour Microsoft à Issy les Moulineaux (1800 personnes), il y avait 8 membres du gouvernement dont Christine Lagarde et c’était déjà bien assez comme cela d’un point de vue symbolique.

Répondre à ce commentaire

Commentaire 1145 dans A quoi sert un business plan ?, le 29 novembre 2011

Hello Carlos. C’est un bon débat en effet. J’ai l’impression qu’il porte plus sur la manière de concevoir son BP et ce qu’il est important d’y intégrer tout comme sur son côté dynamique que sur l’intérêt d’en avoir un ou pas.

Pour reprendre ton analogie de l’orthographe, il faut se méfier de la “méthode globale” et aussi éviter d’en revenir uniquement à la communication orale et au “tout dans la tête” ! Ce n’est pas un service à rendre aux entrepreneurs. L’écrit reste puissant pour structurer ses idées, les améliorer et les propager !

Répondre à ce commentaire

Commentaire 1144 dans Startups et innovations au SFR Player 2011, le 29 novembre 2011

Et puis hop, après LeWeb et la trêve, le CES de Las Vegas ! Le cycle ne s’arrête jamais !

Répondre à ce commentaire

Commentaire 1143 dans A quoi sert un business plan ?, le 28 novembre 2011

Merci pour cette intéressante contribution. Tu mets le doigt sur un point clé : où placer le curseur dans l’ambition ! Il y a d’ailleurs certains investisseurs en France qui ont peur du “trop d’ambition”.

Il serait intéressant de lister les éléments de BP qui lui donnent habituellement trop d’embonpoint et font perdre du temps. Par exemple, le fait de trop entrer dans les détails du plan marketing. A contrario, on trouve trop rarement une bonne roadmap produit qui va cadencer le rythme de vie des débuts de la startup.

Ideas ?

Répondre à ce commentaire

Commentaire 1142 dans Amazon accélère le déclin des ebooks, le 22 novembre 2011

Bonjour la caricature à l’emporte-pièce ! La frontière entre les tablettes et liseuses va s’estomper du fait de l’évolution des composants matériels. Ce n’est pas une histoire de choux, carottes ou patates ! Rendez-vous dans 2 à 3 ans pour voir comment le marché va évoluer ! J’attends notamment avec impatience les écrans à encre électronique couleur LiquaVista que Samsung va sortir en 2012/2013 (issus d’une acquisition en début d’année).

Répondre à ce commentaire

Commentaire 1141 dans Cube, la set-top-box hybride de Canal+, le 5 novembre 2011

Désolé, cet article date d’il y a trois ans et ce blog n’est pas un forum de support technique ! Il faut aller sur le site technique de CanalSat ou ici par exemple : http://pilotime.online.fr/forum/list.php?2.

Répondre à ce commentaire

Commentaire 1140 dans Propositions pour “France Numérique 2020”, le 4 novembre 2011

Très intéressant !

Le point 2 : certains pôles comme Cap Digital sont déjà très orientés TPE/PME. Pas sur qu’il faille en créer d’autres. Il y en a déjà 72 !

Fonds d’investissements Corporate : ca en prend le chemin. L’annonce récente du fonds Orange/Publicis est un bon signe.

Aider les entrepreneurs étrangers à s’implanter en France : oui, en effet, à creuser. C’est le rôle de l’AFII.

Simplifier, simplifier : indeed !

Répondre à ce commentaire

Commentaire 1139 dans Propositions pour “France Numérique 2020”, le 30 octobre 2011

Il ne faut pas surinterpréter ce qui s’est passé récemment : Free ne s’est pas “retiré de la fibre” !

Répondre à ce commentaire

Commentaire 1138 dans Propositions pour “France Numérique 2020”, le 29 octobre 2011

Ce qui est effectivement absurde si en tant que salarié, il cotise bien partout…

Par contre, Besson va te répondre que ce n’est pas son domaine puisque ce n’est pas spécifique au numérique. Il va renvoyer cela à son collègue de Bercy, Frédéric Lefebvre, qui couvre les TPE/PME, l’artisanat et aussi l’autoentrepreneuriat.

Répondre à ce commentaire

Commentaire 1137 dans Propositions pour “France Numérique 2020”, le 28 octobre 2011

Ca doit être possible s’ils ont bien un statut de salarié de leur entreprise non ? Il existe de plus des régimes de protection complémentaires spécifiques.

Répondre à ce commentaire

Commentaire 1136 dans Propositions pour “France Numérique 2020”, le 28 octobre 2011

Bien vu… tu es allé jusqu’au bout !

Mais en effet, l’innovation numérique va bien trop vite pour le temps politique. L’histoire récente l’a encore démontré, notamment avec HADOPI.

Répondre à ce commentaire

Commentaire 1135 dans Lytro va-t-il révolutionner la photographie numérique ?, le 22 octobre 2011

Il reste en effet des questions sur la gestion de l’ouverture à éclaircir. Mais les médias à qui l’appareil a été présenté dans la Silicon Valley ont pu tester le procédé eux-mêmes sur l’écran de l’appareil. Des vidéos sur YouTube en attestent. Le procédé fonctionne donc vraiment et les images présentées n’ont pas l’air d’être fake. Ce, d’autant plus, que le procédé plénoptoique est validé scientifiquement et qu’il en existe des variantes de mise en oeuvre avec la société Raytrix.

Moyen de répondre indirectement au commentaire un peu dédaigneux et pas bien constructif de Benoit en [23]…

Répondre à ce commentaire

Commentaire 1134 dans Lytro va-t-il révolutionner la photographie numérique ?, le 21 octobre 2011

Ca a l’air d’etre interessant en situation de basse lumiere et a grande ouverture.

Répondre à ce commentaire

Commentaire 1133 dans Lytro va-t-il révolutionner la photographie numérique ?, le 21 octobre 2011

Grâce à cet article du Figaro de Benjamin Ferran qui pointe sur l’article ici présent, on peut découvrir des versions professionnelles de l’appareil de Lytro avec ceux de la société allemande Raytrix. Cela fournit indirectement des informations intéressantes sur la définition des images qu’un système plénoptique à base de micro-lentilles(lightfield sensor) peut générer. Leur R29 qui est un modèle haut de gamme est doté d’un capteur de 29 Mpixels et aurait une résolution effective de 7,5 Mpixels (oui, c’est bien de résolution qu’il s’agit, Dominique !).

Leur R5 génère quant à elle des images de 1 Mpixels avec un capteur de 5 Mpixels de un demi pouce de diagonale, qui est assez petit et utilisé par peu d’appareils grand public (comme le Fuji F80EX). On retrouve donc un ratio d’environ 1 à 5 entre définition du capteur et celle des images générées. La R5 supporte 32 plans de mise au point ce qui est largement suffisant dans la pratique.

Bref, tout ceci semble indiquer que la technologie de Lytro pourrait bien si elle se développait avec les capteurs les plus récents générer des images avec une définition fort convenable. Et celle du premier modèle pourrait atteindre 2 Mpixels si le ratio capteur/image est le même qu’avec la R5 de Raytrix.

Répondre à ce commentaire

Commentaire 1132 dans Lytro va-t-il révolutionner la photographie numérique ?, le 21 octobre 2011

Les lois de l’optique ont aussi un impact sur les capteurs des smartphones : la petite taille du capteur, de l’optique et de leur proximité entraîne des photos avec une très grande profondeur de champs, c’est-à-dire que tous les plans sont nets en général. Plus le capteur et l’optique sont grands (et l’ouverture élevée) plus on peut “contrôler” la profondeur de champs. C’est la raison du succès du Canon EOS 5D Mark II pour des tournages de films. Son capteur est deux fois plus grand que celui des caméras vidéos standard pro pour le cinéma dites Super35 mm. Conséquence, avec les optiques Canon à grande ouverture, on peut encore mieux contrôler cette profondeur de champs. Cela donne des effets de flous et nets artistiques. Mais les réalisateurs peuvent en abuser.

Répondre à ce commentaire

Commentaire 1131 dans Lytro va-t-il révolutionner la photographie numérique ?, le 21 octobre 2011

Oui pour des raisons “artistiques” et pour bien valoriser un élément de la photo. Un exemple est donné dans l’article.

Répondre à ce commentaire

Commentaire 1130 dans Lytro va-t-il révolutionner la photographie numérique ?, le 20 octobre 2011

Je pensais (en juin) à une optique zoom non interchangeable, ce qui est bien le cas au bout du compte. Corrigé pour le reste.

Résolution et définition, abus de langage en effet. Pas facile à vulgariser en plus car la définition d’un capteur a un sens différent avec celle des images générées du fait du dématricage de Bayer généralement utilisé sauf dans les capteurs type Fovéon où les pixels RGB sont superposés et non pas répartis dans une matrice de Bayer.

Répondre à ce commentaire

Commentaire 1129 dans Lytro va-t-il révolutionner la photographie numérique ?, le 20 octobre 2011

Petit auto-commentaire maintenant que l’on en sait plus sur l’appareil qui vient d’être dévoilé et pré-commandable en ligne pour $400 à $500 selon la capacité mémoire : https://www.lytro.com/camera.

– Le capteur : il est bien carré mais fait seulement 11 mpixels. J’avais compris que cela générerait des images d’une définition très inférieure à cause du système de micro-lentilles, décrit dans mon article. Les images publiées sur le site de Lytro sont de petite taille et sur écran uniquement. Quelle est la résolution exacte que permettra ce procédé ? C’est encore une inconnue. Mais peut-être une bonne surprise au bout du compte.

– La taille du capteur n’est pas indiquée ni si c’est un CCD ou un CMOS, et on n’en sait pas plus sur sa sensibilité. Il semble en tout cas que le procédé lui-même permette d’obtenir une très grande sensibilité et de prendre des photos convenables en basse lumière. L’objectif ouvre à 2.0 ce qui en est un bon gage. Et puis, l’appareil n’est pas doté d’un flash !

– Le form factor est curieux. Il n’a pas l’air d’être bien ergonomique pour la prise de photos, ni même pour prendre des vidéos (ce qu’il ne sait pas faire). J’ai l’impression que ce form factor a été choisi pour “faire différent” et aussi parce que son coût de fabrication doit être réduit. Il revient moins cher de plier une tôle en quatre que de créer un moule de fonderie ou pour mouler un plastique quelconque voire pour associer les deux. Autre interprétation : une approche “Apple-ienne” de la boite qui a raison contre la pensée unique du moment. On verra bien à l’usage. Il est aussi possible que cela soit lié à la forme et à la longueur du zoom à l’intérieur du corps de la caméra. Le zoom fonctionne visiblement avec une optique mobile à l’intérieur de l’appareil.

– La précision de la mise au point : dans les exemples du site, on peut effectivement faire la mise au point sur l’avant plan ou l’arrière plan. Il y a quelques cas où l’on peut jouer avec finesse sur des plans intermédiaires. Je me demande encore quelle est la résolution de profondeur. A savoir sur combien de plans peut-on faire la mise au point ? Compte-tenu du procédé, ce nombre de plans devrait être fini (discret) et pas infini (n’importe quel plan).

– Tout est automatique : il n’y a ni besoin d’autofocus ni de gestion de l’ouverture. Finalement, il reste le temps de pose et les ISO.

– Le positionnement : le prix de la caméra et sa simplicité d’usage en font un outil pour les amateurs et résolument pas pour les professionnels. Mais on peut cependant s’attendre à un engouement, au même titre qu’il en existe pour les Lomo, les Polaroid à l’ancienne voire pour des Leica hors de prix.

– Un détail qui compte : le logiciel de traitement des images ne fonctionne pour l’instant que sur Macintosh. Une version Windows est prévue pour plus tard.

Il reste à attendre début 2012 pour en savoir un peu plus.

En tout cas, le lancement par étape suit son cours et le buzz est instantané sur Internet.

A ce stade, le nouveau Canon EOS 1D X me fait plus rêver avec son capteur très haute sensibilité full-frame et une cadence de prise de vues de 12 images/secondes. Mais il est à $6800. Argh ! Ce n’est pas la même cour.

Répondre à ce commentaire

Commentaire 1128 dans L’innovation globale au i7 Summit 2011, le 20 octobre 2011

Thanks for the precisions. I meant cryptic because it was hard to understand what your product do, what kind of content it monetizes and how. Like many entrepreneurs do in their pitch, you maybe talked too much about your solution’s value without describing its nature beforehand. Of course, it’s hard to conduct such an exercice in 3 minutes!

Répondre à ce commentaire

Commentaire 1127 dans Retour du CEATEC 2011 – 2/7 – Affichage, le 19 octobre 2011

Bravo pour ce sens du détail ! J’ai modifié la lettre fautive.

Répondre à ce commentaire

Commentaire 1126 dans L’innovation globale au i7 Summit 2011, le 17 octobre 2011

Pour ta question précédente, vue la part de marché de Bing, l’intérêt pratique de ce partenariat est à relativiser, tout du moins en Europe, où Google dépasse 90% de parts de marché dans le search. Si le partenariat fonctionne aux USA, alors là, cela peut être intéressant.

Pour OneFeat, le modèle économique n’a pas été détaillé il me semble. La pub est un grand classique mais il faut aller au delà et explorer d’autres pistes, genre modèle freemium voire puisque l’on est dans le ludique, divers modèles associés : monnaie virtuelle, biens virtuels, etc. Tout dépend de l’addiction que la startup arrivera à créer chez ses utilisateurs.

Répondre à ce commentaire

Commentaire 1125 dans Retour du CEATEC 2011 – 7/7 – Usages, le 15 octobre 2011

Il n’y a pas de compagnies de train privées ?

Répondre à ce commentaire

Commentaire 1124 dans Guide Startups Quinzième !, le 14 octobre 2011

La première page sur le financement est page 87 ! Beaucoup de pages qui précèdent sont liées au produit pris sous toutes les coutures, et notamment sur la notion de valeur d’usage.

Je suis en tout cas preneur de contributions concrètes pour la prochaine édition sur les notions relatives au “produit”.

Répondre à ce commentaire

Commentaire 1123 dans Amazon accélère le déclin des ebooks, le 11 octobre 2011

Tu as raison sur Archos : ma comparaison n’avait d’intérêt que pour éclairer les choix matériels d’Amazon. Pour le reste (contenus), c’est une histoire en effet très différente.

Répondre à ce commentaire

Commentaire 1122 dans Retour du CEATEC 2011 – 3/7 – TV, le 11 octobre 2011

Oui, en effet. Corrigé.

Répondre à ce commentaire

Commentaire 1121 dans Retour du CEATEC 2011 – 2/7 – Affichage, le 10 octobre 2011

Merci pour l’erreur sur la résolution, maintenant corrigée.

Répondre à ce commentaire

Commentaire 1120 dans Amazon accélère le déclin des ebooks, le 2 octobre 2011

J’ai quelque doute sur la prééminence du bénéfice du mono-usage vis à vis du “one-stop-shopping” du multi-usages. J’adhère plus aux différences actuelles sur le confort de lecture.

Si on suivait le raisonnement du mono-usage, il n’y aurait pas de PC dans les entreprises. En effet, ceux-ci permettent aussi bien de travailler que de jouer. Bien sûr, on peut plus ou moins brider les usages dans les entreprises, mais cela touche rarement le Tétris ou jeux de ce genre !

Quelle est la proportion des utilisateurs qui installent et utilisent couramment ces utilitaires de contrôle de l’accès à Internet ?

Pour ce qui est de l’indisponibilité des nouveaux Kindle en Europe, cela donnera un peu d’air aux acteurs locaux des ebooks et permettra de comparer deux marchés traités différemment ! Il me semble en tout cas qu’il se vend bien plus de liseuses aux USA qu’en Europe, autant en valeur absolue qu’en pénétration dans la population.

Répondre à ce commentaire

Commentaire 1119 dans Amazon accélère le déclin des ebooks, le 30 septembre 2011

@e-jbb et @palerme

J’entends vos arguments, ils se tiennent. Les liseuses ont des avantages que je ne nie pas, je les évoque même dans mon article. Mais je pense que les évolutions technologiques vont les réduire à terme. L’encre électronique couleur sera probablement le facteur déterminant qui consacrera la fusion des tablettes et des liseuses.

Côté données de marché et croissance des ventes, prenons une source cohérente entre tablettes et liseuses, le Gartner (ici et ).

Cela donne en unités et dans le monde :
– 2010 : 19,5m de tablettes pour 6,6m de liseuses
– 2011 : 54,7m de tablettes pour 11m de liseuses

En calculant bien, cela donne un taux de croissance supérieur pour les tablettes par rapport aux liseuses. Oui, bien sûr, ils ne servent pas à la même chose. Mais comme l’indique fort bien cet article de CNET de mai 2011, les utilisateurs lisent sur ce qu’ils ont sous la main et les liseuses ne sont pas en bonne position.

On peut aussi y voir une évolution sociétale que l’on peut regretter. Les médias numériques ont dans l’ensemble réduit la pratique de la lecture de livres ! Ils ont réduit l’attention moyenne, aussi bien des lecteurs que des élèves en classe ou des collaborateurs dans les réunions en entreprise ! Comme l’indique palerme, la tablette est une source de distractions multiples, alors que la liseuse permet d’être concentré sur son livre.

Concernant le point sur le lancement par Amazon de trois nouvelles liseuses, je le relativiserai. Elles apportent peu de nouveautés, à part la suppression du clavier et le tactile, au demeurant, une convergence discrète vers le “form factor” des tablettes. Et Apple lance aussi de nouveaux iPod de temps en temps, même si la croissance vient de l’iPhone et de l’iPad !

On verra dans un an. Je ne serais pas étonné que les ventes du Fire soient rapidement très significatives par rapport à celle des liseuses N&B d’Amazon ! En 2012, Amazon lancera probablement un Fire 9 ou 10 pouces. D’ici 2013, ils adopteront l’une des technologies d’encre électronique couleur qui sera en production. Ils ne l’on pas fait pour le Kindle Fire car aucune n’était en production au moment du lancement.

Répondre à ce commentaire

Commentaire 1118 dans CanalSat et le multi-écrans, le 26 septembre 2011

J’en fais partie ! La réponse est dans l’article : un jour, peut-être… !

Répondre à ce commentaire

Commentaire 1116 dans Windows 8 est-il prêt pour les tablettes ?, le 25 septembre 2011

Je n’y étais pas ! Au nez, une grande majorité.

Répondre à ce commentaire

Commentaire 1115 dans Windows 8 est-il prêt pour les tablettes ?, le 24 septembre 2011

Bonjour la lisibilité de l’offre si MS se met à avoir deux offres pour tablettes ! Un peu comme Google qui nous emmêle un peu les pinceaux avec Android et Chrome OS.

Pour reprendre le commentaire précédent de Laurent, on peut se demander à quoi sert un Windows 8 sur ARM qui ne saurait qu’exécuter des applications Métro et web. A quoi bon ? Dans ce cas là, pourquoi effectivement ne pas s’appuyer sur Windows Phone 7 qui tourne, lui, déjà sur architecture ARM et est à priori plus léger et donc adapté à ce genre d’usage ?

A ce sujet, il est intéressant de noter que lors de la conférence Build, Steve Sinovski n’a pas pris la peine de faire une segmentation de l’usage des tablettes sous Windows 8 et d’indiquer à quels marchés, utilisateurs et applications elles étaient destinées. Sous-entendu probable : à tout le monde.

Répondre à ce commentaire

Commentaire 1114 dans Bac de philo aux Universités d’Eté du MEDEF, le 22 septembre 2011

Peut etre border line, mais cette conference a ete diffusee a la tv sur LCP, avec des plans de coupe sur l’audience…

En tout cas, si les interesses me le demandent, je supprime les photos en question !

Répondre à ce commentaire

Commentaire 1113 dans Windows 8 est-il prêt pour les tablettes ?, le 22 septembre 2011

D’accord ! C’est dans les deplacements hors de chez soi qu’une tablette generaliste serait utile !

Répondre à ce commentaire

Commentaire 1112 dans IBC 2011 – Gestion et diffusion, le 22 septembre 2011

No idea.
Peut-être des conflits d’intérêts entre business units concurrents (vidéo et photo).
Il y a eu des rumeurs sur un split de l’offre des 5D II avec un modèle orienté vidéo et un modèle plus orienté photo.
La sortie du 5D III est située entre octobre et février/mars prochain selon les rumeurs.

Répondre à ce commentaire

Commentaire 1111 dans Windows 8 est-il prêt pour les tablettes ?, le 21 septembre 2011

Je ne connais pas beaucoup de contenus qui ne soient pas déjà accessibles sur PC. Toute l’offre Canal+/CanalSat y est consommable par exemple. Côté bouquins, via Amazon, tu peux récupérer des bouquins sur PC, même si ce n’est aujourd’hui pas le meilleur device pour les lire. Idem pour la musique, tout est déjà disponible sur PC. iTunes y tourne. Deezer aussi, etc. Les jeux, itou, modulo la plateforme cible pour laquelle ils sont développés.

Alors, qu’est-ce qui manque dans les contenus ? En fait, ce ne sont pas les contenus qui manquent sur PC, et donc sur les futures tablettes Windows, ce sont des applications élégantes pour les consommer.

Mais OK avec ta prudence. Le risque de la stratégie de MS c’est qu’à force de vouloir tout faire, ils le fassent mal, avec un risque énorme de se mettre à dos la base installée Windows desktop/laptop. Mon impression est que le besoin d’avoir un device unique pour tablette et netbook est plus fort en environnement de travail que pour les loisirs.

Pour ce qui est de la lourdeur de Windows, MS semble avoir fait des efforts notables : boot et sortie de veille plus rapides, mémoire consommée par le système réduite d’environ 1/3, drivers probablement réécrits pour certaines parties du hardware. Seule l’expérience pratique dira si ça tient la route en usage tablette, le reste n’est que conjecture.

Répondre à ce commentaire

Commentaire 1110 dans Windows 8 est-il prêt pour les tablettes ?, le 19 septembre 2011

@Patrice : merci pour toutes ces précisions forts utiles. J’ai l’impression que cela restera tout de même flottant quelque temps. Windows 8 ressemble pour l’instant à un gros gruyère avec de grands trous. Est-ce que cela va devenir du comté ou rester du gruyère, là est la question !

@Lionel : le rationnel du choix de l’OS était différent pour Apple. Chacun partant de son point fort sur le marché, il était logique de s’appuyer sur les développeurs d’applications iPhone, donc de partir avec iOS. Microsoft part de Windows car c’est son point fort alors que WP7 ne l’est pas. Le besoin d’avoir un même device pour la tablette “contenus” et la tablette “productivité” est plus manifeste lorsque l’on est un utilisateur professionnel que dans le grand public ou chez soi (pas en situation de mobilité). D’où ma remarque sur le fait que Windows 8 pourrait limiter la pénétration des tablettes iPad et Android dans les milieux professionnels. Et que le succès dans le grand public reste conditionné par un tas d’interrogations que j’évoque, et qui demanderont au moins un à deux ans avant que l’on sache ce qu’il en est. Ton point sur les développeurs amène une remarque : est-ce qu’il s’agit des mêmes développeurs que ceux de l’iPad et de l’iPhone ? N’a-t-on pas ce schisme entre développeurs d’entreprise (plutôt sous technos MS, sans compter LAMP et Java) et développeurs mobiles et web (plutôt LAMP, ou iOS/Android) ?

Répondre à ce commentaire

Commentaire 1109 dans IBC 2011 – Production vidéo, le 17 septembre 2011

Visiblement, le Roland permet aussi d’éviter le micro-cravate. Ce qui a l’air unique dans cet enregistreur est son double micro stéréo qui le rend adapté à différents types d’enregistrements. C’est probablement inutile pour des interviews, mais peut-être pour des concerts. En tout cas, le Zoom a l’air en effet très bien pour mener des interviews. Et merci pour l’astuce de la synchro !

Répondre à ce commentaire

Commentaire 1108 dans Retour en Silicon Valley (3/7) grands de l’Internet, le 14 septembre 2011

Ce voyage a été entièrement organisé par mes élèves de troisième année de Centrale Paris. Ils se sont débrouillés avec leur “réseau” et avec des anciens élèves déjà en place dans les entreprises visitées.

Répondre à ce commentaire

Commentaire 1107 dans La drôle de mort du PC, le 8 septembre 2011

La pénétration de Linux de 1% est estimée par des études sur les navigateurs utilisés par les Internautes. Cela reflète donc assez bien la base installée, en excluant juste les PC sous Linux qui sont pas connectés et qui ne doivent pas être légion !

Les ventes de PC bundlés avec Linux ont été testée sans grand succès jusqu’à présent. L’absence de virus est peut-être liée aux qualités de Linux mais aussi à sa faible base installée ! Je précise que j’utilise Linux (Ubuntu) pour les développements de mon blog depuis 5 ans mais n’y ai pas pour autant basculé le reste de mes usages dits bureautiques et aussi photo.

Répondre à ce commentaire

Commentaire 1106 dans La drôle de mort du PC, le 4 septembre 2011

Je me demande si pour une part de la population, le taux de renouvellement des mobiles n’est pas supérieur à celui des brosses à dents, même dans les pays occidentaux… 🙂

Côté marché :
– Il se vend toujours de plus en plus de laptops et de moins en moins de desktops.
– Linux n’a pas mordu sur l’usage de Windows dans le grand public. Il reste aux alentours de 1% de la base installée. Et est effectivement très utilisé par les développeurs.
– Le Macintosh a gagné quelques parts de marché sur les PC sous Windows, surtout dans les laptops. Si elles restent inférieures à 5% en unités dans le monde, elles sont aux alentours de 10% aux USA.
– Windows XP est encore le système d’exploitation le plus utilisé alors qu’il a 10 ans cette année (mais bon, a été mis à jour depuis) ! Mais heureusement, Windows 7 a dépassé Vista. Cf http://en.wikipedia.org/wiki/File:Operating_system_usage_share.svg.

Donc, autant dire que la situation est plutôt assez stable depuis environ une dizaine d’années.

Répondre à ce commentaire

Commentaire 1105 dans La drôle de mort du PC, le 2 septembre 2011

En effet, le cycle de vie des PC est maintenant plus long, même si je n’ai pas de données sous la main le démontrant. Dans les entreprises, il est d’environ 5 ans et doit être équivalent dans le grand public. Il me semble cependant que les laptops sont plus fréquemment renouvelés que les desktop, ce qui se retrouve dans la proportion des ventes : d’année en année, la proportion des ventes de laptops dans les PC augmente depuis plus d’une dizaine d’années.

Mais on n’en est pas encore à la durée de vie des appareils électroménagers qui peut facilement dépasser 10 ans.

En fait, le PC/Mac est devenu un “utilitaire” qui ne fait plus rêver, c’est vrai. Ce n’est pas un objet de désir, il s’est banalisé. Les nouvelles moutures de Windows et MacOS sont elles aussi très “utilitaires”. Dans le cas de Windows que je connais mieux, il faut savoir que Windows 7 utilise mieux les ressources matérielles que Windows Vista. Il contribuera à allonger un peu la durée des PC. Windows XP est encore dans la nature alors qu’il fête ses 10 ans dans quelques jours !

Comme je l’ai évoqué dans d’autres articles (notamment sur les tablettes), l’équilibre entre tablettes et desktop est lié aux usages. Plus on consomme des contenus, plus la tablette est appropriée. Plus on créé de contenus, au delà de quelques lignes dans un réseau social, plus le desktop est approprié. La part création/consommation dépend beaucoup des utilisateurs, des métiers et des contextes. Mais dans la masse, la consommation prédomine, ce qui érode quelque peu l’usage des desktops. Mais plutôt dans le grand public que dans l’entreprise.

Après, si le desktop de l’entreprise évolue un jour vers un client léger sauce Chromebook ou équivalent avec du cloud computing, cela restera un outil de bureau ! Il y aura juste une différence de mise en oeuvre technique, à priori, relativement transparente pour l’utilisateur. Tant que le réseau est disponible !

Répondre à ce commentaire

Commentaire 1104 dans Le lancement de HbbTV en France, le 31 août 2011

C’est effectivement comme ça que cela fonctionne. Mais le logiciel Google TV ne gère pas le flux broadcast. C’est le hardware sur lequel il tourne qui réalise l’overlay entre la sortie graphique de Google TV et le signal TV qui vient de la TV ou de la STB externe via HDMI. C’est une bête superposition d’un signal vidéo sur un autre, avec transparence.

Ce qui aboutit d’ailleurs, dans le cas de Dish TV aux USA, à l’aberration suivante : l’interface de la set-top-box, et notamment de son PVR est différente de celle de Google TV qui s’ajoute en overlay. C’est un bricolage pour l’instant, car ces deux interfaces mériteraient d’être unifiées. Pour cela, il faudrait que Google TV gère aussi des tuners, des contrôles d’accès (CAS, DRM), un guide de programmes convenable pour les chaines TV broacastées, un PVR, en plus de tout le bazar qui permet de récupérer des infos et des contenus sur Internet. Et tout ceci est … coûteux, casse-pieds, compliqué, difficile à stabiliser, etc.

Répondre à ce commentaire

Commentaire 1103 dans Retour en Silicon Valley (1/7) grandes tendances, le 31 août 2011

Je faisais référence pour ce qui est d’Oséo à différentes aides citées ici : http://www.oseo.fr/votre_projet/international. Mais il semble bien que celles-ci concernent les sociétés ayant déjà décollé d’une manière ou d’une autre. UbiFrance n’aide pas au sens financier du terme, mais pratique. En effet, leurs prestations sont payantes.

Pour ce qui est du concours national, il semble que le jury puisse décider d’attribuer tout ou partie de l’aide maximale prévue, c’est dans le règlement du concours il me semble. Sachant de toutes manières que cette subvention est conditionnée par l’apport de fonds propres équivalents dans l’entreprise, donc en général d’origine privée (BA, VCs). Beaucoup s’en plaignent en effet. L’Etat a choisi de ne pas faire cavalier seul et de privilégier les financements conjoints public/privé. Sur le long terme, je pense que c’est une bonne formule, même s’il est vrai qu’il est difficile de trouver des financements privés en France, ou en tout cas, plus difficile qu’aux USA.

A noter d’ailleurs que cette année, il y avait moins de lauréats que l’année précédente. Je ne sais pas dire si c’est lié à un manque de “bons” projets ou à un resserrage budgétaire. Mais je trouverai le moyen de le savoir d’ici peu…

Le sujet de la génomique personnelle est un peu particulier pour la raison réglementaire citée. Mais sans cette contrainte, il y a plein d’autres raisons qui poussent certains à s’établir d’emblée aux USA. Ce marché est généralement plus perméable aux innovations de rupture alors que le marché français est globalement très conservateur.

Pour ce qui est de l’absence de prise de risque des investisseurs en France, cela reste un jugement de valeur pas étayé par des études ou données. Comme tous les projets ne sont pas financés, les entrepreneurs qui n’arrivent pas à trouver du financement ont toujours beau jeu de dire que “les investisseurs ne prennent pas de risques”. Un investisseur cherche naturellement à minimiser les risques. Il en prend tout de même énormément ! Un business angel “de base” est à peu près sûr de perdre sa mise sur au moins les 3/4 voire 9/10 des projets qu’il a financés. Si ce n’est pas de la prise de risque, qu’est-ce que c’est ? Après, il fait des choix sectoriels. Il peut aussi éliminer des projets qu’il juge mal préparés. Ce qu’un entrepreneur perçoit comme une absence de prise de risque est, du point de vue de l’investisseur, une évaluation négative de certains facteurs clés de succès de la startup, à commencer par la qualité de l’équipe. Tout le monde doit balayer devant sa porte ! Et aussi chacun doit mieux se comprendre.

Répondre à ce commentaire

Commentaire 1102 dans Retour en Silicon Valley (7/7) et nous et nous ?, le 31 août 2011

Il doit être possible de tester UbiFrance sur place. La question est de savoir quel genre de personne vous souhaitez rencontrer côté business (partenaires potentiels, etc). Il y a certaines personnes qui peuvent aider, mais sous forme rémunérée ! Faisons cela par email…

Répondre à ce commentaire

Commentaire 1101 dans Les dessous de la bataille entre Apple et Google, le 27 août 2011

Je n’en sais rien et probablement… eux non plus !

Pour Intel, non, pas de concurrence directe. Ils vont continuer à concevoir ou adapter le design de leurs processeurs et les faire fondre ailleurs. C’était chez Samsung et c’est je crois passé chez TSMC.

Répondre à ce commentaire

Commentaire 1100 dans Les dessous de la bataille entre Apple et Google, le 27 août 2011

Apple dépense environ $2,4B en R&D par an au rythme actuel. Même s’ils doublaient ce budget, ce qui ne donnerait pas forcément grand chose, cela serait une goutte d’eau par rapport à leur cash de $75B et aussi à leur résultat net de $7,3B par TRIMESTRE !

A ce stade, le problème de poursuite de la croissance n’est plus un problème de moyens financiers puisqu’ils en ont. Il est de trouver des sources de croissance profitable compatibles avec leur métier actuel. Et puis, les arbres ne poussent pas jusqu’au ciel. Apple vient de dépasser IBM en CA glissant, et le fera pour HP d’ici peu si la croissance se poursuit et surtout si HP revend son activité PC, même à un rythme plus lent qu’actuellement.

Les chiffres sur le dernier trimestre fiscal :
– Apple : $28,5B de CA et $7,38B de résultat net (25,9% !!! sidérant pour du hardware)
– IBM : $26,6B de CA et $3,64B de résultat net (13,6%, pas mal pour plus de la moitié réalisé en service!)
– HP : $31,2B de CA et $1,9B de résultat net (6%, décevant, plombé par les PC)

Après, … ça se calmera probablement un peu non ?

Répondre à ce commentaire

Commentaire 1099 dans Les dessous de la bataille entre Apple et Google, le 25 août 2011

Bonjour Guerric,

Comme écrit dans l’article, l’un des changements introduit par le départ de Steve Jobs pourrait être le lancement d’un politique d’acquisition plus agressive. Les raisons sont multiples :

– C’est la culture “corporate America”

– C’est ce que font les boites qui ont beaucoup de cash et Apple est plein dedans. Un cash placé pépère rapporte peu. Les boards s’attendent à ce que le cash de la société rapporte plus que le taux d’intérêt moyen des marchés, surtout quand la bourse est raplapla. Les taux des bons du trésor ne font pas flipper les boards ! Il leur faut un meilleur rendement du capital !

– C’est ce qui est censé maintenir un bon rythme de croisière de la croissance, surtout si la société n’a plus en interne de nouveaux produits majeurs à lancer. Après la télévision Apple en 2012 (si elle arrive), Apple aura à peu près fait le tour des outils de consommation de contenus à la maison. Il lui faudra aller ailleurs. Cf cet excellent papier: Why Apple is done inventing news devices.

– L’industrie va continuer à se consolider et cela pourra inciter Apple à suivre le mouvement même si la société l’a sagement évité pour l’instant en privilégiant une croissance organique (interne).

On peut nuancer le propos en intégrant les différentes options de croissance pour Apple qui ne nécessiteraient pas de faire de grosses acquisitions : descendre en gamme (surtout avec l’iPhone) pour élargir sa base de marché adressable, notamment dans pays en voie de développement, continuer à gagner des parts de marché face aux PC, développer une offre de services en cloud encore plus complète (ils ont de beaux data center prêts pour cela).

Par contre, Steve Jobs n’est pas encore parti ! Il est un peu comme Bill Gates entre 2000 et 2008, lorsqu’il était Chairman et “Chief Software Architect” tandis que Steve Ballmer était CEO depuis 2000, et l’est toujours.

Son influence directe disparaitra vraiment le jour de sa mort, et encore, avec une longue traine de quelques années. Cf le très bon article de Michel de Guilhermier sur le sujet.

Répondre à ce commentaire

Commentaire 1098 dans Les dessous de la bataille entre Apple et Google, le 24 août 2011

Le comble est que Microsoft cherche à faire payer Samsung $15 par device Android alors que sa propre licence de WP7 est aux alentours de $20 à $25. C’est atttribuer une valeur bien trop grande à ses brevets, une pratique dont Microsoft a d’ailleurs été lui-même victime par différents patent trolls sur d’obscures fonctions XML de Word (que personne n’utilise) ou bien sur les Active X dans Internet Explorer.

Microsoft est en retard en effet. Il peut bénéficier d’une éventuelle fragilisation d’Android par les brevets mais je n’y crois pas trop. Je ne connais pas beaucoup de stratégies de captures de parts de marché qui passent par un lock-in des brevets.

En tout cas, si Google pousse l’intégration verticale dans le hard avec Moto et Microsoft avec Nokia, je ne pense pas que cela va les aider. Ils auront toujours du mal à faire aussi bien qu’Apple en termes de design. Ils pourrons un peu mieux maitriser la supply chain et donc les marges, mais c’est tout.

La grande question est quelles seront les options pour Samsung, LG et HTC. Continueront-il à supporter toutes les plateformes horizontales malgré la concurrence hardware de leurs géniteurs ? Vont-ils en préférer une sur l’autre et sur quels critères ? Est-ce que ce sont tous ces braves gens qui vont décider des parts de marché respectives d’Android et WP7 ou bien seront-ce les consommateurs ? On oublie toujours un peu ces derniers dans l’équation !

Répondre à ce commentaire

Commentaire 1097 dans Un retard qui ne date pas d’hier 2/2, le 21 août 2011

En effet, j’avais oublié l’industrie spatiale.

Pour Alcatel, les années 1980 ont été en effet de bonnes années. Je mentionne leur autocommutateur numérique, le E10. J’avais même eu l’occasion de visiter leurs usines près de Cherbourg lorsque j’étais élève ingénieur (en 1982 ou 1983).

Le Secam a été effectivement vendu dans les pays de l’Est et quelques pays à l’époque sous influence française et cherchant à ne pas être dépendant technologiquement des USA.

J’ai évoqué les projets “gaulliens” dans cette seconde partie, un peu en réaction à des commentaires sur l’article précédent. Mais c’était un peu hors sujet par rapport au point de vue initial sur le retard à l’allumage dans les technologies de télécommunication et les raisons liées à l’Etat.

Sur la durée, l’Etat s’y est finalement bien mieux pris dans les grands projets industriels, maintenant relativement révolus, et plutôt mal pris pour développer les usages dans le grand public.

Répondre à ce commentaire

Commentaire 1096 dans L’Institut Montaigne et la croissance des PME, le 19 août 2011

Il est vrai qu’avec le numérique, les frontières sont naturellement plus poreuses. Mais la France n’en profite pas tant que cela. Les sociétés qui exportent ou ont une bonne activité à l’international sont plus dans les services (Veolia, retail, banque) et dans l’industrie classique (transports, BTP, énergie avec Total, et aussi EDF qui exporte en général de l’électricité) sans compter l’agroalimentaire.

Un peu plus de concurrence ne ferait en effet pas de mal. Les télécommunications l’ont bien montré avec l’émergence d’acteurs “challenging” face à Orange qui ont à la fois aidé la France à avoir un taux de connexion ADSL digne de ce nom et aussi des prix assez bas, les deux étant liés.

Répondre à ce commentaire

Commentaire 1095 dans L’Institut Montaigne et la croissance des PME, le 18 août 2011

Intéressant. Quelques contre-points :

“Il faut d’abord vendre dans son pays”.

Oui, quand c’est possible. Mais certains business ont moins de frontières qu’avant, notamment dans l’Internet. La grande question est la vitesse à laquelle on sort de France une fois que l’on a ses premiers clients locaux.

“ETI anglaises sont des usines de multinationales non-européennes qui fabriquent en Angleterre pour le marché européen ou des vraies PME indépendantes ?”

Il se s’agirait pas plutôt d’usines en Irlande, à Dublin, qui a attiré les entreprises américaines grâce à un dumping fiscal il y a plus de 20 ans ?

“Investir dans une SCI est plus vertueux que d’aller placer l’argent en Suisse”

Si il y a un investissement initial fort, oui. Mais si la SCI achète un bien essentiellement sur un prêt et rembourse ce prêt avec le loyer qui est financé par l’argent des investisseurs plus que par le revenu généré par les clients et que la boite dépose ensuite son bilan ? Dans ce cas, le risque ne serait pas convenablement partagé entre fondateurs et investisseurs. Mais si tout va bien et que la boite sort par le haut avec une grosse valo qui marginalise celle de la SCI, pas de problème !

“il vaudrait mieux que l’Etat aide les grandes entre­prises à ache­ter l’innovation des startups.”

Là, je ne comprends pas bien. Acheter sous quelle forme ? Aide sous quelle forme ?

Répondre à ce commentaire

Commentaire 1094 dans Un retard qui ne date pas d’hier 2/2, le 18 août 2011

En effet. J’avais d’ailleurs abordé ces thèmes (sauf peut-être le dernier) au sujet des propositions de l’Institut Montaigne. Il y a évidemment plein de choses qui ont changé depuis les événements évoqués dans ces deux articles. Ce qui n’a peut-être pas tant changé que cela sont la culture du pays et ses structures politiques, malgré les changements de République.

Ceci étant pour le point 3), je constate que si nos startups ont des progrès à faire dans le domaine du “vrai besoin”, on peut se consoler en constatant qu’elles ne sont pas les seules ! En tout cas, dans l’Internet.

Répondre à ce commentaire

Commentaire 1093 dans Un retard qui ne date pas d’hier 1/2, le 15 août 2011

Merci Alban pour la précision. J’ai corrigé l’article en conséquence. On pourrait aussi évoquer les expérimentations en cours du T-DMB en France, qui n’ont pas l’air d’aller bien et le devenir de la HD-Radio aux USA.

Répondre à ce commentaire

Commentaire 1092 dans Un retard qui ne date pas d’hier 1/2, le 15 août 2011

C’est dans la conclusion de l’article : je vais traiter cela dans la seconde partie !

Répondre à ce commentaire

Commentaire 1091 dans L’Institut Montaigne et la croissance des PME, le 11 août 2011

Suppose que la boite aille mal et dépose le bilan. Les investisseurs ont tout perdu. Mais l’entrepreneur a réussi à constituer un patrimoine immobilier avec les loyers payés par la levée de fonds, donc par les investisseurs. Dans un tel cas, le partage du risque financier est un peu moyen…

Répondre à ce commentaire

Commentaire 1090 dans L’Institut Montaigne et la croissance des PME, le 10 août 2011

Intéressants.

Quelques contre-points :

L’étude Kauffman se focalise sur les entrepreneurs nés aux USA. Elle néglige donc la moitié des créateurs d’entreprises qui n’y sont pas nés, en tout cas pour ce qui concerne la SIlicon Valley ! Mais il est vrai que l’entrepreneuriat concerne aussi bien les jeunes étudiants que les créateurs dotés d’une expérience soit de cadre/salarié soit de serial entrepreneur.

L’impact des règles prudentielles sera bien plus fort sur les VCs que sur les autres activités bancaires classiques, qui relèvent du prêt. Pas le temps de tout expliquer. Déjà , ne serait-ce que le capital risque est plus risqué qu’un prêt à une société qui tourne déjà avec un CA, des clients, et juste un besoin de BFR.

Sur tes autres points :

1/ Le matching public/privé permet de réduire le risque perçu dans l’early stage. Mais lorsqu’il y a moins de risque, dans le later stage, il est vrai que l’apport de financements privés peut tordre le marché. L’histoire dit que le FSI a surenchérit sur les VCs pour entrer dans DailyMotion il y a quelques années !

4 / Bien vu sur les exits. Le point clé est que les grandes entreprises soient de bonnes clientes pour les startups et que leur culture de l’innovation ouverte et partenariale évolue. Mais si elles prenaient l’habitude de faire plus d’acquisitions, cela créérait un cercle vertueux. Et éviterait que la majorité des exits se fassent avec des boites étrangères.

6 / En effet, il ne faut pas faire n’importe quoi dans les stages en PME. Mais comme les PME sont censées créer plus d’emploi que les grandes entreprises, il n’est pas impossible que la demande (de stagiaires) soit là mais pas l’offre (de stagiaires).

9 / Il y a des initiatives intéressantes en effet. Les plus intéressantes étant celles où les deux cursus sont physiquement sur le même campus avec des ressources partagées. Ce n’est pas le cas d’HEC et des Mines ou de l’X.

Répondre à ce commentaire

Commentaire 1089 dans L’Institut Montaigne et la croissance des PME, le 9 août 2011

Cela fait 20 ans que la Chine n’est plus une économie dirigée ! Malgré un gouvernement d’un parti communiste, c’est du capitalisme pur et dur qui y a court ! Le système politique chinois a réussi un pari qui n’était pas évident consistant à passer à l’économie de marché sans perdre son pouvoir. Et si il était amené à basculer radicalement, cela serait plutôt vers le système russe et ses oligarchies.

Le sujet des banlieues est très important. L’Institut Montaigne en parle d’ailleurs dans son rapport, encore en citant des initiatives locales.

Il existe d’ailleurs aux USA. Dans la Silicon Valley ou à Seattle, on ne voit pas des max de blacks dans les boites. Plutôt des chinois et des indiens !

Alors, quelles sont ces propositions pour créer de la valeur et aider les entrepreneurs ?

Répondre à ce commentaire

Commentaire 1088 dans L’Institut Montaigne et la croissance des PME, le 9 août 2011

En effet la majorité des écoles d’ingénieur en informatique sont privées. L’Etat a créé très peu d’écoles d’ingénieurs et celles qui ont le qualificatif de “grandes” (dites aussi groupes A et B) ont des décennies voire des siècles d’ancienneté, à l’origine de leur prestige acquis. Le prestige vient aussi de différentes enquêtes de salaire et de notoriété chez les recruteurs. Que je sache, les écoles plutôt généralistes ont toujours tenu le haut du pavé de ces classements dans le système de valeur français. Notamment parce qu’il s’auto-entretient, les recruteurs étant issus du même sérail. Donc, même si l’Etat créait quelques nouvelles écoles d’ingénieurs spécialisées en informatique, elles partiraient de bas côté “prestige”. C’est d’ailleurs un peu le cas de l’école Niel/Simoncini/Granjon qui est destinée à former des BAC+3 je crois, donc plutôt des développeurs.

Dans le cas de Centrale Paris que je connais un peu, une réforme récente du parcours des 3 années a amené l’école à proposer une spécialisation progressive qui intervient dès la première année, s’amplifie en 2nd et devient totale en troisième alors qu’avant, seule la troisième année relevait de la spécialisation. Mais je ne sais pas si cela permet aux informaticiens qui sortent de l’école d’être plus pointus. Comme ils pensent surtout à être chefs de projets ou consultants, cela ne compte probablement pas tant que cela.

Sinon, où que ce soit, les enseignements sont vite dépassés. La formation ne s’arrête pas à la sortie de l’école. Elle se poursuit toujours au fil de l’eau pendant toute la vie active ! Surtout en informatique. Sinon, tu te dinosaurifie en quelques années.

Bon, tu pourrais regarder du côté des instituts technologiques que l’Etat souhaite créer dans le cadre du grand emprunt. Il y a sûrement fort à y faire pour voir comment cela va être mise en oeuvre. Là aussi, il y a fort à parier que le diable aie mis du bazar dans les détails !

Répondre à ce commentaire

Commentaire 1087 dans L’Institut Montaigne et la croissance des PME, le 9 août 2011

@Michel Nizon : le succès des startups israéliennes n’est pas dû à un seul facteur comme le financement public (qui a démarré vers 1990 je crois). Cf mon Cr d’un voyage là-bas en 2010 ou celui d’un groupe de bloggeurs d’il y a deux mois (avec notamment Korben et Eric Dupin). Et puis ce que tu proposes existe déjà en France, par le biais du rôle de la CDC dans le financement en fonds de fonds des VCs et plus récemment dans les fonds d’amorçage par le biais du grand emprunt. Et ce n’est pas vraiment cela qui a encouragé les VCs à s’installer là-bas. C’est plutôt lié à une multitude de facteurs : l’excellence scientifique et entrepreneuriale, un bon track record des startups sur place, le fait que nombre d’entre elles privilégient le marché américain pour se développer et y ont souvent une représentation et une proximité culturelle très forte. Cf mon prosélytisme pour encourager les startups françaises à mettre un pieds aux USA. Je suis d’ailleurs en train de compléter la partie correspondante pour la prochaine édition de mon Guide des Startups, à paraitre en septembre.

@Vincent Rivalle : les pratiques du mentorat sont citées dans le document de l’Institut Montaigne, notamment dans le Réseau Entreprendre. Il y a aussi le programme Paris Mentor. Ceci étant, cela relève d’initiatives privées ou locales. L’Etat n’a pas grand-chose à y faire. Sur le point 2) et le rapprochement chercheurs/entrepreneurs, il y a certainement des pistes à creuser et certaines le sont dans le doc de l’Institut Montaigne. Encore faut-il trouver quelque chose qui soit pratiquement faisable. Une idée ?

@bobonofx : il existe bien des écoles d’informatique (EPITA, EPITECH, Supinfo, ENSIMAG) sans compter les écoles du groupe des Télécom ou Supelec. Celles où l’informatique est une option de troisième année sont des écoles généralistes (dans les Ecoles Centrale, Mines, etc). Ensuite, dans les Universités. Pour ce qui est de la fac, il y bien des licences, masters et doctorats en informatique non ? Sachant qu’il y a d’ailleurs plein de spécialités dans le domaine, car l’informatique est un secteur assez large entre le temps réel, la gestion, la programmation, l’Internet et les systèmes répartis, le hardware, etc. Donc, cela veut dire quoi faire de la « computer science » qu’on ne ferait pas ? Les américains nous envient même car nous avons de bonnes filières mathématiques qui complète les cursus informatiques en leur donnant de meilleures bases théoriques. Là où on est moins bons, c’est justement dans le manque d’étudiants passés par les computer science mais dotés d’autres compétences (sciences humaines, marketing, etc).

@macha : toujours aussi optimiste et amateure d’amalgames ! L’Euro est fort et cela n’empêche pas l’Allemagne d’exporter ni les Hollandais ou les Finlandais ! Pourquoi opposer les salariés « qui trinquent » aux entrepreneurs qui se la couleraient douce ? Tu as déjà vu beaucoup d’entrepreneurs qui se la coulent douce ? Moi, pas ! Opposer les deux ne mène à rien car seuls les entrepreneurs créent des emplois, pas les salariés ! Et l’entrepreneuriat fonctionne parce qu’il y a des incitations économiques à le devenir, sinon, on sait ce que cela donne : les économies dirigées, qui n’ont plus vraiment court sauf… en Corée du Nord. Donc, on reprend son bâton de pèlerin et on cherche comment faire en sorte que les entrepreneurs créent de la valeur et des emplois !

Répondre à ce commentaire

Commentaire 1086 dans L’Institut Montaigne et la croissance des PME, le 8 août 2011

Réponse sur le point de la SCI : l’investisseur met de l’argent dans la boite pour qu’elle créé de la valeur et que cette valeur se retrouve dans la valo de l’entreprise.

Si cet argent sert à payer un loyer, il créé de la valeur à l’extérieur de la société, dans la SCI du fondateur. Au lieu de la créer dans la startup. Il vaut donc mieux pour l’investisseur que l’immobilier soit dans le patrimoine de la startup, ou bien que l’investisseur ait aussi une part de la SCI, ou plus simplement, que la startup loue à quelqu’un d’autre. Tout dépend aussi du type de local en question.

Pour le BFR des petits commerçants, c’est à voir. Ils sont payés cash par leurs clients consommateur, ils n’ont donc en aval pas trop à se plaindre. C’est plus difficile pour un intermédiaire quel qu’il soit qui est payé par ses clients à 2 mois mais paye les salaires au fil de l’eau…

En réduisant globalement les délais de paiement, on assainirait l’ensemble de l’économie. On évite aussi les “rentes” liées justement aux acteurs qui jouent de l’asymétrie du délai (dans la grande distribution) et placent le BFR négatif généré.

Aux USA, le petit commerce ne se porte pas si mal que cela comparativement à la France ! Et les délais de paiement y sont très courts !

Pour le CIR, plutôt OK…

Répondre à ce commentaire

Commentaire 1085 dans Les défis du plan France Numérique 2020, le 26 juillet 2011

Il est vrai qu’en relisant à tête reposée le plan 2008, on a du mal à croire que 80% des mesures aient été mises en oeuvre. J’attend avec impatience cette évaluation de l’application du plan par l’équipe d’Eric Besson. Cela sera très intéressant surtout s’ils expliquent pourquoi les mesures n’ont pas été suivies d’effet le cas échéant.

Dans le bêtisier, il y a en plus de ce que tu cites :

– Action 22 : développer la radio numérique. Qui n’est pas d’ailleurs pas forcément une priorité.

– Actions 64 et 65 sur le découplage OS/hardware dans la vente de PCs. Un vieux serpent de mer qui continue d’agiter les associations de promotion du logiciel libre, qui ont été cependant distraites depuis par la HADOPI et la net neutralité et ont un peu laissé tomber.

– Action 114 : développer le télétravail dans le secteur public. On serait intéressé de savoir quels sont les métiers concernés !

– Tout ce qui concerne l’open data, qui avance très doucement.

– Action 132 : le DMP santé, autre serpent de mer, de plus grosse taille.

Par contre, sur l’absence de côté visionnaire, ne jetons pas trop la pierre. En 2008, certains des sujets que tu cites n’étaient pas encore dans le vent ou bien n’entraient pas forcément dans les prérogatives de l’Etat, comme la réalité augmentée. Le cloud s’est retrouvé dans les priorités du grand emprunt. Le cellulaire a bénéficié en partie du dividende numérique et le LTE va arriver, les services géolocalisés n’ont pas trop besoin de l’Etat (sauf pour ce qui est des services publics). Et certains d’entre eux font partie de la consultation comme ce qui concerne les TV connectées.

Sur le CIR, le texte dit “le gouvernement” sans préciser lequel. Ils auraient du écrire l’Etat. Cependant, l’actuel gouvernement (ou présidence) a modifié plusieurs fois le CIR depuis 2007. Et aussi le JEI, héhé. Mais pas dans le bon sens… 🙂

Autre remarque : c’est un sport national dans tous les pays de se plaindre de ses politiques et de ses administrations. Mais elles sont le reflet du fonctionnement de la “société civile” (expression que Besson n’aime pas car selon lui les politiques sont “civils” et pas … militaires) et, pour ce qui est du numérique, des jeux de pouvoir entre entreprises, citoyens et consommateurs. L’Etat (surtout actuel) peut avoir tendance à trop arbitrer en faveur des premières. Citoyens et consommateurs doivent mieux s’organiser pour faire contre-poids. Bref, c’est un peu à nous de jouer !

Répondre à ce commentaire

Commentaire 1084 dans Les défis du plan France Numérique 2020, le 25 juillet 2011

Les plans publics anglo-saxons sont effectivement généralement plus pratiques, orientés résultats, actions et “business” (au sens du développement de l’économie).

Question de culture…

Répondre à ce commentaire

Commentaire 1083 dans Les défis du plan France Numérique 2020, le 25 juillet 2011

Il y a bien eu un plan numérique en Allemagne (“Information Society Germany“), au Royaume Uni (“Digital Britain“) ainsi qu’au niveau Européen (eEurope, Lisbonne 2000).

Aux USA, ils n’ont pas vraiment besoin de cela. Tout du moins sous la forme jacobine française. Les plans sont plus saucissonnés (Digital TV, etc). Il y a aussi une grande influence de la commande publique militaire. Et un rôle fort de régulation de la FCC.

Répondre à ce commentaire

Commentaire 1082 dans Les défis du plan France Numérique 2020, le 25 juillet 2011

Il faut les deux mon capitaine ! L’Internet est un terme générique qui couvre tout un tas d’usages. La TV numérique en fait maintenant partie et devient une des composantes de l’Internet.

Il y a des enjeux technos et de souveraineté culturelle importants dans la bataille qui se prépare avec les acteurs américains comme Google, Apple ou Netflix.

Répondre à ce commentaire

Commentaire 1081 dans Les défis du plan France Numérique 2020, le 25 juillet 2011

Le passage à la TNT aura coûté à l’Etat 333m€ (source: http://www.assemblee-nationale.fr/13/pdf/budget/plf2011/b2857-tiii-a29.pdf).

Les infrastructures et émetteurs ont du être en grande partie financés par TDF qui est une société de droit privé (une SAS). L’Etat a sinon prévu des aides diverses (aides à l’équipement en décodeur, à l’antenne et à la réception) qui sont réservées aux foyers qui sont exonérés de redevance.

Le coût du passage à la TNT n’a donc rien à voir avec les dizaines de milliards nécessaires pour le fibrage du pays (même si l’évaluation de certains opérateurs est contestée), et les 2 milliards alloués côté Etat (en + des régions) pour ce faire. En termes de grandes masses, ré-allouer un bout des 333m€ à la fibre n’aurait rien changé à la donne.

L’alternative satellite est trop coûteuse pour être généralisée car elle nécessite un terminal plus cher que les décodeurs TNT, sans compter la plus grande technicité de l’installation (précision du pointage de l’antenne) et la pollution visuelle dans les villes. Elle est surtout utilisée dans les zones enclavées qui correspondent à 5% du territoire de la métropole, ou pour les abonnés à Canal Satellite qui sont quelques millions.

La diffusion hertzienne reste un choix raisonnable lorsque l’infrastructure du câble ne domine pas le pays comme aux USA ou en Allemagne.

Répondre à ce commentaire

Commentaire 1080 dans Peut-on se passer des aides publiques dans l’innovation ?, le 23 juillet 2011

Macha, toujours cette vision ultra-pessimiste ! Bien sûr, le pire peut arriver. Mais pas forcément !

Allons, il faut se ressaisir ! Construire au lieu de prédire la destruction.

Répondre à ce commentaire

Commentaire 1079 dans Peut-on se passer des aides publiques dans l’innovation ?, le 23 juillet 2011

Les bras m’en tombent toujours quand je vois Marine Le Pen faire de l’économie. C’est du grand n’importe quoi, notamment autour de l’Euro où elle pratique la technique fort classique de l’amalgame – pleine de contradictions – pour remettre en cause la monnaie européenne. Elle trouve le dollar trop puissant mais en même temps voudrait sortir de l’Euro. L’augmentation des prix (il y a 9 ans) serait selon elle due à l’Euro. Quand on creuse un peu le sujet, on sait qu’en France, l’augmentation des prix a été due aux français (commerçants), car l’augmentation n’a pas été la même dans les autres pays. Et sur la durée, elle a été amortie. Le discours est d’autant plus absurde que l’inflation n’a jamais été aussi basse que lors de ces 10 dernières années. Ceux qui ont connu les années 70 et 80 se rappellent d’une inflation comprise entre 6% et 12% par an. Et les dévaluations compétitives de 81 à 83 avec la rigueur associée, à une époque où pourtant la France n’était pas endettée comme aujourd’hui.

Et il y a ce mythe de la “dévaluation compétitive” qui n’est qu’un artifice financier de court terme. Un pays est compétitif en fonction de ce qu’il produit, là où il innove, là où il exporte et à quel cout. Avec un paradoxe qu’une économie trop forte renchérit son taux de change et atténue sa compétitivité. D’où la fameuse sous-évaluation de la monnaie chinoise qui pose problème car ils ne jouent pas le jeu des autres pays. Mais cette sous-évaluation serait ou sera problématique le jour où la croissance de la Chine se calmera. Cette croissance permet de financer les coûteuses importations d’énergies. Notre croissance est bien insuffisante pour utiliser une “dévaluation compétitive” car cette dernière renchérirait significativement le coût de nos importations, avec ou sans TVA sociale. Comme notre compétitivité industrielle ne s’améliorerait pas immédiatement, elle aboutirait à un déséquilibre encore plus fort de notre balance des paiements. Elle ferait peser un risque très élevé sur le coût de notre dette.

Sur l’entrepreneuriat, que propose-t-elle ? Du protectionnisme au lieu de parler de compétitivité. C’est une vision politique qui fait porter la responsabilité de nos performances économiques moyennes sur le reste du monde et sur notre fiscalité. Un exercice un peu trop facile à mon gout. Il faut aller plus loin. Voir où sont les compétences qui manquent, comment fonctionne la culture de l’innovation de notre pays, comment il s’ouvre sur le monde, comment on exporte, comment les grandes entreprises font appel aux petites, comment le marché intérieur est régulé (et a tendance à protéger les gros acteurs au détriment des petits et des innovateurs).

Autre exemple de bêtise économique : la crise Lehmann nous aurait affaiblis à cause de la monnaie unique ! Pourtant, les anglais qui ont encore leur monnaie ont plus souffert de cette crise, à cause de leur forte dépendance du secteur financier dans leur économie. Tous les pays ont souffert de cette crise, monnaie unique ou pas, du fait de la titrisation des créances des subprimes à l’échelle mondiale qui a affecté tout le système bancaire international. Même la Chine a vu sa croissance ralentie par la crise Lehmann ! L’Euro a été à la fois un protecteur et un amplificateur de certains effets de la crise. Le marché unique permet une circulation libre des capitaux au sein de la zone Euro ce qui peut amplifier certains effets. Mais l’Euro est un élément de construction du marché intérieur européen car il fluidifie la circulation des marchandises et services au sein de la zone Euro. Sans cette fluidité, nos exportations seraient plus difficiles, leur coût serait plus élevé, notre balance des paiements affectée. Par rapport aux USA, nous sommes toujours désavantagés par une forte fragmentation culturelle et linguistique, mais il faut faire avec.

Réindustrialiser ? C’est ce que plein de pays occidentaux – France comprise – font déjà, avec plus ou moins de bonheur ! Faut-il soutenir des canards boiteux ou investir dans les nouvelles technologies porteuses ? Quel type de réindustrialisation faut-il provoquer ? Comme le marché est mondial, il faut le faire là où nous pourrions être compétitif ! Pas juste dans une économie manufacturière traditionnelle. Là encore, il y a confusion des genres entre “réindustrialisation” (qui est un peu un voeux pieux) et “innovation compétitive”. Car si on réindustrialise de force là où on n’est pas compétitif, cela nous mène à la situation de la RDA, d’une économie dirigée déconnectée de la réalité des marchés ! L’affaire Heuliez était intéressante de ce point de vue-là. On a vu l’Etat et la Région Poitou Charente se battre en duel pour soutenir cette entreprise en difficulté. Mais l’histoire oublie systématiquement de rappeler que les entreprises dans ce cas-là le sont à cause de déficiences stratégiques et managériales. Il n’y a pas de fatalité ou de pas de chance ! Juste des erreurs humaines ! Des lacunes en compétences, du népotisme, un dysfonctionnement des élites.

Par contre, Marine Le Pen touche un point clé avec la fonction publique territoriale, même si elle reste bien superficielle sur le sujet. Il faudrait avoir le courage de supprimer au moins un échelon administratif, chose que Sarkozy n’a pas voulu faire en écartant cette proposition de la première commission Attali. Il faut mieux délimiter les rôles, éviter les redondances, et analyser de plus près ce que certains dénoncent comme une gabegie au niveau régional. J’aimerai bien que cela soit détaillé d’un point de vue budgétaire. Il ne suffit pas de dénoncer, il faut creuser, un peu comme je l’avais fait en 2007 avec “Trop d’Etat, oui mais où ça?”. Quand on regarde les comptes, et bien, ce n’est pas évident. En faisant un petit tour sur http://www.vie-publique.fr, on voit par exemple que les communes représentent 49% des dépenses des collocs, les départements 36% et les régions souvent décriées seulement 14,6%. 42% des dépenses des départements vont aux aides sociales. 26% du budget des collocs sont des investissements, notamment en infrastructures (routes, écoles, etc) tandis que l’Etat n’investit que pour 6% de ses dépenses. 31% du budget de l’Etat part en charges salariales pour 21% pour les collocs. On trouvera bien entendu des dépenses contestables au niveau des collocs (hôtels de région dispendieux, aides culturelles pas toujours justifiables, aides à l’emploi à l’efficacité par prouvée, etc), mais sur quel % de leurs dépenses ? Il y a bien les Cour des Comptes régionales, mais la subsidiarité de ce contrôle est quelque peu contestable, les baronnies locales s’auto-protégeant facilement.

En fait, l’Etat et les collocs passent leur temps à colmater des brèches avec des aides à l’emploi, à l’innovation, des baisses de charges sociales en tout genre. La machine est tellement complexe que personne ne la maîtrise. L’Etat en vient à concurrencer inutilement le secteur privé (comme avec le grand emprunt et le Fonds national de la Société Numérique). Il ne sait pas mesurer les effets positifs et négatifs de son patchwork d’aides en tout genre. Il n’y a pas d’architecte d’ensemble. Il y a probablement beaucoup de rationnalisation à faire dans le domaine avec des économies substantielles à réaliser. Le problème pour les politiques (gouvernement, élus) est qu’ils n’arrivent pas à suivre ce qui se passe.

La campagne présidentielle est peut-être une occasion de mettre ces sujets sur la table…

Répondre à ce commentaire

Commentaire 1078 dans Le bruit dans les réseaux sociaux, le 22 juillet 2011

En effet, mon propos est exagéré et l’analogie avec le son est un effet de manche, pas beaucoup plus. Et oui, il faut du bruit pour faire des découvertes ! Il faut juste savoir le doser pour éviter d’avoir un taux de découverte qui soit trop faible et de se noyer dedans au détriment d’autres formes de découvertes plus productives. Bref, on doit arbitrer en permanence. Exemple dans les réseaux sociaux : équilibrer le suivi de sa timeline Twitter et celle de Facebook. J’ai par exemple fait le choix personnel de priviligier celle de Twitter du fait de son caractère asymétrique (les gens que je suis ne sont pas ceux qui me suivent) alors que Facebook est symétrique entre suivis et suiveurs qui sont des “amis”, une notion qui n’existe pas dans Twitter. Ce qui fait que le bruit dans Facebook est à la fois plus fort et moins pertinent que celui qui provient de Twitter. Mais si je suivais autant de gens qui me suivent dans Twitter, il en serait autrement.

Répondre à ce commentaire

Commentaire 1077 dans Le speed-dating de jeunes entrepreneurs au Mash-Up, le 22 juillet 2011

Pas surpris de voir que cela bouillonne un peu partout en France. Et d’ailleurs, le phénomène de fragmentation dans le supérieur qui est manifeste en Ile de France semble moins affecter les autres grandes villes universitaires. Le campus de Grenoble est un bon exemple, même si il est à forte dominante scientifique (je l’ai visité il y a 7 ou 8 ans donc ne le connais pas assez bien).

Répondre à ce commentaire

Commentaire 1076 dans Peut-on se passer des aides publiques dans l’innovation ?, le 21 juillet 2011

J’ajouterai à ma petite liste :

– Quels besoins spécifiques de financements la puissance publique couvre-t-elle ? Le démarrage, l’amorçage, le développement, la croissance internationale ? Aujourd’hui, ce n’est pas bien clair. L’Etat a tendance à être un peu partout.

– Lorsque la puissance publique intervient dans le financement de l’innovation, se positionne-t-elle sur des “gaps” structurels ou conjoncturels ? C’est-à-dire : pour combler des manques de financement durables liés à l’organisation des marchés financiers et à la régulation prudentielle qui évolue pour les banques et assurances, ou bien sur des lacunes sporadiques liées à la crise Lehmann.

– Comment les aides de l’Etat peuvent aider les entreprises à croître pour atteindre la taille critique. Cela concerne notamment les interventions au niveau des ETI (entreprises de taille intermédiaire). Comment se développer à l’international ? Comment devenir multi-national ?

– Comment l’état peut-il simplifier la vie des entreprises innovantes (moins de bureaucratie, de charges, etc) sachant qu’elles ne peuvent pas pour autant s’exonérer du financement de la protection sociale.

Je prépare un peu en avance de phase une contribution à venir pour la consultation qui va être lancée par Eric Besson pour son plan “France Numérique 2020″…

Avant d’avoir les réponses, il faut surtout se poser les bonnes questions !

Répondre à ce commentaire

Commentaire 1075 dans Peut-on se passer des aides publiques dans l’innovation ?, le 21 juillet 2011

Tout dépend de ce que l’on appelle “aide” ! Est-ce que cela sous-entend uniquement “subvention” ? Ou bien est-ce que cela intègre aussi déductions fiscales et sociales diverses, avances remboursables, prêts voire avantages en nature ?

Ton point est un peu radicalement négatif. La France est le pays au monde qui a le dispositif le plus complet en termes d’aides à l’innovation. Du temps ancien de l’ANVAR, le mix était différent mais beaucoup moins complet. C’est l’équilibre de ce mix qui est largement discutable et qui fait l’objet de ce débat.

Les grandes questions à creuser sont à mon sens :

– Les aides à l’innovation doivent-elles se focaliser ou non sur les startups et PME de croissance ? La France a choisi d’arroser plutôt “large”, notamment via les pôles de compétitivité, le CIR et le grand emprunt. Le jacobinisme est manifeste aussi dans ce domaine et c’est un peu regrettable.

– Les aides doivent-elles être génériques ou spécifiques, par domaines et avec appels à projets (comme dans les pôles et le grand emprunt) ? La balance penche trop vers le spécifique au détriment du générique, notamment avec la baisse de ces dernières années du budget de la branche Innovation d’Oséo et le rognage du statut JEI qui n’a pas été modifié dans la Loi de Finance Rectificative 2011.

– L’Etat a-t-il les compétences et moyens humains pour traiter en long et en large de l’allocation de ces aides ? Doit-il plus s’associer au privé ? Aujourd’hui, il a tendance à se mêler de trop de choses, notamment du fait du point précédent. Par exemple, dans le grand emprunt, il a confié à la CDC le rôle de sélectionner plus de 100 dossiers d’investissement (en equity) par an alors qu’elle n’en a pas les moyens réels. La logique de fonds de fonds est plus efficace.

– L’Etat doit-il encourager les investissements privés dans le startups par un dumping fiscal (TEPA ISF et IR, FCPI), comme le dénonce Nicolas Debock ? Il est regrettable qu’il faille en passer par là pour que le privé investisse dans les startups mais c’est peut-être un moindre mal pour y parvenir. Si ces dispositifs n’existaient pas, l’Etat devrait quasiment gérer lui-même TOUT l’investissement dans l’innovation. Il est déjà impliqué dans au moins la moitié des flux financiers allant vers l’innovation. C’est bien assez !

– Les banques peuvent-elles aider les startups ? La réponse est clairement non. Une banque prête uniquement aux entités solvables et les startups ne le sont pas par nature. Ce n’est pas un problème français. C’est partout pareil, même aux USA.

– La puissance publique peut-elle être un “bon client” innovant qui par sa politique d’investissement pourrait encourager les startups ? C’est une voie souhaitable mais sa structure en mille-feuille et son endettement rend cela difficile.

– Existe-t-il d’autres moyens d’encourager l’innovation ? A mon sens, oui. L’Etat a notamment un rôle à jouer dans l’aménagement du territoire dans l’enseignement supérieur. Comme je le souligne dans de nombreux article comme ce dernier sur le Mash-up, il faudrait rapprocher les disciplines complémentaires de l’innovation, ne serait-ce qu’au niveau des grandes écoles. Un vaste programme, complexe à mettre en oeuvre car les écoles de commerce dépendent en général des organismes consulaires comme les chambres de commerce.

Le sujet de l’aide à l’innovation est complexe. Il faut éviter d’être binaire dans l’analyse. Dans d’autres débats, certains trouvent les business angels nuls et les VCs tout aussi mauvais. En rejetant tout le système, on ne va pas aller loin ! Il faut trouver d’autres équilibres et pour ce faire comprendre les phénomènes de vases communiquants entre tous les dispositifs et aussi la nature humaine, notre culture et notre histoire.

Répondre à ce commentaire

Commentaire 1074 dans Le bruit dans les réseaux sociaux, le 13 juillet 2011

Bonjour David,

Merci pour cette perspective intéressante qui met notamment en évidence le besoin de s’autodiscipliner dans l’usage des réseaux sociaux pour éviter de baigner dans trop de bruit.

Au passage, mon papier présente bien d’autres limites.

Prenons par exemple l’analogie avec la hifi. La plus adéquate serait de décrire comment on découvre de la musique que l’on peut apprécier. Quelle que soit l’époque, que l’on écoute la radio ou que l’on explore des “catalogues”, voire même que l’on écoute les 14 pistes d’un 33 tours ou d’un CD, il y a toujours du “bruit”, au sens, de la musique qui ne nous touche pas, que l’on n’a pas envie d’écouter. Sur un 33 tours et sur la radio, on ne pouvait pas zapper facilement. Aujourd’hui, on le fait bien plus rapidement, donc on évacue plus efficacement le bruit. En écoutant la radio (privée), on subissait aussi le “bruit” de la publicité. Autre remarque générationnelle : la musique dite “populaire” a toujours ressemblé à du “bruit” pour les parents. C’était vrai quand j’écoutais du hard rock comme ado dans les années 70 et c’est vrai aujourd’hui pour ce qui est à la mode aujourd’hui chez les djeunes.

Autre exemple : la consommation de la TV. Maintenant que l’on peut profiter de fonctions d’enregistrement (PVR), on peut à la fois zapper la pub (ce qui en gêne certains) et surtout zapper ce qui n’est pas intéressant dans un programme. J’aime bien l’émission Taratata, mais je zappe généralement tout le blabla pour n’écouter que la musique qui m’intéresse. J’évacue donc le bruit. Je ne consomme que ce qui m’intéresse, et principalement en mode délinéarisé. On peut dire que j’ai pu évacuer 90% du “bruit” de la TV grâce à cela. Malheureusement, l’usage de PVR n’est pas généralisé en France pour un tas de raisons que l’on ne va pas traiter ici. Ses substituts que sont la catch-up et la VOD s’en approchent fonctionnellement. Mais la catchup permet moins facilement de zapper la pub.

Dans la musique comme dans la TV, on voit donc plutôt un progrès permettant de limiter le “bruit”, c’est-à-dire le signal inutile.

Dans les réseaux sociaux, on en est encore à la phase de découverte et pas encore à celle de la régulation du flux par l’utilisateur avec les bons outils. On subit aussi un bruit “by design” dans certains sites. Facebook est d’un point de vue ergonomique un site très bruité. En effet, la page de base est assez lourde. Il y a de la publicité sur le côté et des sollicitations en tout genre.

Je dois admettre que j’ai aussi forcé le trait dans mon propos. Ma timeline Twitter est raisonnable (150 personnes suivies) et s’il y a du bruit dedans, le pourcentage n’est pas si élevé que cela. Dans Facebook, c’est un peu différent car ma timeline est construite différemment. Dans Twitter, il y a les gens que j’ai décidé de suivre pour les mêmes raisons que toi. Dans Facebook, il y a les “amis” que j’ai accepté passivement, qui sont pour un grand nombre des lecteurs de mon blog. Je devrais en fait avoir deux comptes Facebook, un de perso et un de “page du blog”. Mais bon, je suis fainéant. Et quand on est fainéant, on subit plus le bruit ! Comme devant la TV !

Répondre à ce commentaire

Commentaire 1073 dans Le bruit dans les réseaux sociaux, le 10 juillet 2011

Tu mets le doigt sur un point que je n’avais effec­ti­ve­ment pas abordé dans l’article : le bruit est une fonc­tion indis­pen­sable dans un contexte d’exploration. C’est un peu comme lorsque l’on par­ti­cipe à une confé­rence pour “étof­fer son réseau”. On ren­contre un tas de gens qui ne seront pas utiles (à court terme en tout cas) et on tombe par­fois sur une per­sonne qui va nous aider pile poil là où on en a besoin et un peu par hasard. Seuls seuls ceux qui tentent leur chance peuvent gagner comme on dit !

Il est nor­mal dans ces condi­tions que le bruit soit supé­rieur au signal. Il en est ainsi dans les réseaux sociaux. Mais leur fonc­tion­ne­ment et les usages cou­rants que je décris dans l’article ont ten­dance à ren­for­cer la com­po­sante bruit dans l’expérience utilisateur.

Répondre à ce commentaire

Commentaire 1072 dans Le bruit dans les réseaux sociaux, le 9 juillet 2011

Pour ceux des réseaux sociaux dont la publicité n’est pas facturée à la performance, le bruit fait directement partie du modèle économique !

Pour les autres, c’est un outil très efficace pour augmenter la viralité.

Le premier filtrage est probablement situé dans l’allocation de temps que l’on passe dans ces réseaux !

Répondre à ce commentaire

Commentaire 1071 dans Le bruit dans les réseaux sociaux, le 7 juillet 2011

Je pensais aux adolescents, donc en amont de la génération Y en fait, effectivement sans nom bien précis ! Ils ne sont pas encore influencés par le monde professionnel.

Les jeunes qui rentrent dans le monde professionnel ont tendance à “rentrer dans le rang” même s’ils peuvent parfois générer l’adoption d’outils 2.0 dans les entreprises.

Répondre à ce commentaire

Commentaire 1070 dans Le bruit dans les réseaux sociaux, le 6 juillet 2011

Quid du bruit qui provient des “amis” ?

Répondre à ce commentaire

Commentaire 1069 dans Peut-on se passer des aides publiques dans l’innovation ?, le 29 juin 2011

Suis particulièrement d’accord pour ce qui est des Appels à projets, notamment collaboratifs. Ils détournent en effet les startups des clients. Mais les aides plus génériques (avances remboursables, etc) ont un coût “temps” plus acceptable. Et elles ne diluent pas le capital de la startup lorsqu’elle démarre.

Répondre à ce commentaire

Commentaire 1068 dans Lytro va-t-il révolutionner la photographie numérique ?, le 26 juin 2011

Merci pour cette très intéressante perspective qui explique bien pourquoi la course aux pixels n’a pas de sens dans les compacts et les smartphones. Elle valide indirectement le fait que l’appareil de Lytro sera probablement un hybride (capteur réflex sans miroir).

Je découvre Pelican Imaging. C’est encore une startup basée à Mountain View, comme Lytro, et qui a levé $17m (cf http://www.crunchbase.com/company/pelican-imaging). Mais avec une diffusion de la technologie en OEM visiblement.

Le procédé utilisant une matrice de petits capteurs+optiques semble intéressant. Il faut juste espérer que les problèmes de résolution d’optique ne se posent pas à cette échelle ! Sans compter la précision des processus de fabrication. C’est là que le bât peut blesser !

Une autre société à surveiller est Varioptic, française cette fois-ci. Elle a développé une technologie de lentilles fluides programmables (par champs électrique je crois). Cela fait des années qu’ils existent (2002 + $16m de levés en troisième tour, donc probablement au moins $20 au total). Leur technologie semble avoir été intégrée dans des blocs optiques d’origines variées (http://www.varioptic.com/en/partners.html). Mais dans quels smartphones au final ?

Répondre à ce commentaire

Commentaire 1067 dans Peut-on se passer des aides publiques dans l’innovation ?, le 25 juin 2011

Les USA aussi font de l’interventionnisme public : http://www.mercurynews.com/rss/ci_18345765 “Obama announces $500m high-tech manufacturing effort”. Même volonté de réindustrialisation qu’en France. Et aussi à coup de subventions diverses. En quoi sont-elles différentes de ce que l’on a en France ? C’est une question…

Répondre à ce commentaire

Commentaire 1066 dans Lytro va-t-il révolutionner la photographie numérique ?, le 25 juin 2011

Ne crachons pas sur la soupe. Cf le débat du post précédent qui n’est pas terminé d’ailleurs !

La France est à l’image du reste de l’Europe. Je pense que la faiblesse de nos investissements est le résultat direct de la fragmentation du marché européen. Petits marchés locaux => petits marchés pour démarrer => démarrage plus lent => succès plus difficiles + concurrents US qui vont plus vite => plus dur de se faire financer => pas de réamorçage de la pompe privée du financement par les succès. Seconde raison clé : la culture du risque et un manque d’ambition, conséquence de notre géographie. Les anglais sont une exception en Europe et se portent mieux. Probablement parce qu’ils parlent anglais et sont proches culturellement des USA où ils s’implantent plus facilement et plus directement.

Le bazar de nos financements publics est un palliatif aux insuffisances du secteur privé, lui-même lié à ce que je viens d’écrire. Pour en sortir, il faut réamorcer la pompe des succès et encourager plus nos startups à s’ouvrir sur le monde.

Répondre à ce commentaire

Commentaire 1065 dans Lytro va-t-il révolutionner la photographie numérique ?, le 25 juin 2011

Ce genre de technologie ne va pas corriger l’un des principaux écueils des photographes amateurs (même équipés de réflexes) : la composition et le cadrage ! Il reste à créer un logiciel intelligent embarqué qui alerterait le photographe des erreurs en cours : visage au centre au lieu d’être en haut de la photo, pas assez de marges, marges pas équilibrées, règles des tiers pas respectée, jambes coupées au mauvais endroit, etc.

Pour ce qui est de la photographie professionnelle, notamment pour de la mode ou des portraits, on a encore besoin de vrais photographes, même si leur métier est de plus en plus difficile. Il ne faut pas négliger un point TRES important : la relation entre le photographe et les personnes photographiées. Cela va de la mise en confiance aux conseils pour la pose, si ce n’est vers une notion de “direction artistique”.

Pour la techno Lytro, il me semble qu’elle permet de reconstituer une vue avec profondeur de champ maximale rendant presque tous les plans nets dans l’image. Cela traînait quelque part dans les exemples fournis.

Répondre à ce commentaire

Commentaire 1064 dans Lytro va-t-il révolutionner la photographie numérique ?, le 24 juin 2011

Il ne me semble pas que le principe de Lytro permette d’améliorer la dynamique des capteurs et donc de se passer de prendre plusieurs photos de suite pour générer une image à haute dynamique (HDR). Pour faire du HDR en une prise, il faudrait améliorer les capteurs et notamment leur capacité à distinguer encore mieux les nuances de hautes et basses lumières. C’est un problème de photonique et de semi-conducteurs.

Pour ce qui est du marché du post-traitement, la transformation est déjà bien en cours, même si les personnes sont souvent les mêmes au début et à la fin du process. Chez les utilisateurs de réflexes, les manipulations des photos à partir du format RAW apportent une énorme souplesse que l’on n’a pas au moment de la prise de vue. Sans compter le travail des photographes de mode qui passent des heures à retoucher les photos des top-models. Même si celui qui fait les retouches n’est pas forcément celui qui a pris les clichés.

A l’autre extrémité du spectre des utilisateurs, les applications mobiles comme Instagram et compagnie permettent de rajouter des fioritures autour de ses photos avant de les envoyer dans les réseaux sociaux.

La transformation du marché ne serait pas si radicale que cela. L’innovation évite des manipulations irréversibles lors de la prise de vue et apporte plus de souplesse dans l’usage des photos prises. C’est une évolution dans la lignée de l’apparition du format RAW avec les capteurs réflex qui a permis de corriger la luminosité des photos, ou la luminosité dans les hautes ou basses lumières, alors que le JPEG ne le permettait pas aussi bien car il détruisait des informations utiles dans les photos au moment de la compression (du 12/14 bits au 8 bits pour le nombre de couleurs différentes gérées par pixel et couleur primaire). Avec le plénoptique, au lieu de perdre une information captée (du fait de la compression JPEG), on en ajoute (la lumière incidente).

Répondre à ce commentaire

Commentaire 1063 dans Lytro va-t-il révolutionner la photographie numérique ?, le 24 juin 2011

Espérons pour eux que leur succès ne sera pas empêché par une erreur de positionnement ! Attendons la fin de l’année pour voir et juger sur pièces ! Je n’ai fait ici qu’essayer de comprendre le contenu de la thèse du créateur de la startup. La thèse datant de 2006, il n’est pas impossible que depuis, ils aient réalisé des progrès significatifs qui ne sont pas encore documentés, et/ou sont dans des brevets en cours de dépôt.

Répondre à ce commentaire

Commentaire 1062 dans Peut-on se passer des aides publiques dans l’innovation ?, le 23 juin 2011

Hello Fred !

Petite nuance sur la nature des aides publiques : la majorité d’entre elles sont des prêts à taux zéro et/ou des prêts couverts (pour les prêteurs, pas pour les emprunteurs) par Oséo Garantie. Les aides sous forme de subvention sont plus rares, et représentent moins du quart ou du cinquième de l’argent public injecté dans les startups il me semble.

Ton point sur le maintient des vieilles industries en déclin est valable pour certaines actions de l’Etat, mais quelque peu hors propos ici puisque l’on y parle surtout des aides aux startups. A priori, il ne s’agit donc pas de “vieilles industries”.

Ces vieilles industries sont peut-être concernées dans les pôles de compétitivité, et encore, cela se discute selon les pôles. Il y a peut-être aussi des “losers” dans des industries high-tech. Suivez mon regard…

L’aberration que tu évoques me semble en tout cas se renforcer dans le cadre du grand emprunt. L’Etat va y jouer le rôle “d’investisseur avisé” (en equity) en concurrence frontale avec les VCs. Comme ce fut déjà le cas avec le FSI dans le cas de DailyMotion où l’investissement y a été réalisé CONTRE des VCs qui proposaient une valorisation plus faible !

Dans le cas des aides qui interviennent très en amont du cycle de vie des startups, la distorsion de marché est moindre car elles entrent vaguement en concurrence avec les business angels. Comme elles financent souvent de la R&D en amont des produits, elles se situent dans une zone de risque très fort là où les investisseurs privés sont extrêmement frileux.

Pour terminer, je suis 100% d’accord avec le point de ton article et trouve plus justes et pratiques les aides génériques, notamment de nature fiscale, plutôt que les aides spécifiques où l’Etat fait du “cherry picking” des projets en fonction de critères variés parfois discutables. Le pire pour moi sont ces projets collaboratifs qui génèrent une énorme perte de temps pour les startups. Pour reprendre le contre-point de Nicolas Colin sur le sujet, je pense qu’une collaboration “près du marché” ferait plus de bien aux startups que ces collaborations “en amont du marché” (dans la R&D). Mais l’Etat n’a rien à y faire, sauf à éventuellement être un “bon client”.

Répondre à ce commentaire

Commentaire 1061 dans Peut-on se passer des aides publiques dans l’innovation ?, le 23 juin 2011

Je souscris au constat d’un manque de culture économique et entrepreneuriale, si ce n’est pas marketing ou des basiques de la communication. On manque d’argent, mais on manque aussi beaucoup de compétences partagées dans ces domaines.

On peut noter le progrès lié à la création des Filières Entrepreneurs de certaines grandes écoles, mais ces cursus manquent encore de “charpente”.

Le Guide des Startups est téléchargé environ 8000 fois par édition (deux par an) ce qui est pas mal en tout cas !

Répondre à ce commentaire

Commentaire 1060 dans Peut-on se passer des aides publiques dans l’innovation ?, le 22 juin 2011

Quelques commentaires sur tes points :

1 – La puissance publique juge que les financements publics servent à abonder les financements privés. C’est une manière de “rendre la parole aux marchés”. Pour les anti-Etat, c’est un moyen de ne pas trop fonctionnariser les aides. Pour d’autres, cela oblige à passer par des investisseurs privés qui auraient une vision moins long terme que l’Etat (ou les collectivités locales). L’extension des aides au delà de la R&D semble contrainte par la réglementation européenne. Tu connais bien le sujet. Est-ce vraiment le cas ou une excuse pour ne par en faire ?

2 – Il y a surtout une différence dans la notion d’expérimentation. Pour l’Etat, l’expérimentation relève de l’amont (R&D) avec un risque scientifique. Pour la startup (en tout cas dans le numérique et surtout le logiciel et l’Internet), l’expérimentation relève plutôt de la confrontation au marché. Elle est plus “sociale” que “technologique” même s’il faut un bon produit et maîtriser la technologie pour réussir.

3 – D’accord sur le besoin d’avoir des aides plutôt génériques, plutôt que de passer par des fonctionnaires (ou des consultants bossant pour eux). Même si par ailleurs, les entrepreneurs se plaignent AUSSI des investisseurs privés lorsqu’ils ne “comprennent” pas leur projet.

A mon sens, le débat sur le JEI et le CIR n’est pas celui que tu cites. Il porte sur l’évolution à la baisse de ces dispositifs pour les startups, pas sur les modalités pratiques d’obtention. Ces dispositifs n’étaient pas si lourds que cela à appliquer et étaient assez indifférentiés. Les critères pour les obtenir étaient génériques, même si dans le cas du CIR il y a un risque de redressement (alors qu’ils est très faible dans le cas du JEI). Ce sont les aides liées aux appels à projets thématiques et aux projets collaboratifs qui sont une plaie (dans les pôles de compétitivité et le grand emprunt).

Ce qu’il serait intéressant de “pondre” avec cette discussion consisterait en deux types de propositions :
– Des principes généraux sur les domaines où l’intervention de l’Etat a un sens pour accompagner les startups et l’innovation.
– Sur les modalités pratiques associées, avec évolution par rapport à ce qui existe.

Répondre à ce commentaire

Commentaire 1059 dans Peut-on se passer des aides publiques dans l’innovation ?, le 22 juin 2011

Petite précision sur tes points 2) et 3): le biais R&D et techno dans les aides est à la fois lié à la structure de l’Etat (les élites des Grands Corps) mais aussi à la réglementation européenne. Elle ne permet ces aides que lorsqu’elles sont censées corriger une défaillance de marché. En l’occurrence, comme il y a faiblesse structurelle dans la R&D, les aides associées sont autorisées. Les aides à connotation business et marketing ne le sont pas, même s’il existe des voies détournées pour y parvenir.

Parfaitement d’accord sur le 1 et sur le 4, qui me rend pas exemple très dubitatif si ce n’est pire des aides du type “projets collaboratifs” (dans les pôles de compétitivité, les appels à projet, le Grand Emprunt). Je trouve que les aides plus génériques (type indirectes sur l’investissement TEPA-ISF) ou Oséo Innovation – JEI – CIR, sont bien moins piégeantes pour les entrepreneurs.

Les “mentalités des investisseurs” sont un sacré sujet. Il faut distinguer les business angels des VCs. Les premiers se sont développés depuis 2008 et de surcroît avec les fonds d’investisseurs type Kima/Jaina/ISAI. Les seconds sont trop souvent “frileux” car une grande part d’entre eux sont des émanations de banques et d’assurances. Et rares sont leurs General Partners qui sont des entrepreneurs ayant réussi (ou pas, d’ailleurs). A contratio, les grands fonds de la Silicon Valley ont été fondés à l’origine par les créateurs des grandes boites de “silicium” (Intel, Fairchild, etc). J’ai rencontré Pierre Lamond à Palo Alto en avril dernier. C’est un français cofondateur de National Semiconductor et maintenant VC chez Khosla Venture après être passé chez Sequoia. Un bon exemple de parcours que l’on trouve rarement chez nos VCs !

Répondre à ce commentaire

Commentaire 1058 dans Peut-on se passer des aides publiques dans l’innovation ?, le 22 juin 2011

Je reprends ton point sur “Dans la Sili­con Val­ley, point d’aide. Mais en echange, les mon­tants leves aupres d’angels ou VCs sont plus eleves.”.

Ce n’est pas un “échange”. C’est une “situation”. Il y a 20 à 30 fois plus d’argent privé dans le financement des startups aux USA qu’en France, et la Silicon Valley en consomme environ 40%. Il y a aussi de l’argent public dans l’innovation aux USA, mais pas dans les startups btoc. Plutôt dans les projets liés au complexe militaro-industriel, et autour notamment de la DARPA et de la NSA. Il y a les SBIC (fonds d’amorçage privés qui bénéficient d’exonérations fiscales à la sortie), mais j’ai l’impression qu’ils ne jouent pas un grand rôle dans le financement des startups de la Silicon Valley.

Nous avons un phénomène de vase communiquant non vertueux en France qu’il faut cependant effectivement inverser : la faiblesse du financement privé génère un interventionnisme public par compensation. J’en avais évalué le poids en 2009.

D’où les remarques sur le besoin de dynamiser l’investissement privé. La loi TEPA-ISF a eu cet effet depuis 2008 et a surtout impacté le financement d’amorçage (business angels) et dans une moindre mesure, atténué l’impact de la crise sur les FCPI. Mais les VCs ont de plus en plus de mal à lever des fonds en ce moment. A la fois parce que pèsent sur eux des règles prudentielles qui deviennent démentes (Bâle 2,3, Solvency 2, etc) et aussi par ce que leur performance passée en font des classes d’actifs pas intéressantes, moins rentables en moyenne que les livrets A !

L’Etat me semble jouer son rôle lorsqu’il réinjecte des fonds chez les VCs via la CDC. Il en sort lorsqu’il se met à rentrer dans la gouvernance de l’investissement via les appels à projets en tout genre du Grand Emprunt. Sauf s’il prend un peu plus de risque que les supposés “frileux” VCs. Ce qui reste à voir et nous n’avons pas encore suffisamment de recul pour juger.

Donc, comment sortir du “yakafaucon” pour dynamiser l’investissement privé et éviter ce phénomène de vases communicants ?

Répondre à ce commentaire

Commentaire 1057 dans Mon second #web2day à Nantes, le 20 juin 2011

Aussi signalé par Simon, et déjà corrigé.

Au passage, c’est toujours la galère pour trouver les noms des gens qui pitchent dans ce genre de conférence ! Avis aux organisateurs : publiez la liste des intervenants avant, pendant ou après les pitches pour que l’on s’y retrouve et que les bloggeurs évident ce genre d’erreurs déplaisantes pour les intéressés et aussi pour l’auteur !

Je suis allé sur societe.com pour certains… mais en me trompant parfois !

Répondre à ce commentaire

Commentaire 1056 dans Mon second #web2day à Nantes, le 20 juin 2011

Il est où le Florent Gosselin dans les photos ?
Corrigé pour Tuttivox et pour nombre de participants.

Répondre à ce commentaire

Commentaire 1055 dans Quelques dessous du e-G8, le 19 juin 2011

Pas sûr que cela en était un des objectifs…

Pour ce qui est des propositions de Frédéric Le Parc de Smartdate, elles me semblent pour une part un peu fantaisistes.

1 – Un statut de la start-up : il existe déjà avec toutes les aides disponibles et le JEI, même raboté. Et puis, les start-ups n’ont pas de statut aux USA… La proposition me semble curieuse car elle se focalise uniquement sur les startups 100% web. Mais monsieur, il y a des startups dans d’autres domaines : dans le numérique “non web”, dans le hardware, les composants, dans la santé, dans les greentechs ! L’innovation ne se résume pas au web !

2 – Des pactes d’actionnaires standardisés créés par des fonctionnaires. Cela me laisse bien songeur. Cela devrait plutôt relever d’associations comme France Angels et l’AFIC, complétées d’associations d’entrepreneurs de startups.

5 – Pas de charges sociales pour les startups. Pourquoi ce privilège par rapport aux autres entreprises, notamment aux 3 millions de TPE et PME en France ? Faire payer la protection sociale des jeunes des startups – eux-mêmes financés par le capital risque lui-même bénéficiant de plein d’exonérations fiscales – par les autres est-il juste socialement ? Il faut bien la payer notre couverture sociale ! C’est un des problèmes les plus épineux pour les salariés aux USA. Le coût de la santé y est prohibitif, sans compter celui de l’éducation !

6 – Dans les faits, la flexibilité du travail existe déjà dans les start-ups. Flexibilité en échange de stock-options ? Je ne vois pas un gouvernement de droite et à fortiori de gauche inscrivant cela dans la loi ! Ce d’autant plus qu’en France et dans les startups, les SO sont une monnaie de singe compte-tenu des sorties moyennes.

7 – Accès aux capitaux par défiscalisation des plus-values. Mais elles le sont déjà dans pas mal de cas ! Autant pour les créateurs que pour les fonds d’investissement via FCPI et FCPR ! Par contre, étendre la loi TEPA à l’IR devrait être effectivement à l’ordre du jour, surtout si l’ISF disparaissait progressivement. Mais avec quel % de déduction ? 25% comme pour la part IR du FCPI ? Ou plus ?

8 – Assurer l’investissement ! Mesure bien contradictoire. Enlever le risque là où il y a du risque pour que les gens prennent des risques ? Dans quel pays cela existe-t-il et génère un effet positif ? Et nous avons déjà Oséo Garantie qui protège les VCs en couvrant 70% des fonds investis dans les FCPI ! Et le risque est aussi diminué via les déductions fiscales types TEPA pour les investisseurs privés eux-mêmes !

Je retiens surtout la proposition 3 même si je la formulerai différemment. Développer la culture startup ne se résume pas à mettre du web partout dans l’enseignement supérieur. Elle demande surtout de rapprocher géographiquement différents cursus : scientifiques, technologiques, design, marketing, vente, sciences humaines. Il est regrettable que cela ne soit pas le cas sur le campus de Saclay, l’un des plus grands chantiers de ce gouvernement en matière de “plan campus”.

Répondre à ce commentaire

Commentaire 1054 dans Assises de l’AFDESI sur les TV connectées, le 19 juin 2011

Merci, corrigé pour Christophe Coquerel.

Répondre à ce commentaire

Commentaire 1053 dans Assises de l’AFDESI sur les TV connectées, le 16 juin 2011

Merci de me l’avoir signalé, c’est corrigé!

Répondre à ce commentaire

Commentaire 1052 dans Les moyens techniques de France Télévision à Roland Garros, le 13 juin 2011

Difficile de chiffrer cela. Pas sûr même que la compta analytique de France Télévision soit capable de le faire…

Pour les ouvertures d’objectif, je ne connais pas de modèle chez Canon qui ouvre à 1.5. En tout cas, 2.8 suffit largement pour le tennis. Surtout dans la mesure où c’est un sport de plein air, donc avec une bonne lumière. Une ouverture à 2.8 est surtout utile pour photographier en intérieur. Pour le basket ou le patin à glace par exemple.

Répondre à ce commentaire

Commentaire 1051 dans Les moyens techniques de France Télévision à Roland Garros, le 2 juin 2011

Je n’ai rien vu de spécifiquement impressionnant au delà de la quantité de moyens techniques et humains mis en place pour ces retransmissions. Les caméras aériennes me fascinent un peu. J’imagine ce que cela pourrait donner si on mettait dedans un appareil photo réflex à la place d’une caméra vidéo…

Répondre à ce commentaire

Commentaire 1050 dans Le lancement de HbbTV en France, le 31 mai 2011

Petites nuances sur votre commentaire :

HbbTV permet de faire plein de choses, dont de la catch-up mais les chaines n’en feront pas dans un premier temps car elles ont vendu ce service aux FAI. Si elles le font par elles-mêmes via HbbTV, elles vont perdre une source de revenus pas forcément facile à remplacer.

HbbTV permet de créer des services de VoD, et là encore, l’équilibre des relations avec les FAI est en question. HbbTV n’a pas réglé la question des moyens de paiement sur une TV connectée. Il semble qu’aujourd’hui, aucune solution viable de paiement n’existe sur TV connectée, avec ou sans HbbTV (source: une grande chaine TV). La solution des FAI avec leur billing est pour l’instant la moins mauvaise.

Les FAI ne proposent pas encore d’expérience utilisateur intégrée aux programmes pour la simple raison que les chaines n’en avaient pas encore créé et que celles-ci ont des accords très précis avec les FAI les empêchant “d’habiller” leur signal. Les chaines ne sont pas prêtes de lâcher le morceau là dessus et tiennent à être les seules à habiller le signal de leurs émissions avec du contenu associé. Elles sont de ce point de vue là soutenues par le CSA.

Oui, HbbTV pourra tourner sur tout device connecté. Mais le fonctionnement en mode dégradé et non connecté utilisant les informations downloadées via le canal broadcast ne sera possible que sur les devices dotés d’un tuner DVB (sat, câble ou TNT). Le reste n’est effectivement qu’une question de logiciel et de liaison Internet.

Google TV et Apple TV ont plusieurs possibilités pour enrichir leur offre : supporter des tuners TV et aussi ce qui va avec, à savoir un vrai guide de programme, ou bien ajouter à leur offre de contenus des chaines TV streamées via Internet. Le premier cas est difficile à gérer techniquement et il y a beaucoup de variantes de standards selon les pays. Les grands américains n’aiment pas trop gérer ces variantes. De plus, gérer des tuners créé des instabilités logicielles, des problèmes de drivers, de mise en veille, etc. Pour ce qui est de chaines TV streamées, il faudrait que celles-ci soient d’accord ce qui est plutôt mal barré. Apple TV et Google TV streameront s’il le font un jour des chaines TV qui ne sont pas les grandes chaines des pays. Et on retombera dans le problème de Joost…

L’univers de la TV est complexe car il n’est pas conditionné que par la technique. L’univers de l’Internet ou des PC est bien plus ouvert et ne subit pas toutes ces contraintes. La TV est contrainte par la réglementation, les accords commerciaux, le financement des contenus, la chronologie des médias, etc. Et c’est un business très “local”.

L’enjeu industriel critique est de glisser progressivement vers une défragmentation du marché des TV connectées sans trop déstabiliser le jeu et le revenu des acteurs en présence. Qui peut provoquer cette défragmentation ? On a d’un côté Google TV, seule plateforme horizontale, Apple ne fournissant pas sa solution logicielle à des constructeurs tiers. Elle commence à être adoptée par les constructeurs de TV, mais les chaines de TV résistent, et Google TV est une solution très partielle aux besoins des consommateurs. HbbTV est une alternative, encore en devenir, qui pourrait servir de barrage à Google TV. Il manque plein de choses pour que cela tienne la route, notamment une standardisation du packaging des applications, de la présentation d’un portail applicatif, et aussi un moyen de paiement. Et les expériences passées de standardisation dans la TV ont été décevantes (MHP, OIPF, etc).

Bref, aucune solution n’est parfaite à ce jour et pour reprendre la conclusion de mon article : les jeux sont encore ouverts.

Répondre à ce commentaire

Commentaire 1049 dans Le lancement de HbbTV en France, le 30 mai 2011

Histoire d’être précis, c’est une spécification de box avec hard et soft, et un support de TV de rattrapage de 7 jours (320 Go minimum dans les specs) mais les sources seront multiples. La box ne reçoit la TV broadcast que via la TNT. Au Royaume Uni, le satellite est l’apanage de bSkyB (et ses chaines premium payantes), qui est hors de l’initiative YouView, propulsée uniquement par les chaines gratuites anglaises (BBC, iTV, Channel 4 & 5).

Les specs de YouView sont ici : http://www.youview.com/industry/wp-content/themes/youview/_site_media/resources/YouView_Core_Technical_Specification_1.0.pdf

Répondre à ce commentaire

Commentaire 1048 dans Quelques dessous du e-G8, le 30 mai 2011

S’il n’y avait que deux ou trois facteurs, cela serait trop simple. La situation d’un pays est le fruit de son histoire, de sa culture et de son système de valeur, de son système éducatif, du fonctionnement de ses élites et parfois de ses religions. Ainsi, pour certains, le problème remonte à la révocation de l’Edit de Nantes qui a fait fuir les protestants de France un peu avant les premières révolutions industrielles et le développement du commerce international. Après, tous les pays européens sont handicapés par la fragmentation des marchés de l’Union et doivent prendre le large (USA, Asie) pour atteindre la taille critique.

La France n’est pas en retard sur tout, il ne faut pas pousser non plus ! Nous avons des industries qui exportent et innovent bien et ou se portent bien à l’international (aérospatial, agroalimentaire, retail, luxe, hôtellerie / tourisme) et d’autres plutôt mal (machine outil, numérique).

Dans le numérique, on est tout de même présent à l’échelle internationale dans les jeux, les métiers de l’image (ne serait-ce qu’avec Technicolor) et aussi dans la CAO (avec le leader mondial, Dassault Systèmes). On a tout de même une industrie des composants (qui va du CEA LETI à SOITEC et STMicroelectronics et un paquet de startups autour, évidemment moins connues que celles du web). Et même si on jase beaucoup sur France Telecom, l’opérateur historique se porte mieux que ses homologues britanniques et allemands.

Il est vrai cependant que la France n’a pas fait suffisamment confiance à l’innovation “par la base” et s’est trop appuyée sur ses grandes entreprises et sur la puissance publique. On subit encore l’héritage des projets gaullo-pompidoliens qui ont durablement structuré notre industrie du numérique avec ses grands projets et ses grandes SSII. Ce n’est pas par hasard si le premier pôle de compétitivité en termes de financement est le pôle des “systèmes complexes”. Deux mots qui veulent tout dire sur notre positionnement marketing dans le monde ! Heureusement, on trouve derrière Cap Digital, plus positionné dans les usages grand public et les médias, qui rejoint une force relative de nos industries du numérique.

Répondre à ce commentaire

Commentaire 1047 dans Quelques dessous du e-G8, le 27 mai 2011

Oui, c’est peut-être une caricature.

Mais regardons les chiffres de plus près : chez News Corp, les bouquins, la presse écrite et divers services de contenus comme Dow Jones représentaient moins de 23% de leur CA consolidé en 2010. Tout ce qui est lié aux contenus cinéma et TV et à leur diffusion (satellite) représente 69%. Le reste comprend la participation dans diverses activités dont l’éditeur de logiciel NDS.

Cf http://www.newscorp.com/investor/annual_reports.html.

Ma phrase n’est donc pas inexacte d’un point de vue chiffré !

Répondre à ce commentaire

Commentaire 1046 dans Quelques dessous du e-G8, le 27 mai 2011

Désolé de ne pas reconnaître tous les grands de ce monde de l’Internet. Heureusement que certains ajoutent en commentaires les noms sur les photos dans Darqroom… 🙂

Pour le lieu de l’ICANN, les USA ne sont pas un mauvais endroit. C’est la tutelle du DoC qui créé un certain doute !

Répondre à ce commentaire

Commentaire 1045 dans Quelques dessous du e-G8, le 27 mai 2011

Au passage, je trouve que l’on y va un peu fort sur le retard de “la France” sur Internet. Ce n’est pas parce qu’une partie de sa classe de dirigeante est en retard et qu’elle fait voter des lois rétrogrades comme HADOPI ou LOPSSI 2 que le pays est en retard sur Internet. On a une bonne pénétration des usages dans le grand public tout comme de l’ADSL, le premier marché de l’IPTV, pas si mal placés dans l’administration électronique, le second marché des startups et du capital risque en Europe, etc. On est par contre en retard dans le commerce en ligne au niveau des PME. Bref, la situation est contrastée…

Répondre à ce commentaire

Commentaire 1044 dans Quelques dessous du e-G8, le 27 mai 2011

Est-ce que cela valait le coup d’y être. Oui pour les gens à y rencontrer, moins que pour les débats. Cela manquait de “TED Moments” comme on en trouve à LeWeb.

Répondre à ce commentaire

Commentaire 1043 dans Quelques dessous du e-G8, le 27 mai 2011

Merci pour le commentaire.

Mais je ne comprends pas le “certaines photos ne sont pas anonymes”. Cela veut dire quoi exactement ?

Sinon, quel est le rôle exact du Department of Commerce US vis-à-vis de l’ICANN?

Répondre à ce commentaire

Commentaire 1042 dans Les annonces de Google I/O, le 22 mai 2011

Ca dépend de la manière dont l’OS est construit et de sa modularité. L’essentiel peut être commun pour les différents écrans couverts par Android. Les processeurs sont de puissance et caractéristiques voisines entre smartphones, tablettes, netbooks et TV connectées. Et on est dans une logique “client”, pas Client+Serveur comme avec Windows 7 qui partage pas mal de code avec Windows Server.

La grosse différence est liée à l’interface utilisateur, mais celle-ci représente généralement une petite partie du code d’un OS. Les spécificités du matériel relèvent ensuite de drivers, classiques dans un OS.

Ce qui sera intéressant de voir est l’approche modulaire de Google TV et d’Android 3.1 pour comprendre les modules spécifiques au premier au dessus du second…

Répondre à ce commentaire

Commentaire 1041 dans Quelques belles startups du cinéma numérique, le 19 mai 2011

Oui, en effet, pas de commentaires et merci d’être le premier à réagir ! L’article a tout de même été consulté 2800 fois ce qui est pas mal pour un secteur un peu obscur… pour les salles obscures. Les acteurs de ce secteur ont peut-être aussi moins l’habitude d’intervenir dans les “médias sociaux”.

Le secteur des jeux vidéo est quant à lui bien plus connu et plus médiatisé !

Répondre à ce commentaire

Commentaire 1040 dans Les annonces de Google I/O, le 16 mai 2011

Cette stratégie de double OS complique la vie inutilement en effet. Android devrait être le seul OS de Google, avec des déclinaisons diverses. Ils le font bien converger sur les smartphones, tablettes et TV connectées, alors pourquoi pas sur les netbooks ?

Chrome OS devrait n’être qu’une version d’Android pour netbooks, avec une interface basée sur Chrome, voire un vrai bureau. La vision d’une interface de “bureau” basée uniquement sur un navigateur avec ses tabs me semble limitante. Il devrait au moins y avoir une métaphore applicative et une autre pour naviguer dans ses données.

Le pourquoi des deux OS reste à éclaircir. Il y a peut-être une simple bataille d’égos dans les équipes de Google et une direction qui n’arrive pas à trancher. Dès fois, c’est aussi simple que cela !

Répondre à ce commentaire

Commentaire 1039 dans Les infrastructures techniques de M6 – 3/3, le 15 mai 2011

J’ai prévu d’y faire un tour !

Répondre à ce commentaire

Commentaire 1038 dans Une autre américaine à Paris dans les startups, le 10 mai 2011

On parle bien d’innovations de rupture. Même si elles sont assez rares dans les faits…

Répondre à ce commentaire

Commentaire 1037 dans Une autre américaine à Paris dans les startups, le 10 mai 2011

Oops, corrigé…

Répondre à ce commentaire

Commentaire 1036 dans Retour en Silicon Valley (7/7) et nous et nous ?, le 7 mai 2011

Non, pas d’échanges de liens sur ce site.

Répondre à ce commentaire

Commentaire 1035 dans Retour en Silicon Valley (7/7) et nous et nous ?, le 5 mai 2011

C’est une impression ! Car la puissance publique est omniprésente dans le financement de l’innovation et en représente une très grande part, par des moyens divers (aides et subventions, prêts, avantages fiscaux divers, financement des FCPI via la CDC). Cf http://www.oezratty.net/wordpress/2009/financement-public-et-priv-de-linnovation/.

Les banques prennent l’ascendant sur tout ? Dans l’économie en général oui, mais pas dans le financement des startups car le risque, elles ne connaissent pas et connaissent encore moins que les acteurs habituels du financement de l’innovation.

Je n’ai pas encore vu le plan UMP pour la présidentielle. Quand au plan du PS qui a été publié (http://www.parti-socialiste.fr/projet), il créé une séparation nette entre le financement bancaire des PME et le financement de l’innovation. Comme pour revenir à la situation antérieure à 2006 avec la BDPME et Sofaris d’un côté et l’ANVAR de l’autre. Cela pourrait signifier qu’ils ont entendu parler de la bancarisation d’Oséo au détriment de la mission d’Oséo Innovation dont les budgets ont diminué ces deux dernières années.

Que les startups fassent peur à René Ricol, possible, je n’en sais rien et ne le connait pas. J’ai par contre pu observer le lobbying des grandes entreprises auprès de l’Etat qui cherchent à faire croire que l’innovation ne vient pas des startups et que c’est peine perdue de les aider. Avec ça, on est effectivement mal barrés !

L’ambiance Silicon Valley a été effectivement tentée à plusieurs endroits, les trois majeurs étant Sophia Antipolis, Grenoble et Saclay. Du point de vue industriel et du mix universités/recherche/industries/startups/international, c’est probablement Grenoble qui est le plus aboutit. Mais la ville est géographiquement enclavée et le pôle est spécialisé dans les nanotechnologies alors que la SV est multi-disciplinaire ce qui lui permet de mieux s’adapter. Tandis que lorsque STMicroelectronics (un des plus gros employeurs locaux) ne va pas bien, Grenoble tousse fort ! A Sophia-Antipolis, il n’y a pas énormément de startups. Quand à Saclay et le grand plan associé du gouvernement, on s’apprête à en faire un énorme ghetto scientifique qui n’intègre pas ou très peu d’autres disciplines pourtant indispensables à l’innovation : le design, la sociologie, le marketing, le business, le droit, etc. Tout ceci n’est pas une question d’ambiance, mais d’aménagement du territoire et de compréhension des mécanismes non technologiques de l’innovation. Un domaine ou nos élites sont un peu à la ramasse ! Quand à voir les élites gouvernantes et surtout la haute fonction publique instiller une culture du risque, on en est effectivement encore bien loin !

L’Etat ne peut pas être acheteur car les entreprises publiques sont privatisées ? Pourtant, aux USA, il n’y a pas et n’y a quasiment jamais eu d’entreprises publiques comme chez nous. Par contre, le poids des dépenses militaires dans le budget fédéral est énorme et contribue beaucoup à ce rôle d’acheteur. La France a beau être l’un des pays de taille intermédiaire les plus militarisés et doté d’une industrie militaire en propre, ce qu’elle en fait n’a pas l’impact qu’il a aux USA.

L’Etat n’a plus un sous en raison d’une politique massive de défiscalisation des entreprises ? Oui, cela joue un rôle (avec environ 70Md€ au total, sachant qu’il faut faire un peu le tri dedans) mais pas seulement puisque le déficit public est actuellement bien supérieur à ces avantages fiscaux…

Répondre à ce commentaire

Commentaire 1034 dans Retour en Silicon Valley (7/7) et nous et nous ?, le 2 mai 2011

Le budget dépend de l’organisateur et de la formule. Pour une semaine, les formules vont de 3K€ à 5K€ selon le contenu et le niveau de personnalisation du voyage. Après, en format “étudiant”, cela revient moins cher : avion + hôtel + location d’un bus pour les trajets.

Bref, tout dépend de ce que l’on recherche et de qui organise le voyage et dans quel format.

Répondre à ce commentaire

Commentaire 1033 dans Retour en Silicon Valley (7/7) et nous et nous ?, le 1 mai 2011

En effet. Mais les cas que tu décris sont ceux qui ont choisi le salariat, qui est un choix de départ (en apparence) déjà le moins risqué. Donc, tu y trouves des gens qui sont averses naturellement au risque et de plusieurs manières. Tu prends un chouilla de risques en plus en travaillant dans une TPE.

Le fait qu’il y ait plus d’entrepreneurs en herbe est un choix en amont de celui-là.

Statistiquement, il reste cependant marginal. On est peut-être passé en quelques années de 1% à 3% ou 4% des élèves ingénieurs ou d’écoles de commerce. Je serais intéressé de trouver des statistiques sur ce point !

Répondre à ce commentaire

Commentaire 1032 dans Retour en Silicon Valley (6/7) cleantechs, le 30 avril 2011

Voilà pourquoi ils ne le font pas :

– Un VC américain investit pour faire de “gros coups”, c’est-à-dire pour financer des sociétés qui seront valorisées idéalement à plus de $1B. Seules quelques unes y arriveront mais c’est le potentiel de valorisation que doit avoir une startup.
– Pour obtenir ce genre de valo, il faut avoir une présence mondiale ou au moins une présence sur de gros marchés. Le marché français est bien trop petit.
– Il faut donc soit viser les US, soit éventuellement l’Asie.
– Dans le premier cas, il faut avoir un bureau aux USA, et si possible dans la Silicon Valley et de préférence avec un des fondateurs sur place. Dans ce cas, les VC US sont OK pour investir dans la startup “française”, mais qui a une représentation aux USA.

Voilà pourquoi investir dans une startup dont les effectifs sont en France et aucun aux USA n’a pas de sens pour un VC américain !

On pourrait alors dire, pourquoi ne font-ils pas de la veille en France et en Europe pour identifier des startups qui auraient ce potentiel, les cueillir et ensuite les pousser à ouvrir un bureau aux USA ? La réponse est simple : pour eux, le centre de l’innovation c’est chez eux, pas en France. La France est un petit bout de l’Europe qui compte peu pour eux. Et le syndrome du “Not invented here” y est très fort.

Il faut juste faire avec !

Répondre à ce commentaire

Commentaire 1031 dans Retour en Silicon Valley (6/7) cleantechs, le 29 avril 2011

On en a bien vu mais cela existe depuis des années aux USA. Plus de 10 ans il me semble, si ce n’est pas plus !

Répondre à ce commentaire

Commentaire 1030 dans Retour en Silicon Valley (4/7) startups Internet, le 29 avril 2011

Ce n’est pas Freddy qui a mené ces levées de fonds de NetVibes (en deux tours). Il est arrivé après dans la société.

Ceci étant, elle suivait un modèle classique au départ qui est le propre des boites btoc dans le web : levée pour créer une audience puis monétisation. Le problème, c’est que la monétisation n’est pas toujours au rendez-vous. Dans le cas de Netvibes, il y avait plusieurs options qui se tenaient mais les dirigeants n’étaient pas d’accord sur la voie à suivre. Pour un tas de raisons dont celle-ci, deux d’entre eux sont partis (Pierre Chappaz puis Tariq Krim, le fondateur).

Puis, le modèle a évolué vers le btob sous la houlette de Freddy Mini. Un modèle qui est moins consommateur de cash, mais qui “scale” aussi moins, ou tout du moins, beaucoup plus lentement.

Répondre à ce commentaire

Commentaire 1029 dans Retour en Silicon Valley (4/7) startups Internet, le 28 avril 2011

Le web marchand a certainement des côtés agaçants. L’ère actuelle est à la monétisation à outrance. Nombre de projets mobiles sont destinés à nous faire consommer plus. L’Internet est un accessoire bien outillé de la société de l’hyperconsommation !

Par contre, les pubs générées par Criteo ne sont pas des pubs EN PLUS. Elles remplacent des pubs auxquelles on aurait de toutes manières été exposés. Mais sont plus ciblées.

Il faut aussi noter que l’on peut faire un “opt-out” de leur système et donc échapper à toutes les publicités personnalisées qu’ils servent.

Répondre à ce commentaire

Commentaire 1028 dans Retour en Silicon Valley (4/7) startups Internet, le 28 avril 2011

Il y a un peu de ça…
Mais les gens en rigolent déjà dans la SV !
Il faut aussi tenir compte d’une approche différente, plus positive, de la gestion de l’échec aux USA.

Répondre à ce commentaire

Commentaire 1027 dans Retour en Silicon Valley (1/7) grandes tendances, le 28 avril 2011

Le débit pourri de l’Internet dans la SV a au moins un avantage : il permet de concevoir des services en ligne qui fonctionnent bien dans le monde entier. De leur côté, les européens et les français qui ont un débit plus élevé n’en ont pas tant profité que cela d’un point de vue business. Mais il y a plein de raisons à cela qui n’ont rien à voir avec le débit Internet.

Répondre à ce commentaire

Commentaire 1026 dans Retour en Silicon Valley (1/7) grandes tendances, le 27 avril 2011

Je ne sais pas ce qu’il en est de Tariq Krim qui a sûrement du investir comme fondateur dans la boite. Pierre Chappaz qui a été DG de la société a été business angel dans le projet au même moment où Index investissait dedans en amorçage, alors qu’il y travaillait (ce qui n’est pas incompatible). La société a ensuite levé $15m, chez Index et Accel.

Répondre à ce commentaire

Commentaire 1025 dans Retour en Silicon Valley (1/7) grandes tendances, le 27 avril 2011

Quel commentaire péremptoire, et quels raccourcis sans nuances ! Vous êtes visiblement impatients de lire la dernière partie de ce tour d’horizon où je vais faire le point de l’évolution de l’écosystème français par rapport aux best practices de la Silicon Valley (dont il est vrai tout n’est pas à reprendre).

Où est-ce que je milite pour le tout privé ? Vous ne lisez visiblement pas ce blog régulièrement ! S’il y a des formes d’aides publiques qui me semblent mal organisées (comme dans le grand emprunt), d’autres, plus génériques (Oséo, JEI, aides régionales, fonds d’amorçages régionaux) me semblent tout à fait utiles.

C’est une affaire de vases communiquants : le privé est dynamique aux US et il y a plein de grands succès qui réalimentent la pompe du financement de l’innovation. L’Etat fédéral intervient donc moins, tout du moins dans le numérique “civil” et notamment dans le btoc. L’intervention fédérale fonctionne beaucoup en mode projet. L’Etat joue plus un rôle de client (comme pour la DARPA) que de subventionneur, même si les mauvaises langues assimilent l’un à l’autre.

En France, nous manquons de succès, donc de financements privés et la puissance publique comble le trou. Il y a un juste équilibre à trouver qui à mon sens repose sur l’encouragement au développement international de nos pépites pour leur faire atteindre la taille critique. Et à ne pas les qualifier de traîtres s’ils s’installent aux USA pour aborder le plus grand marché mondial, tout du moins si dans le même temps, ils préservent des emplois qualifiés en France. C’est le cas de deux sociétés que je vais décrire dans l’article suivant (Criteo et Netvibes).

Répondre à ce commentaire

Commentaire 1024 dans Retour en Silicon Valley (2/7) la recherche, le 25 avril 2011

J’avais fait le SRI en 2007 !

Répondre à ce commentaire

Commentaire 1023 dans Les tablettes et la création, le 25 avril 2011

Blackberry hors du monde de l’entreprise ? Je n’y crois pas une seconde.

WebOS d’HP ? Pourquoi pas. Mais ce n’est pas un OS adopté par d’autres constructeurs donc je ne vois pas se constituer un écosystème bien dense autour.

Chrome OS ? Android suffit bien dans la panoplie de Google ! Et il faut un OS assez généraliste pour supporter une tablette multifonction.

Répondre à ce commentaire

Commentaire 1022 dans Retour en Silicon Valley (1/7) grandes tendances, le 25 avril 2011

C’est un risque, mais ce n’est pas vraiment le cas :

– Nombre de participants au voyage envisagent de s’installer aux USA d’une manière ou d’une autre.
– Les entrepreneurs du voyage (élèves comme autres) ont eu l’occasion de pitcher leur solution dans différents meetings du voyage.
– Certains vont y faire un stage (pour les élèves).
– D’autres comme moi cherchent à identifier les bonnes pratiques à récupérer chez nous.

Plutôt qu’un voyage de touristes, il vaudrait mieux donc parler d’exploration.

Les voyages organisés type Geek Trip ou Ubifrance permettent de prendre le relais pour rendre les participants encore plus acteurs.

Répondre à ce commentaire

Commentaire 1021 dans Les infrastructures techniques de M6 – 2/3, le 24 avril 2011

OK, corrigé !

Répondre à ce commentaire

Commentaire 1020 dans L’impact économique de l’Internet en France, le 15 avril 2011

Je n’ai pas prévu d’y aller.

Répondre à ce commentaire

Commentaire 1019 dans L’impact économique de l’Internet en France, le 14 avril 2011

En tout cas, Google a de la suite dans les idées.

Ils lancement une initiative de soutien au développement des PME sur Internet, en présence de Frédéric Lefebvre, le 27 avril prochain.

Cf : https://services.google.com/fb/forms/inscription27avril/

Soutien sous quelle forme, cela reste à voir.

Répondre à ce commentaire

Commentaire 1018 dans Les tablettes et la création, le 2 avril 2011

Article intéressant sur une expérimentation d’iPad dans le supérieur : http://www.ebouquin.fr/2011/04/01/reportage-50-ipad-en-test-a-lesc-grenoble. Et qui converge plutôt avec le point de vue de mon article : l’iPad c’est bien, mais cela ne peut pas remplacer l’ordinateur traditionnel pour les tâches de création. Pour l’instant.

Répondre à ce commentaire

Commentaire 1017 dans L’influence des politiques et de l’Etat dans le numérique, le 2 avril 2011

Très urgent, peut-être. Mais la question mériterait d’être plus précise. Pour influencer quoi exactement ? Ce qui se passe dans les PME ou les aides de l’Etat aux PME ? Ou autre ?

Répondre à ce commentaire

Commentaire 1016 dans Les projets des startup weekends, le 1 avril 2011

Merci pour le retour Florian ! Et bonne continuation ! Prochains Startup Weekend pour ce qui me concerne : peut-être un petit tour sur celui de Paris en avril (de retour d’une semaine aux USA) et ensuite, celui de Bordeaux en mai.

Répondre à ce commentaire

Commentaire 1015 dans Les projets des startup weekends, le 31 mars 2011

Le lien est un grand classique du processus d’innovation : les mêmes idées peuvent éclore au même moment à des endroits différents. Certaines aboutiront à des succès et d’autres non selon un tas de paramètres qui ne sont pas liés à l’idée elle-même, mais à la force de l’équipe qui est derrière et à tout ce qui en découle. C’est-à-dire sa capacité à convaincre, à écouter, à s’adapter, à développer son réseau, à faire de la qualité (du produit, de la relation client, etc), et aussi un peu de chance. Le lieu compte aussi. La réussite globale est facilitée dans la Silicon Valley (pour ce qui est de l’Internet) par rapport à un pays Européen, voire à Paris par rapport aux régions. Question de masse critique, notamment de financements et de partenariats possibles. Mais on peut aussi réussir à New York ou à Limoges en s’y prenant bien, si on a une bonne vision globale du marché…

Répondre à ce commentaire

Commentaire 1014 dans La force pédagogique des startup weekends, le 26 mars 2011

Merci du feedback. Le monde est petit. On se recroisera surement quelque part !

Répondre à ce commentaire

Commentaire 1013 dans La force pédagogique des startup weekends, le 24 mars 2011

Précisions très utiles. En effet, je n’avais pas perçu ces nuances dans ton propos. Et constate qu’on est en fait parfaitement en phase. En fait, les jeunes entrepreneurs ont presque toujours besoin de financements, la question étant de cadencer cela, du love money aux VCs, étape par étape, sans les brûler.

Répondre à ce commentaire

Commentaire 1012 dans La force pédagogique des startup weekends, le 23 mars 2011

Décidément, une famille sacrément impliquée dans les startup weekends ! Exemplaire !

Répondre à ce commentaire

Commentaire 1011 dans La force pédagogique des startup weekends, le 23 mars 2011

Oops, grosse boulette ! Je corrige ce soir !

Répondre à ce commentaire

Commentaire 1010 dans Les tablettes et la création, le 20 mars 2011

C’est en effet un constat qu’ont fait les personnes concernées du MinEduc et qui s’ajoute à mes considérations plus générales sur les limitations actuelles de l’usage des tablettes dans l’éducation.

Les expérimentations initiées par les politiques locaux sont effectivement peu réfléchies et très discutables. L’histoire a tendance à se répéter. Certains se rappellent peut-être du plan “Informatique pour tous” lancé du temps où Laurent Fabius était premier ministre, avec des TO7 pour l’éducation, jamais vraiment utilisés faute de pédagogie et de contenus adaptés. Ces erreurs d’il y a 27 ans se reproduisent encore aujourd’hui. Mais la régionalisation aidant, elles ont plutôt lieu à l’échelle locale que nationale.

Répondre à ce commentaire

Commentaire 1009 dans L’impact économique de l’Internet en France, le 16 mars 2011

Je ne me plains pas. Je décrypte l’origine de l’étude. En valeur absolue, elle est encourageante. En valeur relative par rapport aux autres pays, elle montre le chemin à parcourir. Il faut toujours avoir des défis sous le coude…

Répondre à ce commentaire

Commentaire 1008 dans L’impact économique de l’Internet en France, le 14 mars 2011

Les grandes boites françaises font aussi du lobbying ! A côté, les boites américaines sont des enfants de coeur ! Un petit tour chez les telcos : rien que chez FT, une ancienne Ministre, des membres des Corps des Télécoms liés à Bercy, etc.

Le rôle des pouvoirs publics est d’éviter à mon sens de se laisser enfermer dans une logique du développement de la “consommation de technologies” au détriment de leur “production”. L’étude McKinsey était ainsi particulièrement discrète sur la notion d’innovations et de productions de technos liées à Internet. Ce n’est pas par hasard !

Répondre à ce commentaire

Commentaire 1007 dans Comment Ubifrance aide les startups à exporter, le 13 mars 2011

Que de lamentations ! Et le verre à moitié plein qui parait soudainement vide !

Avec au passage quelques inexactitudes. Quelles idées Jean-Marie Hullot s’est-il fait piller ? Quand il était salarié d’Apple, il a (bien) fait son boulot, mais on ne lui a rien piqué ! Et maintenant, il est à tête de Fotonauts, une startup créée il y a trois ans. A noter qu’elle a été financée par des VC français (Banexi) et américains (Ignition). Son patron du bizdev est basé dans la Silicon Valley et l’équipe de dev et JM Hullot sont en France.

Pour le nucléaire, la centrale qui pète le feu au Japon utilise une technologie (eau bouillante) qui n’est pas celle de nos centrales (eau pressurisée, PWR)… Et qui sait si Areva n’est pas impliqué tout de même sans qu’il y ait eu de communication dessus ? La collaboration internationale ne fait pas toujours le 20h…

La France est tout de même une nation de technologies, mais on est un peu trop dans le lourd (transports et énergie) et pas assez dans le léger (loisirs numériques, etc).

Des erreurs aux USA ? Il y en a eu ! Apprenons de nos échecs et allons de l’avant au lieu de gémir sans cesse !

Et n’oublions pas les grosses lacunes qu’il nous faut combler en matière de capacités de vente, de marketing et de communication. Et aussi traiter notre pessimisme maladif.

Répondre à ce commentaire

Commentaire 1006 dans Comment Ubifrance aide les startups à exporter, le 12 mars 2011

Quel est cet article ?

Cela veut dire quoi “prendre le contrôle” ? Avoir des parts majoritaires ? C’est naturel si il y a eu de nombreuses levées de fonds dont certaines de plusieurs millions de $. On a rarement cela en France car les grosses levées sont rares. Pas sûr que cela soit une histoire de “grosse tête” des entrepreneurs même si l’on en trouve certains qui sont réticents à lever des fonds. A mon sens, ce sont tout simplement généralement des “petits joueurs” qui ne risquent pas de créer des sociétés innovantes de taille critique.

La question des aides publiques vs le financement privé est une affaire d’équilibre, de vases communicants et d’oeuf et de poule. En France, les investissements privés dans l’innovation et à risque sont encore très timorés. Les incitations fiscales qui sont des aides publiques les ont bien dynamisés ces dernières années. Il y a notamment bien plus de business angels depuis 2007.

Il y a aussi un problème d’oeuf et de poule : comme il y a moins de gros succès, il y a moins de génération de valeur (vente de boites, introductions en bourses) et donc moins d’argent à recycler dans l’innovation. A comparer avec les boites de la Silicon Valley qui au total valent des centaines de milliards de $ au Nasdaq, dont une part est recyclée par les fondateurs et cadres dans l’innovation.

Cf mes trois articles sur la Silicon Valley publiés en 2007 et qui sont toujours d’actualité (article 1, article 2, article 3).

Notons qu’il existe aussi quelques aides publiques aux USA. Elles prennent d’autres formes : plus de commande publique (grâce au Small Business Act qui aide un peu les entreprises du numérique en btob) et réduction des plus-values sur les investissements d’amorçage.

Que faire ? Justement, pousser nos acteurs locaux à devenir internationaux, à mettre le pieds aux USA, ou en Asie selon le type de business. C’est la seule solution pour créer des acteurs de taille critique, et pour créer une valeur (financière) significative qui en retour pourra être réinvestie dans l’innovation et réduire le besoin d’aides publiques (qu’elles soient directes ou sous forme d’incitations fiscales).

Répondre à ce commentaire

Commentaire 1005 dans Comment Ubifrance aide les startups à exporter, le 11 mars 2011

C’est tout à fait logique ! Et l’approche d’UbiFrance est tout à fait censée !

Le marché français pèse au mieux 3% à 4% du marché mondial. Le marché américain pèse 7 à 10 fois plus. Il faut donc s’y installer pour rapidement atteindre la taille critique. Au minimum pour y développer ses ventes et créer de grosses références (dans le btob).

Si on reste en France ou que l’on aborde le marché européen pays par pays, on va beaucoup moins vite. Et on risque de se faire dépasser par les boites américaines qui bénéficient d’un marché intérieur plus grand.

Exemple classique : Skyblog vs Facebook, ce dernier mordant de plus en plus sur l’audience du premier.

Bon exemple classique: Business Objects qui s’est établi aux USA un an après sa création (en France). Et est devenu une boite de plus de 1Md€ de CA. Certes, ensuite vendue à l’européen SAP, pour 5Md€ je crois. Mais au moins c’est resté européen !

Quand aux aides et aux VCs, le système y est un peu différent qu’en France. Il n’y a pas d’aides publiques comme en France, mais il y a plus de financement privé. Les VC ne cherchent pas “à prendre le contrôle tout de suite” ! Par contre, ils ont une plus grande capacité d’investissement.

Les petits gars qui ont créé Google, Facebook, Twitter et autres succès de l’Internet ne se plaignent pas des VCs que je sache. Ce sont les VCs qui leur ont permis d’atteindre la taille qu’ils ont atteint. En France, nos VCs n’ont pas les moyens de pousser nos startups aussi loin !

Il ne faut effectivement pas idéaliser les USA. C’est un grand marché assez homogène, c’est surtout ça ! La flexibilité du travail y est très grande. C’est plutôt apprécié des entrepreneurs, et un peu moins des salariés (en période de crise, mais pas en période de croissance). Les embauches sont dures en période de reprise car il y a de la concurrence entre les boites. C’est la loi de l’offre et de la demande. Ceci étant, trouver un bon développeur spécialisé n’est pas une sinécure non plus en France !

Répondre à ce commentaire

Commentaire 1004 dans L’influence des politiques et de l’Etat dans le numérique, le 6 mars 2011

La situation réglementaire et fiscale est différente dans ces pays. Le marché l’est aussi. Le financement privé des PME innovantes est assez abondant aux USA.

Mais lorsque c’est nécessaire, le lobbying ne doit pas être facile. Il semblerait néanmoins que les politiques de ces pays soient plus au fait du numérique.

Répondre à ce commentaire

Commentaire 1003 dans L’influence des politiques et de l’Etat dans le numérique, le 6 mars 2011

Il me semble que ceci n’est pas spécifique au numérique. De nombreuses décisions, notamment portant sur la fiscalité et l’économie sont souvent prises avec une vue très courte. Dès qu’un spécialiste se penche sur quelque question que ce soit, il trouve plein de bugs dans les lois…

Répondre à ce commentaire

Commentaire 1002 dans L’influence des politiques et de l’Etat dans le numérique, le 6 mars 2011

@Alexis : est-on désavantagé par le fait que le numérique n’est pas encore un sujet qui préoccupe l’ensemble des politiques ? Il y a du pour et du contre : d’un côté, cela limite le nombre de politiques à convaincre dans le cadre du lobbying que je décris. De l’autre, cela rend difficile toute mobilisation. Le PS a par exemple choisi volontairement de ne pas rentrer dans le lard du gouvernement au sujet des exonérations JEI dans la Loi de Finance 2011. Ses élus ont tout de même voté pour les amendements proposant la suppression de l’article 78 concernant le rabotage.

Pour ce qui est de gagner ou perdre des élections, les libertés fondamentales liées à l’Internet deviennent de plus en plus critiques. On voit bien ce qui se passe dans les pays arabes en révolte contre leur pouvoir. L’un des réflexes des gouvernements est de couper brutalement l’accès à Internet. C’est donc bien un sujet clé !

Les difficultés de notre gouvernement peuvent venir d’une confusion des genres entre les réactions négatives sur ses lois diverses reliées au numérique et sur le fait que la toile est le lieu d’expression de toutes les contestations politiques. La droite y a bien des difficultés à se faire entendre et quand elle s’y lance, c’est assez maladroitement (cf les contributions de certains membres de l’UMP dans les forums ou le lancement de Atlantico…).

A force, l’Internet devient pour une partie du pouvoir une sorte d’ennemi ou toutes les contradictions sont rangées en vrac dans le même sac.

@Christophe : il existe déjà beaucoup d’associations diverses, il faudrait d’abord en faire un inventaire et identifier celles qui sont les plus adaptées à cette forme de lobbying. Et peut-être identifier ce qui peut clocher dans les associations existantes.

@Didier : no way ! Et (réponse au premier degré) tu sais bien qu’on ne “brigue” pas ce genre de position, mais au contraire, qu’on se met en situation d’être nommé après des années d’action dans un parti politique (et de préférence, après en étant élu local) ou bien dans la fonction publique.

Répondre à ce commentaire

Commentaire 1001 dans Guide Startups XIVeme édition, le 4 mars 2011

Il faudrait discuter en s’appuyant sur les données brutes !

Dans le dernier rapport publié d’Oséo, il est indiqué que 2992 projets ont été aidés de manière générique par Oséo Innovation pour un total de 355m€, ce qui fait 121K€ par projet.

Pour ce qui est des TIC qui représentent 23% des montants d’intervention, 384 projets ont bénéficié de 74m€ d’avances remboursables, soit 192K€ par projet et 662 ont bénéficié de subvention pour 35m€, soit 52K€ par projet. Donc, pour ceux qui ont cumulé les deux, 244K€ par société.

Cela correspond pile poil à de multiples cas que je rencontre tous les jours de startups en phase d’amorçage qui ont un projet à forte teneur technologique.

Les données 2010 devraient être bientôt publiées et on verra comment cela évolue. Il est probable que c’est légèrement à la baisse, mais ces aides/avances n’ont pas disparu !

Oséo est loin d’être parfait, leur processus est discutable et très variable d’une région à l’autre, mais affirmer qu’ils n’aident que les ETI/PME ne me semble pas refléter la réalité !

Répondre à ce commentaire

Commentaire 1000 dans Guide Startups XIVeme édition, le 3 mars 2011

Oséo continue d’aider les entreprises en phase d’amorçage ! Ce n’est pas parce que certaines se font éconduire que toutes sont dans ce cas là. Ils sont assez sourcilleux au niveau de l’innovation technologique. Ils évitent ainsi d’aider les activités de services Internet qui ne présentent selon eux pas de caractère innovant, surtout en Ile de France où les moyens sont plus limités au regard de la demande.

Fabien, 100% – 60%, cela fait 40%, ce n’est pas rien ! C’est trompeur de dire qu’Oséo n’aide plus les startups, surtout sans données chiffrées pour l’étayer !

Par contre, il est vrai que l’ensemble des aides publiques a tendance à s’orienter vers les projets collaboratifs de tout poil et les appels à projets type DGCIS et grand emprunt. Je le dénonce dans le Guide comme d’habitude car les aides génériques qui ne sont pas conditionnées par des projets collaboratives me semblent plus efficaces en phase d’amorçage que les usines à gaz collaboratives.

Mais que tout le monde tire la couverture à soi : les TPE, les PME, les ETI, n’a rien d’étonnant. Le MEDEF a plutôt tendance à aider ces dernières mais a aussi quelques activités pour les premières.

Répondre à ce commentaire

Commentaire 999 dans Les leçons collectives de l’échec entrepreneurial, le 2 mars 2011

Hum hum…

Le lien est fourni dans le premier paragraphe de cet article !!!

Dès fois… je me demande… non, OK, je reste calme.

Répondre à ce commentaire

Commentaire 998 dans Guide Startups XIVeme édition, le 2 mars 2011

My pleasure !

Et maintenant que tu exerces une activité d’accompagnement de startups, n’hésite pas à à partager les bonnes pratiques ou retours d’expérience en contribuant aux prochaines éditions du Guide !

Répondre à ce commentaire

Commentaire 997 dans Guide Startups XIVeme édition, le 2 mars 2011

Hello Pascal,

Tu fais bien de le signaler ! Et hop, c’est corrigé, en ligne et en 10 minutes chrono ! 🙂

Olivier

Répondre à ce commentaire

Commentaire 996 dans Microsoftologie météorologique, le 23 février 2011

Ok, corrigé.

Pour l’aspect transitoire des plateformes fermées, je ne mettrai pas main à couper. Au moins au niveau de l’échéance. Mais il est en effet souhaitable de revenir à des plateformes plus ouvertes qu’aujourd’hui.

Répondre à ce commentaire

Commentaire 995 dans Les péchés capitaux dans le marketing et la vente, le 22 février 2011

En effet, j’ai quelque peu élargi les définitions dans le propos. La frontière est cependant ténue entre les différentes variations autour du thème de l’avarice.

Elle peut dépendre par exemple de son pouvoir d’achat. Quelqu’un qui vit au SMIC et doit compter tous ses Euros dépensés ne serait-ce que pour pouvoir s’alimenter ou se chauffer n’est pas dans la même posture face aux promos que la famille aisée qui en est souvent tout aussi friande ! A ceci près que cela ne porte pas sur les mêmes produits !

Bon et puis ces articles ne sont pas des thèses de philo… 🙂

Répondre à ce commentaire

Commentaire 994 dans Comment Ubifrance aide les startups à exporter, le 22 février 2011

Ca commence à bien faire le poil à gratter, Macha ! Il y a bien indiqué “startups” et “marketing” dans l’entête de ce blog. Et il y en a qui ont apprécié ! Cf http://twitter.com/#!/search/p%C3%A9ch%C3%A9s%20capitaux.

Peut-on rêver de contributions plus positives de ta part, notamment pour aider les entrepreneurs ?

Répondre à ce commentaire

Commentaire 993 dans Les péchés capitaux dans le marketing et la vente, le 17 février 2011

C’est bien le propos de cet article ! Dans le suivant, je vais accentuer ce point sur la notion de combinatoire avec quelques exemples flagrants.

Répondre à ce commentaire

Commentaire 992 dans Microsoftologie météorologique, le 13 février 2011

Les Bogdanov avaient déjà animé les TechDays en 2007 🙂

Répondre à ce commentaire

Commentaire 991 dans Microsoftologie météorologique, le 13 février 2011

MSR n’est pas si coûteux que cela d’un point de vue financier. En plus, il a un impact plutôt positif sur l’image de Microsoft, ce qu’il est difficile de chiffrer.

Mais c’est un modèle d’innovation du passé, trop tourné vers l’intérieur de la société, même si MSR a de nombreux partenariats avec des chercheurs externes. Si encore les projets de MSR relevaient JUSTE de la recherche, avec un taux de réussite faible, ce qui est normal, cela ne ferait pas de mal. Le problème est que MSR influe sur la roadmap produit de Microsoft au point de créer des priorités (type Surface) qui sont complètement à côté de la plaque ! Sans compter les Live Labs (qui ne relevaient pas de MSR) qui ont généré aussi de piètres résultats alors que Facebook et autres Twitter et Foursquare se sont développés sur Internet.

Pour les limites du cloud que tu évoques, le coup du serveur sur chaque bureau (ou chaque TPE/PME) a déjà été fait dans les belles années de Windows NT (en gros entre 1996 et 2000 et quelques). Le sens de l’histoire est tout de même une augmentation et pas une diminution des débits de l’Internet. Ne reprochons pas à MS d’en tenir compte !

Répondre à ce commentaire

Commentaire 990 dans Microsoftologie météorologique, le 12 février 2011

Merci, c’est maintenant corrigé.

Répondre à ce commentaire

Commentaire 989 dans Les leçons collectives de l’échec entrepreneurial, le 5 février 2011

L’édition de septembre 2010 est toujours valable pour l’essentiel ! http://www.oezratty.net/wordpress/2010/guide-startups-le-xiii/

Ce qui a changé significativement depuis est surtout lié à la fiscalité et à la Loi de Finances 2011 qui modifie le système de financement par les business angels et les fonds ISF.

Répondre à ce commentaire

Commentaire 988 dans Les leçons collectives de l’échec entrepreneurial, le 5 février 2011

Bravo pour s’être livrés ainsi, ce qui est encore rare. Vous pourriez être l’un des témoins pour la prochaine FailCon !

Répondre à ce commentaire

Commentaire 987 dans Retour sur la Lady Pitch Night de Girls in Tech Paris, le 2 février 2011

Anne et Bernadette,

Merci de vos témoignages. Roxanne Varza est en effet le bon contact pour GIT Paris. Et leur site : http://gitparis.com/.

Olivier

Répondre à ce commentaire

Commentaire 986 dans Vidéos du CES 2011, le 27 janvier 2011

J’imaginais bien un iPad… 🙂

Répondre à ce commentaire

Commentaire 985 dans Rapport CES 2011, le 27 janvier 2011

Je ne les connaissais pas. Visiblement, ils vont vendre leur technologie en OEM.

Répondre à ce commentaire

Commentaire 984 dans Rapport CES 2011, le 25 janvier 2011

Je ne connaissais pas Gopro et ils n’exposaient pas au CES. C’est dans la même catégorie que les produits de LiquidImage, que je cite, mais en plus pro visiblement.

Pourquoi LaTeX ? Quel serait le bénéfice pour moi en tant qu’auteur ? Et pour les lecteurs ?

Répondre à ce commentaire

Commentaire 983 dans Rapport CES 2011, le 25 janvier 2011

En effet. C’était sous le radar, ou mon radar, comme on dit.

Je ne connaissais pas cette boite, Dmailer. Basée à Marseille. Sympa !

Répondre à ce commentaire

Commentaire 982 dans Rapport CES 2011, le 25 janvier 2011

L’intérêt de l’ePub est d’avoir une mise en page style HTML qui coule naturellement en fonction de la largeur de l’écran. Mais mon document a beaucoup de tableaux (Word, pour avoir des textes et des illustrations à leur droite) et d’illustrations qui sont difficiles à repaginer automatiquement pour l’ePub. Il faudrait quasiment refaire la mise en page spécifiquement pour l’ePub ce qui est trop long.

Net net, les utilisateurs d’iPad s’en tirent avec le PDF qui doit être assez lisible dessus. Pour les eBooks de petits formats (5, 7 pouces), c’est plus galère en effet.

Répondre à ce commentaire

Commentaire 981 dans Rapport CES 2011, le 25 janvier 2011

Je ne comprend vraiment pas ce qu’il se passe. Je teste, et cela fonctionne chez moi sur exactement cette config (Chrome – FoxIt – Win7). Que les hébergeurs lâchent s’il y a trop de monde, je comprend. Mais qu’ils envoient des fichiers corrompus ?

Morale de l’histoire : réssayer, et tester les différents sites. Le premier (Free) a l’air plus rapide en général.

Répondre à ce commentaire

Commentaire 980 dans Rapport CES 2011, le 25 janvier 2011

Curieux. Pas chez moi.

Je viens de refaire un test, concluant, avec Chrome, Firefox et IE8. Et en ouvrant le PDF avec Acrobat Reader 9.3, Acrobat 9 Pro et FoxIt Reader (tout ça sous Windows 7). J’ai aussi fait un test sur Macintosh et Safari. Là, le PDF s’ouvre bien, mais les polices de caractères ne s’affichent pas correctement. Cela reste toutefois lisible. Enfin, sous Ubuntu 10.04, je viens de tester que cela fonctionnait bien sous Firefox et Chrome.

D’autres ont le problème ?

Répondre à ce commentaire

Commentaire 979 dans Rapport CES 2011, le 25 janvier 2011

DailyMotion raconte depuis plus d’un an qu’ils sont à l’équilibre. Mais j’aimerai bien voir les comptes en détail car il y a équilibre et équilibre ! (marge brute positive ou résultat net positif…).

Orange aurait du faire cela plus tôt, comme avec Deezer. Les grands acteurs locaux devraient encourager nos champions nationaux pour les aider à devenir internationaux. Il vaut mieux pour eux avoir à négocier avec un gros acteur français qu’avec un mastodonte américain ! Essayez de négocier avec Apple ou Google ! Avec eux, c’est vous qui vous faites “négocier” (référence au “Cinquième Elément”).

Autre réflexion : cet investissement pourrait signifier qu’Orange équilibre sa stratégie en faveur de l’intermédiation de services externes, au détriment de services créés ou gérés en interne (Read&Go, 2424actu, Pikeo, etc). Mais j’ai toujours l’impression qu’ils mènent toujours les deux simultanément. L’entreprise est tellement grande !

Répondre à ce commentaire

Commentaire 978 dans Rapport CES 2011, le 24 janvier 2011

Tu n’es pas tombé loin ! C’est un frigo LG vu sur leur stand dans la zone de l’électroménager connecté où frigos et machines à laver sont pilotées par tablettes et dépannées via des smartphones.

Tu créés une startup ?

Répondre à ce commentaire

Commentaire 977 dans Rapport CES 2011, le 24 janvier 2011

Merci Rémi, je télécharge et je teste asap !

Olivier

Répondre à ce commentaire

Commentaire 976 dans Premières impressions du CES 2011, le 22 janvier 2011

J’aimerai bien le faire.

Quelle est la manière la plus simple de le faire à partir de Word ?

Répondre à ce commentaire

Commentaire 975 dans Checkpoint sur le grand emprunt et le numérique, le 20 janvier 2011

Ca ne va pas vraiment dans le bons sens.
Cf http://www.oezratty.net/wordpress/2010/comment-tirer-parti-du-grand-emprunt/
et http://www.oezratty.net/wordpress/2010/aleas-fiscalite-encouragement-innovation/.

C’est parti dans le beans des appels à projets divers. Les aides par projets au détriment des aides génériques. L’Etat qui se veut expert sectoriel…

Répondre à ce commentaire

Commentaire 974 dans Premières impressions du CES 2011, le 13 janvier 2011

Très peu vu de NFC sur le salon à part dans quelques mobiles. Beaucoup plus vu de Bluetooth, qui ne sert pas vraiment à la même chose. Plus pour envoyer de la musique en live d’un device à l’autre.

Répondre à ce commentaire

Commentaire 973 dans Méta-prédictions pour 2011, le 12 janvier 2011

On en voyait toujours au CES. Mais cela ne concerne sérieusement que les marchés coréens et japonais.

Répondre à ce commentaire

Commentaire 972 dans SFR ouvre le bal avec la NeufBox Evolution, le 11 janvier 2011

Renseignements prix auprès des équipes de STM que j’ai pu rencontrer au CES 2011 de Las Vegas, la fréquence du coeur ST40 du 7105 peut monter jusqu’à 540 MHz et celle des deux coeurs du 7108 peut effectivement monter jusqu’à 600 MHz.

Répondre à ce commentaire

Commentaire 971 dans Premières impressions du CES 2011, le 11 janvier 2011

Pour l’instant, oui, les STB des FAI ont encore de l’avenir.

Comme déjà écrit sur ce blog, cela pourrait changer le jour où :

– Le STB mondiales comme tu les appelles (Apple TV en tête, mais aussi les consoles de jeux) recevront l’ensemble des chaines TV du pays en mode streamé, en direct et en HD.
– Les acteurs mondiaux concernés seront donc capables de signer des accords de diffusion pays par pays et d’exploiter ou de sous-traiter les infrastructures télécoms nécessaires.
– Le débit IP sera suffisant pour recevoir ces chaines en HD et en mode “non managé” (au sens : pas de qualité de service garantie par le tuyau de l’opérateur).

Autre option, les “STB mondiales” se mettent à intégrer des tuners (TNT, satellite, câble) et deviennent “hybrides”. Mais cela n’en prend pas la tournure. La raison est qu’il est difficile de le faire de manière homogène et à un coût raisonnable pour l’ensemble du marché mondial.

De plus, l’hétérogénéité de la vitesse d’accès à Internet sur le territoire continuera de fragmenter ce marché pendant longtemps ce qui fait qu’aucune solution ne pourra être entièrement générique sur tout un pays comme la France.

Pour ce qui est de mon retour, et bien je croise les doigts pour que l’aéroport de Minneapolis ne gèle pas entièrement. Il y faisait tout de même -22°C cette nuit ! 🙂 Suis encore à Las Vegas en ce moment.

Répondre à ce commentaire

Commentaire 970 dans Premières impressions du CES 2011, le 11 janvier 2011

@matador : que penser de l’omniprésence d’Android ? C’est un phénomène moutonnier classique dans l’industrie. La gratuité de l’OS y joue un rôle certain.

@Daniel et Richard : merci pour vos encouragements !

@Stéphane : je ne crois pas trop au retour au devant de la scène de Motorola. Leur Atrix est bien, mais il sera imité. Ce n’est pas suffisant. Pour le karaoké, il me semble qu’il est encore possible de se passer d’iPad pour en faire… 🙂

Répondre à ce commentaire

Commentaire 969 dans Les logiciels et contenus de la Freebox 6, le 8 janvier 2011

La reponse est : on peut le faire (source : Free).

Répondre à ce commentaire

Commentaire 968 dans Les logiciels et contenus de la Freebox 6, le 4 janvier 2011

Je suis sûr que Flash sera supporté.
Ce qui est moins sur, c’est la version et quand.
Il semblerait que des pbs de fiabilité feront que Flash ne sera peut-être pas supporté pour les FB shippées en ce moment et qu’il faudra donc attendre une mise à jour logicielle.

Répondre à ce commentaire

Commentaire 967 dans Les entrailles de la Freebox 6, le 3 janvier 2011

Ils conçoivent eux-mêmes les cartes électroniques et les font fabriquer ensuite sur plans.

Répondre à ce commentaire

Commentaire 966 dans Méta-prédictions pour 2011, le 2 janvier 2011

Hello Fred !

J’ai bien précisé que mes (toutes petites prévisions) étaient “genre “wish­ful thinking””. C’est un modèle rarement adopté : au lieu d’indiquer ce que l’on prévoit, on se focalise sur ce que l’on souhaite. D’où un peu de second degré sur les lois liberticides, sur les comportements dans les réseaux sociaux (qui m’agacent…), les réflex sous Android (avant que les japs s’y mettent, de l’eau aura coulé sous les ponts…), etc.

Pour la “social TV”, je me réserve un peu pour le retour du CES ! J’espère bien découvrir des choses intéressantes sur le sujet à Las Vegas ! Sinon, effectivement, cela sera une grosse déception. Bon, et le cadeau bonux sera le test de la Freebox V6 qui devrait arriver chez moi avant mon retour du CES !

Pour tectoc, tu t’es fait doubler par l’ami Jean-Michel Billaut pour qui je vais faire quelques Skype de débriefing tous les matins (heure PST => vers 16h heure française).

Côté article, voici mon programme : je publie un résumé rapide du salon juste avant d’embarquer sur le vol du retour (lundi 10/1 après-midi heure française) avant de m’enfermer chez moi comme un moine pour rédiger le Rapport CES complet, que je prévois de publier aux alentours du 25 janvier 2011. Je suis un peu nul côté “instantané”. Je préfère prendre du recul pour compiler et creuser la masse d’informations que l’on peut récupérer sur le CES. Une masse qui donne un vrai tournis en général !

A+,

Olivier

Répondre à ce commentaire

Commentaire 965 dans Méta-prédictions pour 2011, le 2 janvier 2011

J’y ferai peut-être un tour le premier jour. Occasion de se croiser…

Répondre à ce commentaire

Commentaire 964 dans Méta-prédictions pour 2011, le 2 janvier 2011

J’ai terminé par “On peut rêver un peu non ?”… :).

C’est bien une prédiction qui n’existe que dans les rêves à ce stade des pratiques dans les réseaux sociaux !

Répondre à ce commentaire

Commentaire 963 dans Méta-prédictions pour 2011, le 2 janvier 2011

Je n’ai rien noté dans les prédictions compilées pour cet article sur la curation. Il y en a sûrement qui s’étendent là dessus. On a tellement entendu parler de ce sujet pendant ou autour de LeWeb 2010 que cela ne m’intéressait pas trop de revenir sur ce sujet.

Répondre à ce commentaire

Commentaire 962 dans Méta-prédictions pour 2011, le 2 janvier 2011

You’re too kind Stéphane!
A+
Olivier

Répondre à ce commentaire

Commentaire 961 dans Le retour discret du moteur à eau, le 30 décembre 2010

Votre sympathique commentaire relance le débat sur cet article qui date d’un an et demi maintenant.

Mais au juste, vous m’embrouillez un peu dans votre défense de Miraclean :
– S’agit-il d’un procédé d’amélioration du cycle thermodynamique de la combustion à base d’eau, voisin du Pantone ?
– Quel est le rôle exact de l’électrolyse de l’eau ? Le commentaire de Christian est-il la réponse ?
– Quels sont ses défauts qui pourraient limiter son industrialisation ? Comment les contourner ?

Je maintiens ce que j’ai écrit sur la manière de présenter les choses de Miraclean, notamment à Perpignan, qui est au minimum maladroite car donnant l’impression d’être malhonnête. Elle laisse à croire que l’eau est un carburant alors que ce n’est qu’un améliorateur de rendement de la combustion du carburant fossile traditionnel.

Je cite leur site web :

“La société MIRACLEAN a été crée au printemps 2009 afin de développer et commercialiser une gamme complète de produits et de services autour d’un moteur hybride utilisant l’Eau comme principal carburant.”

Eau = carburant ? Là est le problème ! Ce n’est pas un carburant. C’est au mieux un comburant, via l’électrolyse et au pire un agent qui améliore le cycle de combustion du carburant fossile. Ce n’est pas parce que le procédé semble utiliser un volume d’eau supérieur à celui d’essence que l’eau devient un carburant pour autant.

Quant à la vidéo (http://www.youtube.com/watch?v=D3_vxOojAkk), il aurait été préférable qu’elle ait été tournée dans un véritable laboratoire avec des appareils de mesure. Aucune école d’ingénieur n’est intéressée par cela ?

Bref, les promoteurs de ce dispositif ne s’y prennent vraiment pas du mieux du monde. C’est trop facile d’accuser l’establishment !

Ma réaction assez négative au premier abord n’est pas une réaction d’establishment. Je ne suis lié à aucun groupe dans les secteurs de l’énergie ou des transports. Je ne suis passé par aucun intermédiaire “obtus” ou autre dans mes recherches. Juste sur quelques sites sur Internet présentant le pour et le contre.

Je suis toujours curieux de comprendre comment ce truc peut fonctionner. Et la communication de Miraclean est/était des plus approximatives de ce point de vue là. Les conseils que je donne à la fin de l’article sont toujours valables.

Nous sommes en tout cas d’accord à 100% sur au moins un point : si cette technologie donnait à grande échelle les rendements évoqués et sans inconvénient caché, il faudrait la généraliser rapidement.

Au passage, vous écrivez “nous” dans vos propos. Qui représentez-vous exactement, histoire que l’on comprenne bien ?

Répondre à ce commentaire

Commentaire 960 dans Les entrailles de la Freebox 6, le 22 décembre 2010

Les développeurs de chez Free ont l’air de dire tout de même que le support de périphériques externes est facilité à la fois par Linux et par le choix d’une architecture Intel.

Mais il est vrai que d’autres processeurs comme les Texas OMAP ont une puissante toute aussi intéressante.

le plus puissant pour des applications multimédia, l’OMAP 4440 tourne à 1,5 GHz, c’est un double coeur ARM A9 avec un moteur graphique PowerVR SGX540. Donc, ça vaut sans doutes les Atom.

Au passage, les tablettes Archos sous Android fonctionnent sous OMAP…

Répondre à ce commentaire

Commentaire 959 dans La concurrence de la Freebox 6 et ses enjeux, le 21 décembre 2010

Aucune idée !

Quel est l’investissement nécessaire pour un FAI pour supporter VDSL2 du côté des infrastructures et dans la relation avec France Télécom ?

N’est-ce pas un peu redondant avec l’investissement dans le FTTH qui touche d’abord les zones denses ?

Répondre à ce commentaire

Commentaire 958 dans La concurrence de la Freebox 6 et ses enjeux, le 21 décembre 2010

Pour SFR, ce que j’ai vu dans leur showroom est l’interface de leur STB fonctionnant quasiment à l’identique en mode web sur un PC. Le lien http://tv.sfr.fr/tv-pc/ semble correspondre au service pour regarder la TV en direct. La nouvelle interface intègre cela plus l’accès aux fonctions média center, à la VOD, etc. C’est actuellement un plus de SFR par rapport à Free.

Pour Free et http://tv.freebox.fr/, il s’agit de l’interface TV direct. Elle ne reprend pas celle de la Freebox, autant V5 que V6, ni les autres fonctions de la STB.

La TV en direct, c’est la capacité de regarder une chaine TV en live (pas en différé). Dans l’offre SFR, certaines chaines sont intégrées dans l’interface smartphone/tablette/web commune avec celle de la STB. Pour ce qui est de l’interface Free pour tablette/smartphone que j’ai pu voir le jour du lancement, les chaines TV en direct ne sont pas comprises. Tout du moins pour l’instant. Ce n’est pas un problème technique mais plutôt de bouclage des accords avec les chaines TV qui acceptent cela (TF1 et M6 le refusant pour tous les FAI pour l’instant).

L’enjeu pour les opérateurs est d’homogénéiser les services proposés et l’interface utilisateur sur les différents écrans couverts (TV, tablette, smartphone, PC/Mac). Sachant bien entendu qu’il y a des ajustements entre les modes d’interaction télécommande, souris et tactile.

Sinon, merci pour ce retour très détaillé de l’expérience utilisateur d’accès aux supports techniques de SFR et Free. Le processus est en effet beaucoup plus intégré chez Free, notamment parce que rien n’est réalisé en sous-traitance.

Répondre à ce commentaire

Commentaire 957 dans Les vrais gens et le marketing de Free, le 21 décembre 2010

Ce déjeuner à l’Elysée regroupait des entrepreneurs et des bloggeurs. Certains étant les deux à la fois, surtout Jean-Michel Planche. Xavier était bien invité comme entrepreneur.

Répondre à ce commentaire

Commentaire 956 dans Les logiciels et contenus de la Freebox 6, le 20 décembre 2010

Mélange de :
– L’OS des Freebox a toujours été constitué de briques diverses et variées, certaines open source, d’autres propriétaires à Free, qui en font des OS “sur mesure”. Bref, Meego ou pas, peut importe. D’autant plus que l’interface utilisateur est entièrement maison.
– Je n’en ai jamais entendu parler chez Free.
– Meego pour STB n’a pas l’air d’être encore “sec”. Pas de SDK téléchargeable sur leur site : http://meego.com/. Alors qu’il y en a pour les autres devices. Notamment les netbooks sous Atom.
– Si c’était sous Meego, pourquoi Free le cacherait ? Meego en ferait par ailleurs une promotion du tonnerre car cela serait une énorme référence pour eux.

Pour l’instant, seul Amino semble avoir annoncé, en septembre dernier, une STB sous Meego : http://www.linuxfordevices.com/c/a/News/Amino-Freedom/. Mais elle n’est pas encore dans le commerce.

Répondre à ce commentaire

Commentaire 955 dans La concurrence de la Freebox 6 et ses enjeux, le 20 décembre 2010

Ah, en effet, c’est + logique. Je corrige de ce pas.

Répondre à ce commentaire

Commentaire 954 dans Les logiciels et contenus de la Freebox 6, le 20 décembre 2010

Il me semble que l’on paye aussi cette option lorsque l’on est abonné à Canal+/Sat via Canal+/Sat (pour celles des set-top-boxes qui ont un PVR). Cela s’appelle l’option Canalsat 5 Etoiles. Free ne fait que répercuter cela. Cf http://www.universfreebox.com/article7631.html. On ne peut d’ailleurs pas partager en FTP les fichiers ainsi enregistrés sur la Freebox TV (V5 et également V6, mais sur le DD qui est dans la Freebox Server).

En fait, dans les deux cas, Neufbox et Freebox, on paye le droit d’enregistrer Canal+. Il faut cependant comparer les prix dans le détail. Il y a un prix promo 1 an dans les deux cas (20€/mois chez Free, 18€ chez Neuf, peut-être privilégié car ils appartiennent au même groupe que Canal+, Vivendi). Ensuite, cela se monte à 35€ chez Free et 45€ (par mois) chez Neuf, les deux comprenant les 10€ permettant l’enregistrement. Bref, le maquis des tarifs…

Répondre à ce commentaire

Commentaire 953 dans SFR ouvre le bal avec la NeufBox Evolution, le 20 décembre 2010

Chacun des deux coeurs de ce processeur sont des ST40-300
mais la brochure de STM du 7108 ne précise pas leur fréquence d’horloge (cf http://www.st.com/internet/imag_video/product/248829.jsp). On trouve ailleurs, notamment sur le 7104 et le 7105, que le ST40-300 tourne à 450 Mhz. Je vais corriger l’article avec cette valeur avant de trouver 600 Mhz d’indiqué quelque part.

On peut aussi évoquer le GPU du 7108 qui a l’air d’être aussi très puissant. Et 100% d’accord comme indiqué dans l’article, le 7108 est bien plus proche de Sodaville que ne l’est le 7105.

Répondre à ce commentaire

Commentaire 952 dans La concurrence de la Freebox 6 et ses enjeux, le 20 décembre 2010

Effectivement, il y a deux scénarios imaginables :
– Les composants sont déjà dans la gateway et il reste à les activer par logiciel. Auquel cas l’option serait probablement gratuite compte-tenu des habitudes de Free.
– Ils n’y sont pas et nécessitent un add-on matériel qui pourrait s’intégrer dans son logement libre. A quel prix ? 200€ comme chez SFR ?

Sachant que l’activation du femto chez Free devrait probablement intervenir lorsque son offre mobile sera disponible et pas avant.

Dans les deux cas, il y a aussi des infrastructure à mettre en place du côté de l’infrastructure réseau de l’opérateur. Ce fut le cas pour FreeWifi (l’accès au Wifi des autres Freebox pour un abonné) qui a été rendu disponible plus de 2 ans après la disponibilité des Freebox V5. Il fallait créer des millions de tunnels VPN pour assurer l’identification des utilisateurs.

Quelques billes glanées sur les composants nécessaires : http://www.thinkfemtocell.com/System/femtocell-components-and-building-blocks.html
http://www.thinkfemtocell.com/System/femtocell-gateway-components-and-location.html

Répondre à ce commentaire

Commentaire 951 dans Les vrais gens et le marketing de Free, le 18 décembre 2010

En fait, je publie un extrait de mes articles automatiquement sur mon wall Facebook et là tu peux faire ce que tu veux : Like, commenter, etc. Ca revient un peu au même. Mais bon, tu as raison, il faut que je remplace le bookmarking par un “I like”.

Répondre à ce commentaire

Commentaire 950 dans Les vrais gens et le marketing de Free, le 18 décembre 2010

Free développe le FreePlayer pour l’iPad et l’iPhone et est en relation avec le constructeur.

Répondre à ce commentaire

Commentaire 949 dans Les entrailles de la Freebox 6, le 17 décembre 2010

Il y en a une ici sur le site de l’Expansion, tournée visiblement dans le showroom du siège de Free à Paris : http://www.lexpansion.com/high-tech/freebox-revolution-la-video-exclusive_245547.html

Répondre à ce commentaire

Commentaire 948 dans Les logiciels et contenus de la Freebox 6, le 17 décembre 2010

Java et Flash arriveront sans doutes après janvier. Il y a probablement un délai de stabilisation. Free dépend d’autres sociétés (Intel, Adobe, etc) pour obtenir un bon support de ces stacks sur Sodaville. Comme ils sont les premiers à le supporter dans une set-top-box, ils en font un peu les frais.

Pour le SDK, il arrivera aussi. Mais chaque chose en son temps. Les développeurs de Free procèdent par étape et ils ne sont pas très nombreux.

Répondre à ce commentaire

Commentaire 947 dans Les entrailles de la Freebox 6, le 17 décembre 2010

Voui voui, j’en ai même vu un dans la démo du lancement.

Répondre à ce commentaire

Commentaire 946 dans La concurrence de la Freebox 6 et ses enjeux, le 17 décembre 2010

Le lecteur de Blu-ray pour faire plaisir aux geeks ? N’est-ce pas un peu exagéré ? Si le Blu-ray ne concernait que les geeks, il n’y en aurait pas plein les rayons à la Fnac et dans la grande distribution en général !

Répondre à ce commentaire

Commentaire 945 dans La concurrence de la Freebox 6 et ses enjeux, le 17 décembre 2010

Thanks. Je corrige à la fois le commentaire ci-dessus et le texte de l’article.

Répondre à ce commentaire

Commentaire 944 dans Les logiciels et contenus de la Freebox 6, le 17 décembre 2010

Bien, ce n’est pas Meego !

Répondre à ce commentaire

Commentaire 943 dans La concurrence de la Freebox 6 et ses enjeux, le 17 décembre 2010

Jusqu’à présent, Free a réussi à vendre plus de 4,5 millions de Freebox sans boutique. Les réseaux de boutiques et les campagnes d’appels sortant des autres FAI constituent en effet un avantage concurrentiel pour eux. Mais ces boutiques sont justifiées par la complexité du choix d’un mobile et de l’abonnement associé, dans le maquis des offres des opérateurs. Avec la Freebox, c’est beaucoup plus simple. En fonction de son numéro de téléphone et/ou adresse, le site de Free propose les offres ADSL dégroupées ou pas, élibilité FTTH ou pas, etc.

Avec le lancement de leur offre mobile, la question se reposera certainement pour Free mais je ne serai pas étonné qu’ils choisissent de ne pas avoir de boutique. Et au passage, d’avoir une offre illimitée très simple à packager et vendre. Histoire de casser la baraque comme ils l’ont fait avec le triple-play à 29,99€ (ce sont des suppositions de ma part, pas des informations).

Côté VOD, les offres SFR et Free sont assez voisines. On rentre dans un ou plusieurs portails de VOD. C’est tout.

Mais il est vrai que l’intégration d’un lecteur BD va à l’encontre d’une tendance nette à la dématérialisation de la consommation de films. C’est le choix du “tout en un”, et le résultat de feedbacks utilisateurs qui souhaitent simplifier leur installation à côté de leur TV.

Surcout ? La SFR Neufbox Evolution est à 35€ et la Freebox V6 est à 36€ en dégroupage total (ADSL et FTTH) et à 30€ en dégroupage partiel.

Femto : suppositions pour l’instant.

NAS : aucun log de FAI n’est fourni à l’HADOPI. Ce sont les adresses des Freenautes qui sont pris la main dans le sac du peer to peer par les sociétés d’ayant-droits. Le FAI fait juste le rapprochement entre adresse IP et abonné. Et il le fait parce que c’est la loi. Que peuvent-ils faire d’autre ? Ils ont résisté tant qu’ils pouvaient au point de pousser le gouvernement à publier un décret précisant la manière dont ces données devaient être fournies. Mais la loi peut évoluer, et dans le pire, c’est sûr. S’il advenait qu’un gouvernement encore plus répressif que l’actuel faisait évoluer la loi HADOPI au point de demander aux FAI de surveiller les données intégrées dans les STB, et bien, les utilisateurs utiliseraient alors une autre solution. Et puis là, ce serait vraiment la fin des haricots !

Répondre à ce commentaire

Commentaire 942 dans Les entrailles de la Freebox 6, le 16 décembre 2010

Mes 20W sont une estimation. Ton calcul, fort simple, montre qu’effectivement, elle est peut-être trop basse. Mais 3A veut-il dire que cela consomme toujours 3A, ou un maximum de 3A ?

Mes cours d’électrotechnique sont bien loin dans le passé !

Répondre à ce commentaire

Commentaire 941 dans La concurrence de la Freebox 6 et ses enjeux, le 16 décembre 2010

Le lien était dans le texte…

“Alors voici que voilà un petit tableau de com­pa­rai­son (ver­sion PDF) qui donne une idée de l’ampleur des nou­veau­tés de la Free­box au regard de celles de SFR. ”

Comme on dit chez les technies: RTFM…

Répondre à ce commentaire

Commentaire 940 dans La concurrence de la Freebox 6 et ses enjeux, le 16 décembre 2010

Le PDF ne suffit pas ?

Répondre à ce commentaire

Commentaire 939 dans La concurrence de la Freebox 6 et ses enjeux, le 16 décembre 2010

Bonjour Benoit,

Une STB sous Google TV serait un véritable suicide pour un FAI à court terme. Les “terms & conditions” de Google leur enlèveraient une grande liberté. C’est déjà le cas sous Android. Aujourd’hui, Google TV est plutôt une solution pour la consommation de contenus en “over the top”.

De plus, le produit est en V1, pas sec du tout et ce n’est pas une solution IPTV. Quand à son interface, elle est centrée sur la fonction de recherche. Une UI de STB, c’est beaucoup plus que cela. Et puis, si tu veux un épouvantail pour les chaines TV, c’est le bon.

Si Google TV réussit bien dans les TV connectées, cela pourrait amener les FAI à les considérer d’ici quelques années.

Répondre à ce commentaire

Commentaire 938 dans Les logiciels et contenus de la Freebox 6, le 16 décembre 2010

Questions intéressantes.

Signaux de synchro de programmes : je ne pense pas que cela existe. C’est effectivement un problème avec tous les PVR, leur EPG étant rarement suffisamment précis.

Pour la pub : vieille demande des utilisateurs, mais incompatible avec l’intérêt des chaines TV qui vivent de la pub. Donc exit !

PVR avec Canal d’accès limité : lié aux demandes de Canal+ qui ne souhaite pas voir ses contenus circuler sur PC. Au même titre, Canal+ ne certifie aucune solution de PVR sur PC avec son programme CanalReady.

Bref, tout cela ne dépend pas de Free !

Répondre à ce commentaire

Commentaire 937 dans Les logiciels et contenus de la Freebox 6, le 16 décembre 2010

Ah le Marco, quel plaisir de te lire ! Welcome !

Pour les codecs, je n’en sais rien. Ce qui change, c’est l’origine de ce support des codecs. Une grande partie est dans le silicium d’Intel Sodaville. Une autre dans les briques logicielles fournies par Intel. Et enfin, le reste vient de la communauté open source ou des développeurs de Free. Chaque codec doit donc avoir une histoire particulière. Certains sont peut-être même communs avec ceux de XBMC. Mais pas sûr que cela soit documenté. Il faudra aller à la pêche aux informations, ce que je ferai chez Free après le CES.

Pour AlloCiné, bonne question. Ce n’est pas un scrapper. Free tape dans des API AlloCiné. Ils ont un partenariat formalisé pour ce service, facilité par la très bonne relation entre le fondateur d’AlloCiné, Jean-David Blanc et Xavier Niel (cf les deux ensembles ici sur Darqroom).

Pour XBMC, ta question est-elle de savoir si un PC sous XBMC pourrait accéder aux fichiers stockés dans le DD de la Freebox Server ? A priori oui.

Tu es à XBMC ce que je suis à mes Windows Media Center que j’apprécie et utilise toujours malgré leurs innombrables défauts. La raison principale : on peut tout faire avec. Le défi pour Free est de rendre mes MCE totalement inutile. Je pense que cela sera le cas le jour où le FTTH arrivera chez moi. Donc d’ici deux ans environ.

Répondre à ce commentaire

Commentaire 936 dans Les entrailles de la Freebox 6, le 16 décembre 2010

Il y a toujours un tuner TNT.

Répondre à ce commentaire

Commentaire 935 dans Les entrailles de la Freebox 6, le 16 décembre 2010

Eric, on peut éviter l’invective et débattre calmement ?

J’admets que l’utilise le terme de design par abus de langage en l’approchant du sens “stylisme” tel que décrit ici.

Bien entendu, le design industriel ne relève pas du superflu. Mais il peut en créer lorsqu’il intègre des éléments de style qui n’ont pas de raison d’être fonctionnelle.

Superflu ne veut pas dire pour autant inutile. Le subjectif est souvent utile. C’est juste quelque chose dont on peut se passer pour utiliser l’objet.

On peut aussi facilement confondre design, style et ergonomie… Vaste débat sémantique. Le choix des matières (métal ou caoutchouc) dans la Freebox est à la croisée des chemins entre les trois. Il joue un rôle dans l’ergonomie notamment sur la télécommande. Mais aussi sur le look (donc le style) de ces objets. Et aussi sur le design (comme l’expliquait Starck : le métal protège le coeur des boitiers et le mou est au contact de l’utilisateur).

Répondre à ce commentaire

Commentaire 934 dans Les logiciels et contenus de la Freebox 6, le 15 décembre 2010

Il me semble que l’on pourra sans problème naviguer dans les contenus de son réseau local. Comme tous les formats sont supportés dans la Freebox Player, un XBMC sera en effet superflu.

Répondre à ce commentaire

Commentaire 933 dans Les logiciels et contenus de la Freebox 6, le 15 décembre 2010

Je ne le prend pas mal. Don’t worry. C’est juste un hola car je ne peux pas répondre à toutes les questions techniques. J’ai les bons contacts chez Free, mais j’imagine – j’espère – ne pas être le seul dans ce cas la !

Répondre à ce commentaire

Commentaire 932 dans Les logiciels et contenus de la Freebox 6, le 15 décembre 2010

@alkasar @vincent 2L2T : aucune idée. Ce blog n’est pas le conseil technique avant-vente de Free. Il y a des forums pour cela… Et je n’ai pas encore de FB6 chez moi pour faire des tests !

@kingdon : je vais traiter de ces sujets dans le quatrième article de cette série. Patience !

Répondre à ce commentaire

Commentaire 931 dans Les entrailles de la Freebox 6, le 15 décembre 2010

Il n’y a pas de récepteur infrarouge sur la Freebox Player. Il faudra passer par “IP” pour piloter la bête à distance. Donc, passer par exemple via une application iPhone comme c’est déjà possible pour la Freebox V5.

En gros, j’interprète cela comme l’intégration de Free dans une tendance du marché de remplacement des télécommandes universelles souvent assez chères par des applications pour smartphones.

Répondre à ce commentaire

Commentaire 930 dans Les entrailles de la Freebox 6, le 15 décembre 2010

Concepteur, oui.

Au même titre que Technicolor, non.

Ce dernier conçoit ses STB sur cahier des charges des opérateurs et elles sont diffusées en marque blanche, avec le branding des opérateurs (Orange, DirecTV aux USA, etc). De plus, dans une grande partie des cas, ses STB tournent avec un middleware externe. Thomson doit être fabless et sous-traiter une grande partie de sa production en Asie.

Free est plus proche d’un Apple voire d’un Dish/Echostar aux USA. Il conçoit son hard et son soft. Et la fab est ensuite sous-traitée. C’est une intégration plus verticale.

Répondre à ce commentaire

Commentaire 929 dans Les logiciels et contenus de la Freebox 6, le 15 décembre 2010

Tu rigoles ! Chez Free, ils prennent plutôt des distros de base (Debian ou autre) et ajoutent leur brique à eux. Ils se font leur propre distro en quelque sorte. Ce qui leur a d’ailleurs valu des ennuis avec la FSF au sujet de la licence GPL il y a quelques années.

Répondre à ce commentaire

Commentaire 928 dans Les logiciels et contenus de la Freebox 6, le 15 décembre 2010

Pas de HbbTV dans le pipe pour l’instant. Le standard a été finalisé cet été, alors que la FB6 était déjà bien avancée !

Côté overlay, le risque est limité car il ne sert qu’à changer de chaine. Cela existe déjà ailleurs, y compris dans certaines TV.

De plus, Free ne cherche pas du tout à générer de revenu publicitaire dans son modèle TV. Il ne présente pas le risque de Google TV pour les chaines TV.

Répondre à ce commentaire

Commentaire 927 dans Les logiciels et contenus de la Freebox 6, le 15 décembre 2010

Il me semble que c’est toujours supporté. Je l’ajoute dans le post.

Répondre à ce commentaire

Commentaire 926 dans Les entrailles de la Freebox 6, le 15 décembre 2010

Je ne le connais pas.

Répondre à ce commentaire

Commentaire 925 dans Les entrailles de la Freebox 6, le 15 décembre 2010

Je suis sûr qu’il y en a de plus dingues que moi qui le feront avant !

Ca dépend aussi de la démontabilité de la chose.

Et de la date à laquelle j’en obtiendrai une. Visiblement, pas évident de l’avoir rapidement pour les tests.

Répondre à ce commentaire

Commentaire 924 dans Les entrailles de la Freebox 6, le 14 décembre 2010

@vjeux : le navigateur est propriétaire et construit autour du Webkit.

@gidehault : merci pour l’info, je comprends mieux. J’ai mis à jour le post en intégrant ton information.

@Free4ever : pas connaissance de l’intégration d’un SoC Vixs dans la Freebox Player. N’est-ce pas une fonction implémentable en software avec Sodaville ?

@DDRstyle : oui, je parle d’expérience utilisateur dans le post suivant (mais c’est aussi couvert ailleurs …)

@ga : merci pour le feedback, c’est corrigé dans le post.

@macha : ce sont effectivement des entrepreneurs qui ont réussi sans le statut JEI parce que leurs premiers business étaient à faible composante technologique et que le JEI n’existait pas lorsqu’ils ont démarré. Mais cela démontre quoi ? Que cela ne sert à rien d’encourager les startups technologiques à se développer ? Dialectique à la con ! De toutes manières, Sarkozy parle 90% du temps. Sur disons 2 heures, cela fait 12 minutes à se partager à 8, soit 90 secondes par invité puisqu’ils sont huit (plus peut-être des personnes de l’Elysée et éventuellement Eric Besson). La surprise serait que Sarkozy écoute au lieu de parler. J’attend avec impatience le compte-rendu des bloggeurs invités et surtout celui de Jean-Michel Planche.

Répondre à ce commentaire

Commentaire 923 dans LeWeb 2010 – Vue d’ensemble, le 13 décembre 2010

En effet les intervenants asiatiques étaient d’un très bon niveau. Je faisais allusion à l’audience dans l’article.

Répondre à ce commentaire

Commentaire 922 dans LeWeb 2010 – Les plateformes 2, le 12 décembre 2010

En fait, Google aussi fait des acquisitions cachées. J’en ai discuté avec le gars des M&A Europe de Google à LeWeb. Ils ne communiquent pas eux-mêmes, mais la communication leur échappe souvent donc ils doivent “annoncer” les deals après les fuites. Regarde la capacité à conserver le secret sur Groupon… !

Pour MS, leur acquisition sure est Canesta, un capteur 3D, concurrent de celui de Prime Sense utilisé dans Kinect. A n’y rien comprendre ! Complémentaire, concurrent, seconde source, va savoir !

Répondre à ce commentaire

Commentaire 921 dans LeWeb 2010 – Les startups, le 12 décembre 2010

Oops, la boulette ! Je vais donc éditer l’article en conséquence. L’arrangement de ces stands était donc quelque peu ambigu. La zone des startups CMS étant sans signalétique, il semblait qu’elle était attachée au stand Alcatel qui était en face. Je vois d’ici Julien Codorniou qui doit fulminer…

Répondre à ce commentaire

Commentaire 920 dans LeWeb 2010 – Vue d’ensemble, le 11 décembre 2010

Que dire devant tant de pessimisme ?

Pourquoi les chefs d’entreprise sont-ils creux ? Il y a bien des projets foireux, mais il y en a aussi qui créent des emplois. Sans chef d’entreprise, il n’y a pas de création d’emplois. Les haïr, c’est couper la branche sur laquelle on est assis ! On dirait parfois qu’il n’y a qu’en France qu’on n’a pas encore compris cela.

Je ne serais sinon pas étonné que LeWeb 2011 fasse abstraction de l’élection présidentielle. Le meilleur LeWeb de ces dernières années est ce creu 2010 et il n’avait pas de politique français “on stage”.

Bon, il y avait juste Jean-Louis Missika qui intervenait rapidement dans une réception à la Mairie de Paris. Il est juste Maire Adjoint, et sans ambition au delà, ni d’ailleurs de carte de parti aussi curieux que cela puisse paraître.

Répondre à ce commentaire

Commentaire 919 dans LeWeb 2010 – Vue d’ensemble, le 11 décembre 2010

Aucun rapport avec le Morbihan… c’est un homonyme et qui ne s’écrit pas de la même façon.

Les échos? Ni plus ni moins qu’avant. Il faut du temps pour digérer ce qu’on y voit. Je ne fais que commencer pour ma part !

Quel est ce “scandale actuel sur les startups” ?

Pas sûr que Loic ait cherché à avoir Besson. Cela aurait été probablement contre-productif par rapport au succès de cette édition.

Vendre la franchise LeWeb serait en tout cas une grosse bévue pour l’acquéreur, pour utiliser un langage châtié. LeWeb ne vaut rien sans le réseau et le véritable leadership des Lemeur !

Répondre à ce commentaire

Commentaire 918 dans Le plan de résistance bancal des chaines face à Google TV, le 8 décembre 2010

J’évoque aussi la réaction des networks américains. Elle est plus explicite. Mais par certains côtés plus adaptée. Les networks refusent la monétisation sauvage de leurs contenus streamés via Internet par Google, par une mesure de blocage technique. Cela correspond bien aux nouveaux usages.

Les chaines TV françaises bloquent la diffusion de leurs contenus broadcastés traditionnellement autant que ceux qui sont streamés. En ce sens, les chaines françaises sont plus restrictives que les networks américains qui sont déjà habitués à des solutions type Slingbox et à l’usage des PVR (malgré le mal que cela leur fait dans les revenus publicitaires, ils n’ont pas pu y résister).

Bon, en même temps, j’écris cela en étant à LeWeb où France Télévision a un très beau stand et une approche “social networks” intéressante pour une chaîne publique. TF1/LCI est de son côté partenaire de longue date de l’événement (via la contribution notable de Cédric Ingrand de l’émission Plein Ecran).

Répondre à ce commentaire

Commentaire 917 dans Le plan de résistance bancal des chaines face à Google TV, le 8 décembre 2010

Oui, le point de vue côté Google mérite d’être examiné. En fait, la boite cherche d’abord à imposer son modèle et ensuite, va faire les ajustements minimum pour le faire accepter par les “stakeholders”. Ils apprennent en marchant. Cela reste une approche très expérimentale “à l’américaine” sans forcément avoir de grand plan super-structuré comme on aime à l’interpréter vu de France.

Répondre à ce commentaire

Commentaire 916 dans Conférence Annuelle des Entrepreneurs, le 4 décembre 2010

Le modèle idéal consiste à s’installer commercialement aux USA mais à conserver tout ou partie de la R&D en France. Dans le numérique, si l’on veut devenir un acteur mondial, il n’y a pas trop de choix : il faut s’implanter aux USA. Et revenir en Europe ensuite.

La délocalisation complète n’est évidemment pas souhaitable pour nos emplois. C’est le choix de l’entrepreneur.

Pour ce qui est des aides qui ont alimenté les boites qui ont délocalisé, elles sont statistiquement très faibles. Pour une boite aidée qui s’est délocalisée aux USA, il y en a 50 qui sont restées en France. Ne faisons donc pas une histoire de ces délocalisations. Les grandes entreprises du secteur du numérique qui sont devenus des acteurs mondiaux (Dassault Systèmes, BO, Ubisoft, etc) ont tous des implantations dans le monde, aux USA, ET ont créé beaucoup d’emplois en France. Cela doit rester l’objectif. Keep focused… !

Répondre à ce commentaire

Commentaire 915 dans Le plan de résistance bancal des chaines face à Google TV, le 1 décembre 2010

@Social TV : bonne remarque sur CPC vs CPM. Quel sera le modèle pour les pubs pre et post-roll non pas de contenus provenant de YouTube mais de contenus provenant directement des chaines broadcast, le jour où elles accepteront ce mode de diffusion ? Quant à Google = régie publicitaire ultime, c’est bien leur ambition. Même dans le offline, malgré l’abandon du print aux USA en 2009 (http://techcrunch.com/2009/01/20/google-bails-on-print-ads-and-newspapers/).

@Vincent: “Ce sont des gens intelligents qui les dirigent”. Ach ! La plupart des boites qui prennent de mauvaises décisions sur le moyen/long terme sont remplies de gens intelligents. Les entreprises et organisations humaines hiérarchiques sont ainsi faites. Sinon, nous sommes en phase: l’appétence du marché n’est pas démontrée et sera au mieux très différente selon les segments socio-démo, laissant en effet du temps aux chaines pour se retourner. Il n’empêche qu’elles continuent à se tirer une balle (voire plusieurs) dans le pieds avec leur attitude. Notamment sur les segments jeunes qui consomment la TV sur PC.

Répondre à ce commentaire

Commentaire 914 dans Le plan de résistance bancal des chaines face à Google TV, le 30 novembre 2010

Je suis l’affaire JEI & autres de loin. Les pôles de compétitivité ont rencontré Eric Besson hier. J’ai bien peur cependant que le gouvernement soit autiste et ne change pas de position. Les startups n’ont aucun poids politique. Les JEI ? 2000 entreprises pour l’essentiel des TPE. Ce n’est rien face aux dizaines de milliers de cafés restaurants, des taxis, agriculteurs et autres professions qui savent mieux se faire entendre, souvent grâce à un pouvoir de nuisance certain.

Il ne faut pas tomber non plus dans le catastrophisme. Ce n’est pas 1% de taxe sur la pub en ligne qui va changer l’équation économique des startups. Ce qui m’inquiète, c’est plutôt la paperasserie que cela va générer pour pas grand chose. Comme souvent en France, les micro-taxes créent des macro-pertes de temps et d’efficacité qui s’additionnent en rendant infernale la vie des entrepreneurs, et surtout de ceux qui ont en charge la gestion financière et de la paye.

La redevance TV ? Elle ne s’additionnera pas à la redevance que l’on paye déjà dans un foyer qui dispose de TV si je comprend bien. Elle constituera une nouvelle redevance seulement pour ceux des foyers qui n’ont pas de TV et achètent les appareils concernés (PC, tablettes, etc). Il s’agit d’une minorité de foyers en général, à ceci près qu’ils sont plutôt jeunes. Comme ils peuvent aussi recevoir les chaines TV via la TNT ou l’IPTV, c’est une simple question d’équité. Vus les taux d’équipement qui dépassent les 95%, la redevance TV devrait être applicable à tous les foyers fiscaux sans se casser la tête de savoir quel est leur équipement. Et en continuant à appliquer des exonérations pour les personnes non imposables. Donc, le marché noir ou gris de PC n’est pas à craindre.

Répondre à ce commentaire

Commentaire 913 dans Le plan de résistance bancal des chaines face à Google TV, le 30 novembre 2010

En effet, un scénario plausible est “tout ça pour ça”, à savoir beaucoup d’inquiétude pour un problème qui n’en est pas un. Ou un problème qui existait déjà et qui ne faisait pas tant de mal que ça.

Les grandes chaines de TV ont surtout subit la baisse de leur audience du fait de l’accroissement du nombre de chaines permis par la TNT ! Pas à cause de l’Internet, de l’overlay et autres écrans connectés.

Répondre à ce commentaire

Commentaire 912 dans SFR ouvre le bal avec la NeufBox Evolution, le 24 novembre 2010

Mais choisit-on le CPL pour être plus green ? En général, c’est parce que l’on ne peut pas tirer facilement de câble entre la gateway et la STB, et que le wifi ne passe pas non plus.

Répondre à ce commentaire

Commentaire 911 dans SFR ouvre le bal avec la NeufBox Evolution, le 24 novembre 2010

Le processeur de STM semble supporter Flash (cf http://androidnewsreleases.blogspot.com/2010/09/stmicroelectronics-demonstrates.html) mais je n’ai pas l’impression que le logiciel de WyPlay soit développé avec. D’autant plus que cette société préfère dans l’ensemble les solutions les plus open source possibles. Le 7105 est aussi un peu limite en performance pour supporter le Flash. Le 7108 est plus indiqué.

Est-ce que l’on peut parler de “réelle innovation” dans cette offre ? Question de sémantique. Il y a des nouveautés techniques intéressantes même si quelque peu disparates. La plus importante et encore rare est cette cohérence de l’usage en mode multi-écrans. Ce qui manque essentiellement – et ne serait pas forcément une “innovation” en soi – est une ouverture de la plate-forme et une approche d’écosystème plus hardies. La gestion des menus de l’interface gagnerait aussi à être un peu plus structurée.

Pour l’instant, WizTivi développe quelques autres widgets sur commande après avoir livré celui de DailyMotion. Mais SFR n’a visiblement pas encore de “programme développeurs”. Pourtant, ce serait un bon moyen – pour eux comme pour les autres FAI – de limiter les éventuels dégâts de l’arrivée de Google TV sur le marché. Mais passer du rôle de fournisseur de service grand public à celui de plateforme extensible demande des évolutions dans les organisations, les comportements, les compétences, pas évidentes à acquérir !

Répondre à ce commentaire

Commentaire 910 dans Conférence Annuelle des Entrepreneurs, le 24 novembre 2010

Bon point, quoique très pessimiste. Restons dans une démarche de changement. Comment faire évoluer le système ?

Deux petites remarques :

La taxe sur la publicité en ligne est certes dérangeante, mais elle ne me semble pas handicaper les startups dans leurs exportations puisqu’elle ne concerne que les annonceurs français. Si cela pouvait au contraire pousser les startups à diffuser leurs services hors de France, l’effet induit pourrait être positif ! Par contre, les frais de gestion vont être élevés car son taux étant très bas (1%), elle va pomper l’air des entreprises pour un rendement assez faible pour l’état (chiffré je crois à 20m€).

Sans modifier l’intouchable “modèle social français”, il y a des aménagements importants qui pourraient être réalisés dans la la gestion des charges applicables aux entreprises. Ils relèvent du simple bon sens. Pourquoi par exemple déporter sur la feuille de paye et les entreprises la complexité des régimes sociaux ? Il serait si simple d’appliquer un seul taux global à chaque assiette de charges (salaire brut, ou salaire plafonné) et de ventiler ensuite à l’arrivée (URSSAF) le taux chaque année en fonction de la loi de finance ? Chaque année, seul le taux serait modifié pour chaque assiette. Ces taux qui définissent les ressources des organismes associés (maladie, chômage, retraites, logement, formation) sont de toutes manières artificiels car l’Etat procède sans cesse à des réallocations de budgets. Soit pour “boucher les trous”, soit pour pomper le trop plein.

On a aussi tendance à créer des impôts et charges divers alors qu’il est souvent suffisant de modifier les taux d’impôts existants. Sous couvert de pédagogie (par exemple, pour les salariés), on complexifie à outrance le système. Et la feuille de paye. Autre exemple frappant du même genre : les diverses taxes qui frappent les opérateurs télécoms et FAI. Alors qu’il suffirait de modifier la TVA selon les activités.

Et puis nous avons N. Sarkozy qui parle de créer “un nouvel impôt sur les revenus du patrimoine” (en remplacement de l’ISF et du bouclier fiscal). Alors que les revenus du patrimoine sont déjà imposés de diverses manières et qu’il suffit de modifier les taux (à la hausse). Ou alors, de simplifier l’ensemble, ou encore de créer de la progressivité là où n’y en a pas.

Il y a une dizaine d’années (quand Fabius était à Bercy), une rare simplification a consisté à intégrer la redevance TV dans la taxe d’habitation. Et aussi à supprimer la vignette automobile pour les particuliers. Toutes ces mesures ont permis de faire des économies significatives de frais de gestion. La suppression éventuelle de l’ISF permettra aussi de faire de telles économies, sans compter les coûts cachés (le temps passé par les redevables à remplir leur déclaration et les frais de sous-traitance associés). L’Etat ferait bien d’évaluer le “TCO” (total cost of ownership) de toute sa fiscalité !

Pour nous consoler, petit détour par les USA. La manière dont y est gérée la TVA est particulièrement déroutante car très variable d’un état à l’autre : http://en.wikipedia.org/wiki/Sales_taxes_in_the_United_States#New_York.

Répondre à ce commentaire

Commentaire 909 dans Les chamboulements en cours du financement de l’innovation, le 19 novembre 2010

Bon, bien, pas génial le pronostic…

Répondre à ce commentaire

Commentaire 908 dans Carnet de voyage aux USA, le 17 novembre 2010

Le reste des photos est ici : http://www.darqroom.com/portfolio/34172.

Répondre à ce commentaire

Commentaire 907 dans Carnet de voyage aux USA, le 16 novembre 2010

Oui, ça se discute of course. Et heureusement, ces échafaudages ne s’écroulent pas généralement. Si le bazar est bien accroché aux murs, la contrainte subie par les soudures peut être limitée. Mais il y a aussi la dilatation thermique qui est assez mal prise en compte avec des soudures.

Répondre à ce commentaire

Commentaire 906 dans Les chamboulements en cours du financement de l’innovation, le 14 novembre 2010

En effet, pas de quoi sauter au plafond !

Besson ne se préoccupait pas plus des PME innovantes que NKM, et je dirais même moins. C’est inquiétant. Cela va en tout cas renforcer le rôle de la DGCIS dans le bouzin.

Répondre à ce commentaire

Commentaire 905 dans La prolifération des plateformes, le 10 novembre 2010

J’ai peut-être forcé le trait sur la délocalisation plus facile du développement logiciel. Mais c’est un fait aujourd’hui à l’échelle mondiale. Même s’il a des limites bien connues sur la gestion des projets, la réactivité et la qualité, des écueils. Problèmes que rencontrent nombre de startups qui sous-traitent à l’étranger tout ou partie de leurs développements.

De plus, le développeur est de plus en plus un intégrateur de briques logicielles, d’interfaces utilisateurs et de contenus. Cela peut à la fois le valoriser et le banaliser, selon les cas de figure. Il sera valorisé s’il est capable de bien gérer les couches supérieures de l’application (ergonomie, contenus). Il pourra être dévalorisé si la taylorisation du projet l’écarte de ces domaines et le cantonne à la “plomberie”.

S’il reste bien entendu des développeurs qui vont “du lourd”, des applications de gestion, des briques logicielles ou du middleware, un grand nombre d’entre eux font de la commodité, en particulier dans le monde du web et du mobile, et cela pourrait devenir le cas dans la TV connectée. C’est au moins vrai statistiquement quand on compte les applications. Les plus de 250K applications de l’iPhone et les centaines de milliers de Facebook ont probablement demandé bien moins d’années hommes de développement que l’héritage des applications d’entreprise et bureautiques sur Mac et PC.

Un signe indicateur : les prix (très bas) pour se faire créer un site sous WordPress. Les prix pour le développement d’une application mobile restent cependant élevés pour l’iPhone, semble-t-il à cause d’une pénurie de développeurs formés sur la plateforme. Et peut-être aussi parce que le marché n’est pas encore transparent et éduqué sur la vérité des coûts et donc des prix.

Répondre à ce commentaire

Commentaire 904 dans Comment Ubifrance aide les startups à exporter, le 31 octobre 2010

On ne trouvera sans doutes pas la même chose sur le site d’UbiFrance. Mais je n’attendrais pas de cet organisme des études de marché ultra-sectorisées. Il me semble qu’ils plus légitimes pour fournir des indications sur la structure d’ensemble des marchés, les pratiques des affaires, les aspects culturels. UbiFrance a l’air de proposer cela sous plusieurs formes : docs, formations, accompagnement terrain 1/1, etc. Mais je ne vais pas répondre à leur place.

Répondre à ce commentaire

Commentaire 903 dans Les aléas de la fiscalité d’encouragement de l’innovation, le 31 octobre 2010

La France doit respecter la législation européenne c’est tout. Je me demande quelle est la proportion des startups qui font de l’offshore intra-union européenne. Il y en pas mal qui passent par l’Ukraine, qui n’en fait pas partie…

Répondre à ce commentaire

Commentaire 902 dans Le devenir des TV connectées, le 29 octobre 2010

Le scénario que tu décris concerne la VOD, voire éventuellement la catch-up. Mais il reste le “live” à couvrir. Ce n’est pas infaisable, mais c’est une nouvelle offre importante à couvrir pour prétendre remplacer les offres des opérateurs du cable, du satellite et de l’IPTV. Et là, il faut des ressources conséquentes, de la qualité de service, du streaming multi-cast, des accords avec les chaînes locales, etc. Les chaînes résisteront, autant face à Google que face à Apple. Reste à savoir combien de temps. En fait, l’évolution du marché dépend de la capacité de résistance des acteurs établis.

DLNA est une évolution intéressante. Mais est-ce que cela couvre la standardisation de l’accès à des contenus broadcastés ?

Répondre à ce commentaire

Commentaire 901 dans Les aléas de la fiscalité d’encouragement de l’innovation, le 28 octobre 2010

La loi évite justement d’être anti-européenne dans le texte ! On n’est pas forcé d’avoir toutes ses ressources en France pour bénéficier du CIR. Il peut ainsi couvrir des projets de R&D menés n’importe où dans l’union européenne pour une boite redevable de l’impôt sur les sociétés en France. Par exemple, avec des développeurs en Roumanie. Cela concerne à la fois des travaux confiés en sous-traitance à des laboratoires de recherche, qui doivent cependant être agréés par le Ministère de la Recherche, tout comme à des chercheurs salariés de l’entreprise. Reste à savoir qui utilise en pratique cette possibilité.

Répondre à ce commentaire

Commentaire 900 dans Comment Ubifrance aide les startups à exporter, le 27 octobre 2010

@Sébastien et @macha,

Vos avis quelque peu destructifs mériteraient d’être un peu plus étayés !

Les prestations d’UbiFrance sont payantes ? Je ne serais pas étonné que cela soit encore lié à la réglementation. Et leurs homologues du très bon UKTI (Trade & Investment) font de même. Cela permet plusieurs choses : une relative autonomie budgétaire, un management de la performance, une véritable relation client/fournisseur avec les PME qui évite justement les travers du gratuit que l’on prend en mode “free lunch” sans compter. Par contre, je suis d’accord sur un point : les informations principales sur leur site web pourraient être gratuites en format dématérialisé. Notez tout de même que les prestations des CCI dans les pays sont aussi payantes.

Il est vrai que l’organisation de l’export en France a un historique bien compliqué. Il suffit de lire l’article de Wikipedia sur Ubifrance pour comprendre. L’organisme est le résultat d’une mise en cohérence progressive, et pas terminée, d’une demi douzaine d’organismes différents. L’organisation précédente était impossible à manager. Avec des “reporting” éparpillés dans plein d’organismes dépendant de différents ministères. Avec UbiFrance, la structure de management se simplifie et cela permet d’avoir de meilleures performances et une masse critique de ressources. Après, quelle est la véritable culture de management interne à UbiFrance, je n’en sais rien. Son DG, Christophe Lecourtier a fait Normale Sup, Science Po et l’ENA. Et il a un parcours professionnel de haut fonctionnaire quasiment entièrement dédié à l’international. Ce n’est pas un parachuté comme ailleurs. Il y a donc pire !

Les collaborateurs d’UbiFrance et des Missions Economiques sur le terrain sont plutôt jeunes (25 à 35 ans). J’ai eu l’occasion d’en croiser à San Francisco, Seoul, Tokyo et Tel Aviv et ils connaissaient bien leurs marchés respectifs et avaient leurs entrées. Le coup des pages blanches et jaunes est possible, mais pas dans ces grands pays. Peut-être dans un petit pays sans représentation commerciale, ou un pays où les équipes sont très focalisées sur les grandes entreprises. En tout cas, UbiFrance s’occupe maintenant réellement des PME.

Le rôle des CCI est aussi fort, bien entendu. Mais il semble complémentaire pour l’essentiel à celui d’UbiFrance. Une convention datant de 2008 a réparti à peu près clairement les rôles. A ce que j’ai vu en Chine, la CCIP marche tout de même un peu sur les pieds d’UbiFrance et a un avantage avec plus de collaborateurs qui sont des “locaux”. Mais les autres CCI régionales n’ont pas les mêmes ressources. Et un EPIC comme UbiFrance n’a peut-être pas les mêmes souplesses de recrutement qu’un organisme consulaire, par nature plus souple.

Il serait en tout cas intéressant de disposer d’un benchmark indépendant de UKTI vs le couple UbiFrance/AFII. Premier indice, un simple “Google count” : 1,74M pour UKTI, 274K pour UbiFrance et à peu près autant pour l’AFII (et à partir de Google France qui met en avant les contenus en français). Il y a donc du pain sur la planche ! Et surement plein de choses à faire pour améliorer les performances d’UbiFrance et de l’AFII.

Mais il faudrait éviter de mettre sur leur dos les performances décevantes de la France à l’export. Il y a plein d’autres raisons à intégrer : notre structure industrielle (dans les TIC, très orientée vers les services et avec un poids dominant des telcos), la relation entre grands groupes et PME innovantes (procurement, paiement, acquisitions, etc), le manque d’ETI (grosses PME), les faiblesses dans le marketing, une valorisation de nos atouts scientifiques et technologiques pas assez orientée vers les marchés de volume (syndrome du “j’ai une solution” et “je cherche le problème après”), l’exception culturelle française et son impact sur la mauvaise maîtrise de l’anglais, et j’en oublie plein d’autres.

Bref, oui, on peut critiquer les uns et les autres. Mais en se documentant un peu et avec des propositions constructives.

Répondre à ce commentaire

Commentaire 899 dans Les aléas de la fiscalité d’encouragement de l’innovation, le 22 octobre 2010

Sylvain, la majorité de mon activité rémunérée provient d’entreprises qui ne sont pas des startups. Les startups ne peuvent habituellement pas se payer de consultants. Les seuls qui vivent à peu près bien des startups sont les boites de conseil qui aident à lever des fonds privés ou récupérer des aides publiques (genre CIR, etc). Et ça, je n’y touche pas.

Une grande partie de mes interventions dans l’écosystème des startups est en fait bénévole. Notamment le Guide de l’accompagnement des startups publié sur ce blog. Ou du coaching réalisé au travers de différentes manifestations. Sachant que j’ai choisi de me focaliser sur le secteur des médias numérique et notamment de l’image (photo, vidéo, TV).

Lorsque c’est possible, je contribue notamment au rapprochement entre startups et grandes entreprises.

Répondre à ce commentaire

Commentaire 898 dans Les aléas de la fiscalité d’encouragement de l’innovation, le 22 octobre 2010

Aucune idée !

C’est le genre d’imprécision qui peut-être levée dans les décrets d’application des lois. La règle est donc dans un pareil cas laissée à l’appréciation des fonctionnaires de Bercy. A moins que cela soit précisé dans un amendement.

Tout cela est à surveiller comme le lait sur le feu !

Répondre à ce commentaire

Commentaire 897 dans Les aléas de la fiscalité d’encouragement de l’innovation, le 22 octobre 2010

Le CIR est une escroquerie parce que des entreprises le détournent ? A ce compte là, toutes les lois et ou dispositions fiscales sont des escroqueries puisqu’elles sont presque toutes détournées !

Quand à l’article du Monde, il ne faut pas le lire à sens unique. Il y a des témoignages intéressants concernant les JEI et qui sont positifs sur l’impact du CIR. Les témoignages négatifs portent pour l’essentiel sur les grands groupes.

Au fait, êtes-vous déjà allés dans la Silicon Valley ? On ne dirait pas…

Répondre à ce commentaire

Commentaire 896 dans Les aléas de la fiscalité d’encouragement de l’innovation, le 21 octobre 2010

Des outils électoraux ? Pour contenter 3000 boites à l’échelle nationale ? Faut pas pousser…

Les experts sur le CIR ne sont pas juste “du privé”, cela peut aussi être des chercheurs du secteur public non ?

Sur le CIR pour les entreprises qui ne font pas de bénéfice, oui, c’est clair, il s’agit de subventions. Oui, toutes les JEI ne s’en sortent pas. Mais celles qui s’en sortent et arrivent à atteindre la taille critique l’auront fait entre autre grâce à ce ballon d’oxygène dans leur compte d’exploitation. Il ne faut pas jeter le bébé avec l’eau du bain du fait de certains abus tout de même !

Au delà de toutes ces discussions techniques, il me semble qu’il y a un autre élément à prendre en compte : la symbolique et l’affichage. Un pays peut décider de favoriser ses PME innovantes avec des coups de pouce qui techniquement semblent trop importants. C’est un choix stratégique pour 1) aider les jeunes qui en veulent 2) faire émerger des innovations utiles à la société et/ou à l’économie 3) créer des emplois, certes sur le long terme, et avec un taux de chute, mais cela reste des emplois, et des emplois qualifiés.

La France fait des progrès de ce point de vue là, mais on est encore loin du compte. L’équilibre est fragile. Tout coup d’arrêt ou toute mesure de recul sur ces aides diverses créent des signaux très bien perçus par les acteurs, voire amplifiés. On entendra ainsi facilement certains se dire : voilà une raison de plus de s’expatrier !

Dans notre économie planifiée, l’opinion et les élites ont parfois tendance à oublier que les emplois ne tombent pas du ciel, ni ne viennent de l’Etat. Ils sont créés par les gens qui entreprennent et qui prennent des risques. C’est une question “d’atmosphère”. Quand les gens reviennent un peu émerveillés de la Silicon Valley, c’est à la fois pour des raisons techniques (financement, écosystème dense, etc) mais surtout pour l’état d’esprit qui y règne.

Répondre à ce commentaire

Commentaire 895 dans Les aléas de la fiscalité d’encouragement de l’innovation, le 20 octobre 2010

Certes.

Mais qu’on ne l’apprécie ou pas, une grande part du financement de l’innovation en France repose sur un patchwork d’aides, subventions et dépenses fiscales. Certaines étant plus efficaces que d’autres. Certaines donnant lieu à des abus.

Mais en les rabotant, le château de cartes pourrait rapidement s’écrouler. Il est assez fragile. On peut dire : on s’en tape, on se contente de nos grands groupes, de nos PME qui peinent à croître, et faisons fi de l’innovation. Comme de surcroît les grands groupes français font peu d’acquisitions, tous secteurs confondus, on peut aller se coucher.

Aux USA, il y a moins d’aides de ce style. Par contre, les retraites sont financées par des fonds de pension, qui eux-mêmes alimentent des endowments des grandes universités, qui à leur tour financent les startups. Plus la palanquée de business angels issus d’un écosystème qui se porte globalement bien. Et les grands groupes font beaucoup d’acquisitions.

Les retraités en pâtissent lorsque la bourse baisse, sans d’ailleurs que les startups soient nécessairement en cause (même en 2000/2001, l’éclatement de la bulle Internet a surtout affecté les grandes valeurs technologiques).

Le retraite par capitalisation n’étant pas à l’ordre du jour en France pour un tas de raisons probablement valables, et les grands groupes n’étant pas très moteurs dans la chaîne alimentaire de l’innovation, on fait avec ce qu’on a…

Répondre à ce commentaire

Commentaire 894 dans Les aléas de la fiscalité d’encouragement de l’innovation, le 20 octobre 2010

100% d’accord, d’autant plus que cette mesure représente tout de même 390m€ d’économies sur 2010, sur un budget qui augmente de manière galopante, du fait justement des grands groupes.

La priorité reste toutefois le statut JEI.

Il y a cependant un autre point qui m’a échappé et que l’on m’a signalé : les FCPI ne pourront plus investir plus de 1,5m€ par entreprise et par an ce qui est ubuesque. La raison : respecter le plafond de minimis de Bruxelles.

Le Député Charles de Courson a essayé de supprimer cette mesure dans l’article 14 en commission des finances et n’y est pas parvenu. Voici le CR des débats :

Article 14 : Aménagement des réductions d’impôt sur le revenu et d’impôt de solidarité sur la fortune au titre de la souscription au capital de PME et d’entreprises innovantes

La Commission est saisie de l’amendement I-CF 186 de M. Charles de Courson.

M. Charles de Courson. L’amendement tend à supprimer le plafonnement à 1,5 million d’euros des versements des FIP et FCPI dans les PME pour une période de douze mois, institué par l’article 14. En effet, ce plafonnement constitue une véritable régression par rapport à la situation actuelle, car deux tiers des montants des financements en FIP et FCPI sont supérieurs à ce seuil. Cette mesure va donc pénaliser les PME innovantes qui ont le plus de potentiel de croissance et porter atteinte à l’objectif consistant à accroître le nombre d’entreprises à taille intermédiaire.

Ce plafonnement est motivé, selon le Gouvernement, par le souci d’anticiper une demande de l’Union européenne. Or, non seulement cette demande n’est pas formulée par Bruxelles, mais surtout elle privera les PME d’un flux de capitaux essentiel. Dans la situation difficile qu’elles connaissent, mieux vaudrait pour les entreprises avoir autant de fonds propres que possible. La disposition prévue risque donc de pénaliser leur développement – voire, pour certaines d’entre elles, les mettre en situation de défaillance. C’est la raison pour laquelle il est proposé de la supprimer.

M. le rapporteur général. Avis défavorable. Il serait risqué de ne pas respecter les contraintes posées par Bruxelles.

M. Charles de Courson. Cet argument est celui qu’avance le Gouvernement. N’anticipons pas une éventuelle position de l’Union européenne : s’il le faut, nous négocierons le mieux possible. En tout état de cause, ne fixons pas un seuil qui pénaliserait les entreprises qui bénéficiaient du dispositif.

M. le rapporteur général. L’appréciation du plafond de 1,5 million d’euros est ambiguë. Il faudrait que le Gouvernement confirme si ce montant correspond au total de l’investissement, ou seulement à l’avantage fiscal, soit 25 % de celui-ci. Le plafond d’investissement serait alors de 6 millions d’euros.

M. Charles de Courson. Ce n’est pas ce que dit l’alinéa 13 de l’article.

M. le rapporteur général. Nous demanderons au Gouvernement une clarification lors de l’examen du texte en séance publique.

La Commission rejette l’amendement.

On peut espérer que le gouvernement corrigera l’article 14 et que seule la part “aidée” de l’investissement en FCPI sera couverte par le plafond de minimis. Peut-être d’ailleurs mal calculée par le député. Dans un FCPI, la part aidée est de 25% sur 40% (au titre de l’IR) et de 50% sur 60% (au titre de l’ISF). Ce qui donne 40% du total. Donc, si seule la part aidée était prise en compte, le montant d’investissement maximum théorique par an serait alors de 3,75m€ et non pas 6,2m€. Cela serait plus raisonnable mais insuffisant pour financer des seconds tours dans pas mal de cas.

Répondre à ce commentaire

Commentaire 893 dans Comment tirer parti du grand emprunt, le 18 octobre 2010

La volonté de la Commission du grand emprunt et de ses deux coprésidents était d’avoir une gouvernance irréprochable et d’éviter de confier des sommes à des organisations pouvant être juges et parties.

Mais à vrai dire, Oséo se transforme en banque et la CDC en est aussi une, donc c’est un peu du pareil au même.

On peut imaginer un tas de raisons pour le choix d’avoir la CDC comme opérateur. Mon petit doigt que dit que la CDC était plus présente auprès de NKM que ne l’était Oséo. Et par ailleurs, le choix de la CDC semblait logique pour gérer les 2 milliards sur l’équipement en haut débit puisqu’ils ont déjà en charge le numérique dans les régions.

Il est aussi possible qu’il y ait des raisons non documentées liées à la réglementation française ou européenne.

Pour ce qui est du devenir de NKM, wait and see ! Je n’en ai aucune idée, à part les bruits qui courent depuis au moins deux mois (santé, éducation, etc). Elle-même non plus très probablement !

Par contre, la DGCIS dépend déjà de Bercy, donc je ne vois pas ce qu’une nomination là où là pourrait changer.

Répondre à ce commentaire

Commentaire 892 dans Le devenir des TV connectées, le 18 octobre 2010

Oui, c’est un modèle connu. Canal+ a aussi annoncé l’extension de son offre de VOD au direct sur la XBOX 360.

Mais cela reste des consoles de jeu utilisées principalement pour jouer.

On peut imaginer d’une manière générale un avenir où l’appareil importe peu, pour autant qu’il ait suffisamment de puissance pour traiter le graphique en haute résolution. Donc, que ce soit une TV, une set-top-box, une console de jeu, du moment qu’elle permettent de faire tourner les logiciels qui accèdent aux services en ligne (contenus textes, vidéo streamées, etc), cela sera du pareil au même.

Après se pose la distinction sur la capacité d’enregistrement locale, utile dans le contexte de l’exception de la copie privée. Une capacité qui se positionne en opposition au paiement à la séance.

Répondre à ce commentaire

Commentaire 891 dans Le devenir des TV connectées, le 11 octobre 2010

Cela se tient, même si ce n’est pas une stratégie explicite d’Apple, qui continue un peu à se chercher dans ce domaine de la TV.

En tout cas, 100% d’accord : à coût hardware et services voisins, les plateformes généralistes l’emportent très souvent sur les plateformes spécialisées.

Répondre à ce commentaire

Commentaire 890 dans Le devenir des TV connectées, le 8 octobre 2010

Pourquoi pas. Cela fait pas mal de temps que se joue la bataille entre consoles de jeux dédiées et machines plus généralistes (PC, smarphones). Pour l’instant, ce sont les consoles qui gagnent, en tout cas pour ce qui est de Nintendo DS. Cf http://kotaku.com/5287694/iphone-install-base-vs-console-install-bases.

Pour ce qui est de la stratégie d’Apple, je constate que trop souvent pour eux comme pour d’autres, on ne prête qu’aux riches et on imagine des stratégies qui n’en sont pas. L’app store d’Apple et surtout le SDK associé pour l’iPhone ne sont pas sortis en même temps que l’iPhone en 2007… parce qu’ils n’étaient pas prêts ! Aussi simple que cela.

L’Apple TV correspond à un monde où l’on loue tous les contenus, essentiellement en VOD, et où les chaines broadcast n’existent pas, ne sont pas vues en direct ni en en catch-up. Ce n’est pas le monde actuel. C’est pour cela que le produit ne peut pas réussir à grande échelle. Le jour où ils arriveront à dealer avec les chaines TV locales, à ajouter du streaming live HD des chaines directement accessible dans leur logiciel, avec un guide de programme et tout le tralala, avec en prime du “network PVR” pour pouvoir récupérer ses émissions en différé (puisque le device n’a pas de stockage), alors on pourra en reparler.

Autre petit point sur Apple TV : autant l’iPhone a créé un saut quantique par rapport aux smartphones de l’époque (2007), autant l’interface utilisateur de l’Apple TV n’est pas du tout révolutionnaire. On trouve la même chose, à peu de choses près, dans les nouvelles TV connectées ainsi que dans les set-top-boxes les plus récentes… ou dans celles qui vont bientôt arriver. La différentiation n’est donc pas évidente pour l’Apple TV côté ergonomie. Et pour l’instant, les contenus accessible ne couvrent pas suffisamment bien toute la chaine des médias vidéos, du broadcast live à l’UGC.

Répondre à ce commentaire

Commentaire 889 dans Les français de l’IBC Amsterdam 2010, le 7 octobre 2010

Pour un tas de raisons sur lesquelles je ne peux pas m’étendre ici, cela m’étonnerait vraiment que la STB SFR sous logiciel WyPlay puisse être bâtie au dessus d’un matériel d’origine Netgem.

Pour ce qui est des télécommandes, elles viennent le plus souvent d’Asie, et les sous-traitants peuvent être communs entre plusieurs constructeurs/concepteurs…

Répondre à ce commentaire

Commentaire 888 dans Les français de l’IBC Amsterdam 2010, le 6 octobre 2010

Il ne me semble pas qu’il existe de combinaison WyPlay / Netgem pour quelque client que ce soit, ni a fortiori que Vodafone soit un client de Netgem.

La situation est très différente entre WizTivi et WyPlay vis à vis de Netgem. Le premier développe en effet au dessus du middleware et des bibliothèques logicielles de Netgem pour Toshiba Places. Tandis le second est plutôt concurrent direct de Netgem. Si j’ai bien compris, chez SFR, la prochaine génération de STB haut de gamme proviendra de WyPlay tandis que la version actuelle, d’origine Netgem, perdurera pour le reste des clients.

Répondre à ce commentaire

Commentaire 887 dans Guide Startups – Le XIII, le 5 octobre 2010

Bonjour Macha,

Pour l’instant, la CDC est en train de boucler une consultation de sociétés de conseils qui vont l’aider justement à gérer tout le deal flow de ces investissements en equity dans des PME innovantes du numérique. Elle procède en deux temps : d’abord une sélection d’une cinquantaine de sociétés qui seront référencées, puis ensuite, elle fera des appels d’offre au fil de l’eau en fonction des besoins auxquels ces 50 sociétés pourront répondre. Si j’ai bien compris…

La consultation se trouve ici : https://www.achatpublic.com/sdm/ent/gen/ent_detail.do?selected=0&PCSLID=CSL_2010_vKMPnlGoFx.

Donc, le processus est loin d’être en place à ce stade !

Répondre à ce commentaire

Commentaire 886 dans L’attirail pour tourner des vidéos avec les réflex, le 3 octobre 2010

Oui, en effet… 🙂

C’est une évolution de leur offre qui dans cette plage de focales ne comportait que des focales fixes et pas de zoom. Il manquait ces quelques mots de précision dans la phrase, que les lecteurs auront cependant bien compris !

Répondre à ce commentaire

Commentaire 885 dans Guide Startups – Le XIII, le 21 septembre 2010

Merci David pour ces commentaires, que j’empile pour la préparation de la prochaine version !

Répondre à ce commentaire

Commentaire 884 dans Les français de l’IBC Amsterdam 2010, le 18 septembre 2010

Tient, c’est curieux. Je ne les ai pas vus sur place et ils ne figurent pas dans le catalogue officiel de l’expo. Ils ont du décider tard d’exposer. En effet, ils sont présents dans le business des ESG (Electronic Service Guides) sur mobiles.

Répondre à ce commentaire

Commentaire 883 dans Petit parcours au Salon de la Photo, le 18 septembre 2010

Prendre un doubleur de focale Nikon. Et regarder du côté de Sigma ou Tamron. Ils vont jusqu’à 500mm pour un prix raisonnable. Au delà, c’est du pro et très cher. Bref… chercher sur Internet !

Répondre à ce commentaire

Commentaire 882 dans Les français de l’IBC Amsterdam 2010, le 18 septembre 2010

On aurait probablement le même vertige en élaborant une liste du même genre avec les exposants américains, anglais, alemands ou autres. Cette industrie est particulièrement fragmentée mais pour des raisons qui dépassent un peu le cadre de la France. J’explique le rôle des opérateurs dans cet état de fait dans le premier article sur l’IBC 2010. Si le marché des opérateurs était plus fragmenté et si les contenus locaux (l’exception française) n’avaient pas l’importance qu’ils ont, cela donnerait plus d’opportunités à l’industrie française de se structurer autour de véritables produits. C’est une question de gravité.

Un parallèle intéressant peut être fait avec le Japon. Là bas, la régulation de l’IPTV privilégie plutôt les constructeurs que les opérateurs. Le consommateur doit ainsi avoir le choix de son opérateur IPTV indépendamment du matériel qu’il achète.

L’industrie française, et européenne, pourrait évoluer vers une orientation plus produit (vs service) si la régulation y imposait un véritable découplage entre l’abonnement à des services (abonnement à un bouquet de chaines cryptées par exemple…) et l’achat des solutions matérielles pour en profiter (notamment set-top-boxes). C’est une régulation de ce type qui a permis à TiVO d’émerger dans le câble aux USA.

Mais les forces en présence en France et leur capacité de lobbying sont clairement favorables aux opérateurs. Il n’y a qu’à voir la vitesse à laquelle Free a pu se lancer dans le mobile.

Les acteurs cités dans cet article ont presque tous une approche internationale des marchés, ce qui n’est pas toujours vrai dans la high tech (logiciel, Internet). Un bon point pour leur développement. Quelques fusions-acquisitions seraient toutefois les bienvenues dans certains domaines comme dans le middleware.

Répondre à ce commentaire

Commentaire 881 dans Guide Startups – Le XIII, le 13 septembre 2010

Les startups sont prises entre deux feux :

– D’un côté, les aides de l’Etat quelles que soit leur forme, ne peuvent pas se substituer au marché. Elles ne peuvent que se substituer à une déficience de marché. C’est l’une des raisons pour lesquelles elles ont tendance à se focaliser sur les étapes amont de la R&D et surtout de la recherche. Il y a effectivement détournement généralisé du CIR et autres dispositifs de financement de la recherche. Un mal pour un bien…

– De l’autre, les banques prêtent très peu aux startups, surtout à celles qui ne génèrent pas de revenu rapidement et ont besoin d’investir lourdement avant d’en générer. La crise a montré que les banques se tournaient surtout vers les entreprises solvables lorsqu’il s’agissait de faire des prêts. Oséo Garantie s’intercale dans le dispositif, qui permet de faire appel aux banques en minimisant leur risque. Mais Oséo aussi minimise ses risques de non solvabilité.

Le fait que les startups ne fassent pas de recherche ne veut pas dire qu’elles ne prennent pas de risque. Dans l’Internet, celui-ci se situe plus dans le service, son ergonomie, son acceptation sociétale, sa viralité, le marketing opérationnel, le SEO et Google, etc. Il reste très élevé.

Répondre à ce commentaire

Commentaire 880 dans Guide Startups – Le XIII, le 12 septembre 2010

OK. Points pris en compte. Et notamment aussi dans l’encadré de la page 114 comparant le statut JEI et le label EI / FCPI d’Oséo.

L’abaissement du coût fiscal d’un chercheur est une mesure typiquement catégorielle. Elle fait suite au mouvement des chercheurs de 2004 et vise à améliorer leur employabilité dans le privé.

Dans le domaine du numérique, ce n’est pas le rôle d’une startup de mener des travaux de recherche. C’est un non sens. Une startup doit créer un produit et un service et le vendre. Pas faire de la recherche dont l’aboutissement est par nature incertain, avant même d’avoir créé quelque produit que ce soit. Résultat, documenté sur ce blog et dans le guide, la plupart des startups maquillent du développement produit en recherche. Question de wording : on ajoute de la techno, de l’expérimentation et de l’incertitude, à quelque chose qui ne devrait pas trop en avoir.

Répondre à ce commentaire

Commentaire 879 dans Guide Startups – Le XIII, le 12 septembre 2010

Le guide associe bien le statut JEI à l’administration fiscale dans le rédactionnel à l’exception d’un endroit où il y a une erreur dans le glossaire pour le terme FCPI, que je vais donc corriger. Par contre, la définition du terme JEI y est correcte.

Répondre à ce commentaire

Commentaire 878 dans Apple peut-il réussir dans la TV ?, le 7 septembre 2010

Apple a déjà fait son annonce, le 1er septembre. Et l’analyse de cet article reste d’actualité. Apple est même en dessous des prédictions : pas de processeur A4, pas d’application store, pas d’expérience utilisateur multiécran, pas de chamboulement de l’interface utilisateur. Et toujours pas de TV broadcast.

Répondre à ce commentaire

Commentaire 877 dans Guide Startups – Le XIII, le 1 septembre 2010

En effet, je vais corriger cela
dans une silent release.

Répondre à ce commentaire

Commentaire 876 dans Apple peut-il réussir dans la TV ?, le 28 août 2010

Avant d’être vraiment déçus, attendons tout de même l’annonce officielle car pour l’instant, nous n’en sommes qu’aux rumeurs et conjectures, que j’ai certes consolidées. Apple peut encore nous surprendre.

Répondre à ce commentaire

Commentaire 875 dans Apple peut-il réussir dans la TV ?, le 25 août 2010

Tout à fait. Et en plus, les boitiers à la Netflix ne sont pas franchement des réussites. J’entends, en terme de pénétration du marché, et surtout hors USA.

Répondre à ce commentaire

Commentaire 874 dans Culture d’entreprise et innovation 2/6, le 16 août 2010

Intéressant.

Oui, en effet, du point de vue du sourcing externe, Apple fait de l’open innovation. Un peu comme Google et même Microsoft cependant. Et plus dans une approche client-fournisseur sommes toutes assez classique, surtout dans le hardware, que dans une logique d’acquisition de sociétés ou de propriété intellectuelle.

Par contre, Apple diffuse peu d’innovations vers l’extérieur au sens de l’open innovation : peu de brevets, peu de licences accordées sur des brevets, peu de production de logiciels open source (contrairement à Google), pas de spin-offs, pas de partenariats de recherche privé-public (comme chez MS), etc. C’est dans ce sens qu’ils font moins d’open innovation que MS ou Google.

Répondre à ce commentaire

Commentaire 873 dans Ces français qui perfectionnent le cinéma numérique, le 16 août 2010

En effet. Je les connais. Mais ils sortaient un peu du cadre de l’expérience au sein du cinéma de l’article, qui n’avait d’ailleurs pas pour vocation d’être exhaustif. Je suis sinon preneur d’autres feedbacks de ce genre avec des noms de boites françaises qui impactent le cinéma numérique, avec une influence internationale.

Répondre à ce commentaire

Commentaire 872 dans Back from China – Shanghai Expo, le 18 juillet 2010

Cela provient du trop grand nombre d’images dans l’article et c’est une limitation du plug-in pour WordPress de génération du PDF.

J’ai essayé de supprimer des images pour générer le PDF. Cela fonctionne, mais quand je remets en ligne la version complète de l’article, cela regénère l’erreur car il y a un time stamp sur la date de l’article forcant une regénération du PDF si l’article a été modifié.

Bref, pas de solution pour cette fois-ci…

Répondre à ce commentaire

Commentaire 871 dans Back from China – Internet, le 18 juillet 2010

J’ai toujours un doute sur sa fonction car celle-ci date de 2007 sur Internet. Son assistante m’a cependant affirmé qu’il reportait au CEO. Mais voilà, cela m’étonne qu’une personne de l’executive board nous ai reçus. Sur sa carte de visite, il y me semblait qu’il était indiqué Vice Président, sans plus de précision. Or, des VP dans une boite de cette taille, il doit y en avoir des tas. Un VP de l’executive board devrait être au moins Senior VP, tout du moins selon les standards américains.

Répondre à ce commentaire

Commentaire 870 dans Back from China – Ecosystème de l’innovation, le 15 juillet 2010

Je ne porte pas de jugements de valeur, je décris, c’est tout.

Oui, il y a des “travailleurs exploités” en Chine, mais ce faisant, ils voient leur niveau de vie augmenter par rapport à leur vie de paysans. C’est un progrès de leur point de vue, même si du notre, c’est certainement une forme d’exploitation.

Nuance cependant : il y a des boites high-tech en Chine qui n’exploitent pas des ouvriers dans l’industrie manufacturière. Comme je l’indique, la Chine commence à se développer dans les industries de l’immatériel, là où les niveaux de salaire sont bien plus élevés que dans les lignes de montage.

Répondre à ce commentaire

Commentaire 869 dans Back from China – Shanghai Expo, le 15 juillet 2010

Là aussi il y a du monde !

Répondre à ce commentaire

Commentaire 868 dans Back from China – Shanghai Expo, le 12 juillet 2010

Bonjour Philippe,

Oui, et c’est le cas pour tous les pays concernés. Les régions et villes sont dans la zone au nord du fleuve tout comme les pavillons thématiques (que j’ai loupés sauf celui de Cisco), et les pays dans la zone au sud du fleuve. Avec un quart d’heure à une demi-heure selon l’affluence pour passer de l’une à l’autre de ces zones.

Répondre à ce commentaire

Commentaire 867 dans Back from China – Shanghai Expo, le 12 juillet 2010

En effet, Beijing est très différent. Plus étalé, plus calme, mais aussi très embouteillé, les deux et trois roues sont sans moteurs alors que ceux de Shanghai sont motorisés. Dans les standards européens, c’est plutôt une ville du sud alors qu’elle est géographiquement au nord.

Répondre à ce commentaire

Commentaire 866 dans Faut-il se méfier des FCPI ?, le 29 juin 2010

Il faut se méfier des bruits qui courent. Ils sont souvent contradictoires. Et ont tendance à refléter à la fois la complexité du sujet (le rabotage des niches fiscales) et l’indécision politique sur le sujet.

Tant que le projet de loi de finance 2011 n’est pas officialisé, tout cela n’est que conjectures ou ballons d’essais. Plusieurs Inspecteurs des Finances planchent sur le dossier en ce moment. Ils doivent remettre un rapport avec préconisations AVANT la rédaction du projet de loi de finances. Le gouvernement arbitrera ensuite.

On peut alerter sur les dangers de certaines mesures. Différentes associations professionnelles comme l’AFIC s’en chargent en ce moment. La publication du rapport de l’IGF permettra de le faire sur des bases sérieuses (je crois, en juillet).

Sinon, chez Oséo, en sus des prêts et avances, l’aide à l’innovation reste assez faible en masse (aux alentours de 30K en général). En tout cas pour les startups que je peux croiser dans le numérique.

Répondre à ce commentaire

Commentaire 865 dans Faut-il se méfier des FCPI ?, le 29 juin 2010

Beaucoup de questions auxquelles je vais tenter de répondre, mais n’étant pas une “autorité” en la matière !

“Cela signifie que les seules levées de fonds se feront via le FSI, donc la caisse des dépôts, et les prises de participations indiquées par nkm avec le grand emprunt pour le numérique ?”

Non, quand je parle de levées de fonds des VCs, je parle de leurs levées de fonds à eux, pas des startups chez eux. Les fonds de VCs sont alimentés par de l’argent qui est “levé” dans les banques, les assurances et chez les particulier. La CDC intervient en direct ou dans des fonds de fonds en étant une des sources de ces VCs. Vu le trou d’air du moment, il ne serait pas étonnant que leur participation augmente pour éviter un désastre.

“Ca voudrait dire que l’Etat met la main au capital des entreprises les plus stratégiques du numérique pour éviter qu’elles ne soient trop rapidement revendues par les fonds d’investissement ? ”

Oui, c’est un peu le rôle du FSI. Mais il intervient sur un nombre assez réduit de PME, de tailles variables.

“Si c’est cela, que vont devenir les autres startups considérées (peut être à tord) comme moins stratégiques ?”

Bien, elles suivent le cours normal de l’existence, qui est le plus courant. Attention, être financé par le FSI n’est pas forcément bon signe…

“Etre financées en fonds propres par les BA avec la loi Tepa pour quelques centaines de milliers d’euros? ”

Cela couvre en général les phases d’amorçage du cycle de vie des startups. Les VC interviennent généralement plus tard.

“Que devient le label Oséo pour les FCPI ? Est il remplacé par le nouveau label “entreprise innovante” des pôles de compétitivité également attribué par une filiale de la caisse des dépôts (Polinvest)? ”

A ma connaissance le label FCPI “de base” n’a pas disparu. Ceci étant, le nouveau label me semble un peu superflu. La tendance gouvernementale à favoriser la R&D collaborative me semble dangereuses dans sa généralisation. Elle éloigne souvent les startups des marchés et des clients.

“[…] ce contrat participatif est un prêt ! Ca n’a rien à voir ! N’y aurait il pas un dindon dans l’histoire ? J’ai l’impression que l’équipe Oséo s’est fait voler quelque chose… et qu’on lui laisse l’enfer… Faire du prêt (si les banques le veulent bien). Ils vont mourrir ! http://www.oseo.fr/a_la_une/actualites/pme_et_eti_renforcez_votre_haut_de_bilan

Cela fait un bon bout de temps que l’activité de financement principale d’Oséo relève du prêt. Cela glisse même vers la garantie de prêts bancaires.

Répondre à ce commentaire

Commentaire 864 dans Faut-il se méfier des FCPI ?, le 29 juin 2010

En effet, les FCPI et les VC qui vont avec sont sérieusement menacés, et par au moins trois facteurs cumulés :
– Le rabotage des niches fiscales.
– La règlementation prudentielle qui se met en place au niveau européen (dont Solvency 2 pour les assurances)
– La crise financière qui dans l’absolu rendent les levées de fonds plus difficiles auprès des banques

Résultat, on se dirige discrètement vers une nationalisation des FCPI, déjà entamée avec le dispositif France Investissement et qui va se développer par le biais du Grand emprunt, tout du moins pour ce qui concerne le numérique.

Cf quelques articles plus récents de ce blog que celui-ci sur le sujet :
http://www.oezratty.net/wordpress/2010/siximes-rencontres-xange/
http://www.oezratty.net/wordpress/2010/chamboulements-financement-innovation/
http://www.oezratty.net/wordpress/2010/tentative-decryptage-grand-emprunt/
http://www.oezratty.net/wordpress/2009/financement-public-et-priv-de-linnovation/

Répondre à ce commentaire

Commentaire 862 dans Culture d’entreprise et innovation 5/6, le 27 juin 2010

Je ne vais pas en citer qu’une car cela serait très réducteur, et il faut tenir compte de ce qu’il s’agissait de rôles marketing et business development dans une filiale (une dizaine en tout), et pas dans la création de produits qui était l’objet principal de ces 6 articles :

– La compréhension des mécanismes de création d’écosystèmes de partenaires et de développeurs, qui me sont très utiles aujourd’hui avec les startups comme avec les grands groupes que je conseille.

– Les relations de travail en environnement interculturel et international. Cela m’aide notamment lorsque je fais de la veille technologique dans le numérique grand public. Et dans certains comptes rendus de visite publiés sur ce blog.

– La maitrise de différents moyens de communication, le mix médias, la publicité, la prise de parole dans les conférences, avec les médias, etc. La compréhension de ce qui est émotionnel vs rationnel dans la communication. Et aussi, l’habitude à entrer en contact avec des personnes de tous niveaux sans être intimidé. Toujours très utile.

– Diverses compétences managériales qui ne me servent plus directement puisque je suis freelance, mais plutôt à décoder comment fonctionnent les entreprises et aussi à coacher certains de mes clients.

– Des capacités analytiques, qui permettent maintenant d’analyser des business plans, d’évaluer les cycles de ventes, des taux de transformation, d’identifier rapidement des incohérences, etc.

– Une certaine endurance : se définir des objectifs difficiles à atteindre, se prendre en main, faire des propositions, les charpenter.

Après, il y a ce que l’on est avant et que l’on reste après y être passé…

L’aliénation n’est évidement pas une compétence. C’est une position de dépendance et de dévouement asymétrique qui s’efface après avoir quitté l’entreprise. Elle existe dans toutes les grandes entreprises à des degrés variés, selon son ancienneté, son rôle, le contrôle que l’on a de son emploi du temps, les effets de la routine, etc.

Répondre à ce commentaire

Commentaire 861 dans Culture d’entreprise et innovation 2/6, le 25 juin 2010

Nuances…

OK sur le fait qu’Apple est avant tout une boite de hardware pour qui le logiciel est un moyen de vendre du matériel. Cela explique pourquoi MacOS n’a pas été licencié en OEM.

Pour MS, notons qu’il a tout de même créé la notion de suite bureautique, Office étant la première du genre. Auparavant, il y avait juste des “intégrés” (Framework d’Ashton Tate et Symphony de Lotus) qui tournaient sous MS-DOS, un OS non multitâche et non-multifenêtré.

Pour Google, il faut voir. Android comme Google TV ou Chrome OS sont surtout vus comme des outils permettant de faire de la recherche et sont monétisés par la publicité autour de la recherche, le soft étant gratuit. On retombe ainsi sur la vision initiale. Regarde la démo de Google TV, c’est éloquent.

Chaque société est très autocentrée sur sa vision et son histoire. Pour Apple, tout est matériel et design et maintenant contenus; chez Microsoft, tout est logiciel; chez Google, tout est “recherche” (de texte, d’image, de vidéo, de TV, de carte géographique, de personne…). Chez Cisco, tout est réseau, chez Oracle, tout est “données d’entreprises”, etc.

Répondre à ce commentaire

Commentaire 860 dans Culture d’entreprise et innovation 3/6, le 25 juin 2010

Justement… une boite n’est pas “visionnaire”. Ce sont les gens qui la composent qui le sont ou pas. Et selon où ils sont et leur pouvoir de décision, le résultat est variable. D’où mon point : la tête n’est pas visionnaire, mais il ne faut pas négliger les gens en dessous chez qui on peut trouver de la “vision”…

Que Steve Ballmer ne soit pas visionnaire sur l’évolution des besoins des clients, c’est clair. Surtout dans le grand public. Mais comme dirait Guy Kawasaki, encore lui, est-ce qu’un MBA peut être visionnaire ? 🙂

Répondre à ce commentaire

Commentaire 859 dans Culture d’entreprise et innovation 1/6, le 23 juin 2010

Google est peut-être plus jeune (12 ans), mais son business qui est essentiellement tourné vers la grand public pèse déjà plus lourd que tout le business grand public de Microsoft !

Par ailleurs, Google n’est pas mono-produit. Ils ont au moins deux vaches à lait distinctes : le search avec les AdWords, et la régie publicitaire Adsense. Et côté produit, ils sont aussi dispersés que Microsoft : YouTube, Buzz, Wave, Gmail, Checkout, Picasa, Earth/Maps, Docs/Apps, Android, Google TV, etc. Sachant que nombre de ces produits ne sont pas profitables, voire certains des challengers plus que des leaders du marché. Dans la comparaison ici effectuée, ils me semblent plus ressembler à Microsoft qu’à Google. D’ailleurs, il leur pend au nez les mêmes soucis potentiels liés à leur dominance du marché du search. L’antitrust n’est pas loin… :).

Le faible taux de brevet de Google a quelques explications : peu de recherche fondamentale, un business de services en ligne qui permet de se protéger plus facilement par le secret industriel et la difficulté qu’il y a à breveter du logiciel (même si c’est tout à fait possible aux USA).

Le PageRank est au web ce que la formule du Coca Cola est à l’agroalimentaire. Secret de fabrication !

Répondre à ce commentaire

Commentaire 858 dans Culture d’entreprise et innovation 4/6, le 23 juin 2010

Non, pas de telle filigrane.

Je pense que la déficience n’est pas dans la recherche chez Microsoft (qui est d’ailleurs plus appliquée que fondamentale) mais plus les groupes produits et dans le processus de décision stratégique de la société et aussi dans son modèle OEM qui présente des limites dans les business grand public. Le saupoudrage ne fonctionne pas bien. Reprenons l’exemple de TerraServer. Ce qu’a fait Jim Gray était très bien. Mais après quelques années d’expérimentation (disons 1998-2003, le temps que le haut débit se déploie), il y aurait du il y avoir quelqu’un chez MSN pour dire “ce truc peut intéresser beaucoup d’Internautes, pourquoi ne pas en faire un vrai produit, un véritable business en intégrant cartographie, vues satellite, informations commerciales, etc ?”. Mais la cartographie à l’époque chez Microsoft, c’était MapPoint (pour les entreprises) et Street & Trips (Autoroute Express en France; pour le grand public), des business de vente de DVD qui ont peut être résisté à la vague du online. Le fameux dilemme de l’innovateur ! Il serait intéressant d’avoir des points de vue sur les frustrations internes dans la R&D chez Microsoft pour mieux comprendre ce qui ne va pas. Ma vision est maintenant externe, étant parti de MS il y a cinq ans.

Les travaux de MSR sont par ailleurs bénéfiques à l’ensemble de l’industrie. Ils font avancer l’état de l’art. Il y a des publications, du partage, même quelques projets open source, des partenariats public/privés. C’est une forme d’open innovation qui mérite d’exister quand l’entreprise peut se la payer.

Pour ce qui est du poids de la R&D chez Microsoft, il est devenu presque normal. Moins de 14% du CA (il est déjà monté à 17% du CA) n’est pas bien énorme ! Surtout quand les couts de production sont faibles (pour la partie purement logicielle du business). Et Microsoft est encore le plus profitable des trois entreprises ici étudiées !

Répondre à ce commentaire

Commentaire 857 dans Culture d’entreprise et innovation 4/6, le 23 juin 2010

Et oui, il faut tracer autant les idées que les hommes !

Dans la SV, les jeunes chercheurs deviennent plus facilement entrepreneurs pour au moins trois raisons :
– Le métier de chercheur y est plus valorisé qu’en France dans la formation supérieure. C’en est une évolution naturelle. En France, ça l’est moins et surtout pour les élèves ingénieurs des grandes écoles. Aux USA, la recherche a plus lieu dans le privé que dans le public. Même si le public finance sous contrat beaucoup de recherche privée.
– Le jeune américain a naturellement une culture “business” plus forte que son homologue français. Question d’environnement (Stanford est privé !) et de culture locale, le rapport à la réussite économique, à l’argent, etc.
– La densité de l’écosystème de l’entrepreneuriat et la valeur d’exemple de ceux qui ont réussi, notamment les deux créateurs de Google.

Dans l’IT, je serais cependant curieux de savoir quelle est exactement la proportion de créateurs d’entreprise qui ont été chercheurs sur plus d’une année ou deux, voire anciens chercheurs dans l’absolu. Cela ne doit pas être si énorme.

Répondre à ce commentaire

Commentaire 856 dans Culture d’entreprise et innovation 4/6, le 22 juin 2010

Je ne sais pas s’il s’agit d’un problème comptable…

Mais en effet, on a trop tendance à confondre le processus de la recherche et celui qui conduit à “inventer” et celui qui consiste à innover, à savoir créer des produits ou services qui s’appuient dessus (ou pas), qui changent la donne, et trouvent leur écho sur le marché.

Pour toute innovation, on peut remonter dans le temps une généalogie complexe d’inventions et d’innovations.

J’évoque souvent ce point avec mes étudiants à Centrale : le fameux débat sur l’invention de l’interface graphique et la généalogie du Macintosh. La pensée commune consiste à croire qu’Apple a inventé l’interface graphique. Et au passage, que Microsoft les a copiés. En fait, Apple s’est largement inspiré des travaux du PARC, et du premier produit qui l’implémentait en 1980, le Star de Xerox (un produit qui n’a pas trouvé son marché). Le tout ayant été conçu, inventé, imaginé au milieu des années 1960 par des chercheurs au Stanford Research Institute, alors que la technologie matérielle ne permettait pas de créer les produits correspondants. Il y a eu donc un alignement de planètes : l’invention initiale, le produit sédimentaire (Star), les leçons de son échec, puis les évolutions matérielles (processeurs, écrans graphiques) et enfin, la touche marketing, et un peu de chance (le Mac a été un peu sauvé grâce à deux éditeurs de logiciels : Adobe avec Pagemaker et Microsoft avec Excel).

Il n’y a pas seulement une migration des idées entre les labs et les industriels, il y a aussi une migration des hommes. L’équipe initiale du Mac comme celle de Windows comptait des anciens du PARC. C’est aussi le cas de l’actuel patron du logiciel d’Apple, le français Bertrand Serlet. Jean-Marie Hulot vient de l’INRIA et a sévi chez Next et Apple. Tout comme Jean Paoli, l’un des créateurs du standard XML en 1996, qui est chez Microsoft Corp depuis cette date.

Comme tous les industriels du secteur, Apple a besoin de tous ces travaux de recherche fondamentale, surtout dans les composants matériels. L’iPad n’existerait pas sans les travaux sur les batteries plates LiIon. Les disques durs d’aujourd’hui existent grâce à un prix Nobel français (Albert Fert). Dans le logiciel, c’est moins évident, mais de nombreuses avancées sont liées à des travaux de recherche sur la programmation orientée objets, etc.

Autre exemple : la recherche d’IBM invente la base de données relationnelle (Edgar Codd, 1970) et la teste dans le System-R, un SGBDR expérimental qui valide le concept (l’équivalent du TerraServer de Microsoft…). Mais c’est Oracle qui commercialise le premier SGBDR vers 1977.

A la source des innovations, il y a toujours des morceaux disparates de recherche fondamentale et appliquée. Mais très souvent des discontinuités dans les bénéficiaires. Et aussi beaucoup de déchets, ce qui est normal.

Répondre à ce commentaire

Commentaire 855 dans Culture d’entreprise et innovation 3/6, le 22 juin 2010

En fait, aussi curieux que cela puisse paraitre, la boite ne manque pas de visionnaires. Il y en a même trop, mais pas forcément aux postes les plus “senior” dans l’organisation. Et le consensus mou aboutit à des demi mesures. Sans compter les rivalités internes. Et cette propension à être trop influencés par les concurrents du moment et pas assez par une prise en compte de ruptures plus radicales du marché.

Office 2010 est un exemple intéressant que je n’ai pas traité dans la série. A l’instar de la version précédente, de nombreuses nouveautés sont plutôt orientées vers les entreprises et le travail collaboratif. Il y a aussi la version en ligne, à la sauce cloud. Toujours ce même dilemme entre les entreprises et le grand public. Cependant, les premières versions d’Office dans les années 1990 étaient pas mal à leur époque, avec des nouveautés intéressantes (correction orthographique à la volée permise par le multi-threading à partir de 1995, diverses améliorations dans la manipulation des feuilles de calcul dans Excel, etc). Plein de détails, mais très utiles et que l’on prend maintenant pour argent comptant.

Certains pensent qu’il n’y a plus grand chose à faire pour innover dans les suites bureautiques. Je ne suis pas d’accord. Pour ne prendre que deux exemples, les gens continuent de pondre des présentations Powerpoint avec des textes que l’on ne voit pas car leur couleur est trop proche de la couleur du fond, et avec des polices trop petites. Ne pourrait-on pas automatiser l’ajustement pour les rendre lisibles ? Et faire un graphe avec Excel reste un cauchemar incroyable dans de nombreux cas.

Répondre à ce commentaire

Commentaire 854 dans Culture d’entreprise et innovation 3/6, le 21 juin 2010

No offense Hervé … :).

Un équilibre entre les cofondateurs est en effet toujours utile. On peut s’interroger de cet équilibre lorsqu’il n’y a plus de contre pouvoirs au sein d’une société. Jobs n’a plus Wozniak. Et Ellison reste seul maitre à bord. Et si Ballmer a toujours Gates comme Chairman, je me demande comment fonctionne ce duo maintenant que Gates s’est un peu détaché des événements dans cette boite qu’il a créée avec Paul Allen (parti en 1983 et plus dans le board depuis bien des années).

Répondre à ce commentaire

Commentaire 853 dans Culture d’entreprise et innovation 3/6, le 21 juin 2010

L’erreur stratégique de Microsoft a été de ne pas investir assez tôt sur l’interface utilisateur dans Windows Mobile. Elle s’explique par la dualité entreprise-grand public de la société. Windows Mobile a au départ ciblé les entreprises alors que le marché des smartphone grand public n’existait pas encore. La force de l’offre était les points communs de l’architecture de Windows Mobile et de l’offre Windows pour entreprise, et notamment le développement avec les technologies .NET.

Quand l’iPhone est arrivé en 2007, Ballmer et son staff ont considéré que c’était un gadget, une mode, qu’il ne tiendrait pas longtemps. Ils n’ont pas bien senti que le marché glissait vers le grand public. Ils avaient trop l’oeil sur le Blackberry et Symbian.

Très tardivement, ils ont compris la leçon, modifié les équipes de Windows Mobile, réintroduit un gars qui connait mieux les questions d’interface utilisateur (Joe Belfiore) et annoncé WP7 à Barcelone en février 2010.

WP7 est-il une copie de l’iPhone ? Je trouve que c’est exagéré. Il y a des parti pris différents comme les hubs, les tiles, un look assez dépouillé. Même l’interface utilisateur du Zune dont il s’inspire est considérée aux US comme une avancée par rapport à l’iPhone.

La copie se situe plus dans le store, voisin de l’AppStore dans le modèle. Et dans la limitation de la liberté des constructeurs pour bidouiller l’OS.

A mon sens, l’OS webOS du Palm Pre ressemble beaucoup plus à l’iPhone que WP7.

Répondre à ce commentaire

Commentaire 852 dans Culture d’entreprise et innovation 3/6, le 21 juin 2010

Hervé, le capitalisme moral est une chimère comme l’écrivait Comte-Sponville :

“A la question : le capitalisme est-il moral ? Je réponds donc évidemment non : il est radicalement et définitivement amoral. Si nous voulons qu’il y ait une morale dans une société capitaliste, cette morale doit venir d’ailleurs que du marché.”

(cf http://www.forum-events.com/debats/synthese-andre-comte-sponville-29-18.html)

Il faut bien distinguer “système de valeurs” et moralité. D’autant plus que le système de valeur qu’une entreprise codifie rappelle rarement les fondements de l’entreprise : faire du profit, créer un effet de levier sur ses employés, etc, satisfaire les actionnaires.

Un manager de haut niveau m’a un jour ainsi définit ce qu’était un client pour lui : “C’est celui qui a mon argent dans son porte-monnaie”… C’est tout dire !

Pour ce qui est de ton exemple sur Steve Jobs, je voudrais apporter une nuance liée à l’évolution de la situation. Et elle concerne aussi Bill Gates. A ce stade de leur vie, ces deux hommes n’ont plus comme aspiration de gagner de l’argent. Mais plutôt de laisser un impact positif sur la société, de contribuer à “changer le monde”. Jobs en créant les meilleurs produits qui changent la vie des consommateurs, Gates en finançant par sa fondation l’amélioration de la santé (et un peu de l’éducation) dans les pays en voie de développement. Ils sont “en haut” de la pyramide de Maslow des motivations humaines. Cf http://fr.wikipedia.org/wiki/Pyramide_des_besoins_de_Maslow.

Parfois, j’ai d’ailleurs l’impression que Ballmer est encore un peu trop au milieu…

Répondre à ce commentaire

Commentaire 851 dans Culture d’entreprise et innovation 1/6, le 19 juin 2010

D’un point de vue comptable, la R&D comprend tout ce que tu décris. Cela couvre tout : de la recherche fondamentale jusqu’à la création d’un produit, développements logiciels et design compris, y compris ceux des sous-traitants. Par contre, les coûts de “duplication” du produit en sont exclus (dans les comptes d’exploitation US, cela rentre dans le “cost of sales”). Pour Apple, ce sont les coûts de fabrication du hard. Pour Google et les business Internet de Microsoft, ce sont les couts des data center. Pour les logiciels Microsoft vendus en OEM (Windows), c’est… presque rien.

Les composants matériels des produits Apple ont effectivement une origine externe. Ecran, batteries, processeurs, mémoire, disques durs, etc. Apple est très bon dans sa détection des nouveautés de ces différents secteurs. Exemples récents : écran LCD à rétroéclairage LED dans le Macbook Air, processeur Dual Core Intel avec un format spécifique (plus fin) pour ce même Macbook Air, écrans capacitifs multitouch pour l’iPhone, batteries plates pour l’iPad, etc.

Petite entorse récente : le processeur A4 à base de noyau ARM qui est dans l’iPad et le dernier iPhone. Il a été spécifié par Apple, se transformant en société de conception de semi-conducteurs fabless, la fab étant assurée par Samsung. Ceci, grâce à l’acquisition de P.A. Semi en 2008.

Petite entorse en creu : l’écran LCD TFT de l’iPad est du classique. Ils auraient pu lorgner du côté de PixelQi ou de la technologie Mirasol de Qualcomm. Mais elles n’étaient visiblement pas prêtes pour une production de masse en 2010.

Répondre à ce commentaire

Commentaire 850 dans Culture d’entreprise et innovation 1/6, le 19 juin 2010

Ce % est faible pour une autre raison, comptable : le coût de fabrication du matériel.

Le ratio entre R&D et SG&A (sales, general, administrative) est de 33% chez Apple et 50% chez Microsoft. Ce qui pourrait vouloir dire qu’Apple fait plus de marketing que de R&D comparativement à Microsoft. Mais les résultats sont faussés par le poids significatif dans les coûts d’Apple que représentent les Apple Store.

Si cela se trouve, en enlevant les Apple Store, on retrouve un ratio voisin de celui de Microsoft…

Pour Google, le ratio est de 78%. Le modèle direct et automatisé de Google y est pour beaucoup.

Répondre à ce commentaire

Commentaire 849 dans Culture d’entreprise et innovation 1/6, le 18 juin 2010

En effet, dommage, tout du moins vu des collaborateurs !

J’avais vérifié en novembre 2009 que c’était encore en vigueur auprès de quelques contacts chez Google.

Tu as plus d’infos là dessus ? Est-ce arrivé progressivement, brutalement ? Est-ce que cela concerne tous les métiers ? J’avais l’impression au départ que ces 20% de temps pour projets libres concernait plutôt les équipes de R&D que le reste de la boite (sales, marketing).

Répondre à ce commentaire

Commentaire 848 dans L’écosystème israélien de l’innovation 2/3, le 11 juin 2010

Vu de DS, le rachat présente effectivement une logique certaine.

Mais pour un tas de raisons, le prix payé est un peu cher. Exalead et les intermédiaires du deal ont visiblement bien joué la négociation.

Par contre, je doute un peu de l’intérêt pour DS des recherches sur l’indexation des médias liée à Quaero. Certes, ils peuvent continuer de récupérer les subsides du programme qui courent encore je crois trois ans.

Ce qui compte avant tout, c’est de transformer cette acquisition en ventes supplémentaires de logiciels autour de l’offre de PLM Enovia. Comme Exalead ne vendait pas assez hors de France, la forte présence internationale de DS devrait aider.

Fabien, effectivement les acquisitions se font partout. Et DS nous a déjà pas mal habitué à une croissance externe soutenue. Y compris par l’acquisition d’ISV israéliens comme américains.

Répondre à ce commentaire

Commentaire 847 dans Bizspark Event @ Microsoft, le 8 juin 2010

J’y travaille, j’enquête, …
Stay tuned !

Répondre à ce commentaire

Commentaire 846 dans L’écosystème israélien de l’innovation 3/3, le 6 juin 2010

Des différents pays que l’on cite, la Corée semble avoir quelques startups intéressantes. Pour les autres, je ne sais pas trop. Mais les grands groupes ne se fournissent pas qu’en interne pour leurs innovations.

Cf d’ailleurs : http://techcrunch.com/2010/06/01/geeksonaplane-in-korea-12-demos-from-local-startups/.

Répondre à ce commentaire

Commentaire 845 dans L’écosystème israélien de l’innovation 3/3, le 6 juin 2010

La Corée du Sud, un succès mitigé ? Ca se discute. C’est un peu l’Israël de l’Asie. Petit pays, peu de ressources naturelles, entouré d’ennemis (au moins la Corée du Nord, et auparavant, l’Union Soviétique). Un esprit entrepreneurial fort. Un pays tourné vers le monde d’un point de vue commercial. Les grands acteurs que sont Samsung et LG semblent conquérir la planète et notamment les USA avec leurs produits numériques. Au détriment du Japon qui n’est pas assez tourné vers l’extérieur, tant dans la conception produit que dans le marketing et la vente.

Taïwan est un autre “Israël” d’Asie, avec des caractéristiques voisines de celles de la Corée du Sud. Et des liens économiques très forts avec la Chine continentale.

Singapour ? Très forte croissance tout de même, soutenue par la high-tech et les biotechs. Même si ils accusent le coup du fait de la crise financière.

La Finlande ? Les USA sont leur quatrième pays en masse d’exportations. Ils sont plutôt tournés vers leurs voisins immédiats (Russie, Suède, Allemagne)…

Répondre à ce commentaire

Commentaire 844 dans L’écosystème israélien de l’innovation 2/3, le 5 juin 2010

Pour les FCPI, explications dans ce post : http://www.oezratty.net/wordpress/2010/siximes-rencontres-xange/.

Je ne recommande pas d’imiter Israël pour la fiscalité puisque n’ayant pas d’ISF, ils n’ont pas de dispositifs d’incitation à l’investissement permettant d’obtenir des exonérations d’ISF. Je me demande simplement s’il n’y aurait pas moyen d’intéresser les VCs à s’impliquer un peu plus dans l’amorçage.

Le label “entreprise innovante des pôles de compétitivité” ? Je n’en pense pas du bien. Pousser les startups à faire de la R&D collaborative amont les éloigne plus qu’elle ne les rapproche des clients. Il y a bien entendu des cas où cela peut marcher, on entend des feedbacks positifs anecdotiques sur la mise en réseau des startups. Mais comme les grands industriels du secteur numérique sont plutôt des losers, je suis dubitatif.

Le travers des VCs ? Ils n’ont pas assez encouragé le développement international de leurs pousses. Et ont peut être cédé à des sorties trop rapides. Quand je vois le nombre de sorties de plusieurs centaines de millions de $ en Israël et dans le numérique, il y a de quoi baver pour un VC français.

Oui, le modèle israélien dépend fortement des USA, c’est l’objet de mon post suivant. Sans aller jusqu’à cet extrême, il est cependant nécessaire de bien cibler ce marché très structurant du marché mondial du numérique. Notamment dans le btob.

Répondre à ce commentaire

Commentaire 843 dans L’écosystème israélien de l’innovation 1/3, le 4 juin 2010

Les écoles d’ingénieur sont une particularité bien française !

Là bas, comme aux USA, il est cependant préférable de sortir d’une bonne université. L’unité de l’armée dans laquelle les jeunes ont fait leur service militaire est aussi un marqueur car elle résulte d’une sélection à l’entrée. Un peu comme dans nos grandes écoles.

Cependant, dans le numérique (logiciels, web) qui est moins dépendant des aides publiques que les secteurs plus lourds en financement (notamment dans la santé), le marché semble un peu plus ouvert qu’en France.

Sans compter l’origine très diverse des entrepreneurs. Il peut y avoir des immigrés récents avec en poche leur formation du pays d’origine. Bref, une grande diversité de formations qui doit atténuer l’effet des élites auto-cooptées.

Répondre à ce commentaire

Commentaire 842 dans L’écosystème israélien de l’innovation 1/3, le 4 juin 2010

Oui, ils ont l’équivalent des pôles avec le programme Magnet que je cite dans l’article. Mais sans orientation géographique (le pays est trop petit pour cela et il faut moins de temps pour aller de Tel Aviv à Haifa que d’Orsay à l’aéroport Charles de Gaulle). Et sans grand investissement financier.

La collaboration poussé semble être bilatérale entre labos et startups et grandes entreprises, mais sans demander des mélanges à plusieurs intervenants privés comme c’est souvent le cas en France (plus il y a de partenaires dans un projet, plus il a de chances d’être financé chez nous, alors que c’est un bon gage d’inefficacité opérationnelle).

Le budget de l’OCS est d’environ $400m auquels se rajoutent environ $130m de royalties récupérées dans les startups financées. Ce n’est pas énorme en comparaison avec la France au prorata de l’économie (le total des aides publiques à l’innovations en France CIR compris est estimable à 6 à 8 Md€ soit plus de 20 fois celles de l’OCS). L’OCS est assimilable à Oséo + incubateurs régionaux + CdC/France Investissement/FSI + CIR. Il ne semble pas y avoir d’approche régionale en Israël et heureusement vue la taille du pays. Leur équivalent du CIR n’est pas présenté comme un avantage fiscal mais comme une subvention, donc une aide directe. C’est du pareil au même, à ceci près qu’il n’y a donc pas de risque de redressement fiscal comme en France.

Pour les incubateurs, il faut distinguer leur statut et leur financement. Les incubateurs israéliens sont maintenant de gestion privée, et souvent associés à des VCs. Mais ils sont tout de même significativement financés par l’Etat. Et de manière indirecte : l’Etat couvre une partie des dépenses d’investissement des startups, qui vont ensuite en partie aux incubateurs pour les frais de fonctionnement. Le programme d’incubation public est en fait surtout un programme de financement d’amorçage. Mais dans une relation client/fournisseur plus saine et émulatrice au niveau de l’incubateur. Les projets sont sélectionnés dans un processus voisin de celui d’Oséo. A ceci près que l’autorité suprême de décision est le Chief Scientist et son comité de sélection.

Répondre à ce commentaire

Commentaire 841 dans Bizspark Event @ Microsoft, le 30 mai 2010

Vous dévalorisez votre commentaire d’emblée en me demandant d’autocensurer le mien et en étant désobligeant à mon propos avec des jugements de valeur à l’emporte pièce ! Quelle conception de la liberté d’expression et du débat ! Alors, on se calme et on débat posément.

Il est ici question de différences de rapports de forces et de mode d’accès au marché. Pas de bons ou de méchants (c’est d’ailleurs vous qui avez introduit ces expressions qui relèvent de l’émotionnel).

Apple est une consumer company qui profite d’un rapport de force avec les développeurs qui lui est en effet favorable. Il investit de manière avisée comme vous le décrivez pour créer de bons produits demandés par les consommateurs qui font que l’écosystème devient mécaniquement l’obligé d’Apple. Résultat, ce dernier se permet d’imposer ses outils de développement et langages de programmation sur l’iPhone et l’iPad. La fameuse clause 3.3.1 qui vaut son pesant de cacahuètes et n’a pas d’équivalent chez Microsoft que je sache, en tout cas sur Windows. Effectivement, Apple n’a pas besoin de faire des efforts particuliers pour séduire les startups. Elles vont à Apple naturellement. L’iPhone est la première plateforme mobile supportée par la majorité des startups. Android pourrait cependant lui ravir un jour cette première place.

Notons que l’iFund d’Apple est différent de l’approche de Microsoft avec Bizspark (et ce n’est pas un jugement de valeur). C’est en fait l’abondement d’un fond de VC géré par
Kleiner Perkins & Caufield à hauteur de $200. Ils ont investi dans des boites comme Shazam, Zynga ou Cooliris (14 boites en tout pour l’instant). C’est du capital risque pur et dur. Une sorte de placement financier de la part d’Apple. Intel et Google font plus où moins la même chose en investissant directement ou indirectement dans des fonds de startups.

Pour ce qui est du management, oui, Steve Jobs a les qualités de leader “produit” que Steve Ballmer n’a pas (et d’ailleurs Bill Gates n’a pas vraiment eues non plus malgré son côté plus techie). Il n’en reste pas moins que c’est un autocrate brutal. Et que cela perfuse dans le reste de l’organisation d’Apple. Les deux anciens d’Apple qui intervenaient à Bizspark me l’ont confirmé tout comme plein d’anecdotes que l’on peut grapiller sur la vie chez Apple en général. Sachant qu’Apple a une caractéristique qui est certes efficace d’un point de vue marketing mais est très gênante d’un point de vue comportemental : son culte maladif du secret, y compris en interne.

De son côté, Microsoft vend plus de 80% de son offre aux entreprises et avec une mécanique de vente et de marketing très indirecte. Les développeurs comme d’autres intermédiaires (revendeurs, SSII, constructeurs) sont donc bichonnés par l’éditeur. Cela a des effets globalement bénéfiques aux développeurs et startups. Mais en effet, cela ne fonctionne pas bien dans le business grand public où Microsoft est un acteur dépassé par ses concurrents, les principaux étant Apple et Google. Par ailleurs, Microsoft a une culture informatique à dominante “entreprise”. Ils écoutent mieux les DSI et les développeurs que les utilisateurs. Ca renforce leur position dans les entreprises dans un marketing un peu “à l’ancienne”, mais les fragilise dans l’aspect grand public notamment avec ceux des produits qui couvrent à la fois l’entreprise et le grand public (Windows et Windows Phone notamment). Pour ce qui est des startups, Microsoft a choisi une voie plus marketing et technique dans l’accompagnement aux startups. Elle se situe en amont et en parallèle du financement des startups. Est-ce la bonne voie ? L’expérience montre que le label “IDEES” en France a permis a pas mal de ses bénéficiaires de lever des fonds. Ou tout du moins, que les critères de labellisation des startups IDEES étaient voisins des critères d’investissement des VC français. Histoire d’oeuf et de poule !

Que Microsoft imite (un peu bêtement) certaines tactiques d’Apple pour s’imposer sur le marché grand public (avec WP7) relève alors d’une certaine logique business. Mais elle ne peut pas bien fonctionner car on n’impose ses règles que si on n’est en mesure de le faire au regard de sa position concurrentielle. On pourra être d’accord là dessus je l’espère.

Répondre à ce commentaire

Commentaire 840 dans Bizspark Event @ Microsoft, le 29 mai 2010

On est en effet loin d’autres pratiques, telles que celles d’Apple avec ses développeurs, et qui au demeurant n’a pas de programme dédié aux startups.

Répondre à ce commentaire

Commentaire 839 dans Votre TV va-t-elle être google-izée ?, le 27 mai 2010

Rien vu sur le sujet dans l’annonce de Google TV. On risque de retomber dans le modèle web classique. Mais des solutions comme Paypal ou le OneClick d’Amazon ont leur place à prendre. Il faudrait pouvoir payer simplement avec la télécommande.

Après, il sera intéressant de voir comment les opérateurs télécom pourraient s’approprier Google TV dans leur STB et assurer le billing de certains des services associés.

Répondre à ce commentaire

Commentaire 838 dans Bizspark Event @ Microsoft, le 27 mai 2010

A la décharge des entrepreneurs, ils doivent sans doutes entendre des recommandations contradictoires et ne savent plus où donner de la tête.

Mais à force de parler de “business value”, on en oublie l’essentiel qui la précède : le produit que l’on vend et ce qu’il fait concrètement.

Répondre à ce commentaire

Commentaire 837 dans Votre TV va-t-elle être google-izée ?, le 23 mai 2010

Oui, il y a des opportunités locales significatives.

J’en vois plusieurs :

– Pour les opérateurs telcos, satellite et câble, innover aussi rapidement que possible en intégrant les contenus Internet dans leurs set-top-box, à la fois en “over the top” (Facebook, Twitter, …) et en enrichissant l’expérience télévisuelle (guides de programmes enrichis, rating utilisateurs, fonctions sociales associées aux programmes, recommandation, …). La Freebox 6 devrait être un bon exemple de cette tendance.

– La mise en oeuvre de HbbTV, qui est une initiative franco-allemande pouvant être potentiellement rejointe par les britanniques. Il s’agit d’enrichir les flux numériques des chaînes TV avec des liens Internet et de mettre en place des nouveaux services autour de ces chaînes. C’est une approche de “containment” des chaînes pour préserver leur audience lorsqu’elle va s’aventurer sur Internet, mais elle peut sauver la mise quelque temps. Google parie à juste titre sur une approche plus ouverte dans l’accès aux contenus.

– Les industriels européens de la télévision numérique devraient unir leurs forces que ce soit dans le matériel ou dans le logiciel. Des regroupements seraient d’ailleurs les bienvenus car ce marché est encore trop fragmenté.

– Enfin, il ne faut pas négliger tous les partenariats locaux sur les contenus. Les contenus ont encore une forte part locale et il sera difficile aux débuts pour Google de signer ces partenariats, notamment lorsqu’ils concernent des contenus “premium” (cinéma, sport, …).

Répondre à ce commentaire

Commentaire 836 dans Sixièmes rencontres XAnge, le 20 mai 2010

Oui, mais c’est encore en France…

Répondre à ce commentaire

Commentaire 835 dans Le feedback aux entrepreneurs qui vont dans le mur, le 18 mai 2010

Pour ce qui est du point 3, évitez de me faire dire ce que je n’ai pas dit.

“Les anciens cadres de grandes entreprises qui négligent les caractéristiques clés d’une startup comme l’absence de notoriété et les difficultés à percer dans les entreprises (pour le btob) quand on part de zéro. Ces équipes vont plus pêcher dans les aspects quantitatifs de leur business plan que dans l’idée et la création de la solution.”

Pas d’ingénieurs ni de mouillage de chemises dans ces propos !

Oui, les grandes boites permettent d’acquérir de nombreux savoirs et bonnes pratiques. Mais dans des environnements avec beaucoup de ressources et de support interne, que l’on ne retrouve pas dans les startups. Il faut donc s’adapter à un environnement contraint en ressources, tout en ne pouvant plus s’appuyer sur la puissance de la notoriété d’une grande marque. Comme les grands clients sont le plus souvent réticents à faire appel à des startups, la déconvenue peut être difficile. Les cycles de vente vont se rallonger, et la perspective du break-even s’éloigner d’autant dans l’exécution du plan.

Ceci étant, les cadres de grandes boites ne sont pas les plus mal armés pour démarrer une startup.

Répondre à ce commentaire

Commentaire 834 dans Le business des bases de données de startups, le 9 mai 2010

Pour CrunchBase, pas sûr que cela serve à quelque chose.

Pour les startups, c’est très facile. Il suffit de soumettre les informations à partir de http://www.crunchbase.com/companies/new.

Tu peux te mettre dans la base Capital PME d’Oséo. Et aussi participer aux activités de clubs de business angels de ta région. Ils sont notamment référencés dans le site de France Angels.

Ceci étant, un business angel doit être autant chercheur de projets dans les différentes sources disponibles (clubs de BA, concours, labos, etc) qu’exposé aux recherches de financement des startups. Les choses fonctionnent aussi beaucoup par réseau. Il faut donc grenouiller…

Répondre à ce commentaire

Commentaire 833 dans Le business des bases de données de startups, le 6 mai 2010

En effet, l’idéal serait de disposer à des fins d’études de bases de startups couvrant l’ensemble de leur cycle de vie, de comprendre ce qui se passe dans les plus de 90% d’entre elles qui ne sont pas financées par du capital risque, d’avoir plus de données sur le parcours des fondateurs, etc. Une analyse des facteurs clés de succès des startups quali et quanti pourrait en bénéficier.

A noter tout de même que la Crunchbase couvre bien toutes les startups et pas seulement celles qui ont levé chez des VCs. Dans le numérique, c’est maintenant l’une des plus exhaustives à l’échelle planétaire. Peut-être cependant n’intègre-elle pas beaucoup de startups qui n’ont pas encore levé chez des business angels et sont de facto en dessous du radar des médias en ligne comme TechCrunch.

Répondre à ce commentaire

Commentaire 832 dans New Look 4, le 4 mai 2010

En effet ! Corrigé ! Détails : cela a l’air d’être lié au sens de “rss”. WordPress doit prendre cela pour un lien vers le feed RSS de la catégorie “Internet”. J’ai donc renommé le lien de la catégorie en rsstools sans changer le label et cela fonctionne maintenant ! Cela doit d’ailleurs être un bug assez ancien qui date de la création de la catégorie, donc sans rapport avec le nouveau template du blog, que je continue de peaufiner régulièrement par ailleurs, notamment pour ceux qui ont le sens du détail, dans la gestion des commentaires.

Répondre à ce commentaire

Commentaire 831 dans Le pitch-slam d’Innovate 2010 à Paris, le 28 avril 2010

Dommage qu’il se soit arrêté en cours de route… 🙂

Répondre à ce commentaire

Commentaire 830 dans Les chamboulements en cours du financement de l’innovation, le 26 avril 2010

Beaucoup de questions imbriquées :

Tout d’abord, il ne faut pas céder aux sirènes alarmistes sur les investissements TEPA hors des clous dans les PME sans risque. Il y en a certainement. On ne sait pas quelles proportions. Mais le constat terrain est que TEPA a sérieusement augmenté le nombre d’investisseurs en amorçage dans le numérique et dans les projets à risque.

Les fonds régionaux ne remplacent pas l’Etat. D’abord, ils interviennent différemment, en tout en cas dans le mode pré-grand emprunt. Les fonds régionaux font de l’investissement dilutif tandis que l’Etat, via Oséo, intervient majoritairement sous forme de subventions, avances remboursables, prêts et garanties. D’ailleurs, les garanties Oséo doivent bien pouvoir s’appliquer aux fonds régionaux. Ensuite, même si le budget d’Oséo Innovation a subit des hauts et des bas, il subsiste et reste raisonnable. Les grosses régions sont-elles favorisées ? Aujourd’hui, les fonds régionaux ne représentent pas des montants énormes en tout cas dans les industries du numérique. Cela dépend plus de la politique économique des régions que de leur taille. On voit bien Ségolène Royal faire des pieds et des mains pour sauver Heuliez à coups de millions d’Euros dans sa région ! La Ville de paris (en fait, le département) a créé en 2009 un fond de 1m€ Paris + 1 m€ Oséo pour ses startups, renouvelé annuellement et qui permet de contourner la règle des fonds propres d’Oséo.

Dernière question sur : que faire quand on n’y arrive pas. Compte tenu de ce que je vois au quotidien, tout du moins en région parisienne, c’est un signe que le projet est foireux dans au moins une dimension : soit l’idée, soit le marché, soit l’équipe. Donc, il faut savoir se faire coacher, écouter et améliorer son projet dans la dimension qui cloche.

Les règles de financement via le grand emprunt n’étant pas publiées (je n’ai rien vu d’écrit – juste des interventions orales ou interviews de NKM), il est un peu tôt pour se prononcer.

Répondre à ce commentaire

Commentaire 829 dans Les enjeux de la neutralité des réseaux, le 20 avril 2010

Bon point.

On pourrait être plus précis :
– Il existe des instances internationales qui s’occupent essentiellement des couches techniques de l’Internet. W3C pour l’HTML, ETSI, etc. Tuyaux et protocoles. Après, il y a beaucoup de consortiums privés (codecs médias, etc).
– Elles n’ont pas d’équivalent sur la dimension sociétale. Avant même de réguler, les Etats ne se réunissent pas ou peu à l’échelle internationale pour discuter de ces questions.

Certes les instances internationales sont imparfaites, mais comme la démocratie selon Churchill, n’est-ce pas le pire des systèmes sachant / en attendant de trouver mieux ?

Il est aussi intéressant de remarquer que les fonctions gouvernementales sur le numérique ont généralement été créées dans les pays dits en voie de développement avant les pays développés !

Répondre à ce commentaire

Commentaire 828 dans Les enjeux de la neutralité des réseaux, le 20 avril 2010

Non, pas directement. Par contre, cela pourrait éventuellement rentrer dans le cadre des réflexions lancées par NKM sur le “droit à l’oubli’.

Répondre à ce commentaire

Commentaire 827 dans Les chamboulements en cours du financement de l’innovation, le 9 avril 2010

Oui, c’est bien connu : les VC interviennent peu dans l’amorçage. Cette étape du financement est couverte par les aides et avances publiques diverses (significatives quand on se débrouille bien), par les prêts d’honneur (réseaux Entreprendre et France Initiative), par les fonds d’amorçage régionaux et par les business angels, justement encouragés par la loi TEPA. Chacun son rôle ! Le split BA/VC dans le cycle du financement est d’ailleurs le même aux US. Le poids des BA est cependant trop faible en France. Il a augmenté grâce à la loi TEPA mais probablement pas assez. Et il serait menacé si l’ISF était supprimé sans équivalent dans l’IR.

Après, il faut aussi se mettre dans la peau des BA. J’ai assisté à nombre de pitches de startups destinés aux BA ces derniers temps. Et nombre de projets ne trouvent pas de financement d’amorçage tout simplement parce qu’ils ne sont pas assez bons, selon différents critères (équipe, produit, marché, etc).

C’est dur à dire et cela va choquer, mais le financement existant est assez homothétique avec la quantité de projets de qualité à financer !

Répondre à ce commentaire

Commentaire 826 dans Les chamboulements en cours du financement de l’innovation, le 8 avril 2010

Dans les faits, la loi TEPA a tout de même orienté plus de 1 milliard d’Euros dans les FIP et FCPI, et ces fonds ne financent pas les boulangeries, mais des sociétés qui se doivent d’être innovantes et labélisées comme telles par Oséo. Après, dans les investissements directs ou via des holdings/fonds ISF, il y a effectivement à boire et à manger, mais on manque vraiment de données pour pencher d’un côté ou de l’autre.

Le taux de 75% est effectivement très élevé. Mais l’argument sur la prise de risque peut se prendre à l’envers : le risque financier étant divisé par 4 du fait des 75% d’exonération, il est plus facile à prendre. Cela conduit même certains redevables de l’ISF à non pas investir dans les boulangeries, mais dans des PME dites innovantes, mais sans être très regardants sur la qualité des projets. C’était particulièrement vrai la première année (2008) et cela s’est calmé en 2009.

Et puis, cette exonération permet aux redevables de l’ISF de se satisfaire sur un autre point clé : décider de là où va aller leur argent. Même si c’est pour le “bien public”, donner son argent à l’Etat n’est jamais fait de gaité de cœur !

On est sinon d’accord sur deux points : les exos d’ISF TEPA sont un moyen détourné d’atténuer les effets de l’ISF pour le gouvernement et le législateur qui n’ose pas supprimer l’ISF, et puis, sur le besoin de diminuer l’imposition sur les plus-values en lieu et place de tout ce bazar compliqué avec l’ISF et ses exonérations.

Répondre à ce commentaire

Commentaire 825 dans Les chamboulements en cours du financement de l’innovation, le 8 avril 2010

Ils ont baissé en volume en 2009, mais pas en proportion du total des investissements. La tendance sur 2010 devrait être stable… en proportion !

Répondre à ce commentaire

Commentaire 824 dans Une arnaque en Blu-ray, le 6 avril 2010

C’est vrai qu’il y a de quoi rigoler tant ce genre d’expérience est absurde !

Bonne nouvelle sinon, pour le support du Blu-ray à venir dans VLC et Mplayer ! Et quid du support des télécommandes MCE ?

Répondre à ce commentaire

Commentaire 823 dans Une arnaque en Blu-ray, le 2 avril 2010

Etant sensible aussi à la qualité de l’image, je préfère encore le FullHD pas trop compressé des disques BD. Suit en terme de qualité le signal satellite de Canal+ qui est envoyé à un débit de 12 mbits/s je crois. En VOD/IPT, on descend souvent à 5-6 mbits/s. Mais effectivement, comme pour la musique avec le MP3, le gros de l’audience, notamment jeune, n’a que cure de ces détails sur la qualité de l’image comme du son. Le BD est peut-être même un produit de quadras et quinquas…

Répondre à ce commentaire

Commentaire 822 dans Une arnaque en Blu-ray, le 2 avril 2010

Le firmware de mon drive Blu-ray était bien à jour, donc le problème n’était visiblement pas situé de ce côté là. D’autant plus que mon lecteur “de salon” datant de 2008 a pu lire ce BD sans mise à jour du firmware non plus (il n’est pas connecté sur Internet).

Je connais AnyDVD. Je l’ai utilisé une fois (en version d’essai, so far), combiné à TsDemuxr, pour récupérer des extraits de films BD sur mon Média Center. Je peux ainsi y accéder dans le menu “My Video” de MCE.

Répondre à ce commentaire

Commentaire 821 dans Une arnaque en Blu-ray, le 2 avril 2010

A ceci près que dans la bataille du Blu-ray contre le HD-DVD d’il y a quelques année, Apple a été un grand supporter du premier. Mais sans intégrer de lecteurs pour autant dans ses Macintosh. Effectivement, ils ont sans doutes compris que c’était depuis devenu un sujet caduque.

Répondre à ce commentaire

Commentaire 820 dans New Look 4, le 1 avril 2010

L’effectif du cabinet de NKM est insuffisant pour gérer de tels appels d’offre. Il me semblait qu’une agence devait être créée pour assumer cette mission, sous la supervision de l’équipe de NKM. Ca ne sera pas forcément plus rapide que la dernière fois. Et je crains fort que les mêmes travers seront de mise : favoritisme pour les travaux de recherche collaboratif et tout le tralala. Comme de plus les secteurs favorisés en priorité sont un peu en dehors de l’économie de marché…

Répondre à ce commentaire

Commentaire 819 dans New Look 4, le 30 mars 2010

Askimet génère quelques faux positifs (commentaires pris pour du spam et qui n’en sont pas) mais laisse passer pas mal de spams qui sont donc des “faux négatifs”. Le captcha fait le reste en les évitant en amont au moment de la saisie. Il existe des systèmes de spam qui savent lire les captcha. Ils passent au travers mais sont ensuite bloqués par Askimet.

Bref, d’expérience, il faut combiner les deux !

J’ai cependant allégé le captcha en n’utilisant que 3 caractères, ce qui est raisonnable et dans la limite basse des pratiques courantes.

Pour la largeur, les avis sont partagés et il est vrai que la majorité des blogs sont de largeur fixe. Certains lecteurs aiment bien pouvoir ajuster la largeur du blog à leur convenance. De plus, il s’adapte ainsi mieux aux écrans de basse résolution et notamment aux netbooks.

Bon, et puis, un grand nombre de lecteurs passent par un aggrégateur RSS et ça leur est donc indifférent !

Répondre à ce commentaire

Commentaire 818 dans New Look 4, le 30 mars 2010

Il y a une dominante de textes à gauche dans les blogs, mais on trouve aussi des sites avec une colonne à droite et à gauche du flux de texte, puis seulement à gauche. Oui, effectivement, cela se discute !

Répondre à ce commentaire

Commentaire 817 dans New Look 4, le 29 mars 2010

Bien vu ! Corrigé, et changé de catégorie !

Répondre à ce commentaire

Commentaire 816 dans Impressions du Salon Solutions Linux 2010, le 25 mars 2010

Merci Raphaël pour la précision et aussi pour l’initiative !

Le nombre de réseaux Wifi fermés était en tout cas impressionnant lorsque j’ai cherché à me connecter pendant les plénières le mardi matin. Ce qui fait désordre en un pareil lieu !

Répondre à ce commentaire

Commentaire 815 dans Le plus grand business angel de France, le 17 mars 2010

Ce n’est pas une nouveauté ! C’est même dans l’article de Wikipedia sur Xavier Niel.

Répondre à ce commentaire

Commentaire 814 dans Le plus grand business angel de France, le 16 mars 2010

Oui, c’est bien connu, et en plus, ce n’est pas dilutif pour le capital de la startup. Même si d’ailleurs un chiffrage serait intéressant. Mais c’est de l’argent public. Là, on parle de personnes physiques… et aussi d’un apport en nature : réseau, business, autres investisseurs. C’est probablement de l’argent bien plus efficace que celui qui provient de la manne publique.

Et puis, cela tombe à point nommé car les VCs vont avoir de grosses difficultés, avec un cycle long de vaches maigres pour leurs propres levées de fonds !

Répondre à ce commentaire

Commentaire 813 dans Rapport CES 2010, le 12 mars 2010

Merci pour le feedback. C’est maintenant corrigé !

Répondre à ce commentaire

Commentaire 812 dans Une startup française derrière la standardisation des ebooks, le 5 mars 2010

Oui, je le cite plus loin, les chiffres de téléchargement et de trafic sont toujours sujets à caution. Il est facile par exemple d’extrapoler une pointe ponctuelle de trafic en multipliant par le nombre de jour du mois…

L’API est certes gratuite, mais c’est un accélérateur de trafic lui-même augmentant les ventes de livres, ce n’est donc pas juste du “goodwill”.

La principale difficulté est effectivement d’augmenter la part des livres payants diffusés via le site, donc de nouer les bons contrats avec les éditeurs. C’est un peu dur d’inférer que Feedbooks “fuit la dure réalité de trouver des clients payants”. Mais il est vrai que les compétences marketing et vente semblent manquer dans cette équipe, comme au demeurant dans 90% des startups du numérique en France.

Répondre à ce commentaire

Commentaire 811 dans Une startup française derrière la standardisation des ebooks, le 4 mars 2010

Quelques nuances :
– Quelque soit le pays, le sort le plus standard d’une startup est d’abord de se planter (plus de 1 chance sur 2), puis de vivoter (4 chances sur 10) puis de se faire racheter (1 sur 10), et seulement enfin (1 sur 1000…) d’atteindre la taille critique (ratios donnés pour celles qui sont financées par des VCs). Donc, il ne faut pas se plaindre du second étage de la fusée. Son existence fait partie de la chaine alimentaire de l’innovation.
– Pour que les startups se fassent racheter par des entreprises locales de taille critique, encore faut-il qu’il y en ait. Nous payons aujourd’hui les échecs ou relatifs échecs industriels que sont nos Alcatel, Thomson/Technicolor et autre Sagem. Et aussi le syndrome “NIH” de nos élites, tous business confondus. Les entreprises “riches” des NTIC en France sont les telcos, mais ils n’ont pas une approche technologique du marché, et font peu d’acquisitions, et seul FT a un business international. Donc, l’amorçage de la chaine alimentaire en France est pour l’instant mal barré. Mais c’est un problème commun à la plupart des pays européens. A ceci près que Nokia a mieux réussi qu’Alcatel (mais bat un peu de l’aile en ce moment) et que SAP et Sage ont atteint la taille critique tandis que les SSII proliféraient avec du “custom” dans notre pays.
– Il n’y a pas trente six solutions pour créer des entreprises de taille critique dans les NTIC. Il faut attaquer les marchés mondiaux le plus rapidement possible. A commencer en général par mettre un (gros) pieds voire les deux aux USA. C’est là que le marché mondial se définit, car il y est (relativement) homogène et massif (environ 10x la France dans les TICs, surtout dans le btob). Dans certains business (mobilité, hardware), il faut aller plutôt en Asie. La seconde est d’avoir l’envie et les compétences. La troisième est de trouver le financement. Mais en mettant le pieds aux USA, une bonne équipe, une bonne idée, l’envie et les compétences permettent d’y trouver des financements.

Donc, on peut crier au loup et dénoncer le manque de financements et de business angels etc en France. Mais quand bien même on aurait l’argent qu’il faut, si on ne l’utilisait pas pour conquérir les marchés mondiaux à commencer par les USA, on n’irait pas bien loin. Or les investisseurs français ont peur de mettre le pieds aux USA. Ils ont été échaudés par quelques échecs et cela les a paralysés. Un peu bêtement. Alors que ces échecs devraient plutôt permettre d’apprendre et de recommencer.

In fine, ce qui manque, oui c’est le “up”. Mais c’est surtout la stratégie, l’ambition et les compétences pour y aller. Cf aussi la structure de notre enseignement supérieur et de nos élites qui sépare trop nettement les disciplines scientifiques des sciences molles utiles au business.

Et attention, évitons de nous gargariser avec nos “bonnes idées” et avec “l’excellence” de notre enseignement supérieur, de nos ingénieurs et de nos chercheurs. Il y en a d’aussi bons dans plein d’autres pays. C’est de moins en moins un différentiateur de poids dans la compétition de l’innovation. Le différentiateur, c’est la capacité à conquérir les marchés internationaux. Deux exemples clés : les Coréens qui taillent des croupières aux Japonais car ils sont plus tournés vers les marchés mondiaux, et les Israéliens qui trustent une part incroyable des boites du Nasdaq et ont créé en 20 ans plus de boites dans les NTIC dépassant le milliard de dollars que la France, le Royaume Uni et l’Allemagne réunis il me semble. Dans les deux cas, leur pays est petit ou ridiculement petit, et ils n’ont d’autres choix que d’aller ailleurs pour vendre. Nous, nous vivons dans l’illusion de notre marché intérieur douillet (et pourtant, si réfractaire aux innovations, surtout dans les entreprises) et dans celle de la création d’un marché européen unifié (bien difficile, malgré l’Euro, car trop fragmenté). Cela rappelle la manière dont la France a abordé l’émergence de la mondialisation du commerce mondial entre le 15eme et le 18eme siècle face aux Anglais ou aux Hollandais, sans compter Venise.

Pour répondre à Christophe, oui, la France a tendance a faire émerger beaucoup de modèles économiques fondés sur le gratuit. Ne serait-ce qu’une adoption assez forte des modèles open source. A ma connaissance, les seuls français qui ont réussi à créer de la valeur économique à une dimension raisonnable dans ce créneau l’ont fait en mettant les pieds ou en s’établissant aux USA : JBOSS (racheté par Red Hat), DivX (passé à un modèle commercial), et peut-être bientôt Talend. Ceux qui sont restés en France (OpenTrust, etc), font moins de $20m de CA, dans le meilleur des cas. Dans le web, c’est encore plus vrai : les modèles fondés sur le gratuit ont besoin de volume (d’utilisateur). Donc, une fois encore, il faut aller ailleurs d’une manière ou d’une autre, et ne pas rester en France.

Répondre à ce commentaire

Commentaire 810 dans Une startup au cœur des chipsets mobiles, le 2 mars 2010

Pour retrouver cet appel d’offre, il faut faire un petit tour sur le site du Ministère de l’Industrie. Toujours la même histoire : des projets collaboratifs ! Il y avait d’ailleurs déjà eu un appel à projet sur les tags RFID il y a moins d’un an, pour 3,5 millions d’Euros.

La routine…

Répondre à ce commentaire

Commentaire 809 dans Le hacking des appareils photos, le 24 février 2010

J’ai découvert cela assez récemment. Mais n’ai pas encore pratiqué. J’attend plutôt des améliorations fonctionnelles sur la partie photo plus que dans la partie vidéo. Or le truc de Magic Lantern améliore surtout la vidéo dans le 5D II.

Répondre à ce commentaire

Commentaire 808 dans Rapport CES 2010, le 22 février 2010

Sympa. Et merci pour la correction, immédiatement répercutée !

Répondre à ce commentaire

Commentaire 807 dans Les dessous de l’annonce de Windows Phone 7.0, le 18 février 2010

Le cas d’Oracle est-il comparable ?
– Ils ont acquis un porte-feuille applicatif complétant le leur : CRM (Siebel), HR (Peoplesoft), retail (Retek). Tous ces applicatifs fonctionnaient déjà sur base Oracle. Il n’y avait pas d’incohérence technologique. Et ces acteurs étaient leaders sur leur marché, pas des #4 ou #5.
– Oui, il y a eu un peu de cannibalisation des offres Oracle Applications.
– Le rachat de Sun répond à une logique d’offre verticalisée globale, et adaptée au SaaS. Mais il n’y a pas d’incohérence technologique, Oracle étant un grand supporteur et utilisateur de Java.
– Il y a un laissé pour compte dans l’affaire: MySQL…
– Oracle s’en est pour l’instant pas trop mal tiré dans la digestion de ces différentes acquisitions.

De son côté, Microsoft a un mauvais “track record” dans ses acquisitions. Rares sont celles, surtout de taille, qui ont donné quelque chose de positif. WebTV, Visio, Navision, Great Plains, Danger, … tout cela a donné lieu à des opérations bien laborieuses. Danger / Sidekick est un bon exemple de cheveu sur la soupe dans la stratégie de MS. Sans queue ni tête…

Répondre à ce commentaire

Commentaire 806 dans Les dessous de l’annonce de Windows Phone 7.0, le 17 février 2010

Ah oui, Danger (acquis en février 2008 pour environ $500m) ! Deux après, on ne sait toujours pas vraiment à quoi cette acquisition a servi, d’autant plus que tout le soft de Danger est sous Java, pas la tasse de thé de Microsoft. Les mobiles Sidekick de Danger vendus par T-mobile aux USA ont généré ces fameuses pertes de données en octobre 2009 ! La synergie avec le reste de l’offre MS semble difficile à trouver en tout cas.

Petit détail intéressant : Danger a été acquis le 11 février 2008. Et le patron de Windows Mobile de l’époque, Pieter Knook, a quitté Microsoft le 14 février de cette même année. Coincidence intéressante…

Bien vu sur la possibilité d’Android de prendre des parts de marché sur/dans les feature phones. Là, effectivement, Microsoft n’y pourra rien !

Répondre à ce commentaire

Commentaire 805 dans Les dessous de l’annonce de Windows Phone 7.0, le 17 février 2010

Au sujet des deux commentaires précédents :

Le parallèle avec 1982 (en fait 1981) et 1984 présente quelques limites. En effet, le marché des mobiles tolère moins d’ouverture que celui des PCs car son écosystème est un peu plus simple et qu’il est plus structuré par les clients grand public que par les entreprises. Sinon, Apple n’aurait pas réussi avec l’iPod et l’iPhone comme il l’a fait alors qu’il est marginal avec le Mac (en termes de parts de marché en unités, <5%). Pour l’iPod, l’écosystème était très simple : au départ, il fallait signer des accords de distribution de la musique avec les 5 majors de la musique. Pour l’iPhone, le succès a démarré AVANT la création de l’appstore. Et au nez et à la barbe des opérateurs télécoms qui ont accepté les conditions draconiennes d’Apple. Du fait de la supériorité du produit et de la forte demande des consommateurs. L’appstore a ensuite consolidé la position d’Apple.

D’ailleurs, le marché du PC ne s’est pas ouvert tout de suite. Il y avait au départ des PC dits « compatibles à 98% ou 99% » avec l’IBM PC à cause du BIOS d’IBM qui n’était pas facile à copier. A partir de 1983, lors de la création de Compaq et de l’émergence des « compatibles PC taïwanais », il n’y avait déjà plus d’alternative à MS-DOS. Digital Research était déjà assez mal en point. Aujourd’hui, nous avons deux principaux OS (plus ou moins) ouverts : Android et Windows Phone. Symbian peut être considéré comme ouvert car open source, même si son adoption par d’autres constructeurs que Nokia est plus que rare.

En quoi Android est-il vraiment favorisé dans les points 1 et 2 ? Microsoft aussi permet de livrer un reference design et supporte les architectures ARM du marché, et pas seulement celle de Qualcomm. Les constructeurs de handsets vont être moins tentés de personnaliser l’OS au niveau de sa couche graphique avec WP7. Pas plus qu’avec celle d’Android qui est aussi de bonne facture. Ils pourront faire la différence avec des packagings d‘applications et de contenus et un peu de « skinning ». La différence fondamentale est le prix de l’OS, qui favorise nettement Google. Quand au point 3 (les telcos), il faut prendre en compte les variations très grandes de leur rôle et de leur influence selon les pays. Très élevés en France, moins ailleurs, où les forfaits « pre-paid » y sont plus populaires. Globalement, ils définissent de moins en moins les tendances du marché et cela les gêne bien d’ailleurs.

Le succès de l’iPhone montre en effet qu’il ne faut pas négliger les utilisateurs et le marketing du fournisseur de l’OS dans l’équation. Si Android se fragmente trop, la valeur de la marque Google va en pâtir sur les mobiles. Le Nexus est un moyen de limiter la fragmentation. Microsoft a fait le choix d’éviter radicalement cette fragmentation, d’autant plus qu’elle pénalise aussi les développeurs d’applications. Les développeurs sont sinon pragmatiques : ils supportent les plateformes qui se vendent, c’est tout. Si WP7 se vend, ils le supporteront. Android est déjà bien supporté car sa croissance est très forte et que depuis deux ans, il n’y avait pas de sérieuse alternative dans les OS ouverts / indépendants des constructeurs.

Quand au nombre d’acteurs que peut tolérer le marché, je ne serais pas aussi radical. Le marché des smartphones est en forte croissance. Il tolère la coexistence d’écosystèmes concurrents, ce qui est plus difficile avec le PC. La raison est simple : le besoin de standardisation des entreprises qui pousse à l’émergence d’un standard unique (le PC et Windows) est très atténué dans le grand public. On a bien trois grands fabricants de consoles de jeux, avec une remise en cause des positions acquises tous les cinq ans ! Dans les mobiles, il faut environ 10K à 20K applications pour bien couvrir les besoins du marché et c’est accessible à au moins 4/5 acteurs car les coûts de développement sur mobiles sont assez faibles car les applications y sont généralement plus simples que sur PC. Et puis, il se vend plus de Blackberry que d’iPhone dans le monde alors que sa logithèque applicative est pourtant assez maigre. En fait, les trois premières plateformes de smartphones (Apple, RIM, Nokia) sont propriétaires (par abus de langage pour ce dernier). Les OS ouverts prennent certes du galon mais ils sont loin d’avoir détrôné les trois premières plateformes !

La dualité entreprises / grand public est un autre thème intéressant. La force de MS dans le marché de l’entreprise ne l’a pas empêché de perdre des parts de marché. Cela lui donne certes un plancher qu’il a atteint (environ 7% à 10% des smartphones), mais c’est devenu plus un handicap qu’un atout dans la mesure où le marché des smartphones croit avant tout du fait du grand public. WP7 ne va pas éloigner les clients de l’entreprise de Microsoft. Il y a toujours l’infrastructure .NET en dessous et les liens avec l’offre de travail collaborative Office, Exchange et Sharepoint. Ce n’est pas parce que l’interface est plus ergonomique et design que les entreprises vont fuir tout de même ! De même qu’elles n’ont pas fui le PC quand Windows est arrivé, même si de nombreux DSI considéraient à l’époque que l’interface graphique ne servait pas à grand chose et était un simple gadget, à fortiori entrainant une couteuse mise à jour des parcs de machines.

Une grande inconnue reste à traiter : le marché asiatique. Il s’y vend moins de smartphones que dans le reste du monde. Les feature phones haut de gamme sont très populaires au Japon et en Corée, malgré une couverture en haut débit mobile de très bon niveau. L’iPhone commence à bien se vendre au Japon après des débuts laborieux. Le marché des smartphones en Corée est inférieur à 2% pour une moyenne mondiale d’environ 18% en 2009 (source : Gartner) et 29% de prévus en 2014 (selon Ovum). Il serait intéressant de creuser ce qui pourrait faire décoller les smartphones dans ces pays asiatiques, et notamment en Chine.

Net net, pour résumé, je pense que le marché des smartphones reste encore relativement ouvert, qu’il ne répond pas aux mêmes logiques que celle du PC et que le grand public joue un rôle clé dans les évolutions du marché.

Laurent, le rachat de RIM par MS ? Tu plaisantes ! Microsoft n’achète jamais d’OS concurrents de sa plateforme Windows, sacro-sainte chez l’éditeur ! Ce serait ingérable. La boite vaut $39B, une OPA couterait au moins $50B, ce qui obligerait MS à s’endetter. Même si avec un PER de 17,8, cela ne serait pas trop dilutif par rapport à celui de MS qui est de 15,7…

Répondre à ce commentaire

Commentaire 804 dans Rapport CES 2010, le 16 février 2010

Bien vu pour Haier et Changhong, j’ai corrigé cela.

Pour l’innovation, je maintiens mon point, au moins en comparaison avec les coréens et dans le secteur du consumer electronics. Il n’y avait quasiment rien d’intéressant à voir sur les stands de ces grandes marques chinoises contrairement aux stands de Samsung ou LG. Sur le stand HiSense, il y avait par exemple un écorché d’un écran LCD rétro-éclairé en LED de leur dernière génération, qui correspondait à la génération 2008 de Samsung. Tout cela pour dire que ces boites chinoises n’affichent pas (encore) une maitrise des dernières technologies de pointe dans le consumer electronics. Elles les fabriquent surtout pour d’autres. Avoir un positionnement de suiveur low-cost se tient par ailleurs !

Sinon, les boites chinoises que l’on voit au Hilton sont des PME qui fabriquent des composants ou des produits qui sont pour l’essentiel des “copycats” de produits standards (cadres photos, caméras, appareils photos, netbooks, etc).

Il y a par contre parfois des innovations d’usage par l’intégration. Mais elles sont toutefois plus fréquentes chez les coréens et les taïwanais que chez les chinois.

L’appréciation de l’innovation chinoise au regard de ce qui vient d’autres pays asiatiques ne change pas trop la donne. De toutes manières, tous ces pays nous concurrencent. Et les japonais comme les coréens ou les taïwanais fabriquent en Chine continentale. Et dans le consumer electronics, cela fait longtemps que la France est hors jeu, malheureusement.

Répondre à ce commentaire

Commentaire 803 dans Tentative de décryptage du Grand Emprunt, le 16 février 2010

Macha, le deuxième lien de mon article pointait déjà sur le projet de loi ! Je l’ai utilisé ainsi que le rapport de la commission des finances de l’Assemblée pour constituer le tableau de répartition du Grand Emprunt dans l’article.

Je suis sinon un peu blasé par ces discussions sur le qui gère quoi dans ce bazar. Oséo, CDC, FNSN, etc. Cela reste du secteur public. Cela reste compliqué. Cela reste aussi politique au sens de la gouvernance. Et parfois, à des niveaux insoupçonnés. Vous n’avez pas idée ! Parfois, telle décision est prise non pas pour respecter tel ou tel corpus idéologique (plus ou moins d’Etat, etc) ou financier (réduire la dette) mais pour satisfaire telle ou telle personne ou lobby (haut fonctionnaire, syndicat professionnel, etc). Les interprétations sur “Oséo perd ceci ou gagne cela par rapport à la CDC, aux banques, etc” sont alors un peu à côté de la plaque. Nous n’avons jamais le détail du pourquoi de nombreuses décisions ! Donc, ne les surinterprétons pas !

Je ne pense pas qu’il y ait de “grand plan” comme certains d’entre vous y font allusion. Le gouvernement navigue à vue. Il suit surtout comme il le peut les désidérata de l’Elysée. Rappelez-vous l’origine du Grand Emprunt : une idée d’Henri Guaino, poussée ensuite par Nicolas Sarkozy et imposée à deux anciens premier ministres récalcitrants mis dans la boucle pour les neutraliser, et qui disent en privé que le Grand Emprunt est une bêtise. On a ensuite un parlement qui travaille en procédure d’urgence, sans avoir le temps d’étudier les dossiers. Comme l’Elysée ne travaille pas assez les détails et l’exécution, elle laisse ensuite les Ministères s’approprier le GU. Et on est revenu au saupoudrage habituel, à la culture du consensus, et on s’est un peu éloigné de l’objectif de génération de croissance. On a aussi fait plaisir aux chercheurs, avec plus de cinq ans de retard par rapport aux grèves de 2004/2005. Très bien, mais alors, on aurait du appeler cela le “Grand Emprunt pour la Recherche”. Pas pour la croissance, bien plus lointaine, et que l’on sera bien infichue de mesurer, ou tout du moins d’attribuer aux effets du Grand Emprunt !

Compte tenu de ses effectifs et de sa présence régionale, je ne pense pas qu’Oséo sera un “laissé pour compte” de toutes ces initiatives. Et ce n’est pas pour leur faire plaisir que je dis cela. Notez que François Drouin siège au conseil d’administration de l’ANR avec voix consultative. Regardez qui siège dans les conseil d’administration de toutes ces organisations : les mêmes personnes, souvent des hauts fonctionnaires de Ministères issus des mêmes grands Corps de l’Etat et qui se connaissent bien.

Ce que nous devrions regarder de plus près, c’est le mode d’attribution de tous ces subsides. Quel est le ratio entre fonctionnaires (ou agents d’entreprises publiques, peu importe) et budgets attribués ? Il me semble qu’il va y avoir un réel problème à l’ADEME, à la CDC, au FNSN et à l’ANR. Contrairement à Oséo qui est bien staffé. Ils vont devoir distribuer dans la durée des budgets significatifs avec peu de ressources humaines. Par exemple, les effectifs permanents de l’ANR sont de l’ordre de la centaine de personnes. Ils pilotent une foultitude de comités de sélection d’appels à projets et font appel à plus de 15000 experts ! Les champions des allocations budgétaires du privé sont encore les grandes entreprises habituelles (Thalès, etc). On retrouve un circuit équivalent à celui des Pôles de Compétitivité. En fait, l’ANR est une des sources de financement des Pôles en plus du FUI géré par Oséo.

Le rôle de surveillance du Parlement et de la Cour des Comptes sera critique. Car des abus, il y en aura !

Répondre à ce commentaire

Commentaire 802 dans Tentative de décryptage du Grand Emprunt, le 15 février 2010

J’ai intégré ces éléments (le début) dans une silent release. A noter que le commentaire n’est pas forcément associé au bon post… Il aurait été préférable de l’ajouter à http://www.oezratty.net/wordpress/2010/guide-entrepreneur-douzieme/.

Répondre à ce commentaire

Commentaire 801 dans Guide entrepreneur, douzième, le 15 février 2010

OK, corrigé. Mais le bon montant figurait dans le tableau juste en dessous.

Répondre à ce commentaire

Commentaire 800 dans Guide entrepreneur, douzième, le 15 février 2010

En effet. J’ai donc supprimé la mention de la version française.

Répondre à ce commentaire

Commentaire 799 dans Tentative de décryptage du Grand Emprunt, le 15 février 2010

Pierre enterre peut-être un peu trop vite le rôle d’Oséo Innovation qui aide les startups en phase d’amorçage. Le changement de statut ne pas pas réduire cette mission que je sache.

En fait, Oséo est le seul à avoir la taille critique pour traiter les milliers de dossiers à l’échelle nationale. Cela explique ces partenariats divers. Celui que vous citez avec la Région Ile de France est en droite ligne d’un partenariat équivalent avec la Ville de Paris (en fait, pour être plus précis, le Département de Paris) conclu en 2009. C’est l’association de budgets nationaux et locaux et des ressources humaines d’Oséo Innovation pour traiter les dossiers. Cela relève aussi d’une approche de cofinancement bien courante en France.

Répondre à ce commentaire

Commentaire 798 dans Tentative de décryptage du Grand Emprunt, le 15 février 2010

Bonjour Aleccio,

Il faut en fait distinguer les aspects juridiques, statutaires et organisationnels. Oséo ne fait plus qu’un du point de vue du management et de l’organisation depuis 2006. Mais c’est en fait un rassemblement d’entités aux statuts différents, notamment pour Oséo Innovation. La fusion “juridique” est en cours. Cela a visiblement pris plus de temps que prévu.

Répondre à ce commentaire

Commentaire 797 dans Le hacking des appareils photos, le 11 février 2010

Oui, c’est un peu l’idée, en ligne avec ce que l’on trouve sur ce blog !

Répondre à ce commentaire

Commentaire 796 dans Rapport CES 2010, le 11 février 2010

Ca dépend des opérateurs. Dans le cas de SFR, la facture de l’utilisateur de mobile n’est pas impactée par l’usage de cette solution (le Home 3G). Donc, ça n’est intéressant que si sa couverture mobile est trop faible là où l’on habite et que l’on a un bon accès ADSL. Au demeurant, qui n’a pas besoin d’être SFR.

Répondre à ce commentaire

Commentaire 795 dans Quelques niveaux de lecture de @TEDxParis, le 9 février 2010

Très intéressant cet article du monde (que j’avais malencontreusement loupé…).

Il serait intéressant d’en faire le parallèle avec la transparence des entreprises. Là aussi, il y a l’ancienne et la nouvelle garde…

Répondre à ce commentaire

Commentaire 794 dans Quelques niveaux de lecture de @TEDxParis, le 7 février 2010

Oui, avec le crédit (cc) Olivier Ezratty, http://www.oezratty.net

Répondre à ce commentaire

Commentaire 793 dans Quelques niveaux de lecture de @TEDxParis, le 6 février 2010

Il a expliqué comment il aidait des entrepreneurs de quartier à New York à lancer leur petite affaire, dans le cadre d’une association dont j’ai oublié le nom.

Répondre à ce commentaire

Commentaire 792 dans Tentative de décryptage du Grand Emprunt, le 5 février 2010

Je me garderai bien de décrire une image aussi sombre pour ce qui est du rôle d’Oséo. Je demande à voir les chiffres définitifs. Etes-vous sûr que l’augmentation des fonds propres d’Oséo par la taxation des bonus des banques va remplacer ce qui était prévu dans le grand emprunt (500 m€), en plus des 1000m€ de dotation pour augmenter la capacité à faire des prêts aux PME ?

Il me semble que ce que Lagarde a obtenu, c’est que les 360m€ servent à augmenter le fonds de garantie d’Oséo, qui couvre les défaillances des PME qui sont plus nombreuses et le seront certainement pendant encore quelque temps. Il faut suivre de près les discussions à l’Assemblée avec l’évolution des allocations du Grand Emprunt pour y voir plus clair.

Le FSI et la CDC vont jouer un rôle dans les prises de participation dans les PME innovantes, soit directes soit par le biais de fonds d’amorçages tiers co-financés, ce qu’Oséo ne fait plus et ne fera pas. Oséo restera l’outil de base pour les aides multisectorielles, les avances remboursables et les prêts. Sa charge de travail va encore augmenter !

Pour le numérique, il est par contre vrai que les appels à projets thématiques seront gérés par le Fond National de la Société Numérique. Cela ne va pas remplacer ce que fait Oséo aujourd’hui, mais plutôt décharger la DGCIS de Bercy qui gérait ces appels d’offre jusqu’à présent. Il sera intéressant de voir comment le FNSN est constitué : quel haut fonctionnaire (ou pas) le dirigera, avec quelles équipes, de quelle provenance. On peut avoir le meilleur comme le pire !

Il est vrai par contre que l’ADEME va avoir de grosses sommes à gérer. C’est à surveiller comme le lait sur le feu. Car un trop plein de financement public ne rend jamais ni plus intelligent, ni plus “orienté business”, ni plus clean. Au sens moral et éthique et pour les gens qui vont graviter autour.

Répondre à ce commentaire

Commentaire 791 dans Tentative de décryptage du Grand Emprunt, le 5 février 2010

Pas bien compris le sens de cette remarque, grammaticalement pour le moins ambigüe !

Répondre à ce commentaire

Commentaire 790 dans Tentative de décryptage du Grand Emprunt, le 4 février 2010

La plupart des structures de valorisation sont rattachées aux grands établissements de recherche publique. Il y a par exemple INSERM Transfert, INRA Transfert, INRIA Transfert (qui est plus orienté business dans le coaching), tout comme CEA Investissement, qui fait aussi de l’investissement d’amorçage.

La valorisation par le business development relève aussi des fonds d’amorçage, tels que ceux qui sont adossés aux régions (IDF Capital ou Cap Décisif pour l’Ile de France). Puis, il y a le privé avec les business angels et les rares VCs qui font de l’amorçage. Plus le financement est privé, plus il y a des chances que l’accompagnement soit orienté “business”.

Comme on sort du rôle de l’Etat et de ses agents, je pense que le sujet devrait être traité indirectement par une meilleure organisation des pôles universitaires.

Les pays anglo-saxons ont en général un avantage que je qualifierai de “culturel” plus favorable au business et qui perfuse dans toute la société (cf le cas de la Silicon Valley). La prédisposition culturelle s’accompagne d’une accumulation de compétences liée à la structure de l’enseignement supérieur qui associe mieux les sciences molles et les sciences dures qu’en France. Et puis, il y a la masse critique d’entrepreneurs qui ont réussi. Et dans un creuset multi-culturel très concentré qui allie les talents de nombreux pays comme l’Inde, la Chine, Israël et les pays européens en général. L’environnement humain me semble moins divers dans l’entrepreneuriat français.

Après, c’est un cercle vertueux : des entrepreneurs réussissent, ne s’expatrient pas (!), deviennent business angels ou VCs, puis accompagnent de jeunes entrepreneurs qui réussissent à leur tour. Dans le lot, quelques succès planétaires sont créés qui alimentent financièrement le cercle vertueux. Ces succès viennent de ce qu’il est plus aisé d’en créer à partir des USA qu’à partir d’un petit pays (oui, nous sommes un petit pays !). D’où mon crédo : pour réussir (dans les technologies du numérique), il faut avoir un gros pieds de posé aux USA. Si ce n’est les deux.

L’autre cercle vertueux aux USA provient de la commande publique. L’Etat fédéral subventionne moins et achète plus, ne serait-ce que parce qu’il fait moins de choses par lui-même et se repose plus sur le secteur privé (avec des dérives, cf Blackwater ou Haliburton). C’est une autre forme de subvention si l’on veut. Mais elle positionne le gouvernement comme client et donneur d’ordre (surtout le Pentagone) plus que comme simple porte monnaie ou prêteur à bon compte. Cela créé une relation plus orientée besoins et business entre les acteurs publics et privés de l’écosystème de l’innovation.

Pour revenir aux structures de valorisation françaises, elles ont un intérêt pour les startups qui peuvent s’adosser sur elles pour se protéger plus efficacement lorsqu’elles commencent à aborder les marchés étrangers comme les USA.

Répondre à ce commentaire

Commentaire 789 dans Rapport CES 2010, le 4 février 2010

Non, et pour cause : le service n’est pas encore disponible aux USA. Il devrait l’être d’ici le milieu de 2010 si tout va bien, après de nombreux retards. Et je n’ai pas testé la pré-réservation en ligne.

Répondre à ce commentaire

Commentaire 788 dans Rapport CES 2010, le 1 février 2010

Je pensais qu’il y en avait, mais je me trompe donc…

Répondre à ce commentaire

Commentaire 787 dans Quelques niveaux de lecture de @TEDxParis, le 1 février 2010

Je ne l’ai pas citée comme pour d’autres intervenants. Je n’en pense pas grand chose d’original. J’ai retrouvé chez elle des traits de caractère et de comportement (altruisme+création artistique…) croisés il y a quelques années dans l’entourage de ma mère qui éditait des artistes contemporains.

Répondre à ce commentaire

Commentaire 786 dans Rapport CES 2010, le 28 janvier 2010

Sony a bien annoncé cela. Mais cela reste du plastique in-fine. Et de l’électronique polluante en effet. Une grande pollution venant d’ailleurs des usines elles-mêmes.

L’aspect green est traité, mais pour se donner bonne conscience. L’exemple de Toshiba est édifiant avec d’un côté une zone green sur leur stand et de l’autre, le choix d’un processeur (le Cell) qui consomme 8 fois plus que les autres pour ses Tv haut de gamme.

L’un des éléments à regarder dans l’équilibre green/IT est l’usage de la visio-conférence.

Répondre à ce commentaire

Commentaire 785 dans Rapport CES 2010, le 28 janvier 2010

Bonjour Macha,

En fait, pour les asiatiques, il faut faire la part des choses entre les usines chinoises qui copient effectivement (et sont souvent des PME) et les grandes boites coréennes, japonaises et taïwanaises qui sont très innovantes. Tout du moins dans le matériel car dans le logiciels, elles sont en effet dépassées, ce qui est une question de culture.

Olivier

Répondre à ce commentaire

Commentaire 784 dans Rapport CES 2010, le 28 janvier 2010

Est-ce que donc sur l’iPad on pourra faire les deux à la fois ?

J’ai aussi noté que le mail fonctionnait en tâche de fond avec une sidebar permettant de consulter ses mails récents tout en faisant autre chose.

Dans les deux cas… cela concerne en tout cas des applications originaires d’Apple ce qui est assez limitatif. Cf l’usage de Deezer pour écouter de la musique et pas iTunes… !

Répondre à ce commentaire

Commentaire 783 dans Rapport CES 2010, le 28 janvier 2010

Bonjour,

Merci d’avoir relevé la coquille, je viens de la corriger et d’uploader à nouveau les PDF sur les deux sites. Il y en aura sûrement d’autres dans la journée.

Olivier

Répondre à ce commentaire

Commentaire 782 dans Leweb 2009 – Startups, le 25 janvier 2010

Dès lors qu’une société a fait appel à des capitaux externes (business angels, VC), elle doit avoir en tête une sortie ! Et le plus souvent, cette sortie est une acquisition, pas une IPO. La boite doit donc être de préférence viable, en forte croissance, et présenter un intérêt stratégie (techno, complémentarité de business, barrière à l’entrée) pour un acquéreur potentiel. Mais comme les chances d’être acquis sont statistiquement faibles, il faut savoir gérer son entreprise et sa croissance comme si elle devait rester viable de manière autonome. C’est le paradoxe…

Après acquisition, tout dépend d’un tas de paramètre et notamment le taille, l’activité et la culture de la boite qui fait l’acquisition. Le mieux étant souvent de conserver les fondateurs quelques temps dans la structure.

Quelques précautions cependant (qui sont décrites dans mon guide sur l’accompagnement des startups) :
– La qualité des recrutements (et notamment la diversité culturelle, la maitrise de l’anglais et la mobilité géographique)
– La protection de la propriété intellectuelle (pas simplement les brevets, mais aussi les types de licences logicielles utilisées dans ses produits)
– Le montage financier et la structure du capital (qui ne devront pas être trop tarabiscotés)

Répondre à ce commentaire

Commentaire 781 dans Lancement du Parrot AR-Drone, le 22 janvier 2010

Je ne suis pas rassuré par les thématiques retenues. Elle me semblent ou bien sortir du champs de l’économie de marché (culture), ou bien trop relever du marché intérieur (e-education, ville, etc).

Donc, oui on fera avancer la société numérique, mais pas forcément l’économie numérique et notre capacité à dynamiser les industries du numérique.

Il faudrait expliquer par exemple comment les 750m€ de numérisation du patrimoine culturel vont permettre de créer des acteurs internationaux du numérique, dans le hardware, le software ou les services en ligne. Le fait de trop définir les secteurs d’allocation de ces fonds va à mon sens brider l’innovation ou bien générer des effets pervers, avec des projets maquillés et des projets collaboratifs (“à la noix”) pour pour rentrer dans le moule,

NKM affirme qu’elle préfère dire qu’elle s’occupe de la société numérique plus que de l’économie numérique. Cela se voit effectivement dans ces différents choix et cela m’inquiète sur la dimension économique.

Répondre à ce commentaire

Commentaire 780 dans Lancement du Parrot AR-Drone, le 21 janvier 2010

En voici qui datent de mercredi, lors de sa cérémonie de voeux à la Conciergerie, devant environ un millier de personnes, un bon bout du Gotha du numérique français.

http://picasaweb.google.fr/Olivier.Ezratty/VoeuxNKMJan2010#

Sur le fond, oui, elle a évoqué ces milliards. La manière dont ils vont être alloués devra être surveillée de très très près par notre petite sphère de l’entrepreunariat.

Répondre à ce commentaire

Commentaire 779 dans Lancement du Parrot AR-Drone, le 21 janvier 2010

Cet afflut d’argent ne me réjouit pas tant que cela car il ne va pas vraiment résoudre les problèmes de fond que nous avons en France dans nos manières de vendre et exporter les innovations dans le domaine du numérique.

Je suis planté là dessus car je suis en train de rédiger mon rapport du CES 2010. C’est quasiment un bouquin, très attendu de (certains de) mes lecteurs.

Répondre à ce commentaire

Commentaire 778 dans Premières impressions du CES 2010, le 14 janvier 2010

J’en apprend tous les jours !
– En lisant beaucoup (flux RSS, presse écrite, etc).
– En rencontrant des sociétés diverses, comme Parrot, des startups, des grands groupes, ce qui me permet d’en savoir plus sur de nouveaux sujets.
– Pour le Gamut, c’est lié à ma passion pour la photo…

Pour les biotechs (vous faites sans doutes allusion à mon article sur la grippe A), toutes les informations que j’évoque ont été récupérées sur Internet pendant la rédaction de mon article.

Il y a une différence entre “tout connaitre”, “savoir où chercher”, “être curieux sur un tas de sujets”… et en partager le résultat 🙂

Ceci étant, j’ai aussi été un peu (gentiment) agacé par le passé par des gens qui me donnaient cette impression de tout savoir. Puis, je me me suis un peu inspiré de leurs méthodes de travail.

Répondre à ce commentaire

Commentaire 777 dans Premières impressions du CES 2010, le 13 janvier 2010

Ca augmente légèrement le spectre des couleurs générées par l’écran. En langage technique, on dit que cela élargit le Gamut (la représentation du spectre des couleurs en 2D). Je l’expliquerai visuellement dans mon rapport CES 2010. L’oeil humain est capable de voir plus de fréquences de lumières que la combinaison RGB. On peut augmenter le spectre couvert en ajoutant des couleurs primaires au RGB. Il y a déjà eu d’autres tentatives, notamment dans les projecteurs vidéos. Mais encore faut-il que le signal soit capté et encodé avec le même nombre de couleurs et/ou avec un spectre plus large. Ce qui n’est évidemment pas possible sans changer toute la chaine de production et de diffusion des contenus en amont.

Répondre à ce commentaire

Commentaire 776 dans Premières impressions du CES 2010, le 12 janvier 2010

D’un point de vue commercial, le plasma est condamné. Ses ventes représentent environ le huitième des ventes d’écrans LCD, même si dans les grands format, l’équilibre est moins défavorable. Par ailleurs, la différence de qualité d’image entre plasma et LCD (rétroéclairés par LED) s’est sérieusement amenuisée. Et comme la préoccupation environnementale augmente, le différentiel de consommation d’électricité enfonce le clou en défaveur du plasma.

Panasonic devrait peut-être creuser la filière OLED, peut-être à même de remplacer le plasma comme référence en termes et de qualité d’image et de consommation d’énergie.

Mais en effet, Samsung et LG continuent de proposer des écrans plasma. Avec un différentiel de prix tel que l’on trouve des plasma à des prix défiant toute concurrence. Mais ils n’investissent plus dessus. Samsung présentait sa nouvelle gamme plasma au CES, mais LG l’avais mise à l’écart. Il faut bien rentabiliser les usines…

Après, il faut prendre en considération le marché professionnel où le plasma se vend encore. Notamment dans les très grands formats (65 pouces et au dessus).

Répondre à ce commentaire

Commentaire 775 dans Lancement du Parrot AR-Drone, le 11 janvier 2010

AR = Augmented Reality

Répondre à ce commentaire

Commentaire 774 dans Méta-prédictions pour 2010, le 9 janvier 2010

En deux mots, les débats ne sont pas prêts de se terminer…

Je suis cependant un peu loin de tout cela, au moins physiquement. Etant à Las Vegas au CES en ce moment, je n’ai pas trop le temps de suivre ces débats “à la française”. Ici, le business est plus terre à terre. Négos entre major d’Hollywood, constructeurs et acteurs de l’Internet pour intégration des contenus dans les télévisions connectées, etc. Enthousiasme des offreurs sur la 3D-relief, pas forcément rejoint par les futurs consommateurs. En tout cas, cela bouge très vite.

Sur Google, j’aurais l’occasion de traiter le sujet en 2010.

Répondre à ce commentaire

Commentaire 773 dans Lancement du Parrot AR-Drone, le 8 janvier 2010

Si l’univers du jeu était un domaine rationnel, cela se saurait…:). Si des gens trouvent cela cool de jouer avec de la réalité augmentée, le truc se vendra. Question de marketing et aussi de mode.

Côté batterie, tous les objets autonomes ont le même problème. Les objets volants sur batterie se vendent plutôt bien. Et qui n’a pas pesté contre ces piles à changer dans tous les cadeaux offerts aux gamins à Noël ?

A noter que le pb des 15 minutes de la batterie peut-être traité avec des batteries supplémentaires. Plus facile que de recharger son iPhone dont la batterie n’est pas remplaçable… et pourtant, il s’en est vendu quelque dizaines de millions.

Répondre à ce commentaire

Commentaire 772 dans Lancement du Parrot AR-Drone, le 8 janvier 2010

Oui, j’y sui, comme indiqué dans cet article comme dans le précédent.

Et oui, je prépare mon cinquième compte rendu du CES… Stay tuned!

Sortie prévue entre le 21 et le 30 janvier selon mon degré d’avancement.

Olivier

Répondre à ce commentaire

Commentaire 771 dans Lancement du Parrot AR-Drone, le 7 janvier 2010

Bonne question ! Il y a du pour et du contre à faire ce genre d’annonce. L’équilibre est délicat. Ce n’est pas qu’une affaire de culture “geek” face à une culture “marketing”.

Démonstration…

Le pour :
– Commencer à attirer des développeurs pour créer un écosystème de jeux autour de l’AR Drone. Sans développeurs et ISVs, le produit serait un jouet éphémère.
– Profiter du rassemblement du CES pour générer du buzz. Il n’y a pas beaucoup d’autres occasions dans l’année à part peut-être l’E3. Mais comme Parrot n’en est pas un habitué, il n’est pas bien armé pour y faire du buzz. Le coup réalisé sur cette opé semble avoir eu un très bon retour sur investissement pour Parrot.
– Le marketing de la rareté et de l’attente est une option valable dans certaines circonstances. Apple fait de même, indirectement, en laisant filtrer des rumeurs sur ses nouveaux produits. On parlait de l’iPhone plus d’un an avant son lancement. Et que dire de la tablette…
– Ce genre de produit se vent surtout autour de Noël. Pour le vendre dans la grande distribution, il faut se préparer bien en amont. Le référencement et les catalogues se préparent dès le printemps, voire avant pour certains. Or la grande distribution a besoin de support marketing pour se bouger. Le buzz y participe et pour pas trop cher.

Le contre :
– Voir le buzz s’émousser une fois le produit disponible. Mais avec des annonces de jeu tournant avec l’hélico, il pourra être entretenu.
– Le risque de se voir piquer l’idée. A ce que j’ai vu du produit, le risque est faible tant que le produit n’est pas disponible. Il y a un mix d’ingéniérie logicielle et matérielle pas facile à imiter dans ce produit.
– Nintendo et Microsoft ? Je mets ma main à couper que ces deux sociétés ne sortiront JAMAIS un tel produit. Le premier car ce n’est pas une console de jeu et le second car il lui faudrait deux ans pour s’y mettre et ce n’est pas du tout son coeur de métier. Tout au plus chercherait-il à caser Window CE dans les produits qui émergeraient chez d’éventuels concurrents de Parrot. La peur des géans de l’industrie est assez courante en France. Elle est trop souvent non justifiée.

L’autre élément de culture à adapter, peut-être, c’est d’imaginer ce que Parrot pourrait faire pour réussir ce lancement plutôt que d’imaginer le pire et pourquoi cela ne pourrait pas marcher. Un optimisme raisonné vaut peut-être mieux qu’un scepticisme paralysant.

Je précise que je n’ai pas de relation “business” avec Parrot.

Répondre à ce commentaire

Commentaire 770 dans Le cas difficile de l’entrepreneur isolé, le 29 décembre 2009

Dans l’absolu il n’y a pas de contre indication, surtout si le business n’a pas de vocation à devenir une “entreprise” avec des salariés.

Dans l’histoire des entreprises et des startups, on est plus proche du portrait robot de la boulangerie et du petit commerce que de l’entreprise de high-tech.

Quelques aspects à prendre toutefois en considération :
– L’entente dans le couple. Elle peut aller dans la vie privée, mais combiner la vie privée et le travail est plus difficile pour préserver cette entente dans la durée.
– Le mix de compétence. Est-ce qu’il est bien égal entre les deux parties du couple ? Où est-ce que l’un des deux joue juste un rôle administratif ?
– L’étalement du risque. Un couple prend beaucoup de risque à s’associer dans une entreprise. Si elle capote, le couple est dans une difficulté plus grande que si seulement l’un d’entre eux entreprend, ou s’ils entreprennent dans deux entreprises différentes.
– Les “family business” ne sont pas très bien vus des investisseurs (business angels et surtout VCs) pour les raisons précédentes.

Répondre à ce commentaire

Commentaire 769 dans Le cas difficile de l’entrepreneur isolé, le 25 décembre 2009

Nicolas et Hamid,

Bravo pour avoir réussi à lancer votre projet tout seul !

Malgré tout, nous ne parlons pas de la même chose.

Mon propos concerne les startups qui ont vocation à devenir des “entreprises” non uni-personnelles. Des PME, des équipes de plusieurs dizaines de personnes, un vrai business international, sans compter la position enviée de “leader” dans un marché donné.

Il existe bien entendu des dizaines de milliers d’entreprises unipersonnelles qui réussissent. Rien qu’en France, plusieurs dizaines de milliers de vendeurs eBay qui s’en sortent. Et des créateurs de sites web qui arrivent à gagner à peu près correctement leur vie.

Cela n’en fait pas pour autant des PME ou des entreprises de croissance, celles qui font notamment l’objet de l’attention des investisseurs. Les entrepreneurs qui ne souhaitent pas créer “d’entreprise” au sens PME du terme n’intéressent généralement pas ces investisseurs. Et cela me semble plutôt fondé.

C’est donc juste une question d’échelle et d’ambition pour les entreprises créées.

Répondre à ce commentaire

Commentaire 768 dans Checkpoint sur le grand emprunt et le numérique, le 20 décembre 2009

Cette fusion était écrite dans le marbre depuis longtemps. C’est surtout une affaire de gouvernance et de statuts juridique car la fusion est opérationnelle dans les faits sur le terrain depuis quelques années.

Par contre Oséo ne peut pas être remplacé par le FSI. Oséo gère des subventions et des prêts tandis que le FSI investit au capital des entreprises. Ce dernier n’a pas du tout la capacité à traiter plus de quelques dizaines de sociétés par an. Alors qu’Oséo en sert des milliers.

Répondre à ce commentaire

Commentaire 767 dans Cube, la set-top-box hybride de Canal+, le 17 décembre 2009

D’après mes contacts dans les équipes produit de Canal+, ce problème aurait été résolu avec une nouvelle génération de télécommandes. Seul problème : ils ne changent pas les télécommandes défectueuses proactivement. Il doit falloir contacter leur support technique.

Répondre à ce commentaire

Commentaire 765 dans With the Traveling Geeks @ Pearltrees, le 14 décembre 2009

Google est noyé sous une masse d’informations inutiles qui résulte des stratégies de SEO des sites de ecommerce et autres comparateurs. C’est un peu la rançon de son succès et de son audience. Certains moteurs dont Google lui-même commencent à proposer des outils plus ou moins sémantiques pour faire le ménage dans les résultats des recherches.

Mais est-ce que Pearltrees échapperait à ce phénomène une fois 1) une masse critique de contenus référencés, et 2) un modèle économique trouvé dont une part pourrait être indirecte et dépendre de la publicité ?

Répondre à ce commentaire

Commentaire 764 dans With the Traveling Geeks @ Orange, le 14 décembre 2009

Pearltrees was rather independant. Besides Oseo, they didn’t need the help of other publicly funded organization. Easily explained by their initial seed funding of 2.5m€ (or 2.0m). Companies requiring public funding are usually those who have a hard time finding initial seed funding. Sometimes, because their project is not matured enough, others, when their founders don’t have a good personal network or know how to create it.

Répondre à ce commentaire

Commentaire 763 dans With the Traveling Geeks @ Paris Incubator, le 13 décembre 2009

1) I’m not a specialist of games. So I don’t dig specially here. We met 20+ companies in two days…
2) I’m just one out of 12+ TGs. So my feedback is individual, not that from a group. Other feedback may follow on. Particularly if you had 1/1s with some of the TGs after your presentation.
3) I do care about the way companies communicate and market themselves. It’s explaining half of successes or failures. You have to be prepared to be challenged here and not just with your products.

Répondre à ce commentaire

Commentaire 762 dans With the Traveling Geeks @ Paris Incubator, le 13 décembre 2009

It’s not a “judgement”, just an advice! I didn’t say anything bad about your company. Your demo was fine. Shit, how susceptible you are folks! Get over it!

Btw, I corrected my point since you have a Twitter account.

Répondre à ce commentaire

Commentaire 761 dans With the Traveling Geeks @ Paris Incubator, le 13 décembre 2009

It also depends on the values you want to convey: approachable, open, transparent. Or not.

It’s not that simplistic. It’s about your communication and the image you want to create for your company.

You can also chose to have both: contact@company.com for general inquiries, and real emails for CEO, PR person, partnerships, etc.

Répondre à ce commentaire

Commentaire 760 dans With the Traveling Geeks @ Paris Incubator, le 13 décembre 2009

It shows that the company has real people behind it, makes it easier to get in touch with you as CEO. Anonymizing the company behind “contact@company.com” is usually not a good practice. There are obviously cons to do that (real emails in about pages), but they’re offset by the pros.

I corrected your company name with lower caps.

Répondre à ce commentaire

Commentaire 759 dans Le cas difficile de l’entrepreneur isolé, le 12 décembre 2009

Je n’ai pas écrit que c’était une condition de validité, mais plutôt une condition de réussite pour créer une entreprise de taille respectable et notamment une condition importante pour attirer des investisseurs. Et effectivement, une équipe de fondateurs, cela commence avec au moins deux personnes.

Pour ce qui est de Deezer, Wikipedia n’est certes peut-être pas parfait, mais le “About” de Deezer indique tout de même:

“Deezer, c’est tout d’abord l’histoire d’un site « réinventeur » de musique, derrière lequel se cachent ses deux jeunes fondateurs Daniel Marhely et Jonathan Benassaya”.

Quelle que soit la chronologie, à un moment donné, il s’agissait donc bien d’une équipe de deux fondateurs.

Je n’ai pas non plus affirmé qu’il était impossible de réussir sa startup en démarrant seul. J’ai juste indiqué que c’était plus difficile qu’en démarrant à plusieurs.

Répondre à ce commentaire

Commentaire 758 dans Résultats du Grand Prix de l’Innovation de la Ville de Paris, le 10 décembre 2009

Tous les dossiers ont été acceptés et traités.

Les critères sont documentés sur le site du concours.

Les infos sont là : http://www.paris.fr/portail/Economie/Portal.lut?page_id=169&document_type_id=2&document_id=68264&portlet_id=20420

En plus des critères classiques sur l’innovation, etc, il y avait l’intérêt pour les usages pour les citoyens dans Paris.

Répondre à ce commentaire

Commentaire 757 dans Résultats du Grand Prix de l’Innovation de la Ville de Paris, le 10 décembre 2009

Intéressant, c’est toujours bon d’avoir ce genre de ressenti !

En fait de sélection, elle s’appuie sur les projets qui sont candidats. Sans aller jusqu’à dire que les meilleurs projets n’y sont pas forcément présents, c’est un biais dans la mesure de la qualité des projets. Après, que ceux qui ont été sélectionnés soient ou pas les meilleurs, c’est une appréciation qui ne peut être faite qu’en passant quelques heures à examiner 300 dossiers… :). Le “public” n’est pas encore invité comme pour Miss France à mener cette évaluation. Un jour peut-être… Il faut aussi noter que le nombre de candidats était très variable selon les catégories. La plus importante était le numérique avec 106 candidats. Après, je ne sais plus, mais cela descendait à une vingtaine.

Ce ressenti était aussi très fort pour le résultat des appels à projets web 2.0 et serious gaming de l’été dernier. Cf http://www.oezratty.net/wordpress/2009/rsultats-de-lappel-projets-serious-gaming-et-web-2-0/. Notamment de la part des porteurs des projets non sélectionnés.

Répondre à ce commentaire

Commentaire 756 dans Moteurs et freins de l’innovation de la TV numérique, le 7 décembre 2009

Je me suis contenté de couvrir les boites françaises.

Il me semble, en tout cas d’après eux, que cette techno web de Philips provient justement de Wiztivi que je cite dans la partie sur Toshiba.

Répondre à ce commentaire

Commentaire 755 dans Moteurs et freins de l’innovation de la TV numérique, le 7 décembre 2009

Louis, j’ai modifié le wording dans l’article. Tu peux vérifier que c’est correct maintenant.

Répondre à ce commentaire

Commentaire 754 dans Moteurs et freins de l’innovation de la TV numérique, le 7 décembre 2009

Bonne rectification. L’interface utilisateur ne passe-t-elle pas tout de même par des standards du web au sens HTML / JavaScript?

Répondre à ce commentaire

Commentaire 753 dans Résultats du Grand Prix de l’Innovation de la Ville de Paris, le 3 décembre 2009

Je propose quelques pistes ici, ou en me focalisant sur les industries du numérique.

Une stratégie, cela commence par avoir une vue d’ensemble de là où l’on veut aller et comment. Et aussi de diagnostiquer les problèmes, difficultés et obstacles. Il est bien rare qu’une initiative gouvernementale traite de manière cohérente et globale de l’innovation.

Le problème de fond est comment sortir de l’impasse (étatique) française qui ne traite de l’innovation qu’au travers de trois prismes principaux : la R&D, le financement et les grandes infrastructures. L’Etat a compris qu’il n’y avait pas assez “d’ETI” (grosses PME de croissance). Mais il réagit par une approche “financement”. Le problème n’est-il que là ?

L’innovation résulte d’un creuset complexe. Ce n’est pas une science exacte. C’est le résultat d’une alchimie humaine et historique rare, telle que celle qui a fait germer il y a plus d’un siècle la Silicon Valley (son histoire démarre avec la création de l’université de Stanford en 1891…). Améliorer la situation relève de la même approche que celle du peintre qui exploite une large palette de couleurs et de textures.

La dimension “soft” de l’innovation reste ignorée ou incomprise par les gouvernants. Elle pêche notamment au niveau des compétences, surtout “business” qui manquent à nos créateurs d’entreprises. Elle pêche aussi du fait du fonctionnement et du rôle des élites économiques (grandes écoles, Grands Corps de l’Etat, etc). Il y a aussi l’environnement économique et régulatoire des entreprises, le rôle des grandes entreprises, le rôle des écosystèmes d’innovation, des alliances, des standards, et l’orientation vers l’international (un bon point du discours d’Estrosi).

Pour prendre un exemple concret et terre à terre : comment va-t-on intégrer des compétences non scientifiques dans le pôle de Saclay ? Ce n’est pas le tout de concentrer les ressources scientifiques et techniques dans une zone géographique. Il faut aussi que ce mix de compétences soit le bon pour faire émerger des réussites économiques, et pas seulement d’hypothétiques prix Nobel. Combien de facs ou écoles de “sciences molles” sont intégrées dans ce dispositif à part HEC – qui est d’ailleurs bien distant du coeur de Orsay/Gif/Palaiseau/Saclay ?

Répondre à ce commentaire

Commentaire 752 dans Cube, la set-top-box hybride de Canal+, le 30 novembre 2009

Je ne vois pas trop à quoi ce pb correspond. Je vous conseille d’appeller la hotline technique de CanalSat. La dernière fois que je les ai appelés (il y a un an), c’était le 0 891 39 11 11.

Répondre à ce commentaire

Commentaire 751 dans Le cas difficile de l’entrepreneur isolé, le 29 novembre 2009

Sauf que dans ces exemples, il y a au moins 2 fondadeurs :

– Zynga a trois cofondateurs d’après le lien que vous fournissez.

– Facebook a été créé par 4 personnes dont Zuckerberg est certes le leader (cf http://en.wikipedia.org/wiki/Facebook).

– Deezer provient d’une boite qui a deux fondateurs (http://fr.wikipedia.org/wiki/Deezer).

– Youtube a été créé par trois anciens de PayPal.

Une rare exception récente qui manque à votre liste : Mint (http://en.wikipedia.org/wiki/Mint.com). Qui a été récemment acquis par Intuit.

Pas isolé pour moi, cela veut dire 2 associés au moins au départ. C’est tout. Il n’empêche pas moins qu’il est préférable que parmi ces fondateurs, un leader se détache clairement.

Mon propos s’appuie sur l’observation des plus grands succès anciens comme récents. Pour l’instant, il ne me semble pas m’être égaré d’un point de vue statistique ! Ne serait-ce qu’avec votre propre échantillon…

Mais puisque vous prêchez pour la boite avec un seul fondateur, nos lecteurs seront intéressés de connaitre votre point de vue sur la manière de réussir dans ces conditions.

Répondre à ce commentaire

Commentaire 750 dans Le cas difficile de l’entrepreneur isolé, le 29 novembre 2009

Désolé de décevoir, même si il ne faut peut-être pas confondre désaccord et déception dans un débat :). D’autant plus que vous devez aussi être “déçu” par les autres commentaires de cet article.

Pour aller dans votre sens, le gouvernement dirait aussi qu’il y a des centaines de milliers d’auto-entrepreneurs grâce à la LME de 2008…

Il me faut cependant préciser le point de vue exposé dans l’article :

– J’entends par entrepreneur celui qui veut créer une entreprise au delà de sa propre personne et qui a une ambition forte.

– Je positionne le projet comme ayant besoin de lever des fonds, chez des business angels et potentiellement ensuite chez des VCs. Voire même simplement des aides ou avances publiques en amont.

– Je place le débat au niveau des fondateurs de la société, pas de ses salariés éventuels. C’est effectivement très différent. Quand des fondateurs se lancent ensembles, ils prennent un risque voisin. Souvent de ne pas se payer pendant quelques temps et ensuite très peu. S’il s’agit d’anciens salariés, ils peuvent bénéficier des ASSEDIC pendant 18 mois.

– Je ne recommande pas d’avoir des équipes fondatrices pléthoriques. Il faut environ 2 à 3 personnes qui s’entendent très bien et si possible se connaissent depuis quelques années au moins. Elles doivent être complémentaires et pouvoir bien se répartir les tâches. Ainsi, les problèmes de coordination que vous évoquez sont limités.
Au delà, vous avez raison, cela devient difficile à gérer. Mais votre point 1) et 2) sont à équilibrer avec l’immensité de la tâche consistant à créer une entreprise. Je côtoie aussi des entrepreneurs seuls qui regrettent vraiment cette situation et auraient préférer démarrer leur projet avec un ou deux associés.

Pour ce qui et des entrepreneurs qui développent des applications iPhone ou Facebook, bien sûr, il y en a plein. C’est la “long tail” de l’entreprenariat. Mais cela reste des entreprises unipersonnelles qui créent dans l’ensemble peu d’emplois.

Il en a toujours existé dans le logiciel et le web, notamment autour des shareware, mais aussi de la vente en lignes (les boutiques dans eBay ou Amazon…). Mais combien de ces boites ont dépassé le million de $ de CA et créé des emplois ?

Bref, on ne parle pas de la même chose…

Répondre à ce commentaire

Commentaire 749 dans Le pseudo manque d’information sur la grippe A, le 28 novembre 2009

Très intéressant. Merci de cet éclairage sur le vaccin spray.

Visiblement, les USA appliquent donc un équilibre de principe de précaution différent : plus prudent sur le vaccin pour éviter les piqures, mais moins efficient sur le vaccin lui-même… Et semble-t-il une moindre résistance (médiatique tout du moins) au vaccin. Mais comment la mesurer ?

Répondre à ce commentaire

Commentaire 748 dans Le pseudo manque d’information sur la grippe A, le 27 novembre 2009

Carlos,

C’est un vrai sujet, à déconnecter du débat sur le pour et le contre du vaccin. Que la puissance publique soit mal organisée face à un tel défi, cela ne devrait surprendre personne !

Je me suis fait vacciner dans les premiers jours dans un centre de santé municipal, bien avant la cohue actuelle, et ce que j’en avais vu laissait présager d’un beau foutoir le jour où il y aurait du monde. Ca a en effet duré une heure en tout alors qu’il n’y avait que deux personnes devant moi…

J’ai l’impression qu’ils ont évité les pharmacies et les médecins généralistes pour faire des économies, mais au final, l’équation économique (et de santé) restera à démontrer. Surtout si l’on intègre le temps-homme perdu par les gens qui ont fait la queue. Ce d’autant plus que la vaccination antigrippale habituelle couvre déjà un quart de la population.

Sinon, la discussion de 5 mn avec le médecin n’a qu’un seul objectif : identifier les contre-indications éventuelles au vaccin (allergies, etc).

Répondre à ce commentaire

Commentaire 747 dans Checkpoint sur le grand emprunt et le numérique, le 25 novembre 2009

A ce que j’ai compris Oséo aurait peut-être besoin d’un refinancement du fait de défaillances de PME en 2009/2010 qui affecteront ses comptes. Cela pourrait toucher Oséo Garantie en premier, qui est le réassureur interne du groupe Oséo, et réassure aussi les banques qui prêtent aux PME. Mais ce n’est pas ce qui est proposé dans le cadre du grand emprunt.

En tout état de cause, le budget qu’il faudrait alimenter est en priorité celui d’Oséo Innovation, pas le reste, qui couvre surtout les PME “classiques” (innovantes ou pas). Mais il y a une approche intéressante consistant à permettre au FSI d’abonder des financements en fonds propres d’Oséo. Ce qui peut résoudre le pb de ratios de fonds propres évoqué dans mon article.

La demande de Frédéric Mitterrand ? Je demande à voir le détail, très certainement surévalué. Bouffer plus du tiers des 2 Md€ des projets numériques (track 7) du grand emprunt pour numériser la culture française ne me semblerait pas du tout raisonnable. Son impact économique me semble douteux. Cela aurait du sens si dans le même temps il y avait aussi un effort d’investissement pour développer l’efficacité du tourisme en France. En gros, pour utiliser notamment des services innovantes TIC (mobilité, etc) et améliorer le service client par un peu de formation, histoire d’augmenter le panier moyen (ARPU) des nombreux touristes qui passent dans notre pays.

Répondre à ce commentaire

Commentaire 746 dans Checkpoint sur le grand emprunt et le numérique, le 25 novembre 2009

Décrire le phénomène les achats par les boites ou fonds US n’est pas une approbation de ma part. Par contre, il ne faut pas à la fois rejeter ces derniers et d’éventuels rachats par des groupes français. L’innovation, ce sont des startups qui se font racheter ou croissent à une taille respectable (ETI ET au delà). Mais si on n’a ni l’un ni l’autre en France, on est bien avancé…

Par ailleurs, les efforts de coordination à l’échelle européenne ou française de manquent pas (fonds FP6/7 Européen, pôles de compétitivité). Ils concernent le plus souvent des projets “amont”, très R&D, et malheureusement pas très stratégiques pour les entreprises participantes et la collaboration est rarement dans la commercialisation. Résultat : faible impact business dans l’ensemble. Les 2 Md€ des projets numériques du grand emprunt risquent bien de prendre cette pente glissante.

La collaboration n’est pas une mauvaise approche d’Open Innovation très amont. Mais elle ne fonctionne pas bien dans l’immatériel (l’Internet, les logiciels) et elle n’aboutit pas structurellement à des succès commerciaux. Et l’on retombe à la case départ des lacunes de la chaine alimentaire des innovations provenant des startups.

Seule exception notable : les efforts de standardisation à l’échelle européenne (le GSM, le DVB, les travaux de l’ETSI, etc).

Répondre à ce commentaire

Commentaire 745 dans Checkpoint sur le grand emprunt et le numérique, le 24 novembre 2009

Effectivement, cela n’aurait pas de sens d’utiliser un emprunt pour financer une dépense fiscale. Quelle qu’elle soit.

La question reste cependant posée de l’équilibre de la “chaîne alimentaire” de l’innovation qui est rompu en France à différents niveaux dont celui des acquisitions permettant aux investisseurs de retrouver leur mise.

L’investissement d’un business angel ou fond d’investissement dans une boite suppose une “sortie” à terme d’environ 5 à 10 ans pour être large. Quatre principaux scénarios sont possibles :
– La revente à un groupe industriel, le cas le plus fréquent. En France, plus de 40% des sorties sont des reventes à des groupes américains dans la hightech.
– La revente à un autre fond d’investissement. Arrive en seconde position. Ce sont souvent des fonds anglo-américains (cf Gemalto, Sagem, Pages Jaunes, etc). D’où la création du FSI en France, sorte de fond souverain.
– L’introduction en bourse. Elles se font rares en ce moment. Les marchés sont prudents.
– La non revente et le bénéfice de dividendes. Mais cela ne correspond pas au profil des investisseurs dans l’innovation. C’est une variante du second cas, dans des fonds non spéculatifs type obligataires.

Si toutes les voies de sortie d’assèchent, y compris la première par ce que l’industrie locale est trop faible, et bien, pas de sortie, donc pas de bon retour d’investissement, et donc pas d’investissement dynamique. C’est un cercle vertueux complexe !

Un rachat ne veut pas dire non plus “rejet” ensuite. Seules certaines acquisitions aboutissent à cela. Soit qu’elles sont ratées dans l’absolu, soit qu’il s’agit de racheter un concurrent gênant. C’est tout de même assez rare.

Répondre à ce commentaire

Commentaire 744 dans Checkpoint sur le grand emprunt et le numérique, le 24 novembre 2009

C’est en effet une piste à explorer.

En ayant en tête:

– Que si cela pourrait avoir du sens dans les industries non numériques où nous avons des leaders mondiaux en relative bonne forme, c’est moins évident dans les industries numériques où nos leaders industriels locaux sont soit en déclin (Alcatel, Sagem, Thomson, …) soit n’ont pas de véritables visées internationales dans le numérique (les telcos à part FT, les groupes médias, etc). Pour qu’il y ait rachat, il faut une dynamique de croissance et de conquête de marchés, et à l’échelle mondiale.

– Que c’est autant une affaire culturelle et de structure des élites, que de finance. La fiscalité pourrait effectivement inciter à réaliser des fusions/acquisitions, mais il faudrait en évaluer les effets pervers induits. On a déjà le Crédit Impôt Recherche dont la part affectée aux grandes entreprise pèse lourdement sur les dépenses fiscales de l’Etat. Est-ce que par exemple les modes de management à la française sont adaptées à un processus d’acquisition ? Est-ce qu’une grosse boite française peut appliquer les méthodes de Cisco et Google dans ce domaine ?

En attendant, il y a aussi la possibilité, appliquée dans la moitié des cas, de rachat par de grands industriels étrangers, souvent américains. Mais avec des valorisations souvent modestes car ces startups n’ont pas eu le temps, les moyens et les compétences pour grandir assez vite. Résultat : les acquisitions portent plutôt sur des technologies que sur des “marchés”.

Répondre à ce commentaire

Commentaire 743 dans Checkpoint sur le grand emprunt et le numérique, le 22 novembre 2009

J’ai l’impression qu’à force de vouloir isoler les budgets et éviter les réallocations sauvages, la commission recommande l’usage de structures à part, ou d’organisations existantes avec des budgets bien à part. Mais ils dérogent pour une part avec Oséo.

D’un point de vue financier, le plus inquiétant est l’histoire des ratios de financement publics/privés. Ce n’est pas parce que l’Etat décide de mettre quelques milliards dans l’innovation que le financement privé va abonder automatiquement. D’autant plus que les masses sont considérables. Et que la commission n’a pas fait de propositions spécifiques pour dynamiser l’investissement privé au delà des mécanismes déjà en place dont on connait les effets (pas mauvais, mais pas illimités).

Les 2 milliards d’Euros de projets numériques sont à mettre en regard du petit milliard investi chaque année par le capital risque en France, avec une grosse moitié dans le numérique. Tant que les conditions de succès des startups en France ne s’amélioreront pas, le rendement du capital risque y sera mauvais et cela handicapera sa capacité à lever des fonds. Et la commission est loin d’avoir mis le doigts sur ces conditions, à part peut-être sa vue sur l’enseignement supérieur.

Les prêts des banques ? Elles abondent, certes, mais restent ultra-prudentes, surtout dans les TPE innovantes et dans le numérique.

Il y a donc un truc sérieux qui cloche dans le dispositif. Qui pourrait aboutir à des sommes non investies. Elles seront peut-être placées sur les marchés financiers en attendant… 🙂

C’est le travers de ces propositions un peu théoriques qui manquent de vision d’ensemble de l’écosystème de l’innovation. On s’en tient au simpliste “les ETI manquent de financement pour alimenter leur croissance”…

Répondre à ce commentaire

Commentaire 742 dans Checkpoint sur le grand emprunt et le numérique, le 21 novembre 2009

Il y en a plein ce blog.

Exemples: http://www.oezratty.net/wordpress/2009/sminaire-numrique-grand-emprunt-part-2/ et http://www.oezratty.net/wordpress/2008/soutien-des-29-propositions-pour-les-assise-du-numrique/

Quelques pistes en vrac (pour développer l’industrie du numérique en France) :

– Développer les compétences marketing, ventes, communication dans les filières scientifiques (ingénieurs, universitaires). Avant le financement, c’est la principale lacune dans notre pays.

– Financer des incubateurs dans un maximum d’établissement, quitte à provoquer des regroupements pour atteindre la masse critique. Financer les projets des élèves en amont pour les encourager à se lancer. Le financement peut couvrir l’appel à des professionnels externes pour des formations “business” ciblées.

– Rapprocher physiquement les filières sciences “molles” et “dures” dans les pôles universitaires pour augmenter les chances de création d’équipes pluridisciplinaires dans les startups.

– Ne pas se contenter de financer à qui mieux mieux les projets en amont dans la R&D, et intervenir plus sur l’aval du “go to market” et notamment de l’international. Pourquoi pas un “Crédit Impôt Innovation” focalisé sur les TPE ?

Je note au passage que la partie “universités” du plan pourrait améliorer l’internationalisation des compétences dans les établissements français, avec un effet positif indirect sur l’entrepreneuriat.

– Revoir la progressivité de la fiscalité entre investissement direct, via des fonds ISF, et les FCPI/FCPR.

– Développer le réflexe “client” en augmentant la commande publique dans le numérique en lieu et place des subventions et aides diverses. Cela peut nécessiter de revoir le mode de gestion des projets dans les Ministères et administrations centrales.

– Beaucoup de travail dans le symbolique sur la culture du risque, la mise en valeur des jeunes qui entreprennent et réussissent.

– Il y aurait beaucoup à dire aussi sur le fonctionnement du capital risque en France. D’où viennent les équipes et comment elles fonctionnent. Cela relève du privé.

– Trouver des moyens, pourquoi pas fiscaux, pour encourager les grands groupes à faire des acquisitions de startups et lutter contre le NIH (“not invented here”) qui est très puissant en France.

Les lecteurs de ce blog ont déjà eu l’occasion de faire des propositions et commentaires. Il y en a quelques unes sur :
http://www.oezratty.net/wordpress/2009/la-performance-relle-du-capital-risque/ et http://www.oezratty.net/wordpress/2009/rsultats-de-lappel-projets-serious-gaming-et-web-2-0/.

Répondre à ce commentaire

Commentaire 741 dans Cube, la set-top-box hybride de Canal+, le 14 novembre 2009

Pour l’instant, non, tout du moins en numérique. On peut par contre enregistrer via une sortie analogique (S-VHS) ce qui n’est pas bien génial.

Pourtant, il y a bien une prise USB dans le Cube, mais elle n’est pas activée.

Pour ma part, je ne l’utilise plus et suis passé à une solution Media Center sous Windows 7 avec carte satellite Digital Everywhere et lecteur de carte à puce Powercom Pro.

Répondre à ce commentaire

Commentaire 740 dans Back to the “Future TV”, le 13 novembre 2009

D’autant plus que CapDigital était dans les sponsors.

Quelques pistes:
– SesamTV, en effet
– Awox
– Splitted Desktop
– FairPlay TV
– DibCom
– Vianeos
– Anevia
– Enensys
– Soft@Home (groupe France Telecom)
– Iwedia
– WyPlay
– NetGem (plus une startups)
– Ateme

Répondre à ce commentaire

Commentaire 739 dans Back to the “Future TV”, le 13 novembre 2009

Merci Hervé pour ce retour, vu de l’organisateur, qui équilibre les points de vue.

Mon point principal est l’absence de vision prospective et orientée utilisateur d’une grande partie des intervenants. Et le format d’ensemble est trop convenu et très fatigant à la longue. Cela manque de contraste.

Le gars de KDDI était en effet intrigant. En général, les jeunes n’obtiennent pas de position de pouvoir rapidement dans les grandes entreprises japonaises. Et celui-là pourrait faire exception.

Un dernier commentaire pour améliorer les éditions suivantes : une telle conférence pourrait mettre aussi en valeur quelques startups françaises et européennes qui sont dans le secteur de la TV numérique. Il y en a pas mal et elles ont des choses intéressantes à raconter.

Répondre à ce commentaire

Commentaire 738 dans Le cas difficile de l’entrepreneur isolé, le 12 novembre 2009

Merci pour ces pointeurs très intéressants.
Pour les exemples, tu en as en France ?

Répondre à ce commentaire

Commentaire 737 dans Le cas difficile de l’entrepreneur isolé, le 10 novembre 2009

De deux choses l’une :
– Soit on raisonne “associé”, et en fait, on ne “donne pas” une part au troisième larron, mais au contraire, il est l’un des investisseurs de départ dans la boite au moment de sa création, ce qui lui donne en retour une part de celle-ci. Souvent, c’est pour la formation du capital social. On peut le faire à la création de la société, ou bien lors d’une augmentation de capital, voire même sans, au cas où on a prévu des parts pour ce faire. Les conseils juridiques savent comment monter cela. Combien ? Il n’y a pas de règle précise. Cela dépend de la valeur estimée de la personne et de celle de la société. Le cas se corse lorsque c’est le dirigeant que l’on recrute ainsi !
– Soit on raisonne “ressources”, et on le paye, ou bien comme salarié, ou bien comme intervenant externe (freelance, boite de services, …), ou enfin… comme stagiaire, une pratique fort courante dans les start-ups.

Il existe un intermédiaire qu’on appelle “l’advisory capital” qui consiste à rémunérer un conseil externe en parts dans la société (sous forme de BSA par exemple). On le fait rarement pour une compétence de type “développement”, mais plus pour du conseil dans la préparation du business plan, dans du conseil vente ou marketing.

D’une manière générale, il est préférable de créer la boite avec des associés qui regroupent les compétences clés pour celle-ci. La compétence en développement logiciel n’est pas forcément destinée à être internalisée. Elle doit l’être pour un éditeur de logiciel (classique ou SaaS). C’est moins vrai dans certaines activités Internet où le développement logiciel est une sorte de commodité, sourcée à l’extérieur. Question de définition du métier de la startup!

Répondre à ce commentaire

Commentaire 736 dans Le cas difficile de l’entrepreneur isolé, le 9 novembre 2009

La compatibilité humaine est un besoin évident mais cela va mieux en le disant !

Avec un équilibre délicat : il doit y avoir un leader clair dans l’équipe, mais il ne doit pas pour autant écraser ses associés. Et un leader empathique, ce qui n’est pas toujours évident !

Répondre à ce commentaire

Commentaire 735 dans Le cas difficile de l’entrepreneur isolé, le 8 novembre 2009

On peut rester indépendant dans le conseil, pas de problème. Mais ce n’est pas une startup, ou une “entreprise de croissance” comme on dit.

Pour ce qui est du conseil qui échange du temps contre des parts de la société, ce n’est pas un associé de toutes manières. Et la part que l’on va lui céder sera très faible, sans commune mesure avec celle qu’aurait un associé fondateur.

Répondre à ce commentaire

Commentaire 734 dans Google Maps et les migrations de valeur, le 5 novembre 2009

Personne ne peut dénier l’avance considérable prise par Apple.

Je ne fais que souligner que dans le camp “adverse”, Google avance très vite et que sa plateforme de services web utilisables sur mobiles est très étoffée.

Par ailleurs, ne négligeons pas un phénomène qui échappe un peu aux consommateurs : ce qui se trame au niveau des opérateurs télécoms. Ils ont mis la main dans la boite de Pandore en s’alliant à Apple. Et la création et le succès de l’AppStore d’Apple, qui est un système plus que fermé, les énerve au plus haut point. Ils ont l’impression de se retrouver à la place d’IBM dans les années 80 face à Microsoft et Intel.

Tous se demandent maintenant comment sortir de cette nasse, comment avoir leur propre application store et recapter une part de la relation “client mobile”. Android semble les séduire pas mal de ce point de vue là. Et ils ne vont pas se gêner pour faire jouer la concurrence entre constructeurs de mobiles et développeurs d’OS mobiles.

Répondre à ce commentaire

Commentaire 733 dans Google Maps et les migrations de valeur, le 3 novembre 2009

Tu parles du point de vue de l’entrepreneur ? De l’efficacité pour le marché ?

Si gratuit il y a, le financement à terme est une forme ou une autre de publicité ou de fremium. Après, il y a celui qui investit, à perte (car il n’arrive jamais à atteindre le point d’équilibre) ou pas. Celui qui le fait avec le plus d’aisance est le géant qui a une source de cash quasi illimitée sous la main. Si il préserve une capacité d’innovation dans sa culture et s’y prend au bon moment, difficile de lutter contre lui sur les mêmes créneaux.

Google a ceci d’intéressant qui le différencie de Microsoft dans ce jeu d’investissements à fonds perdus dans les services en ligne qu’il sait monétiser ses services par la publicité et à très grande échelle. Et la synergie entre ses services est plutôt bonne.

Cela pose cependant un énorme problème géo-économico-politique : Google capte ne serait-ce qu’en France environ la moitié du revenu publicitaire en ligne. Il est envoyé via l’Irlande aux USA. Dans les médias traditionnels “offline”, le revenu publicitaire local restait peu ou prou en France, et alimentait les médias locaux. Avec Google (et aussi MS et Yahoo, plus petits), le revenu publicitaire s’évade du pays et ne finance plus les médias locaux, qui s’en plaignent d’ailleurs. La pub online ne représente que 10% du total du marché publicitaire, et on commence à s’en rendre compte. Mais quand cela dépassera 20%, cela fera très mal !

C’est la “déterritorialisation du marché publicitaire” qui est en marche avec les services en ligne.

Répondre à ce commentaire

Commentaire 732 dans Back from the Silicon Valley 3, le 2 novembre 2009

En effet ! Et toujours d’actualité, la note à JP Charié datant de 2003 si je comprend bien.

Complète fort à propos une remarque que je suis fait il y a un an et demi dans une contribution aux Assises du Numérique. A savoir qu’en France, les politiques et les pouvoirs publicsse trompent bien souvent dans les diagnostics sur les retards de la France dans le numérique. D’où des recettes un peu à côté de la plaque. Et quand de surcroit les dirigeants ne sont pas exemplaires, cela n’arrange pas la situation.

Répondre à ce commentaire

Commentaire 731 dans SIEL-SATIS 2009 – mixage, radio et divers, le 27 octobre 2009

Je n’ai rien vu de particulier dans ce domaine.

Par contre, il y a un cas récent qui vaut le détour : la tournée mondiale U2, qui emploie un système d’écran plat circulaire à géométrie variable. En plus de la diffusion du concert gratuitement sur YouTube, peut-être à cause de la proximité phonétique entre le nom du groupe et du site de partage de vidéos !

Cf http://news.cnet.com/8301-13772_3-10382810-52.html.

Répondre à ce commentaire

Commentaire 730 dans Salon de la Photo 2009 – les logiciels et les services, le 22 octobre 2009

Une fois n’est pas coutume, cette fonctionnalité n’est pas spécialement une originalité du monde du Mac. On la trouve aussi, comme je l’indique. Lightroom, Picasa, etc.

Cela ne sera donc pas (encore) une raison pour moi d’acheter un Mac… Un jour peut-être.

Répondre à ce commentaire

Commentaire 729 dans Salon de la Photo 2009 – les logiciels et les services, le 21 octobre 2009

Oui, toutes les catégories du numérique sont compliquées dès lors que l’on doit connecter un appareil de capture à un micro ordinateur pour l’organisation et les traitements.

Comprimer les photos est effectivement très utile. Par contre, le faire au moment de l’importation des photos à partir de l’appareil n’est pas idéal si l’on souhaite recadrer ses photos. Il est plus approprié de comprimer les photos après avoir fait le tri, le recadrage rapide et quelques corrections (exposition, balance de blancs). Mais on demandera évidement: quelle % des utilisateurs lambda passent par là ?

Il est curieux en tout cas que les fonctions de compression ne soient pas bien visibles dans les logiciels courants. C’est facilement accessible dans Live Photo Gallery, il existe des plug-in pour Windows qui s’utilisent à partir de l’explorateur de fichiers, et on trouve cela dans les fonctions d’exportation dans Google Picasa et dans Adobe Lightroom.

Répondre à ce commentaire

Commentaire 728 dans Rencontre avec François Drouin, Président d’Oséo, le 17 octobre 2009

Intéressant le rôle de l’Ecole des Mines. En apparence, un instrument des régions pour préserver ce système de financement des économies locales.

Par contre, quand on regarde la liste des pôles et notamment les 16 principaux, qui collectent le gros des subventions, ils sont assez focalisés sur de la hightech – numérique ou pas -, et pas sur des industries traditionnelles avec faible différentiation. Notamment:
– 4 pôles dans la santé, où la concurrence ne vient pas (encore) d’Asie
– 5 pôles dans le numérique sur des domaines où on concurrence plus les US que l’Asie (logiciels, jeux, Internet, nanotech, sécurité, high-perf computing)
– Le reste sur la mer, la chimie, les transports, l’agro-alimentaire et les transports où on n’est pas en concurrence frontale avec l’Asie et confronté tant que cela à la délocalisation (sauf peut-être avec les transports, et encore, le grand concurrent est plutôt canadien).

Elie Cohen a raison de dire que la compétitivité de la France se dégrade par le bas (faible valeur ajoutée) et par le haut (technologies à forte valeur ajoutée).

Le problème, c’est que l’on n’a pas encore bien compris pourquoi. On pense trop souvent que c’est du fait d’un manque d’investissement en R&D. D’autres évoquent les charges sociales qui pèsent sur les comptes des entreprises. Les deux sont en partie faux, surtout dans la mesure où notre pays est devenu un paradis fiscal de la R&D. Et la France regorge de secteurs de pointe, mais qui sont sous-exploités. On a par exemple l’un des deux meilleurs labos d’Europe en informatique avec l’INRIA (avec Fraunhoffer Institute en Allemagne) mais on peine à transformer cela en succès mondiaux. Et le leader français du logiciel, Dassault Systèmes, n’en vient pas. Il y a cependant des secteurs moins technos où la France réussit bien, et qui intègrent pourtant du marketing (ou au moins la marque “France”) : l’agro-alimentaire, le luxe et la cosmétique, la grande distribution. Ce n’est donc pas une fatalité. Cela veut dire que l’on manque de compétences business dans certains secteurs qui existent dans d’autres.

Le vrai problème de la France se situe dans l’aval de l’innovation, pas dans l’amont. C’est dans sa relation au marché, dans sa capacité à créer des solutions qui répondent à de vrais besoins, dans son aptitude à les vendre, à exporter, à combiner innovation technologique et marketing, à faire de la “high tech pour les masses” que nous sommes déficients. Dans les technologies, nous avons été trop habitués à créer de la hightech ne nécessitant pas de faire du marketing avec les grands programmes industriels (énergie, transports) et maintenant cela nous retombe dessus car pour réussir, il faut vendre avec du marketing et faire du volume. On n’est pas bon non plus pour s’imposer à l’échelle mondiale au niveau des standards, notamment faute de maitrise de l’anglais.

On raisonne aussi trop “démographie des entreprises”. Il n’y a pas assez de grosses PME (ETI ou gazelles) alors on met le paquet dessus avec ce que l’Etat sait faire : subventionner, prêter, ou améliorer les liens entre recherche publique et entreprises. Mais on ne traite pas le fond du problème.

Il y en a une qui semble avoir compris en partie : Anne-Marie Idrac, qui parcourt le monde pour vendre “l’industrie France”. L’Elysée a commencé à s’en préoccuper également, avec une cellule dédiée, qui s’occupe notamment du nucléaire et de l’aérospatiale (elle avait pris en main le dossier Rafale, qui semble avoir aboutit au Brésil). Mais l’appareil d’Etat a encore une vision colbertiste trop traditionnelle de l’industrie. Estrosi ? Son pédigrée semble bien éloigné des entreprises. Il était plutôt destiné à s’occuper de problématiques de sécurité intérieure.

Il faudrait mettre la surmultipliée au niveau des compétences, qui ne sont pas bien charpentées en France pour être compétitifs. On parle de recréer Stanford dans la Vallée de Chevreuse. Mais on réunit essentiellement des universités scientifiques et des écoles d’ingénieurs. Il y a juste un malheureux HEC qui sera en bordure de cette nouvelle zone stratégique. Et que penser de notre culture managériale ? Est-ce adaptées aux nouveaux défis du moment ?

Sinon, certains comme Michel Rocard souhaitent à juste titre que la France innove aussi dans les “greentech”. Combien de pôles là dessus ? Deux ou trois au maximum. La filière solaire n’est pas bien en point alors que les Allemands sont les meilleurs d’Europe (à Dresde). Les éoliennes ? Pareil.

Répondre à ce commentaire

Commentaire 727 dans Rencontre avec François Drouin, Président d’Oséo, le 16 octobre 2009

La montée du CIR est incontrôlable car cette dépense fiscale a été déplafonnée pour les grandes entreprises, qui sortent pour l’essentiel du cadre d’action d’Oséo. Mais attention, Oséo ne gère pas le CIR ! Cela passe par le Service d’Imposition des Entreprises (le fisc).

Oui, le montant des garanties et de l’activité de prêt aux PME est impressionnant par rapport aux aides à l’innovation. Mais ce sont un peu des choux et des carottes. L’activité de prêt aux PME est même bénéficiaire pour Oséo ! Quand à la garantie, elle ne mobilise pas les mêmes crédits que les subventions. Son coût réel est celui des défaillances qu’elles doivent couvrir, par les montants couverts. Une petite compta serait utile de ce point de vue là, mais je n’ai pas pu l’extraire des rapports d’activité d’Oséo Garantie. En tout cas, en 2008, la dotation de l’Etat aux fonds de garantie d’Oséo était de 280m€, soit le même ordre de grandeur que les aides à l’innovation. Sachant que près de 12 fois plus d’entreprises sont concernées par Oséo Garantie que par Oséo Innovation.

Difficile de dire si telle ou telle chose est prioritaire. Le gouvernement, via Oséo, doit à la fois préserver et développer l’emploi des PME et des ETI (les entreprises de taille intermédiaire dont on manque en France) tout en aidant les startups et l’innovation à éclore. Il ne faut pas opposer ces deux actions. Elles sont complémentaires l’une de l’autre. La cohérence du “pipe” allant des startups aux PME/ETI mérite cependant d’être revue, d’où l’intérêt des aides à l’innovation “aval” (création de produits, commercialisation, export) permettant justement de créer un pont plus efficace. Un Crédit Impôt Innovation qui ne s’appliquerait qu’aux startups et TPE innovantes aurait du sens de ce point de vue là.

“On se reporte sur les FCPI…” : oui et non. L’action de garantie sur les SIBA permet d’aider un peu plus le financement des startups en amont, au stade de l’amorçage. Il faut bien comprendre qu’en France, le risque de l’investissement d’amorçage est sacrément réduit :
– Un, d’un facteur 4 à 1, du fait des exonérations d’ISF pour l’investissement dans une startup en direct ou via un véhicule ISF.
– Deux, via la garantie sur les SIBA, qui permet de réduire les pertes.

Si on calcule bien, un investissement de business angel redevable de l’ISF peut rapporter même si la/les startups investies disparaissent, du fait de ces deux mécanismes !

Le dispositif d’aide à l’innovation est complexe à appréhender car il joue sur plein de tableaux à la fois :
– Par la fiscalité des investisseurs (réductions d’ISF sur BA/FCPI).
– Par la fiscalité des entreprises innovantes (réduction d’IS et de charges sociales, etc).
– Par les subventions (Oséo classiques, des pôles de compétitivité, de l’Initiative Stratégique Industrielle).
– Par les avances remboursables Oséo.
– Par les aides régionales.
– Par les baisses de dépenses (CIR, CRITT, etc).
– Par les garanties à l’export (Oséo, Coface, etc).
– Par les avances de trésorerie quand on vend aux grands comptes dont les délais de paiement sont très/trop longs.
– Par les avances diverses de trésorerie liées au plan de reprise.
– Par les interventions du FSI.
– Par France Investissement qui dynamise en amont, via les banques, l’alimentation des FCPI.

On ne peut pas aborder les aides à l’innovation en ne prenant qu’une seule composante. Il faut comprendre l’ensemble de cet équilibre complexe qui est un véritable jeu de dominos. Et parfois, on a bien l’impression qu’il n’y a pas de pilote dans l’avion, tout du moins au niveau politique. C’est devenu tellement compliqué qu’il semble y avoir une forme de démission intellectuelle devant ce chantier. Et pourtant, les rapports divers ne manquent pas sur ces différents sujets. Mais ils ont toujours eu tendance à se focaliser sur un aspect seulement du problème.

Répondre à ce commentaire

Commentaire 726 dans Rencontre avec François Drouin, Président d’Oséo, le 16 octobre 2009

Oui, c’est l’un des nombreux effets pervers de ce système. L’union en amont (dans la R&D) ne fait malheureusement pas la force en aval (dans le business).

Répondre à ce commentaire

Commentaire 725 dans Les startups de TechCrunch 50 et DemoFall – 3/3, le 9 octobre 2009

C’est très variable. Il faudrait enquêter.

En France, je vois de tout : beaucoup de LAMP, du Ruby on Rails, du AIR/Flex et du Flash pour le RIA, un peu de .NET (surtout pour les solutions btob), plus rarement du Silverlight.

Dans le mobile, cela dépend si l’application cible l’iPhone (pas beaucoup de choix…) ou d’autres plateformes mobiles.

Répondre à ce commentaire

Commentaire 724 dans Les startups de TechCrunch 50 et DemoFall – 2/3, le 8 octobre 2009

Avec un regard du présent, ce sont les meilleures startups vues par le comité de sélection de l’organisation de ces événements. Avec le biais des personnes qui les composent, notamment des business angels et VCs. Mais certains ont tout de même du flair.

Ont été révélés sur Demo : Bee TV, Blinkx, Garage Band, Roku, Seesmic, Telnic. Il me semble que Twitter avait fait parlé de lui sur Demo 2006, mais sans présenter formellement son projet. Il y a moins de recul avec l’événement de TechCrunch qui n’en est qu’à sa troisième édition.

Après, tout dépend ce que l’on entend par “meilleures startups”. Celles qui ont aboutit au TOP 10 des succès, pas forcément, c’est clair. Mais par contre, il y a des boites qui se sont faites racheter par de grosses entreprises, et n’ont donc pas eu de temps pour se faire un nom. Comme Truveo racheté par AOL (vu sur Demo 2006), Powerset racheté par Microsoft (vu sur TechCrunch 40 en 2007), Mint (vu au même endroit) racheté par Intuit. Yammer vu sur Techcrunch 50 2008 se porte plutôt bien.

Autre manière de voir les choses : les startups qui se sont passées de ces événements sont celles qui ont plus rapidement convaincu des investisseurs (BA, VC). Donc, celles qui présentent sont le relicat. Qui reste important en volume. Et dans lequel il y a quelques projets “incompris” mais tout de même prometteurs. Mais de plus en plus de projets déjà bien financés sont présentés sur TC et Demo, car ils recherchent plus la visibilité que le financement.

Il faut s’habituer au très fort taux de déchets qui existe dans l’univers des startups. On entend toujours plus parler des succès que des échecs. Mais il faut beaucoup d’échecs pour générer de temps en temps de gros succès.

Répondre à ce commentaire

Commentaire 723 dans Ex-MS et entrepreneurs, le 7 octobre 2009

Ca ferait un annuaire d’au moins vingt millions de personnes si on intégrait les utilisateurs !

Répondre à ce commentaire

Commentaire 722 dans Les startups de TechCrunch 50 et DemoFall – 2/3, le 7 octobre 2009

Je les ai expertisés pour le compte de Scientipôle Initiative.

Répondre à ce commentaire

Commentaire 721 dans La performance réelle du capital risque, le 7 octobre 2009

Oui, c’est bien cela.

J’utilisais les boites américaines pour faire la contraposée de la stratégie d’approche des marchés US par des boites française. Les filiales en Europe des boites américaines créent des emplois locaux mais cela sert la stratégie US et ne se fait généralement pas aux dépends des emplois aux US.

Répondre à ce commentaire

Commentaire 720 dans La performance réelle du capital risque, le 7 octobre 2009

Les commentaires au papier sur TechCrunch remettent en effet les pendules à l’heure. Sur Google, sur Microsoft, etc. Au minimum, les VCs ont tout de même permis d’accélérer le succès déjà bien lancé de ces boites. Mais ils n’ont pas transformé de mauvais entrepreneurs en réussites mondiales.

Il est assez facile, surtout en ce moment, de mettre à l’encan toute une profession (les VCs). Comme un commentaire le souligne, il y a bien entendu de mauvais VCs, comme il y a de mauvais entrepreneurs. L’argent en apparence facile a attiré dans cette profession des personnes qui n’avaient pas suffisamment d’expérience et donc imitaient donc les autres. D’où ces copycats qui m’agacent dans le monde des startups, avec de très faibles chances de réussite. Mais le taux de copycats est encore plus grand chez les entrepreneurs eux-mêmes que chez les VCs !

Comme dans tous les métiers, un peu d’empathie permettrait de calmer le jeu.

La haine existe. Elle est probablement la plus forte chez les entrepreneurs “incompris” chez qui les VCs n’ont pas voulu investir. Et ensuite, chez les entrepreneurs qui ont eu des difficultés et ont été victimes du coup de l’accordéon et se sont vus déposséder de leur société. Que représentent ces populations par rapport à celle des entrepreneurs financés par des VCs sans problèmes ? Mécaniquement, ils représentent la majorité puisque moins d’un projet sur 10 est financé par des VCs…

J’entend dire la même chose au sujet des “business angels” qui ne comprennent rien, sont trop vieux, etc.

L’argent a toujours été source de conflits, ce n’est pas nouveau.

Répondre à ce commentaire

Commentaire 719 dans La performance réelle du capital risque, le 7 octobre 2009

Qui propose d’être une filiale à cerveaux des USA ? Pas moi !

Est-ce que tu considères que les USA sont des “filiales à cerveaux” des pays Européens parce que Google, Oracle, IBM et Microsoft y ont des filiales ?

Mon point est de faire accepter de faire du business là bas et rapidement pour pouvoir atteindre une taille critique à même de créer des leaders mondiaux. Certains pensent à l’Asie, ce qui peut avoir du sens dans certains business, plutôt hardware et composants. Mais pour les logiciels d’entreprise et les services web horizontaux, les USA sont incontournables.

Répondre à ce commentaire

Commentaire 718 dans Les startups de TechCrunch 50 et DemoFall – 1/3, le 6 octobre 2009

Bonjour Jean-Christophe,

J’utilise deux sources d’information :
– Internet (les sites des organisateurs, les vidéos des présentations, la base CrunchBase, les sites des startups, quelques blogs qui font des compte-rendus des présentations – souvent une par une).
– Quelques copains qui y sont et me transmettent leurs impressions générales. Notamment, pour TechCrunch 50, Marc Devillard, de Credit Agricole Private Equity.

Sinon, je crois que ces événements sont payants.

Répondre à ce commentaire

Commentaire 717 dans La performance réelle du capital risque, le 2 octobre 2009

Pour en connaitre pas mal, je nuancerai le propos sur le profil des capitaux risqueurs français et même US. Si peu d’entre eux sont d’anciens entrepreneurs (ayant réussi de surcroit…), ils sont assez rarement des “scientifiques” en France. Si évidemment, nombreux ont un cursus d’école d’ingénieur, cela n’en fait pas des “scientifiques” pour autant.

On croise surtout chez les VC français des financiers et d’anciens cadres dirigeants de l’industrie informatique (française ou de filiales de groupes étrangers). Leurs profils sont assez variés mais effectivement, ils ont plus rarement créé une entreprise de technologie, et quand c’est le cas, ce sont des entreprises qui ont rarement atteint une taille critique. Les anciens entrepreneurs deviennent plutôt business angels.

Aux USA, il y a effectivement beaucoup moins de financiers chez les VC, mais plein d’anciens cadres dirigeants d’Intel, Oracle, Google, Microsoft et autres géants de l’informatique et de l’Internet ont intégré des fonds, ou créé des fonds.

Prenons deux des plus gros fonds de la Silicon Valley :
– Kleiner Perkins : avec des partner comme John Doer, ancien d’Intel, Ray Lane, ex Oracle. Mais aussi Al Gore et Colin Powell… Kleiner lui-même est un des fondateurs de Fairchild Semiconductor.
– Sequoia Capital, a été créé par Don Valentine, un des cofondateurs de National Semiconductor. Mais ses partners sont d’anciens cadres d’Intel, Paypal, Apple France (!), etc.

On peut aussi citer Ignition, un fond créé à Seattle par de nombreux anciens dirigeants de la Division Systèmes de Microsoft.

Donc, on a un mix de quelques réels entrepreneurs et de nombreux anciens cadres dirigeants non-fondateurs. Issus pour la plupart d’entreprises qui ont réussi.

Plus récemment des entrepreneurs comme Mark Andreessen (ex Netscape) ont créé leur propre fond.

Regardez la composition des plus gros fonds français (côté IT), c’est un mix d’entrepreneurs, d’anciens cadres dont parfois des responsables de R&D, mais aussi d’anciens patrons de filiales d’entreprises étrangères, et une proportion non négligeable de financiers, surtout dans les fonds qui sont des branches de private equity des banques et des assurances (SGAM, AXA PE, CDC Innovation, etc). Côté formation d’origine, un mix d’ingés (X, Centrale, Télécom), d’HEC, de Science Po, et de formations financières.

Quel que soit la manière d’appréhender le sujet, le succès entraine le succès. Et sans grands succès, la boucle n’est pas amorcée. Dans la Silicon Valley, l’amorçage de la boucle date des premiers succès dans les semiconducteurs, donc des années 60-70…

En matière d’innovation dans le numérique, on est parti pour continuer à chercher longtemps l’oeuf et la poule !

Répondre à ce commentaire

Commentaire 716 dans La performance réelle du capital risque, le 1 octobre 2009

Il faudrait aussi intégrer d’autres éléments dans la réflexion sur l’avenir du capital risque : le genre de multiples financiers qui pourront être générés sur les BONS projets compte tenu des évolutions des secteurs d’activités hightech.

Si, comme le veut la pensée du moment, le numérique évolue plus vers des services et que les logiciels deviennent plus open source, et que par ailleurs, de nombreuses briques se standardisent et se commoditisent, y compris le cloud, cela pourra diminuer les économies d’échelle des acteurs, et donc leur marge nette et après coup, leur valo, et donc les sorties.

Pour les autres secteurs d’activité, la santé reste intéressante mais les études montrent qu’elles ne génèrent pas de très bons multiples, même si dans les années qui viennent les grands groupes de pharma pourraient procéder à de nombreuses acquisitions pour renouveler leur portefeuille de brevets qui arrivent à expiration. Avec donc des valos élevées.

Les green techs sont le nouveau secteur porteur. Mais quand on regarde de près, ce sont pour l’instant soit des activités de service et d’intégration, soit des activités industrielles avec de gros investissements et une forte concurrence baissant les prix et donc les marges (par exemple sur les panneaux photovoltaïques). Net net, des sorties avec des multiples qui ne seront peut-être pas non plus mirobolants.

Ca, c’est une vision plutôt pessimiste. En résumé, la double bulle des années 80-90 des industries du logiciel et de l’Internet serait derrière nous et difficile à reproduire avec les nouvelles vagues technologiques.

Mais on peut aussi rester modérément optimiste dans la mesure où les innovations structurantes à venir et leurs modèles économiques ne sont pas faciles à anticiper.

L’autre réflexion à avoir est la suivante : est-ce que les technos qui se préparent en ce moment (nanotechs, robotique, IA, cloud, etc) vont générer des monopoles naturels comme ceux que l’industrie des microprocesseurs et des systèmes d’exploitation on généré il y a maintenant vingt ans, et sans compter la dominance de Google dans le search ? Car les grosses valos viennent aussi de là ! Mais dans ces domaines, les monopoles naturels seraient encore plus dangereux et inquiétants que ceux qui ont court actuellement.

Répondre à ce commentaire

Commentaire 715 dans La performance réelle du capital risque, le 30 septembre 2009

Pour les lecteurs, l’étude à laquelle tu fais allusion est ici : http://www.kauffman.org/uploadedFiles/USVentCap061009r1.pdf. On dirait presque une étude européenne tant elle manque d’optimisme !

S’il y a probablement trop de capital risque aux USA, il en manque certainement en Europe pour faire le poids, même en divisant par deux les sommes investies aux US !

Je ne suis pas sûr que le modèle VC soit le seul de cassé si cassure il y a. C’est aussi la bourse (plus d’IPO), les grandes entreprises (qui innovent moins par des acquisitions, syndrome du NIH) et la concurrence du reste du monde de la finance (avec tous ces montages financiers à forts effets de levier que la crise récente n’a pas supprimé loin de là).

Sur la défiscalisation, n’oublie pas qu’il y en a aussi pas mal aux USA ! Les SBIC du SBA (exos de plus value sur les fonds d’amorçage), etc.

La véritable inconnue sont les secteurs d’activité qui vont émerger. Le numérique est peut-être en partie derrière nous.

Répondre à ce commentaire

Commentaire 714 dans La performance réelle du capital risque, le 30 septembre 2009

Ce n’est pas un piège, c’est le mouvement de l’histoire qui date de deux siècles déjà ! Si la Louisiane était restée française et la Californie mexicaine, peut-être en aurait-il été autrement.

Et si on parlait une seule langue en Europe, cela serait un moyen de se rattraper, mais ce n’est pas possible n’est-ce pas ? En plus de cela, nous français, sommes parmi les plus mauvais dans la langue de Shakespeare, ce qui n’aide pas non plus.

Le protectionnisme du marché américain a bon dos. Les US trouvent de leur côté que l’on subventionne bien trop les entreprises. De toutes manières, une réussite mondiale ne peut pas se contenter de démarrer lentement en France puis de jouer à saute mouton en Europe. Il faut viser grand et vite.

Soit on est d’accord sur ce diagnostic (pour créer des leaders mondiaux), et on agit, soit effectivement, le numérique sera pour la France une industrie de services locaux faiblement exportatrice. Bref, un marché plus qu’une industrie.

Répondre à ce commentaire

Commentaire 713 dans Guide Entrepreneur, onzième, le 24 septembre 2009

J’insiste pas mal dans le guide sur ce besoin d’avoir un bon business model. Effectivement, il subsiste une croyance dans l’Internet selon laquelle il faut d’abord se focaliser sur la création d’une audience et seulement après, de se demander comment la monétiser. Comme si le succès de Google était réplicable en claquant des doigts.

C’est un peu old-style car un bon BP doit maintenant contenir des pistes sérieuses de monétisation et aussi rapides que possible. Même si les évolutions de l’Internet rendent évidemment mouvante la monétisation, notamment publicitaire. Pierre Chappaz a effectivement une vision plus business de l’Internet, liée à son expérience avec Kelkoo. Il s’est d’ailleurs fritté sur le sujet avec Tariq Krim dans Netvibes, une société que les deux compères ont quitté l’un après l’autre. Et qui cherche toujours sa voie côté monétisation, et peut-être aussi… son utilité (cependant, son audience a l’air de rebondir depuis le début de l’année, probablement liée à quelques partenariats)!

Loic Lemeur a séduit à la fois des business angels et des VCs qui se sont basés sur la confiance dans le gars, sur son track record, son réseau et cette croyance de la monétisation à postériori. Il a complètement changé la stratégie de sa boite en quittant le micro blogging vidéo pour se concentrer sur Seesmic Desktop autour de Twitter et Facebook. Reste TOUJOURS à trouver une source de monétisation.

Les VCs ont j’ai l’impression compris la leçon et sont moins enclins à financer ces startups basées uniquement sur la création d’audience.

Répondre à ce commentaire

Commentaire 712 dans Guide Entrepreneur, onzième, le 24 septembre 2009

Fabien, merci pour ces commentaires.

J’en ai tenu compte dans une petite “silent release” que je viens d’uploader. En ajoutant notamment le PPA, en tempérant la focalisation PME établie de certaines aides, en modifiant ce qui concerne l’AII plus loin.

Pour ce qui est de l’encadré sur les aide CRITT, je l’ai laissé comme tel car les CRITT ont toujours lieu d’être hors de l’Ile de France ! J’ai mentionné plus loin le regroupement des CRITT de l’IDF en Centre Francilien de l’Innovation.

Répondre à ce commentaire

Commentaire 711 dans Guide Entrepreneur, onzième, le 24 septembre 2009

En effet ! Merci de l’avoir signalé. C’est maintenant corrigé.

Répondre à ce commentaire

Commentaire 710 dans Résultats de l’appel à projets Serious Gaming et Web 2.0, le 21 septembre 2009

Une telle étude serait effectivement intéressante. Deux conditions devraient être réunies pour la mener :
– Trouver quelqu’un se suffisamment motivé pour la mener. Soit comme indépendant disposant de temps, soit attaché à une organisation qui aurait un sens à la diligenter.
– Que la DGCIS publie la liste intégrale des candidats.

Il faudrait définir ce que l’on recherche. Valider l’équité du jugement d’un jury ? Identifier par des statistiques des biais du jury en faveur de telle ou telle catégorie de projets (liées à régions, pôles, etc) et corréler cela à une évaluation objective de la qualité des projets ? Là, on serait effectivement proche du rebouchage de trous cité par Michel !

Je met ma main à couper qu’on ne trouverait pas grand chose d’autre que des biais humains classiques :
– Les projets connus des membres du jury – notamment des pôles – ont eu un bonus.
– Une bonne moitié des projets ont dû être éliminés car ils étaient hors sujet ou de qualité insuffisante. Je me base sur ma propre expérience dans d’autres jurys ayant eu à trier des dizaines de dossiers candidats (mais dans un contexte privé-privé, pas de secteur public impliqué).
– Qu’il y a eu un biais favorisant les projets collaboratifs. Mais les statistiques publiées par la DGCIS le montrent et c’était une des règles du jeu de l’AAP. C’est cette doctrine qui mériterait d’être revue.

A noter que la première liste des élus publiée le 15 septembre par la DGCIS mentionnait les projets mais pas les “entités porteuses” (PME, grandes entreprises, labos). Ce qui rendait toute analyse difficile, d’autant plus que certains noms de projets sont impossibles à “googleizer” pour les pister. J’en ai fait la demande et l’information a été ajoutée sur le site de la DGCIS en quelques heures. Comme quoi qui ne demande rien n’a rien. Et quand c’est raisonnable, on peut y arriver…

On devrait arrêter là la discussion, mais par respect des débats et comme les protagonistes se respectent plutôt bien, je ne ferme pas les commentaires de ce post.

Répondre à ce commentaire

Commentaire 709 dans Résultats de l’appel à projets Serious Gaming et Web 2.0, le 21 septembre 2009

Il y a toujours deux approches possibles :

– Un changement radical… mais l’administration n’est pas friande de cette perte de contrôle. As-tu des exemples de mise en pratique du modèle d’autogestion que tu proposes qui pourraient servir de base de départ, et dans un dispositif ou se distribue de l’argent public ? La radicalité bloque les gens pour qui la prise de risque professionnelle est limitée. C’est pour cela qu’il vaut mieux l’éviter.

– Un changement progressif, qui me semble plus approprié. Le jury dont faisait partie Jean-Michel Planche était pléthorique et il était isolé comme entrepreneur. Mais ce n’est pas parce que cela n’a pas marché dans ce cas que cela ne peut pas fonctionner correctement avec des ajustements. Une bonne règle serait d’avoir une moitié de “praticiens” (entrepreneurs, investisseurs privés, etc) et une moitié seulement d’administratifs. Ce qui compte est la diversité des profils et des expériences. En mettant un ou deux entrepreneurs, un ou deux business angels, un membre de l’AFIC, et un ou deux consultants (en RH, IP, autre), on peut arriver à un bon panel qui aura une meilleure appréhension du terrain et du métier que les représentants des administrations.

Dans son commentaire, Jean-Michel Planche met surtout en avant la difficulté de concilier le rôle des représentants des régions et des représentants nationaux. Distinction qui n’existe pas dans les AAP nationaux… même si on avait un représentant de la CCI de Valenciennes dans l’AAP NKM et curieusement, un projet de Valencienne faisant partie des sélectionnés ! Il indique aussi que le système est améliorable de manière non radicale.

Répondre à ce commentaire

Commentaire 708 dans Résultats de l’appel à projets Serious Gaming et Web 2.0, le 19 septembre 2009

Les élus sont discrets, c’est assez normal. Ils n’ont pas à se plaindre. J’en connais cependant quelques uns qui sont évidemment contents, et bossent dur comme tous les autres.

Il ne faut pas non plus céder au catastrophisme sur les projets qui ne sont pas élus. D’abord, la liste des non retenus n’est pas publiée, donc cela n’aura pas de poids sur leur devenir, tout du moins vis à vis des sources de financement privées. Pour Oséo, les critères de sélection ne sont pas les mêmes que ceux de l’AAP. A la limite, ils sont plus “business” alors que l’AAP visait à encourager la création de services destinés aux citoyens, faisant usage des données publiques, etc. Avec donc des business models à mon avis moins solides que ceux d’entreprises visant le btob voire le btoc classiques.

La vie des entrepreneurs est un éternel processus de sélection. Le plus dur n’est pas celui des subventions, c’est celui du marché. Environ une sur dix accède au capital risque. Seule une startup sur cinq environ réussit vraiment à décoller ! C’est trop injuste !

Et puis, vous avez aussi, tant que vous y êtes, les 1004 projets non retenus dans le cadre du Concours National des Entreprises de Technologie Innovantes. Curieux que personne n’aie râlé à ce moment là ! Et puis, il y a tous ces étudiants de Science Po qui ont été refusés au concours de l’ENA, les 17% d’élèves de terminale qui n’ont pas eu leur Bac dont certains à quelques point près, etc etc etc.

Certains des commentaires rappellent aussi l’attitude française dans le sport et les compétitions internationales. On passe plus de temps à remettre en cause les règles du jeu, le rôle des arbitres, la météo, que sais-je, plutôt que de se remettre en cause soi-même ou d’apprendre des échecs. S’échafaudent aussi quelques théories (DGCIS contre Oséo, Oséo qui n’a jamais vu NKM, etc) qui ne sont pas fondées sur des faits observables.

Sommes nous un pays de mauvais perdants ?

Répondre à ce commentaire

Commentaire 707 dans Résultats de l’appel à projets Serious Gaming et Web 2.0, le 18 septembre 2009

Facile la provoc ! Je ne vois pas ce qu’il y a de gagné pour moi par rapport à MS. Surtout dans la mesure où je n’ai rien joué là dedans ni n’aie aucune bille dans les boites impliquées !

Pour ce qui est d’Oséo, c’est une piste mais ce n’est pas la panacée. Je rencontre régulièrement des porteurs de projets qui se font balader par Oséo, surtout en Ile de France. Mais le taux d’échec est plus faible (je crois environ 1 sur 2, vs 6 sur 7 pour l’AAP). D’où une meilleure impression d’ensemble.

Ce qui est intéressant dans vos diverses réactions, c’est que, même si elles ne viennent pas des mêmes personnes, elles ne font pas bien écho à tous ceux qui au début de l’année 2009 se plaignaient de l’absence du numérique dans le plan de relance. NKM a corrigé le tir assez rapidement avec les moyens du bord. J’étais moi-même surpris, en couvrant l’annonce de l’AAP, du montant alloué à ces projets. Oui, le montant aurait finalement été mieux dépensé en réinjectant la somme dans Oséo sur la filière logiciels+Internet. Et notamment dans les régions où le budget Oséo est sous pression (IDF essentiellement).

Autre point : vous êtes tous remontés contre cet AAP. Mais il n’est pas une première puisque la DGCIS a déjà lancé plein d’autres AAP du même genre dans le numérique. Ces AAP étaient plus discrets médiatiquement il est vrai. Par ailleurs, le processus de sélection qu’ils ont utilisé est le même que celui des pôles de compétitivité, qui représentent 500m€ de subventions par an, une grosse part étant captée par le numérique (23% sur 2005-2008). Un bien petit train peut cacher une belle gare de triage… :).

Par rapport aux AAP des pôles de compétitivité, l’AAP avait tout de même trois avantages : l’absence de discrimination géographique, la faible présence de grandes entreprises dans les projets retenus (et candidats ?) et la rapidité du processus de sélection. Il y avait une incitation à exploiter des données publiques pour créer de nouveaux services aux citoyens.

Quant à ceux qui ont passé plusieurs semaines pour remplir leur dossier, je suis d’accord que ce n’était pas un bon investissement. Si j’avais été candidat, je n’aurai participé que si l’investissement temps nécessaire n’avait été que de 2 à 4 jours maximum. En m’appuyant sur un travail déjà accompli de rédaction de business plan dans le cadre de la recherche de financements d’amorçage et de partenariats existant ou sur le point d’être montés. Une équipe qui veut démarrer un projet mais n’en est pas à ce stade de préparation est effectivement très “R&D” mais pas encore véritablement entrepreneuriale. Même si NKM ne cherchait pas spécifiquement à attirer des entrepreneurs dans son AAP.

Entre “porteur de projet” et “entrepreneur”, il y a un petit gap. C’est peut-être une lacune qui devrait faire réfléchir. On aide tellement la R&D en France qu’on oublie cette distinction. Je sais, je me répète…

Répondre à ce commentaire

Commentaire 706 dans Résultats de l’appel à projets Serious Gaming et Web 2.0, le 18 septembre 2009

Non, je n’étais pas dans le comité de sélection. Mais j’ai juste consulté la liste. Il y en a peut être quelques uns, mais cite moi les projets de rupture de type plate-forme qui te marquent le plus…

Vous chargez tous sacrément sévèrement la barque les gars sur cet AAP. Vous oubliez un peu un de ses éléments directeurs initiaux : aboutir ensuite à des appels d’offre pour insuffler des innovations Internet dans l’administration. Faire de l’Etat un bon client pour les startups est probablement une gageure, mais n’est-ce pas intéressant de creuser la piste de manière expérimentale ?

Je dis “initiaux” car une partie du budget ayant été réallouée aux projets web 2.0, il reste la ridicule somme de 5m€ pour des appels d’offre de projets associés, 10m€ allant à un portail de services mobile. Cela a une conséquence : il ne reste plus grand chose pour financer d’éventuels projets de serious gaming pour l’Etat, qui concernaient notamment des formes innovantes de formation.

Répondre à ce commentaire

Commentaire 705 dans Résultats de l’appel à projets Serious Gaming et Web 2.0, le 18 septembre 2009

Ces canards boiteux, les spécialistes les connaissent en effet. Vas voir dans Quaero par exemple !

Il y a tout de même des projets de gens qui ont bossé dur et sans faire de lobbying dans les élus de cet appel à projet. Evitons de sombrer dans ce travers français bien connu qui consiste à ne voir que la partie à moitié vide d’un verre aux 2/3 pleins !

Un truc qui serait très intéressant à faire serait de prendre les 500 projets arrivés à la DGCSIS et de faire une sélection parallèle. Mais… avant la publication des résultats de la DGCIS. Histoire de comparer. A mon humble avis, il y aurait une grosse part de recouvrement dans les deux sélections. Il ne faut pas oublier que les créateurs de projets doivent aussi savoir vendre leur projet. Tous n’arrivent pas à bien le faire. C’est une compétence clé pour faire avancer un projet, surtout dans le monde marchand.

Un dernier point sur la notion de “rupture”. La plupart des grandes ruptures technologiques dans le numérique sont le fait de plate-formes extensibles (ou bien parfois très intégrées verticalement) relativement génériques. Pour ne prendre que le web 2.0, Facebook a explosé au moment où il ouvrait ses APIs en 2007. Plus des deux tiers des utilisateurs de Twitter ne vont jamais sur son site web et utilisent un client tierce partie. L’iPhone, c’est surtout 60000 applications, etc.

Dans l’AAP, il n’y avait pas vraiment de projets dans cette catégorie. Et c’est vrai dans les startups françaises du web en général.

Répondre à ce commentaire

Commentaire 704 dans Résultats de l’appel à projets Serious Gaming et Web 2.0, le 17 septembre 2009

Non, WordPress n’est pas vraiment en cause. Ton commentaire était bloqué dans la rubrique spam car il contenait deux URL. Je viens de le valider.

100% d’accord sur le trop d’Etat dans le financement de l’innovation. Mais vu de l’étranger, notre pays est un paradis fiscal pour financer la R&D de boites de toutes tailles ! Ne crachons pas trop sur la soupe.

Mais l’absence de succès à la Google n’est pas seulement imputable au mécanisme de financement de l’innovation par l’Etat. Cf le très bon résumé de Marc Simoncini de la semaine dernière.

Meetic a d’ailleurs été créé en 2001, les Skyblogs en 2002 (l’un des rares réseaux sociaux profitables en Europe voire dans le monde), Viadeo en 2003, etc. Qu’est ce qui a changé depuis 2000 dans les conditions de succès de l’industrie du numérique ? Surtout le poids de l’Internet, mais pas au point de rendre le travail PLUS difficile pour les boites françaises.

Tient, et pour terminer sur une note positive, un petit projet web français qui s’est fait remarquer lors du Techcrunch 50 de cette semaine à San Francisco : Stribe de Nyoulink (c’était le seul projet français il me semble dans les 50 sélectionnés qui “pitchaient” en séance plénière). Ils sont incubés chez Telecom Paritech et aidés entre autres par Scientipôle Initiative.

Répondre à ce commentaire

Commentaire 703 dans Résultats de l’appel à projets Serious Gaming et Web 2.0, le 17 septembre 2009

Le dossier est effectivement lourdingue et ta proposition de sélection en deux temps est tout à fait censée.

Ceci étant, quand tu as un business plan bien ficelé, tu peux faire pas mal de copier coller pour remplir le dossier ! Et évidement, si tu as déjà fait une demande d’aide Oséo, tu es encore mieux préparé. Même si ce n’est pas la panacée, il y des boites et des consultants indépendants (PAS MOI!!!) qui peuvent aider à remplir ces dossiers.

Bon, et l’argent gratuit, cela n’existe pas…

Pour tes questions sur l’AAP, quelques vagues pistes :

1) NKM est quelqu’un de pressée, elle voulait aller plus vite que d’autres processus (comme le Concours National de l’Entreprise Innovante) qui eux sont bien trop lents. L’autre solution aurait été de passer l’été, récupérer les dossiers début septembre et d’annoncer les résultats fin octobre ou début novembre.

2) Le “serious gaming”, c’est clairement NKM et c’est effectivement discutable parmi plein d’autres priorités industrielles dans le numérique. Mais bon, cela s’argumente aussi : la France est bonne dans l’industrie du jeu, même si cela chahute en ce moment, il y a des opportunités de réutiliser des concepts btoc dans le btob. Pourquoi pas. Mais de là à y investir plus que dans presque “tout le reste du web”, c’était un peu too much.

3) Pour le dossier complexe, NKM n’a pas d’équipe en propre pour gérer ce genre d’AAP. Donc elle s’appuie sur les ministères qui peuvent le faire. La DGCIS qui gère déjà les AAP des pôles de compétitivité a été ainsi mise à contribution en réutilisant visiblement des dossiers existants pour les pôles (à vérifier…). Ils ont d’ailleurs bossé dur. Les gens de la DGCIS que j’ai croisés mardi à la conf de presse de NKM avaient l’air complètement “explosés”. Et en plus, ils n’ont pas terminé le boulot car il leur faut maintenant suivre 92 projets, distribuer les aides, etc.

Répondre à ce commentaire

Commentaire 702 dans Résultats de l’appel à projets Serious Gaming et Web 2.0, le 17 septembre 2009

Pour P9, je ne connais pas trop le processus en détail. Il me semble qu’il comporte ce fort biais de R&D “collaborative” dont j’ai déjà écrit ce que j’en pensais.

La règle de non début des travaux ne me semble pas négociable car elle est gouvernée par différentes lois pas si simples à modifier, dont probablement une règlementation européenne.

Par contre, la faire respecter pour ne financer que les véritables nouveaux projets serait utile. Reste à disposer des moyens de vérifier que les projets sont véritablement nouveaux. Cela ne doit pas être bien évident. Quelqu’un aurait-il une piste pour y arriver sans que cela nécessite des armées de fonctionnaires ?

Répondre à ce commentaire

Commentaire 701 dans Résultats de l’appel à projets Serious Gaming et Web 2.0, le 17 septembre 2009

Autre remarque : la propension du gouvernement à favoriser les projets dits collaboratifs est contre-productive. Elle cherche à appliquer au numérique des méthodes qui fonctionnent peut-être dans d’autres disciplines. Mais pas ici !

Si on observe les quelques succès de la France dans le numérique, il y avait tout au plus une équipe d’entrepreneurs qui s’est appuyée sur un labo ou un ou plusieurs chercheurs. Mais pas trois PME et un grand comptes associés dans un projet.

– Kelkoo fondé par Pierre Chappaz et avec trois anciens chercheurs de Bull.
– Business Objects fondé par Bernard Liautaud et Denis Payre, avec un développeur indépendant, Jean-Michel Cambot.
– ILOG est une spin-off de l’INRIA.
– Dassault Systèmes est une spin-off de Dassault Aviation.
– Soitec est une spin-off du CEA-LETI.
– Meetic, Iliad, MilleMercis, Modelabs, Witbe, Cegid, toutes ces boites n’ont pas été créées à partir de JV de projets multi-entités.

J’irai jusqu’à dire qu’à partir de trois entités associées dans un projet de création d’entreprise ou un projet tout court, les chances d’aboutir deviennent quasiment nulles. Deux est un maximum. Et encore, dans les cas suscités, il n’y avait qu’une entité porteuse du projet, même si elle assemblait des équipes d’origines diverses.

Et c’est pareil aux USA, plus prolixes que nous en innovations de rupture ayant véritablement rencontré leur marché.

Répondre à ce commentaire

Commentaire 700 dans Résultats de l’appel à projets Serious Gaming et Web 2.0, le 17 septembre 2009

Quelques remarques, en espérant ne pas faire imploser le système de commentaires imbriqués de WordPress :

– Je ne suis pas bien certain de la corrélation entre innovation de rupture et le fait d’être entièrement neuf dans le processus de création d’entreprise ou de projet. L’innovation est un flot continu avec des projets qui avancent plus ou moins, et plus ou moins vite dans le processus de création d’entreprise. La rupture, de toutes manières, tu ne t’en rends compte qu’à la fin de l’histoire, pas au début ! En mettant de côté les grands groupes spécialistes des subventions, les startups qui sont dans le circuit ne sont pas moins “de rupture” que les autres, elles sont juste un peu plus organisées et avancées, et font ce qu’il faut pour trouver des financements. D’autres, rares, arrivent à se financer sans passer par les aides/avances publiques, ou passent directement par la case VC. Ce sont surtout les serial entrepreneurs. D’autres encore plus rares, fonctionnent uniquement sur fonds propres et grâce à la profitabilité de leur business. Dans le numérique, c’est bien rare, sauf à être une SSII, donc pas dans la rupture. Pour créer une innovation de rupture mondiale, il faut de toutes manières des compétences et une belle équipe, savoir communiquer et vendre son idée, une solution qui résoud un vrai problème important, et de l’ambition, ce qui permet ensuite d’obtenir des moyens. L’inventeur incompris qui n’a ni réseau ni moyens ni équipe a effectivement moins de chances de créer une rupture.

– Si tu as une vraie source de projets de rupture incompris de tous mais qui serait de grande valeur, quelques lecteurs de ce blog sont sûrement intéressés à la visiter !

– Ta proposition de vote par les pairs est très intéressante. Il y a probablement des modalités pratiques à inventer. Mais pour commencer, ce serait plus simple pour commencer par intégrer des spécialistes du secteur dans les jurys.

– De toutes manières, dans tout vote de jury, il y a un truc énorme qui manque : le fait de voir les équipes. Le succès d’un projet est lié à plus de 70% à la qualité de l’équipe, ce qui ne se voit pas forcément dans un dossier, même s’il comporte des indices intéressants. Je vais bientôt être dans un jury qui, lui, départage quelques finalistes en les rencontrant, pour identifier un élu à la fin. Rencontrer 100 boites pendant l’été est plus difficile…

Répondre à ce commentaire

Commentaire 699 dans Résultats de l’appel à projets Serious Gaming et Web 2.0, le 16 septembre 2009

Cette clause existe dans un tas d’appels à projets ou financements divers d’origine publique. C’est je crois lié à une règlementation sur les financements publics. Elle s’applique aussi à toute prestation pour le secteur public. Et effectivement, cela truande un max pour contourner la mesure.

Par contre, les équipes projets à qui il faut 2 hommes mois pour remplir un dossier de candidature sont vraiment mal organisées pour ne pas dire pire… 🙂 Cela peut se torcher en un à deux jours pour les boites qui ont déjà rempli un dossier Oséo ou équivalent ! Pour un montant d’aide accordé de 400K€, c’est dix fois plus rentable que n’importe quel process de due diligence avec un club de business angels, qui apportera même moins (dans les 250/300K€), avec moins de chances de closing, et avec en plus une dilution du capital. Donc, cet investissement temps, dans ce cas là, était loin d’être mauvais.

Pour avoir déjà participé à divers jurys, le premier tri est souvent assez facile. Plein de projets n’ont pas le niveau de qualité suffisant sur quelques critères de base (valeur d’usage, marché potentiel, modèle économique, réelle originalité par rapport à l’état de l’art – il y a énormément de “me toos”). La difficulté est plutôt de départager les premiers dans le cas d’un prix où il faut identifier par exemple les trois meilleurs.

Là, ils ont gardé environ 20% des projets soumissionnaires ce qui est un taux assez élevé. Mais le jury a probablement eu du mal à identifier les problèmes de modèles économiques tout comme l’originalité des solutions. Ce n’est pas évident de connaitre toutes les arcanes du web et des jeux !

Répondre à ce commentaire

Commentaire 698 dans Résultats de l’appel à projets Serious Gaming et Web 2.0, le 16 septembre 2009

S’était-il porté candidat et avait-il besoin de financement ?

Répondre à ce commentaire

Commentaire 697 dans Séminaire Numérique Grand Emprunt – Part 2, le 16 septembre 2009

Bonne nuance sur mon propos qui était effectivement simplificateur. J’ai eu l’occasion de m’exprimer plus en détail sur le sujet il y a deux ans en revenant de la Silicon Valley (tome 1 et tome 3).

J’aurais du préciser, on manque de “compétences et d’aptitudes business” plus que de spécialistes du sujet. La caractéristique des entrepeneurs du numérique aux US, c’est qu’ils sont souvent des universitaires scientifiques (Brin, Sergei, Zuckerberg, etc). A ceci près qu’ils baignent dans une culture où le business est dans l’air de la société, une valeur positive dans l’éducation, et une compétence – notamment en communication – qui s’acquiert très tôt dans le système éducatif et dans la mise en confiance de soi (trop, parfois…). Ils ont donc des aptitudes qui les aident à réussir et qui sont plus rares en France. Ils sont bien entendus aidés par d’autres facteurs macro-économiques : la taille des USA, leur homogénéité linguistique, la dominance mondiale de l’anglais, une culture plus tournée vers le risque et l’innovation.

A contrario, chez nous, dans les écoles d’ingénieur (j’y enseigne…) qui produisent une grande part nos élites, et certainement aussi dans les universités scientifiques, la vente, le marketing et la communication sont dévalorisés comme disciplines, cursus et compétences. Les mots qui viennent à la bouche sont “le pipotage”. Ce n’est pas forcément le fait de la politique de ces établissements. C’est l’air ambiant et le système de valeur de notre pays qui veulent cela.

Favoriser l’intégration des jeunes dans les processus d’innovation me semble effectivement être une priorité. J’espère qu’elle se retrouvera d’une manière ou d’une autre dans le grand emprunt.

Répondre à ce commentaire

Commentaire 696 dans Séminaire Numérique Grand Emprunt – Part 1, le 13 septembre 2009

En effet, on a toujours un peu eu tendance en France à privilégier les tuyaux par rapport aux logiciels. Surtout dans le discours politique. Cela remonte notamment au rapport sur les “Autoroutes de l’information” de G. Thery en 1994, qui parlait déjà de fibre optique, mais ne se souciait pas beaucoup des opportunités industrielles au dessus des tuyaux… l’année où l’Internet apparaissait !

NKM a bien compris l’importance des usages et des logiciels, d’où la seconde table ronde de ce séminaire. Tout comme son appel à projets web 2.0 (terme suffisamment large pour incorporer de nombreux usages numériques).

Ce qui est frappant dans les usages dans les entreprises, petites ou grandes, c’est l’absence de méthodes et de formation. On considère que la formation est un acquis pour tous parce que chacun sait à peu près manipuler un client de messagerie et les outils de la bureautique. Mais c’est une illusion. Et même une grave erreur. Que de productivité et d’efficacité perdues à cause du manque de méthodes et de formations dans les usages ! Réinvestir dans une formation à la pédagogie renouvelée serait une piste à creuser pour les organisations.

On retrouve d’ailleurs ce travers chez certains éditeurs de logiciels qui zappent parfois la création d’un simple mode d’emploi !

Répondre à ce commentaire

Commentaire 695 dans Séminaire Numérique Grand Emprunt – Part 3, le 13 septembre 2009

Merci pour le conseil sur le tag TITLE. Je sais bien qu’il faut faire cela pour Google, mais parfois, le temps manque pour bien nommer les photos. J’ai corrigé cela car il y a pas mal de combinaisons qui doivent être effectivement rares sur Internet (NKM / Rocard / Juppé).

Répondre à ce commentaire

Commentaire 694 dans Les temps nouveaux et les photographes, le 11 septembre 2009

Merci Sylvain pour ces compliments.

L’équipement permet d’avoir quelque chose de correct sur la photo.

Voici quelques autres trucs sommes toutes classiques :
– Bien faire attention au cadrage et recadrer éventuellement “au tirage”
– Bien saisir la gestuelle, notamment lorsque c’est possible, les mains. Un réflex est plus approprié qu’un compact ou un bridge car il permet de saisir l’instant au dixième de secondes près.
– Prendre les photos de loin pour que les sujets ne posent pas et soient naturels. Ou au contraire, de près, après avoir créé une certaine complicité avec eux.
– Prendre beaucoup de clichés pour faire ensuite le tri. L’oeil du photographe s’exerce à près de 60% dans le choix après avoir pris les photos.
– Pour les portraits, jouer sur la profondeur de champ (qui permet par exemple de flouter l’arrière plan). Facile avec un réflex “full frame”, et quasi-impossible avec un compact et même un bridge.
– Utiliser de préférence la lumière naturelle en évitant le flash. Maintenant que les réflex ont une très bonne sensibilité et avec une optique qui “ouvre bien” (2.8 pour un télé par exemple), on peut se passer du flash dans presque toutes les circonstances. Cela donne parfois des photos un peu trop bruitées, mais elles restituent mieux l’atmosphère qu’une photo prise avec un flash.
– Seule exception à la règle précédente, les photos prises en studio avec des flashes de studio, qui permettent un contrôle de la lumière très fin qui n’a rien à voir avec celui d’un flash interne à l’appareil et même un flash monté dessus (sur les réflex pros).
– Prendre les photos en RAW pour corriger la balance des blancs avec un logiciel (Adobe Lightroom dans mon cas). Pour gagner du temps, les pros ont maintenant tendance à n’utiliser que le JPEG et à régler la balance des blancs en manuel ou à faire confiance à l’appareil. Comme je préfère faire de la qualité, j’utilise RAW+JPEG.

Répondre à ce commentaire

Commentaire 693 dans Les temps nouveaux de la décroissance, le 11 septembre 2009

Justement, on n’est pas obligé de coupler croissance et innovation. On peut générer de l’innovation même en temps de décroissance.

La terre me fait parfois l’impression d’être comme l’Ile de Pâques, dont la population avait détruit toute la forêt pour disparaître ensuite, faute d’écosystème permettant sa survie.

Maintenant que l’on a mieux conscience du côté fini voire décroissant des ressources naturelles de cette planète, on est un peu comme l’Ile de Pâques au 16eme siècle.

Lis ou relis “Collapse” de Jared Diamond…

Répondre à ce commentaire

Commentaire 692 dans Guide des startups – dixième !, le 10 septembre 2009

OK, je note. Surtout la notion “d’écosystème local”. En tout cas, il faut se faire aider, c’est sûr, pour éviter une déperdition d’énergie. Les incubateurs sont un bon point de départ.

Pour les plans du gouvernement sur l’emprunt, après avoir assisté au séminaire organisé aujourd’hui (jeudi 10 septembre 2009), on peut dire qu’il n’y aura pas que du haut débit dans l’emprunt. Mon CR arrivera d’ici la fin du week-end…

Répondre à ce commentaire

Commentaire 691 dans Les temps nouveaux et les photographes, le 8 septembre 2009

Petite différence : pour les pros, l’appareil principal est souvent un EOS 1Ds ou 1D (mark III actuellement), utilisé en double (longue et courte focale). Le 5D ou 5D II est plutôt un appareil de complément utilisé lors de déplacements où il faut être “léger”.

Nuance : le capteur du 5D II peut-être considéré comme meilleur que celui des 1D. Mais pas l’autofocus qui est bien supérieur et plus réactif sur la série des 1D/1Ds.

Répondre à ce commentaire

Commentaire 690 dans Les temps nouveaux dans le numérique, le 7 septembre 2009

Bonjour Jean-Christophe,

Dans mon vécu, ce sujet est plutôt traité dans les sphères sécurito-militaires. La principale branche du gouvernement en charge du sujet est l’ANSSI (http://www.ssi.gouv.fr/) qui a récemment remplacé le DCSSI après la mise en place du livre blanc de la défense piloté par Jean-Claude Mallet, lui-même ancien Secrétaire Général de la Défense Nationale. Mais cette agence traite surtout de la sécurité des infrastructures publiques et du gouvernement, pas du grand public. Après, il y a les services spécialisés de la police et de la gendarmerie qui traquent la cybercriminalité. Mais ils ne font pas de retape dans les centres commerciaux…

Les pros du secteur sont presque tous tournés vers les entreprises et les “RSSI” (responsables de la sécurité des systèmes d’information). Comme il n’y a pas beaucoup de business à faire dans le grand public sur ce sujet, à part vendre des antivirus (d’origine étrangère pour la presque totalité), la pédagogie n’est pas bien visible.

La presse joue sinon son rôle de temps en temps.

Du côté des politiques qui traitent du numérique, la tendance est plutôt d’évacuer le sujet, notamment chez NKM. Avec un rationnel qui se tient : l’aspect négatif et anxyogène de l’Internet est trop souvent mis en avant, ne serait-ce que par certain(es) de ses collègues au gouvernement. Elle préfère positiver l’Internet et ses usages. Elle aborde cependant un thème indirectement lié à la sécurité : le droit à l’oubli, sur les informations sur soi que l’on laisse un peu partout sur Internet.

Je ne connais pas bien le sujet, mais en le googleizant, on trouve des blogs et des sites spécialisés. Par exemple : http://cybercriminalite.wordpress.com. L’IHEDN est assez actif sur le sujet (http://www.ihedn.fr/) mais pas très communiquant. La revue Futuribles a sinon publié un numéro spécial sur “Libertés et sécurité à l’ère numérique” (juin 2009, http://www.futuribles-revue.com/).

Répondre à ce commentaire

Commentaire 689 dans Les temps nouveaux de la décroissance, le 5 septembre 2009

Nuances…

Tout d’abord, les intervenants qui ont mis ce thème en avant n’étaient pas des politiques, tout du moins au pouvoir. Le seul politique était un vert (Yves Cochet) et les autres étaient des chercheurs, un agriculteur, une sociologue, et un syndicaliste ! Toutes personnes qui n’ont rien à voir avec la crise des subprimes (en cause comme en analyse) qui a engendré l’actuelle récession.

Côté énergie, calmons-nous. L’énergie atomique portable n’est pas pour demain et elle serait de toutes manières aussi “fossile”. La pile à hydrogène nécessite de l’hydrogène qu’il faut produire avec une autre source d’énergie. Sans hydrocarbures, on sera condamné à utiliser des énergies renouvelables comme le solaire où il y a énormément d’efforts faisables à faire. Le nucléaire va nous permettre de temporiser quelques dizaines d’années supplémentaires, pas beaucoup plus. Sauf si ITER donne un jour des résultats dans la fusion nucléaire, le Graal énergétique actuel.

La question de la biosphère et de la décroissance n’est pas seulement liée au besoin alimentaire. Il y a la nature de l’aliment (la viande notamment bovine coute plus cher en équivalent CO2 que d’autres sources de protéines). Il y a l’impact global CO2 de l’espère humaine, par exemple pour se chauffer ou se déplacer.

De toutes manières, la pyramide des âges dans tous les pays annonce une décroissance démographique à un horizon de quelques dizaines d’années. Elle pourrait éventuellement être accélérée par des “désordres” (euphémisme pour révoltes, guerres, pénuries, populations déplacées, etc) liées aux autres phénomènes.

Répondre à ce commentaire

Commentaire 688 dans Les temps nouveaux de la décroissance, le 5 septembre 2009

Très intéressant ce lien. En fait, il y aura un jour une explosion de la bulle de la dette des états. USA en premier. La déflagration sera intéressante. Est-ce que l’économie sera alors prête à absorber le coup ? Il faudrait qu’au moment où cela interviendra elle se soit re-régionalisée et dé-mondialisée, tout du moins au niveau de la finance.

L’annulation de la dette, cela existe. Par exemple, un pays d’Afrique peut voir une partie de sa dette vis à vis des pays riches annulée car les pays riches peuvent (pouvaient) absorber cela dans leur bilan. Maintenant, qui sont les riches des pays occidentaux ? Leurs propres citoyens, en général les plus aisés, les économies du pétrole et les quelques pays excédentaires. Si tu annules la dette, tu appauvris les plus riches. Est-ce si grave ? Vu comme cela, pas tant que ça. Mais il y a plein d’autres side-effects qui vont évidemment bousiller toute l’économie. Et donc toutes les populations au passage, de l’ouvrier chinois à l’ingénieur allemand.

En fait, plein de désastres sont possibles. Et ils ne sont pas bien anticipés pour être jugulés. Je me dis toujours en faisant mes courses “quel bordel cela sera le jour où il y aura un début de pénurie”. Mad Max n’est pas loin !

Yann Arthus Bertrand disait en substance et en conclusion : “L’optimisme, c’est de commencer à se révolter”.

Répondre à ce commentaire

Commentaire 687 dans Banc d’essai à jour de lecteurs RSS, le 26 août 2009

Je ne connaissais pas Esobi, ce qui m’amènera donc à le tester un de ces 4, occasion peut-être de mettre à jour le comparatif. Depuis un an, les choses n’ont pas énormément changé dans ce secteur. FeedReader gère maintenant les flux offline, Google Reader a pas mal évolué de manière graduelle, etc.

Répondre à ce commentaire

Commentaire 686 dans Windows Seven Heaven ?, le 25 août 2009

Au moins, on est indirectement d’accord sur un point d’entrée de mon post : “Il subsiste toujours autant de passion autour des systèmes d’exploitation”… 🙂

Alors quelques précisions suite à vos commentaires :

– “La réponse est déjà connue : plutôt oui.” : je pensais surtout aux déboires “techniques”. C’est le feedback général des beta testeurs (qui intègrent tout de même quelques clients potentiels…) et de la presse technique, pas forcément tendre pour MS. Après, pour les ventes, elles ne dépendent que d’un facteur en partie exogène à Windows 7, le devenir des ventes de PC en 2010 et après. L’essentiel du revenu de Windows pour MS vient des bundle constructeurs, pas des mises à jour dans les entreprises.

– Les études de marché : elles n’ont de valeur qu’avec des données relatives. Que 84% des clients n’envisagent pas de mettre à jour dans l’année ne veut rien dire en soi. Ce qui compte, c’est 1) comment cela se compare avec le même sondage (qui aurait été) fait en 2006 à la sortie de Vista, en 2001 à la sortie de Windows XP ou en 1995 à la sortie de Windows 95 et 2) de tenir compte de ce que les grandes entreprises mettent toujours plusieurs années à déployer un nouvel OS – quel qu’il soit – et démarrent très rarement l’année de sa sortie. Pour le Mac, la question se pose moins car rares sont les grandes entreprises qui l’ont déployé à grande échelle et ont donc des parcs de dizaines de milliers de machines à faire évoluer (ou pas…).

– La bidouille pour passer de la RC à la RTM : elle a des raisons à la fois techniques et commerciales. MS recommande aux testeurs d’utiliser des machines de test pour la RTM et préfère que les déploiements interviennent ensuite par “clean install”. C’est plus sûr. Commercialement, cela limite l’usage “non commercial” de Windows 7.

– La mise à jour impossible à partir de XP : c’est en effet gênant pour les utilisateurs concernés. Mais dans le grand public, les machines sous XP sont assez anciennes et pas forcément adaptées à 7 et dans les entreprises, les mises à jour d’OS sont généralement couplées à celle du hard. XP date de 2001, année de la sortie de MacOS X. Si on veut comparer des pommes à des pommes (!), peut-on mettre à jour Cheetah (MacOS de 2001) à Snow Leopard ? Il semble que non ! Et pareil pour les suivants : Puma, Jaguar, Panther (2003). On ne peut upgrader vers Snow Leopard qu’à partir de Tiger (2005) et Leopard (2007). Je ne jette pas la pierre à Apple pour autant, mais ne fait que constater qu’ils doivent avoir les mêmes problèmes et contraintes techniques. Pour les OS trop anciens, mieux vaut tout réinstaller. C’est ce que l’on peut lire sur de nombreux forums d’utilisateurs du Mac.

– Le temps de mise à jour de Vista à 7 : s’il est plus long qu’une installation sur mes laptops, il n’est pas forcément comparable avec un MacOS (ou Ubuntu) mis à jour en 20 mn. En effet, mes laptops sont assez encombrés avec beaucoup d’applications installées et aussi un très grand nombre de fichiers. Mais il est vrai que deux heures, c’est bien trop long. Comme le travail de la mise à jour est bien fait au bout du compte, je préfère que cela soit bien fait et long que mal fait et rapide. J’ai effectué plusieurs mises à jour d’Ubuntu qui n’ont malheureusement pas donné le même résultat (perte de carte graphique, perte de réseau, etc) pour des pbs de drivers. Au passage, pour une clean install, Linux est le plus rapide de tous à installer.

– L’accélérateur pour créer un répertoire. Oui, je sais que c’est standard depuis longtemps sur MacOS et il était scandaleux que Microsoft n’intègre pas cela dans Windows. Maintenant, c’est fait, voila c’est tout. Ils ont enfin écouté…

– Améliorations pour la bureautique dans 7 ? Il y en a quelques unes qui concernent l’interface utilisateur (toolbar, menu start), d’autres sur les bureaux à distance, mais c’est vrai qu’il n’y a pas de quoi s’éclater. Ceci étant, dans les deux dernières versions de MacOS, les améliorations sont aussi incrémentales… à part le support de Microsoft Exchange !

– Media Center : Apple a beau avoir une belle interface utilisateurs dans l’Apple TV, il n’a pas forcément compris la dynamique de ce marché tout du moins dans son état actuel. Apple TV est délaissé (Steve Jobs ne s’intéresserait pas trop à la TV) et ne permet pas de recevoir la TV broadcastée. C’est bien pratique car cela évite de se tartiner les problèmes de tuners (câble, satellite, TNT) et de protection des contenus (premium, cryptés). Aujourd’hui, Media Center de MS est considéré comme la solution la plus aboutie pour recevoir la télé et la diffuser en multiroom. Et son ergonomie dépasse de loin celle de toutes les set-top-boxes du marché. Quand aux consoles de jeux, elles sont cantonnées au rôle d’Extender (dans le cas de la XBOX 360) et/ou de player IPTV (pour la Sony PS3). Avec les progrès de l’IPTV au dépend de la TV broadcastée (TNT, sat, cable), cela sera un jour une bonne solution. Mais pas encore aujourd’hui.

Mais un PC Media Center est effectivement compliqué à configurer et à installer, ce n’est pas un marché de volume, et donc une solution assez couteuse, et mécaniquement élitiste.

– Windows en retard sur le Mac ! Oui, on le sait pour ce qui est de l’interface utilisateur, cela dure depuis 25 ans maintenant. Nous avons trois mondes qui cohabitent :

Le Mac : facile d’emploi et assez fermé (pas de choix du fournisseur pour l’ordinateur)

Le PC sous Windows : moins facile d’emploi, plus ouvert (choix du constructeur), et moins cher (hard en tout cas)

Le PC sous Linux : encore moins facile d’emploi (ça se discute selon l’angle de vue, je sais…), encore plus ouvert (open source, choix de l’OS et du constructeur) et encore moins cher.

Qu’on aime ou pas, c’est le modèle médian qui a aujourd’hui le dessus. Une ouverture qui génère un écosystème d’ensemble tirant les prix, au moins du matériel, vers le bas. Au prix d’une ergonomie limitée par les contraintes de l’ouverture matérielle autant que par la culture d’entreprise de Microsoft, plus tournée vers les entreprises que vers les utilisateurs. Comme les entreprises représentent environ 80% du CA de Microsoft, tout s’explique !

En même temps, évitons le discours simpliste du “Apple invente et MS copie”. Les sociétés n’ont pas les mêmes métiers, les mêmes forces et faiblesses. MS fait des choses très bien dans le monde de l’entreprise, ce n’est pas une bande d’idiots qui copient les voisins (même si cela peut arriver, comme ailleurs). Son offre middleware continue de bien évoluer alors que Java patine un peu. Ils sont trop dispersés, se plantent dans certains domaines (online, mobile) et réussissent mieux ailleurs (console de jeu, serveurs d’entreprise, outils de développement), le desktop patinant un peu entre les deux.

A propos de mon usage d’Ubuntu : je ne suis pas “passé de Windows à Ubuntu”. J’utilise Ubuntu à la fois pour ma culture technique et pour développer les évolutions de mon blog qui tourne sur plate-forme LAMP, que je préfère reproduire sous Linux que sous Windows, pour être plus proche de l’hébergeur qui est en LAMP (Linux, Apache, MySQL, PHP).

Il manque en effet un Mac sur mon bureau, mais j’ai au moins un (mauvais) prétexte : il n’y a plus de place dessus ! Et aussi, pas de raison pressante de l’adopter. Le montage vidéo, peut-être ? J’ai bien vu que l’on pouvait installer MacOS sur un netbook – donc sur un laptop – mais que la bidouille était franchement compliquée et pas complètement opérationnelle donc je n’ai pas tenté le coup.

Cordialement,

Répondre à ce commentaire

Commentaire 685 dans Moissonner le web avec Outwit, le 22 août 2009

Pas sûr de bien comprendre la question.
On peut générer des fichiers Excel à partir des résultats obtenus dans la récupération de données sur le web.
Le language de scripting pour créer des “scrapers” ne me semble par contre pas disposer des moyens de s’alimenter dans une feuille Excel.

Répondre à ce commentaire

Commentaire 684 dans Revamping d’été, le 19 août 2009

En plusieurs étapes :
– Activation de la fonction de threaded comments dans WordPress. Elle existe depuis la version 2.7.
– Modifications diverses dans le thème et surtout changement complet (à partir de modèles) du template des commentaires et ajout d’une fonction de callback pour l’affichage de chaque commentaire individuel.
– Modification d’une feuille de style standard (partie commentaires) pour l’adapter à celle de ce blog. Listes imbriquées, etc.
– Ajout d’un plug-in pour ajouter une numérotation hiérarchique des commentaires.

Le résultat est effectivement assez sympa.

J’ai encore à faire :
– Comprendre pourquoi la feuille de style n’est pas bien prise en compte dans Chrome alors qu’elle fonctionne bien dans IE (8) et Firefox (3).
– Tester cela dans les anciennes versions d’IE et FF.
– Peut-être proposer l’affichage à l’ancienne des commentaires dans l’ordre chronologique ou inverse chronologique.

Répondre à ce commentaire

Commentaire 683 dans Revamping d’été, le 18 août 2009

Et maintenant, il y a même les “threaded comments”. J’ai mis tout de même une demi-journée à mettre cela au point.

Répondre à ce commentaire

Commentaire 682 dans Revamping d’été, le 17 août 2009

J’ai tenu compte des feedbacks (macha) en modifiant un peu le design tout en respectant une certaine continuité. J’ai ajouté la liaison avec Twitter et la galerie des principales publications.

Je galère sur les CSS et les templates, mais aussi sur les plug-ins à rajouter. Wordbook faisant le lien avec Facebook m’a bousillé la base en ajoutant des milliers de lignes dans la table postmeta de WP. Je l’ai abandonné pour une solution plus simple. Autre pb non résolu : je n’arrive pas à envoyer d’email via l’hébergeur (1&1) alors que cela fonctionne sur mon “staging server” (Ubuntu sur laptop) – avec le plug-in “WP-Mail-SMTP”.

Ma todo list est pour l’instant à moitié réalisée…

On peut discuter de tout cela offline.

Répondre à ce commentaire

Commentaire 681 dans Revamping d’été, le 13 août 2009

J’ai fait le plus facile : passer à WordPress 2.8.4… je m’attaque au reste maintenant. J’ai au passage découvert une limite de mon hébergeur, non documentée, qui empêchait les pages d’archives de s’afficher complètement. Pour ce que cela passe, j’ai limité la requête à 2008 et +.

Répondre à ce commentaire

Commentaire 680 dans Les caméras d’Appolo 11, le 4 août 2009

On est même plus proche de la mémoire d’une calculatrice HP de la fin des années 70 comme la mythique HP 41C sur laquelle il était courant d’ailleurs de programmer son alunissage. Soit quelques dizaines de Kilo Octets et une fréquence d’horloge de 0.043MHz.!

Cf par exemple : http://history.nasa.gov/afj/compessay.htm (trouvé avec un moteur de recherche et “Appolo computers”, ce n’est pas bien sorcier…). Le code était développé en assembleur, of course. L’ordinateur de bord du LEM avait été conçu par le MIT et fabriqué par Raytheon.

Au sol, la NASA avait par contre plus de moyens de calculs évidemment, basés sur des mainframes IBM 360, le standard de l’époque. Cf http://www.computerweekly.com/Articles/2009/07/17/236650/apollo-11-the-computers-that-put-man-on-the-moon.htm.

Répondre à ce commentaire

Commentaire 679 dans La guéguerre des OS légers, le 31 juillet 2009

Voici les temps de lancement sur un netbook actuel sous Windows 7 (Atom 1,6 Ghz, 1 Go de RAM, disque dur) :
– Boot jusqu’au bureau : environ 53 s
– Sortie du mode veille prolongée (hibernation) : une quinzaine de secondes
– Sortie du mode veille : moins de 3 secondes

Ca devient acceptable, surtout pour ce dernier que l’on peut utiliser couramment maintenant que les batteries donnent une bonne autonomie à ces netbooks !

Répondre à ce commentaire

Commentaire 678 dans La guéguerre des OS légers, le 27 juillet 2009

Oui, mais il ne faut pas en rajouter ! Si pression il y a, elle s’appuie sur l’inertie du marché qui joue en faveur de l’éditeur et sur l’écosystème qu’il a bâtit en plus de 25 ans. Sans cette inertie et cet écosystème, ses pressions ne serviraient à rien. Il n’y a qu’à voir ses difficultés dans les marchés où il est challenger : le search, le mobile, la télévision numérique (IPTV), les business solutions (ERP pour PME). Là aussi, il y a des dollars marketing, des références achetées, mais le marché ne suivant pas, et bien cela ne prend pas.

D’autant plus que Microsoft doit être assez prudent sur le sujet, ayant eu déjà quelques déboires juridiques pour abus de position dominante. Qui lui ont coûté plus de 10 milliards de dollars, soit bien plus que des années de vente de Windows sur netbooks…

Le coût du prix d’un bout de SSD remplacé par Windows est de bonne guerre. Cela brouille un peu les cartes mais permet au consommateur de choisir : plus de mémoire et Linux, ou moins de mémoire et Windows.

Si les constructeurs mettent moins en valeur Linux, c’est aussi parce que l’OS leur pose quelques problèmes. Fragmentation du marché, support utilisateur moins évident quoique les fans de Linux en disent, etc. Un constructeur comme un retailer n’a pas tendance à mettre plus en avant ce qui ne se vend pas beaucoup, surtout si cela ne change pas grand chose sur ses marges et sa structure de coût. Ils font donc au plus simple.

Il n’en reste pas moins vrai que le marché étant un peu plus éduqué, un choix plus explicite et systématique de l’OS au moment de l’achat de la bécanne ferait du bien à la concurrence. On pourrait d’ailleurs alors souhaiter qu’il s’applique aussi aux Macintosh et dans les deux sens (Mac sans MacOS et PC avec MacOS), mais cela relève encore du fantasme n’est-il pas ?

Répondre à ce commentaire

Commentaire 677 dans La guéguerre des OS légers, le 27 juillet 2009

Un netbook, c’est plutôt un écran de taille respectable (>7 pouces), un clavier, un système d’exploitation généraliste, et un prix inférieur à 400€.

La tablette d’Apple, si elle sort, pourrait effectivement créer un effet d’entrainement sérieux sur ce format de bécanne.

Pour Google vs Apple, l’enjeu est bien de favoriser le développement d’applications tactiles en mode web. Une fois que les standards s’imposeront, les plate-formes propriétaires n’auront plus de raison d’être.

Répondre à ce commentaire

Commentaire 676 dans Le retour discret du moteur à eau, le 27 juillet 2009

Christian,

On dit à peu près la même chose: l’électrolyse de l’eau permet d’améliorer à la marge l’efficacité de la combustion mais une étude sérieuse du bilan énergétique intégrant le fonctionnement de la batterie mériterait d’être réalisé et sur de longues durées. Car si vous consommez moins de carburant dans vos tests mais avez vidé votre batterie dans le même temps, le gain en est diminué d’autant !

Après, il faut se poser la question des changements industriels à réaliser pour adopter ce procédé :
– Modification des moteurs.
– Modification des stations services pour distribuer… de l’eau, même si on doit bien pouvoir s’en charger soi-même.

J’ai déjà croisé pas mal de projets qui présentaient à l’état de prototype des gains énergétiques qui malheureusement fondaient comme neige au soleil une fois que l’on passait à l’industrialisation. D’où le besoin d’évaluations sérieuses.

Je ne suis pas en tout cas pas sûr qu’il faille simplement incriminer tel ou tel lobby qui ralentirait l’adoption de ce procédé.

Car, si lobby il y a peut-être, comment expliquer qu’aucun journaliste, aucun (en apparence), ne s’intéresse au sujet, et notamment à Miraclean ?

Répondre à ce commentaire

Commentaire 675 dans La guéguerre des OS légers, le 27 juillet 2009

@Filmail : on peut aussi expliquer ce relatif échec de Linux par deux autres facteurs :
– L’inertie des consommateurs qui, habitués à Windows, préfèrent des netbooks avec un OS qu’ils connaissent.
– La disponibilité de XP à un prix OEM compatible avec celui des netbooks (moins de 10% du prix public des machines). Ceci couplé à des incentives marketing de l’éditeur.

Ton point sur le manque d’applications me semble par contre moins d’actualité : toutes les principales applications nécessaires sont disponibles sous Linux et de plus, on peut exécuter les principales applications Windows en émulation (sous Wine) ou dans une machines virtuelle (sous VirtualBox), même si ces manipulations ne sont pas forcément très grand public.

Côté optimisation, idem. Linux fonctionne très bien sur les netbooks. J’ai eu l’occasion de comparer Windows 7 et Ubuntu sur netbooks, et le temps de chargement et les performances sont identiques avec un léger mieux pour Ubuntu. Un seul bémol : la gestion de la batterie semble un peu meilleure sous 7.

@Leafar : oui, opportunité d’innover, certes. Mais ce que j’en vois pour l’instant n’est pas bien folichon ni radical. Les surcouches ont rarement généré de bons business dans les OS. La seule qui ai bien tourné (business wise) est Windows qui à l’origine s’installait sur MS-DOS. Mais des surcouches graphiques d’OS graphiques ?

Répondre à ce commentaire

Commentaire 674 dans Revamping d’été, le 21 juillet 2009

Merci Pierre et Laurent pour votre input.

Sur les “avis à chaud”, effectivement ce n’est pas mon truc. Cela pousse à augmenter le rythme de publication car l’actualité bouge sans cesse et c’est incompatible avec mon activité professionnelle. Cela ne donne pas beaucoup de recul et rend difficile une analyse très différentiée par rapport à la couverture médiatique ambiante. Je le fais cependant de temps en temps (Yahoo-MS, après un événement, etc).

Exemple : l’annonce de Chrome OS il y a deux ou trois semaines. Présenté par les médias comme une guerre entre Google et MS. J’aurais pu commenter cette annonce à chaud. Mais je réfléchis depuis quelques temps à ce marché des OS légers pour netbooks et autres tablettes. J’ai rencontré des startups dans ce domaine, pu identifier ce qui pourrait faire bouger les lignes. Fait le lien avec quelques caractéristiques des grands cycles d’adoption d’innovations. D’où un post en préparation qui va agglomérer tout cela, donc, avec du recul.

Répondre à ce commentaire

Commentaire 673 dans Les startups préférées des VCs français, le 9 juillet 2009

@Marc sur ta réponse à Macha : tu prêches un convaincu pour ton dernier point ! Pour le commentaire 5, l’idéal serait d’avoir un peu de transparence sur les boites : croissance, CA et résultat net… Ces concours de beauté où l’on ne voit presque rien de la beauté des gagnants ne peut que laisser libre court à l’imagination !

Répondre à ce commentaire

Commentaire 672 dans Les startups préférées des VCs français, le 6 juillet 2009

Le poids s’entend pas “pourcentage”. En valeur absolue, l’investissement VC en France est un poil supérieur à celui de l’Allemagne (2523m€ sur 2006-2008 en France vs 2063m€ en Allemagne; modulo les méthodologies de mesure qui sont sujettes à caution car la segmentation capital amorçage/risque/dev n’est pas parfaitement alignée entre tous les pays).

La fiscalité française explique sans doute une part de ce phénomène.

Répondre à ce commentaire

Commentaire 671 dans Les opportunités de la télévision numérique, le 5 juillet 2009

@Laurent : j’avais bien compris le procédé, mais pas vraiment le lien avec les problèmes de l’IPTV que tu cites (surtout le débit et le lien social).

Répondre à ce commentaire

Commentaire 670 dans Bing peut-il changer la donne ?, le 4 juillet 2009

Cette garantie Oséo ne concerne pas que les startups mais les PME en général.

Donc, quel rapport avec Bing… ?
Ce d’autant plus que Microsoft n’a pas à rougir d’IBM pour ses relations avec les startups françaises.

Répondre à ce commentaire

Commentaire 669 dans Les opportunités de la télévision numérique, le 3 juillet 2009

@Laurent Patenotre : je ne saisis pas bien le lien entre l’offre (unlocking de droits d’accès via un mobile) et les problèmes de l’IPTV que tu listes au début de ton commentaire.

Répondre à ce commentaire

Commentaire 668 dans Enseignements du Concours 2009 des (blabla) Entreprises Innovantes, le 2 juillet 2009

@jmplanche & les autres : la valeur de l’idée est un vrai sujet en France.

Je suis de ceux qui effectivement relativisent la valeur de l’idée dans les projets. En faisant allusion à “l’idée nue” sans profondeur sur la réalisation, en gros, sans vrai business plan, et souvent sans les technologies associées. J’ai souvent rencontré des entrepreneurs, avec une longue expérience professionnelle “non-entrepreneur” qui croyaient avoir une idée du siècle et voulaient bâtir une boite dessus. Alors que leur idée était banale, que plein de gens l’avaient eu. Et en plus, ils voulaient breveter l’idée sans même avoir de technologie en propre (ce qui ne se fait pas en Europe, mais peut se faire aux USA). Ils n’avaient pas d’équipe, pas de BP, pas de techno. Mais juste l’idée. Ca fait bien maigre.

Jean-Michel, ta définition assez large de l’idée, qui va jusqu’aux aspects de sa mise en oeuvre, me va mieux !

Autre travers à soulever : la tendance à définir la solution avant d’avoir défini le problème ! Un bon projet est un projet où l’on a passé beaucoup de temps à définir le problème à résoudre, et pour qui (les clients). Le problème, ce sont les “pain points” de segments clients, que l’on peut décrire avec autant de précision que possible, et que l’on peut éventuellement chiffrer. En btob, cela peut être du genre “les grandes entreprises du secteur X passent Y temps/argent à faire ceci cela avec telle méthode existante, cela a tel impact sur leur business, leur qualité de service, leur marge, leur croissance, etc”. Pour résoudre ce problème, il faudrait faire ceci ou cela en respectant telles et telles contraintes, de mise en oeuvre, de budget, de temps, de simplicité, etc. Le tout en étant plus efficace que les solutions existantes qui sont imparfaites pour telles et telles raisons (car il y en a toujours).

La définition de la solution arrive ensuite, et coule un peu de source, et avec quelques compromis et équilibres. Cette méthode de “business design” est très utile ensuite dans la vente du projet et le marketing de la société.

Les projets qui viennent de la recherche, et même d’autres encore, partent souvent d’une solution et cherchent les problèmes à résoudre. D’où souvent une difficulté à rencontrer son marché.

Bref, la capacité de l’entrepreneur à trouver de vrais bons problèmes à résoudre compte autant que celle consistant à avoir “des idées” (sous-entendu, de solutions).

Répondre à ce commentaire

Commentaire 667 dans Enseignements du Concours 2009 des (blabla) Entreprises Innovantes, le 30 juin 2009

Merci Macha pour ces pointeurs tout frais sur les comptes 2008 d’Oséo. Ils dépeignent une situation qui ne correspond pas à l’expérience des startups du numérique en Ile de France pendant la seconde moitié de 2008. Ce qui veut dire qu’il faudrait pousser l’analyse sur l’Ile de France avec le peu de données fournies. Il serait intéressant de calculer les aides et avances par société. Du pain sur la planche pour l’investigation…

Répondre à ce commentaire

Commentaire 666 dans Enseignements du Concours 2009 des (blabla) Entreprises Innovantes, le 29 juin 2009

@Boris : le taux de survie est souvent mis en évidence, mais associé à de la création d’emploi et à de la croissance de chiffre d’affaire. Est-ce qu’un taux d’échec plus fort augmentera les chances de voir émerger des champions de taille critique ? Pas si sûr. Ce n’est pas en ayant plus de mauvais projets qu’on en aura plus de meilleurs. On en a déjà assez, de mauvais projets ! La survie est souvent un statut “médiocre” qui n’a rien de glorieux. Les 50% d’échec des startups chez les VCs ne correspondent pas forcément à un taux de mortalité des entreprises financées. Mais à celles qui ne permettent de pas de retrouver sa mise de départ (modulo inflation et frais de gestion…) dans la “sortie” de la société du fond d’investissement.

Le Concours National présente en effet quelques avantages par rapport à d’autres sources de financement : pas d’obligation à faire de la R&D collaborative comme dans les pôles, un taux de fonds propre raisonnable, et un financement (pour création-développement) de niveau respectable surtout au vu de l’investissement (dossier à remplir avant janvier). Par contre, le processus est un peu long : 6 mois, sans compter l’étalement de l’attribution de la subvention, en deux ou trois temps je crois.

@Yann : cause ou conséquence ? Je penche plus pour la conséquence. Toute organisation justifie et défend son existence comme elle le peut…

Répondre à ce commentaire

Commentaire 665 dans Enseignements du Concours 2009 des (blabla) Entreprises Innovantes, le 29 juin 2009

L’empilement est la conséquence de plusieurs facteurs :
– Morcellement administratif, notamment en région.
– Prise de conscience de l’importance de l’innovation dans l’économie.
– Chacun dans la chaine de pouvoir veut faire quelque chose et lance son initiative, en pensant bien faire : incubateurs, pépinière, fonds régionaux, pôles, etc.

Pour ce qui est des X-Mines, le pb est celui de toutes les castes qui se protègent plus qu’elle ne servent l’intérêt général. Les X-Mines sont effectivement très intelligents, de cette intelligence brute générée par le filtrage successif des classes prépas, des concours, de celui de l’X, puis du classement de sortie qui les mène dans la “botte”, le top du top étant le Corps des Mines (une dizaine d’élus par an). Est-ce que cela en fait pour autant des visionnaires, des innovateurs, des agents du changement, et de bons managers à défaut de leaders ? Ca se discute au cas par cas ! A signaler que le Corps des Mines a intégré celui des Télécoms (que l’on rencontre plus souvent dans notre industrie du numérique) et au sein du CGIET. Conseil dont la production écrite laisse quelque peu circonspect…

Répondre à ce commentaire

Commentaire 664 dans Enseignements du Concours 2009 des (blabla) Entreprises Innovantes, le 28 juin 2009

C’est une bonne chose que d’être sensible aux réalités économiques, mais justement, je ne suis pas certain qu’elles soient toujours prises en compte dans ce genre d’opération, Oséo ou pas. Il ne faut pas me faire dire (ou écrire) ce que je n’ai pas écrit tout de même !

Dans toutes ces aides publiques, il s’agit parfois d’identifier le “moindre mal”. Oséo Innovation, Pôles de Compétivité, Appels à Projets, Concours National, TEPA/ISF, Crédit Impôt Recherche, etc ? Comment équilibrer ce bazar où l’on a bien l’impression qu’il n’y a aucun architecte derrière ?

Ne voyons pas le mal ou le complot partout pour autant. Surtout en l’absence d’un grand architecte !

Les pôles de compétitivité ne sont pas à rejetter radicalement. Diagnostiquons ce qui ne va pas dedans et proposons des alternatives !

Par exemple :
– Il y en a beaucoup trop ce qui dillue l’effort et l’investissement. Il faut d’urgence en réduire le nombre. Bon, le prix politique à payer pour cela est assez élevé…
– La part des aides qui va aux grandes entreprises est trop importantes. Il faudrait que statutairement, les aides aillent aux 3/4 minimum aux startups et dans une certaine mesure aux laboratoires. Il vaut mieux avoir ces entreprises comme clients que comme partie prenante des projets pour éviter de se faire dépouiller.
– Dans le numérique, le rôle des grandes entreprises est un véritable “poison” pour l’écosystème des startups. En effet, la plupart d’entre elles ne vont pas très bien ou sont trop cantonnées au marché national (suivez mon regard). Résultat : elles ne peuvent pas décemment aider les startups à réussir. D’autant plus qu’une grande part des innovations dans le numérique sont plus sociétales que technologiques.
– La polarité géographique n’a pas vraiment de sens dans le numérique. Pourquoi les solutions de paiement sécurisées devraient-elles venir de Normandie par exemple ? Pourquoi les jeux de Lyon ? Etc.
– Pôle ou pas, il faut trouver le moyen d’aider dans autre chose que la R&D, ou la recherche collaborative. Ce n’est pas le problème de l’innovation en France ! C’est l’écoute des clients, le marketing, la vente, la communication, l’international qui ne vont pas. Reconnaissons à ce titre que le coaching des startups lauréates du Concours National par des business schools et un bon pas en avant.

Bref, il faut reprendre l’histoire à zéro et refaire un diagnostic de ce qui ne va pas et trouver les solutions qui vont avec.

Je viens de terminer un très bon bouquin sur l’innovation “The myths of innovation” qui indique à la fin que les meilleures innovateurs sont ceux qui passent le plus de temps possible à définir le problème à résoudre avant de déterminer la solution. Les pôles de compétitivité sont visiblement une solution à un problème qui n’a pas été bien défini !

Répondre à ce commentaire

Commentaire 663 dans Les opportunités de la télévision numérique, le 25 juin 2009

Bonjour Laurent,

Pas certain que cet avis soit partagé par tous les acteurs !

Comme je l’indique dans le livre blanc, l’approche Media Center a énormément d’avantages en termes d’ouverture et de flexibilité. Mais elle est encore trop complexe à mettre en oeuvre et ne sert pas les intérêts des opérateurs. C’est ce que l’on appelle une solution “over the top” qui s’appuie sur un tuner (sat, câble, TNT) et la liaison IP du domicile. Résultat : les opérateurs ne vont pas la pousser. Seule la distribution peut la pousser. Or c’est le contraire qui s’est passé : les PC Media Center “format salon” ont quasiment disparu de la circulation dans la grande distribution. Que ce soit sous Windows ou Linux.

Le seul événement favorable récent pouvant promouvoir le Media Center est la décision de Canal+ de labelliser des solutions matérielles tierces parties pour recevoir leurs programmes. Mais cela prendra du temps avant qu’une solution de ce genre en open source soit certifiée, à cause des systèmes de contrôle d’accès et des exigences des ayants droits. Net net, cela va favoriser Windows, au demeurant, avec un usage très limité en France aujourd’hui (quelques centaines de milliers de Media Center de salon pour l’instant).

Par contre, OK pour une évolution progressive vers la délinéarisation de la consommation de la TV, ce que tu appelles la VOD. Mais qui se met en pratique avec deux offres distinctes : les PVR (enregistreurs à disque dur) et la télévision de rattrapage (catch-up). La VOD est associée à la consommation de films à la séance que l’on paye chaque fois ou via un abonnement. Evolution progressive car il faut tenir compte de la segmentation du marché. Les personnes âgées et les classes sociales défavorisées sont encore loin de la délinéarisation pour l’instant. La priorité est de les faire passer à la TNT pour l’instant !

Au passage, l’écran Plasma est mort ! Il s’agit de LCD maintenant… 🙂

Répondre à ce commentaire

Commentaire 662 dans Le retour discret du moteur à eau, le 23 juin 2009

Une belle occasion de loupée.

Mais c’est du classique : les remaniements ministériels ne sont font souvent en fonction d’une logique de compétences, mais surtout d’une logique politique.

Exemples: MAM à la Justice, Darcos au travail, Chatel à l’Education, Le Maire à l’agriculture, Yade aux sports (diversité = jeunes = sports ?), Estrosi (qui vu son passé aurait pu aller aux sports ou à l’intérieur; et c’est plus Sophia Antipolis qu’il pourrait privilégier que Marseille).

Contre exemples: Lellouche aux affaires européennes (même s’il aurait été mieux placé aux relations avec les USA et avec l’OTAN…), Hortefeux à l’Intérieur (il a un passé dans le domaine…).

Re-contre exemples : départs de Laporte, Albanel, Boutin, Jego et Karoutchi qui n’ont effectivement pas brillé dans leurs ministères respectifs.

Répondre à ce commentaire

Commentaire 661 dans Le retour discret du moteur à eau, le 23 juin 2009

@Fabien: il vaut mieux rester indépendant pour avoir des idées et les promouvoir ! Et puis, membre de cabinet, c’est un boulot de dingue…

@Macha: attentons un peu ! Réintégrer le numérique dans l’industrie aurait quelques avantages. Si la mission de NKM dans un tel rôle consistait à revoir sérieusement le dispositif d’aides à l’innovation, cela serait effectivement pas mal. Mais… pour revoir à la baisse le CIR qui à mon sens subventionne un peu trop la R&D de grands groupes profitables (et pour ceux qui ne le sont pas, la R&D n’est pas leur vrai problème), pour revaloriser le rôle d’aide aux startups indépendantes chez Oséo, pour limiter la gabegie des pôles de compétitivité dont l’efficacité est loin d’être démontrée, pour effectivement pousser aux investissements publics et privés dans les écotechnos, pour valoriser l’usage du numérique dans les transformations à venir dans les industries et les services, etc. Par ailleurs, Bercy reste tout de même maitre des finances dans ce pays et a de véritables moyens (OSEO, INSEE, CGTI, DGCIS, etc) que le secrétariat actuel de NKM n’a pas en propre.

Répondre à ce commentaire

Commentaire 660 dans Le retour discret du moteur à eau, le 22 juin 2009

Qui a parlé d’administration ?
Conseil scientifique ne veut pas forcément dire “administration”…

Répondre à ce commentaire

Commentaire 659 dans Le retour discret du moteur à eau, le 22 juin 2009

@Pierre : l’organisateur Martech qui fait un tri des sociétés candidates n’est pas doté d’un conseil scientifique permettant d’identifier le bien fondé des procédés présentés. Le bon sens devrait amener à une certaine prudence. Mais c’est en enquêtant quelques heures que l’on se rend compte qu’il faut au minimum douter sérieusement du procédé et questionner les créateurs (ce que je n’ai d’ailleurs pas encore fait…). J’avais prévenu Martech du problème juste avant l’événement. Ils ont été bluffés par la démonstration qui les avait convaincus qu’il y avait “quelque chose”. Comme probablement d’autres personnes dans l’assistance. Mais au vu du relatif silence sur cette société sur Internet, le doute a du persister. Ou bien, le monde des écotechnologies est peu utilisateur du web.

Répondre à ce commentaire

Commentaire 658 dans Le retour discret du moteur à eau, le 22 juin 2009

La société est basée à Paris…

Répondre à ce commentaire

Commentaire 657 dans Appels à projets Web 2.0 et Serious Gaming, le 21 juin 2009

Est-ce si problématique ?

Les intellectuels se réclamant de gauche peuvent aussi trouver des idées pour promouvoir la croissance des entreprises…

Répondre à ce commentaire

Commentaire 656 dans Appels à projets Web 2.0 et Serious Gaming, le 18 juin 2009

Le CIR est certainement une dépense fiscale qui augmente dans le budget de l’Etat depuis la LME qui augmente sa portée, uniquement en faveur des grandes entreprises. Et avec un retour sur investissement qui reste à évaluer. Est-ce que cela a empêché des délocalisations ou créé des emplois de chercheurs ? Je demande à voir…

Mais c’est loin d’expliquer l’augmentation du déficit de l’Etat. Il y a deux explications principales : le plan de relance et la baisse des recettes liée à la récession. Mais il est vrai que ce déficit n’est pas bien loin de la totalité des dépenses fiscales en faveur des entreprises (près de 70 milliards d’Euros).

Faut-il simplement les supprimer ? Pas si simple ! Un grand nombre d’entre elles abaissent (artificiellement) le coût du travail faiblement qualité (ou faiblement payé). D’autres compensent le passage aux 35 heures (il y en a encore). Cela comprend aussi le financement d’une partie des retraites des régimes spéciaux liées à la démographie spécifique, notamment des cheminots.

J’ai étudié rapidement la question dans http://www.oezratty.net/wordpress/2007/trop-detat-o-a-bien-en-pdf/ en 2007. C’est un sac de noeuds de mesures empilées. On ne peut pas dire “il faut tout supprimer”. Il faut les reprendre une par une et évaluer leur bienfondé.

Répondre à ce commentaire

Commentaire 655 dans Une révolution dans les bases de données ?, le 18 juin 2009

Il semblerait que la cohésion de l’équipe n’ait pas tenu.

Les hommes, toujours les hommes…

Répondre à ce commentaire

Commentaire 654 dans Bing peut-il changer la donne ?, le 18 juin 2009

Effectivement, pas de passion.

Mais ce n’est pas une copie pour autant. J’ai listé un certain nombre de différences notables tout de même. Tout en indiquant qu’elles ne suffiront pas à basculer les utilisateurs et que par ailleurs, elles sont difficiles à généraliser du fait de la technique employée (deep web dans des bases de données, web sémantique, etc).

Répondre à ce commentaire

Commentaire 653 dans Bulletins de vote à télécharger, le 13 juin 2009

Dans les pays où la fraude est institutionnalisée, elle le serait autant si ce n’est plus avec des moyens de vote électroniques !

Répondre à ce commentaire

Commentaire 652 dans Bulletins de vote à télécharger, le 11 juin 2009

Les électeurs votent-ils pour des personnes, pour des idées générales ou pour des programmes précis ? Le tout en fonction de leur niveau d’éducation et d’information. Accepte-t-on de confier les clés à des responsables qui décident ensuite en s’entourant ou de spécialistes ou de lobbyistes ? Comment sont gérés les contre-pouvoirs, les flux d’idées et la remise en cause des propositions ?

La réponse est en général assez décevante !

On se rapproche d’une vraie démocratie lorsque l’équilibre entre les trois inspirations des votes est respecté, tout comme le processus électoral associé. Comme dans certains pays (Suisse, USA, etc) où ont lieu des référendums d’initiative populaire. Mais parfois, la majorité peut imposer des vues liberticides à une minorité, comme dans le cas du mariage gay en Californie.

Même les grecs de l’antiquité qui servent souvent de référence n’étaient pas parfaits…

Répondre à ce commentaire

Commentaire 651 dans Bulletins de vote à télécharger, le 10 juin 2009

Je suis plus circonspect sur le succès des régimes parlementaires à scrutins proportionnels. L’histoire des 3ieme et 4ieme répupliques en France avec ces changements de président du conseil à répétition au gré des alliance. L’émiettement de la représentation nationale aboutissant à des négociations de couloir pour la constitution de majorités parlementaires fragiles comme en Israël.

Les pays où le compromis est difficile d’un point de vue culturel ne sont pas prêts pour la proportionnelle intégrale. Les pays où la culture du compromis est plus forte, comme en Suède, peuvent plus facilement supporter la proportionnelle. Après se pose l’autre question du mono- ou bi-caméralisme…

Le modèle mêlant proportionnelle et scrutin majoritaire existe dans les élections municipales. C’est un compromis acceptable à cette échelle mais moins à celle d’un pays.

La synchronisation entre présidentielle et législatives en France en place depuis 2002 a effectivement renforcé le régime présidentiel français. Une solution existe outre atlantique ou le tiers du sénat est renouvelé dans les mid-term elections aboutissant à une forme de cohabitation entre un exécutif et un législatif de bords différents (comme en fin de second mandat Bush II), différente de nos cohabitations de l’ère Mitterrand.

Bon, mais ce blog n’est pas spécialisé dans le droit constit.

Répondre à ce commentaire

Commentaire 650 dans Rencontre avec Bernard Liautaud, le 3 juin 2009

Jean-Michel, ton propos complète parfaitement celui de Bernard, et les trois années de distance entre les deux n’ont guère d’importance. Comme quoi cela a du bon de laisser les commentaires ouverts !

Certains lecteurs s’en sont d’ailleurs plaint auprès de moi, mais cela concernait des articles avec plusieurs dizaines de commentaires, durs à suivre. Ce qui n’est pas le cas ici.

Le cas de BO est en tout cas exemplaire pour moi dans une dimension clé : “l’abordage” du marché américain très tôt dans le cycle de vie de la startup. C’est une démarche encore trop rare chez nos startups actuelles. Et l’histoire de BO dans ce domaine est captivante. Et probablement toujours d’actualité.

Répondre à ce commentaire

Commentaire 649 dans La statistique de l’OCDE sur la fibre qui fait peur, le 3 juin 2009

C’est un éternel débat entre infrastructures, applications et contenus. Je suis assez enclin comme certains d’entre vous à trouver qu’on en fait trop en France sur les infrastructures et pas assez sur le reste, du fait de la culture locale, des élites, le poids des telcos et tout le tralala. Il m’arrive même de charrier un peu Jean-Michel Billaut sur le sujet.

Dans le même temps, je suis en train de me pencher sur certaines innovations qui sont encore en pleine transformation, notamment dans la télévision numérique, la haute définition ou la téléprésence.

Ce sont des domaines assez porteurs où la bande passante est critique et la fibre est un moyen de développer des services que l’ADSL peine à soutenir convenablement, modulo comme l’a signalé AClappier les ressources des back-ends (qui évoluent cependant aussi selon la loi de Moore).

Mais bien entendu, une grande majorité des innovations dans le numérique peuvent très bien se passer du très haut débit.

Il serait en tout cas regrettable que notre avance sur l’ADSL ne nous ai pas tant servis que cela, et qu’un éventuel retard sur la fibre (vs les US et le plan Obama, la Corée et le Japon) nous soit finalement préjudiciable.

Notez aussi que la Chine est aussi en avance dans la fibre par rapport à la France avec plus du quart de sa base installée broadband. Elle n’apparait pas dans les charts car elle ne fait pas partie de l’OCDE. C’est la plus grosse base installée en fibre du monde (environ 20 millions de connexions).

Répondre à ce commentaire

Commentaire 648 dans La statistique de l’OCDE sur la fibre qui fait peur, le 2 juin 2009

Il est vrai que nous sommes OK pour le haut débit mais on pourrait perdre cette avance maintenant toute relative dans le très haut débit, porteur de nouvelles applications.

Côté technique, au vu de l’état de l’art actuel, la fibre semble être le seul moyen pour accéder au très haut débit (au delà de 20 mbits/s). On aurait atteint les limites dans la paire torsadée.

Répondre à ce commentaire

Commentaire 647 dans La statistique de l’OCDE sur la fibre qui fait peur, le 2 juin 2009

@MAS : c’est une question de point de vue. Plus on est proche de son central téléphonique et du DSLAM, meilleure est la connexion. Mais, n’oublions pas les nombreus abonnés qui ont moins de 10 mbits/s et pour qui la TV ADSL est moyenne, surtout en HD. L’avantage de la fibre, c’est que le débit n’est pas atténué avec la distance du central.

Et les usages se développent bien en fonction du débit disponible. L’ADSL a permis la vidéo, l’IPTV, le partage de photos, inenvisageables lorsque l’on était en analogique, et même en RNIS.

Le très haut débit permettra sans doutes de développer la téléprésence et le télétravail, une solution parmi d’autres pour limiter les transports. Et puis, de généraliser la TV HD en IP et la vidéo à la demande associée.

@Christophe : le décalage de la France dans le très haut débit pourrait lui être préjudiciable. Mais le THD comme le Haut débit ne sont pas des conditions suffisantes pour réussir à l’international. Il n’y a qu’à voir l’accès haut débit qui est pourri dans la Silicon Valley alors qu’il est très bon dans les métropoles en France.

@milouse: les opérateurs doivent respecter des cycles d’investissement et d’amortissement. ils sont au milieu de l’amortissement de leurs investissements dans l’ADSL qui n’ont pas nécessité de travaux d’infrastructure mais “seulement” du matériel en tête et queue de réseau. Avec la fibre, il faut recâbler, ce qui coute cher et prend du temps. Sachant que cela ne va pas forcément leur rapporter plus. C’est le jeu de la concurrence qui les pousse à investir (Free le premier à Paris pour les offres FTTH). Et les pouvoirs publics peuvent effectivement un peu aider, mais leur rôle est surtout consacré à réduire la fracture géographique de l’accès au haut débit.

Répondre à ce commentaire

Commentaire 646 dans La statistique de l’OCDE sur la fibre qui fait peur, le 1 juin 2009

Les balises et le captcha sont standards dans les blogs non ?

Le captcha évite de manière automatisée les “splogs”, les commentaires spams, et ce, avec juste une modération à postériori. De plus, ils sont lisibles et je les ai limités exprès à 3 lettres pour faciliter la chose.

Quant au HTML, il est bien entendu facultatif.

Pour ce qui est de Disqus, je ne suis pas très chaud. Le flux de commentaires sur ce blog ne le justifie pas encore. Et il n’a pas grand chose avec voir avec les captcha et le HTML.

Bref, quel est le besoin précis de ce “quelque chose” ?

En tout cas, j’ai prévu les grands travaux sur ce blog cet été, au mois d’août.

Répondre à ce commentaire

Commentaire 645 dans Appels à projets Web 2.0 et Serious Gaming, le 31 mai 2009

Les dossiers sont étudiés en parallèle par des organisations différentes. Il ne faut pas s’en plaindre car cela augmente les possibilités d’obtenir quelque chose.

De plus, Oséo Innovation propose surtout des avances remboursables, alors que l’appel à projet donnera lieu à des subventions.

Répondre à ce commentaire

Commentaire 644 dans Appels à projets Web 2.0 et Serious Gaming, le 31 mai 2009

@Guillaume : visiblement ce sont deux processus d’aides complémentaires, donc l’un n’empêche pas l’autre.

@karine : le délai est court, mais dans d’autres cas, comme le Concours National de l’entreprise innovante il est bien trop long. Il n’y a pas de complot favorisant les entreprises établies, mais celles qui ont quelque chose à proposer sont évidemment avantagées. Ils ne sont pas plus “informés” que les autres, tout du moins par des canaux obscurs. D’autant plus que NKM communiquait assez largement sur la préparation de son plan de relance numérique et son appel à projet depuis quelques semaines. OK sur le biais techno, travers connu de nos administration et aussi lié aux contraintes européennes. N’oublions pas que l’appel à projet finance de la R&D et de l’expérimentation.

@philippe : il semble qu’il s’agisse bien d’un budget complémentaire récupéré sur celui qui est géré par le Ministère de la Relance de Patrick Devedjian. NKM a du s’appuyer sur une organisation existante pour lancer son appel à projets. La DGCIS était visiblement celle qui était la plus réactive pour le mettre en place. Cela ne pouvait probablement pas être Oséo Innovantion car l’appel à projet n’est pas seulement destiné aux jeunes entreprises innovantes.

Répondre à ce commentaire

Commentaire 643 dans Appels à projets Web 2.0 et Serious Gaming, le 29 mai 2009

Cette réorientation n’est que le renvoi dans le processus standard pour obtenir aides et surtout avances remboursables chez Oséo. Mais ce dernier n’aura pas de budget complémentaire… que je sache.

Mais ces 30m€ sont déjà énormes par rapport aux enveloppes existantes d’Oséo Innovation liées aux projets Internet/Serious Gaming. Il ne faudrait pas commencer à se plaindre !

La grande inconnue sera le nombre de soumissionnaires compte-tenu du délai assez court, d’un mois, pour la remise des dossiers. En fonction du nombre, on peut imaginer que la sélectivité sera plus ou moins forte.

Répondre à ce commentaire

Commentaire 642 dans Appels à projets Web 2.0 et Serious Gaming, le 27 mai 2009

C’était aussi mon impression initiale. Mais ce que cela couvre dans l’optique de l’appel à projets est assez large. Par ailleurs, c’est indéniable que nous avons quelques succès technologiques français dans le domaine des moteurs 3D et des jeux. S’appuyer sur une force existante n’est pas dénué de sens.

La proportion des montants aurait pu cependant être inversée avec 30m€ sur le Web 2.0 qui est très générique et 20m€ sur le serious gaming qui l’est un peu moins. Le data.gov est intégré dans les appels à projets et appels d’offre de la partie web 2.0. Le point clé étant d’organiser l’ouverture des données. NKM souhaite si j’ai bien compris utiliser les appels à projet pour “secouer le cocotier” de l’administration. Il faudra ouvrir des données qui ne le sont pas, et au passage, mettre en place de véritables expositions de ces données sous formes d’API. Il y a effectivement du boulot.

Répondre à ce commentaire

Commentaire 641 dans Netbook sous Windows 7 et Ubuntu, le 25 mai 2009

Mon point de vue est qu’un appareil générique a plus de chances de l’emporter qu’un appareil spécifique si son format, son prix et ses fonctionnalités sont voisins.

Oui, les ebooks ont quelques avantages par rapport aux netbooks/tablettes : surtout le poids et l’autonomie. Mais leur interface est bien primitive. A part Plastic Logic qui n’est qu’à l’état de proto, aucun ne supporte d’interface tactile, qui serait bien plus intuitive ne serait-ce que pour tourner les pages. D’un autre côté, les ebooks imitent trop les livres : noir et blanc, tristounets, mal faits pour les illustrations, impossible d’y présenter des vidéos du fait de la technologie e-ink d’écran à LCD bistables utilisée.

Les écrans des netbooks vont eux aussi s’améliorer avec le temps. Notamment le jour où ils passeront à l’OLED. Et où le format “tablette” sera courant.

Je ne prévois pas quand cela arrivera, mais à mon sens, avant que l’ebook perce réellement. C’est plus une intuition qu’autre chose, donc effectivement, on peut argumenter…

Répondre à ce commentaire

Commentaire 640 dans Netbook sous Windows 7 et Ubuntu, le 18 mai 2009

Ca doit marcher, mais je n’en ai pas ressenti le besoin ! Et on doit tout de même perdre un petit peu en vitesse, d’autant plus que la machine ne dispose que de 1 Go de RAM. En tout cas, cela arrive dans ma todolist…

Répondre à ce commentaire

Commentaire 639 dans Guide des startups – dixième !, le 16 mai 2009

@Boris : je ne sais pas trop. Un lecteur aurait-il la réponse ?

Répondre à ce commentaire

Commentaire 638 dans Financement public et privé de l’innovation, le 14 mai 2009

Merci de cette précision bien utile sur les textes.

Certes il y a une nuance entre recherche appliquée et développement expérimental. Mais dans une startup du numérique (voire ailleurs, mais ce n’est pas mon domaine), ce qui est le plus souvent “expérimental” est le rapprochement entre le produit et son marché et bien plus rarement la création du produit qui ne relève (normalement) pas d’un “développement expérimental” mais d’un processus industriel relativement balisé. C’est particulièrement vrai dans la plupart des projets Internet. C’est le marketing voire le sociétal qui relèvent d’une logique expérimental, pas le développement technique du produit.

Il y a bien maquillage de la création de produit (logiciel notamment) en “développement expérimental” dans les dossiers CIR. Oui, on peut respecter les textes en faisant attention et c’est votre métier d’accompagner les startups dans ce chemin. Mais ces textes sont vraiment mal foutus à la base. Quel baratin ! Ils ont été rédigés par des personnes qui ne comprennent visiblement pas grand chose au fonctionnement des startups et encore moins aux processus de génération d’innovations (au sens… de solutions qui rencontrent leur marché).

Et quand certaines associations professionnelles demandent à ce que la création de produits et les travaux d’industrialisés soient aussi couverts par le CIR, ils reçoivent une réponse négative…

Répondre à ce commentaire

Commentaire 637 dans Guide des startups – dixième !, le 14 mai 2009

Intéressant quoiqu’un peu ancien, ce rapport datant de 2001 et de l’époque où l’ANVAR prenait même des participations dans les sociétés, pratique arrêtée depuis. L’étude repose sur du déclaratif courrier+téléphone des startups interrogées donc la méthodologie est sujette à caution. Si on vous prête de l’argent et que l’on vous demande ensuite si cela vous a aidé, vous répondez généralement positivement…

Que des aides de l’Etat aient aidé ces entreprises à créer leur produit et que l’apport de fonds propres leur ait permis de se développer, cela tombe sous le sens. Surtout si le processus d’obtention n’était pas trop lourd. Et on sait que l’efficacité du dispositif dépend de la qualité des équipes qui le gèrent.

Oui, la France est en “avance” dans la diversité de ses aides à l’innovation. Presque trop tant il y en a. Et le rapport point du doigt le fait qu’à cette époque, il n’y avait pas d’accentuation mise sur la partie commercialisation. Et c’est loin de s’être amélioré depuis dans l’ensemble du dispositif public d’accompagnement de l’innovation. Notamment du fait du CIR qui en fait complètement abstraction et consomme près des deux tiers du budget de l’Etat consacré à l’innovation.

Répondre à ce commentaire

Commentaire 636 dans Financement public et privé de l’innovation, le 8 mai 2009

@Justinthemiddle: le CIR concerne en théorie la recherche fondamentale ou appliquée. Alors qu’en général, les startups high-tech (hors biotech) font surtout de la création de produits, bien en aval de toute forme de recherche. Pour obtenir le CIR, les startups maquillent donc leur création de produits en recherche appliquée. Pas trop difficile dans la formulation, le contraire étant plus délicat.

Alors que la recherche n’aboutit pas par essence et comporte un fort risque, la création de produit présente un risque plus faible, le risque étant plus situé dans la commercialisation et la réponse du marché. La principale recherche effectuée par la startup est celle… de clients.

Répondre à ce commentaire

Commentaire 635 dans Guide des startups – dixième !, le 7 mai 2009

Le point de vue de Zimmern manque certainement de nuance. Je me demande s’il croise souvent des startups, notamment dans le secteur du numérique, s’il connait les notions de financements non dilutifs et de valorisation, etc.

Si on l’écoutait, on laisserait le privé financer (ou pas…) l’innovation et se débattre avec des rendements actuellement nuls du capital risque. La logique du marché ferait donc que le financement de l’innovation serait abandonné car trop risqué, et avec pas assez de retours financiers. Belle perspective, proche de la saignée des docteurs du moyen-âge.

Zimmern pourrait creuser un peu le pourquoi du manque succès de nos startups, du déséquilibre trop fort en faveur des aides publiques à la R&D au détriment du reste qui conditionne encore plus le succès des innovations (ventes, marketing, international, écoute du marché et des besoins clients, expérimentation, etc), du rôle des grands groupes, de la culture d’innovation du pays dans son ensemble.

S’il n’est pas déraisonnable de vouloir augmenter la part du privé dans le financement de l’innovation, il faudrait pour rendre le propos crédible proposer une véritable stratégie progressive pour y arriver…

Il faudrait aussi benchmarquer sérieusement ce que font les autres pays européens. S’il est certain que la France est assez imaginative en dispositifs publics d’aide à l’innovation, je ne serais pas étonné qu’il y en ait aussi beaucoup ailleurs. Et n’oublions pas que l’Europe n’est pas véritablement une référence. Ce n’est pas un bon terrain de jeu pour les startups, notamment dans le numérique. Le marché intérieur est trop fragmenté, malgré l’espace économique européen et l’Euro. La monnaie ne suffit pas à homogénéiser les marchés !

Répondre à ce commentaire

Commentaire 634 dans Guide des startups – dixième !, le 4 mai 2009

@Guillaume : lorsqu’ils sont acquis par un groupe anglo-saxon, les fondateurs quittent souvent le groupe en question au bout d’un an et quelques, soit la durée contractuelle pour bénéficier de l’ensemble de la compensation financière du rachat. Et quand ils sont encore jeunes, pour créer une autre entreprise. Exemple archi-connu : Pierre Chappaz (Kelkoo, Wikio), mais aussi Gilles Babinet (Musiwave, suivie de 3 startups), etc. Il y a aussi des rachats par des groupes français, mais à des valos moins bonnes. Comme notre écosystème local est moins dynamique et international qu’aux USA, l’argent vient de là où il est, c’est tout simple.

“L’argent” de la vente peut rester en France pour créer d’autres emplois … tant que les bénéficiaires ne s’expatrient pas. Autre histoire archi-racontée : Denis Payre, cofondateur de Business Objects, qui s’expatrie en Belgique car il ne peut pas payer l’ISF dont il est redevable à l’époque sur des actions qu’il ne peut pas revendre car bloquées un certain temps. Pour ne pas tomber en faillite personnelle, il s’expatrie, et créé ensuite Kiala, en Belgique…

@Macha : non, je n’ai pas prévu de vendre ce guide. Et l’éditer en papier ne me semble pas approprié car il doit évoluer trop fréquemment. La publication Internet et ouverte reste le meilleur moyen de diffusion. Ce guide comme mes autres publications sur ce blog alimentent indirectement et très bien mon activité de conseil.

Répondre à ce commentaire

Commentaire 633 dans Faut-il avoir si peur de la loi Hadopi ?, le 1 mai 2009

Dans ton article, tu cites les travaux de l’ENST. En indiquant qu’ils portent sur les modèles économiques du piratage, prouvant que celui-ci n’induit pas de manque à gagner pour les contenus.

Mais je ne vois pas de mention d’enquêtes comparatives par pays sur les taux de piratage. L’ENST aurait mené ce genre d’étude, qui relève en général de sondages ou de panels ? Je ne les vois pas équipés pour faire cela, ni Harvard d’ailleurs. As-tu les liens sur ces études pour notre gouverne ?

Et parle-t-on bien de la même chose ? Entre taux de piratage par pays et étude de l’impact de ce piratage, je m’y perd un peu dans ton commentaire.

Répondre à ce commentaire

Commentaire 632 dans Guide des startups – dixième !, le 30 avril 2009

@Fabien : bien sûr qu’il y a aussi des aides aux PME aux US. Avec beaucoup de similitudes et quelques différences :

– Le SBA apporte surtout une fiscalité intéressante pour les investisseurs dont on peut dire que nous avons maintenant à peu près l’équivalent en France.
– Il apporte aussi des garanties de prêts bancaires pour les PME, très voisin de ce que fait Oséo Garantie. A ceci près que les banques ont titrisé ces prêts aux USA. Un peu comme avec les subprimes. Si les PME US allaient très mal, on aurait alors quelques autres Lehman sous le coude…
– La commande publique joue un rôle plus fort dans la R&D que les aides directes à la française. Il est préférable d’avoir des clients que des aides lorsque l’on entreprend ! Mais cette commande est très orientée vers les grands groupes industriels. Il me semble que les grands labos d’université (Stanford & co) en profitent plus que les startups technologiques.
– Dans le numérique, l’écosystème privé fonctionne bien mieux qu’en France car il a généré de nombreux succès mondiaux créateurs de richesse mécaniquement redistritbutive dans l’écosystème hightech alors que la France a plutôt généré des échecs industriels (plan calcul, Bull, Alcatel, Sagem, Thomson).

Mais dans le concert européen, malgré tous ses travers, la France n’a finalement pas trop à rougir. OK, les anglais ont plus de business angels que nous, mais combien de startups y ont réussi à l’échelle mondiale ? Pas tant que cela…

Répondre à ce commentaire

Commentaire 631 dans Faut-il avoir si peur de la loi Hadopi ?, le 30 avril 2009

Cette étude présente peut-être les mêmes biais que celles qui vont dans le sens contraire. Et effectivement, elles devraient être faites dans chaque pays concerné car les comportements des consommateurs varient d’une culture à l’autre. Cela fait des décennies que le phénomène du piratage des contenus et des logiciels est un peu plus marqué en France que dans la moyenne européenne. Et on peut noter que l’étude ne concerne pas le téléchargement de films ou de séries TV.

Ceci étant, tout ceci ne justifie pas pour autant le côté repressif et liberticide d’HADOPI. Le gouvernement a cédé aux lobbies des contenus et n’a pas accepté d’écouter les représentants des consommateurs et même les députés modérés de sa propre majorité. Too bad.

Répondre à ce commentaire

Commentaire 630 dans Guide des startups – dixième !, le 28 avril 2009

Merci Guillaume pour ces corrections. J’ai intégré les deux premières dans une “silent release” qui est à jour sur le site. Pour les évolutions du financement d’Oséo, je ne traite pas du détail faute d’informations fiables sur le sujet.

Le bilan ? Oui, il serait utile. La Cour des Comptes s’en occupe en ce moment parait-il.

Tout intégrer dans Oséo ? Pourquoi pas, mais pas avec la gouvernance actuelle qui fait trop la part belle à la branche “banque” de l’organisme. Et un peu de distribution créé un minimum de “tolérance aux pannes”.

Répondre à ce commentaire

Commentaire 629 dans NKM d’Est en Ouest, le 25 avril 2009

Bonne idée. Je viens d’installer un plug-in WordPress pour répondre à ce besoin. Le preview apparait en dessous du commentaire. C’est OK comme cela ? C’est surtout utile si le commentaire contient un peu de formatage HTML.

Répondre à ce commentaire

Commentaire 628 dans NKM d’Est en Ouest, le 25 avril 2009

Oui, c’est fin mai 2008. Je corrige dans le post…

Répondre à ce commentaire

Commentaire 627 dans Faut-il avoir si peur de la loi Hadopi ?, le 24 avril 2009

Pour nos lecteurs, le point qui pose problème est cet élément de l’amendement, assez sibyllin au demeurant:

« Lorsque l’infraction résulte du contenu d’un message adressé par un internaute à un service de communication au public en ligne et mis par ce service à la disposition du public dans un espace de contributions personnelles identifié comme tel, le directeur ou le co-directeur de publication ne peut pas voir sa responsabilité pénale engagée comme auteur principal s’il est établi qu’il n’avait pas effectivement connaissance du message avant sa mise en ligne ou si, dès le moment où il en a eu connaissance, il a agi promptement pour retirer ce message. »

Il ne change pas la situation des blogs en valeur absolue. Il a juste amélioré à la marge celle de la presse en ligne. Quel est l’impact réel sur la liberté d’expression dans les blogs comme le mien ? Sachant d’ailleurs que cette liberté n’est pas un “fromage” car seuls quelques rares blogs permettent à leur auteur d’en vivre par les revenus publicitaires, marginaux au regard de l’ensemble des revenus publicitaires sur Internet. Et l’avantage économique qui vient d’être ajouté à la presse en ligne est une goutte d’eau par rapport aux aides et subventions diverses qui couvrent déjà la presse et à celles qui sont issues des Etats généraux de la presse (200m€ je crois).

Au vu du détail de la responsabilité du blogueur, je constate en tout cas que la loi n’est déjà pas bien souvent respectée notamment pour les blogs anonymes.

Sinon, dans son interview, Frédéric Filloux ne parle par du tout de liberté d’expression. Son propos est surtout économique.

Bon, et on s’éloigne vraiment d’HADOPI !

Répondre à ce commentaire

Commentaire 626 dans Faut-il avoir si peur de la loi Hadopi ?, le 24 avril 2009

Bien sûr que la liberté d’expression est un droit fondamental !

Sur l’amendement en question, je constate qu’il réduit la responsabilité légale des médias “pros” pour les contributions des lecteurs, mais ne modifie pas celle des autres supports (blogs, etc). Donc, si problème il y a pour les blogs et la liberté d’expression, il me semble qu’il existait déjà avant puisque la situation les concernant n’est pas modifiée du fait de cet amendement. La presse en ligne reste cependant responsable de ce qu’elle écrit. Au même titre que nous tous dans nos blogs. Par exemple, la plainte en diffamation contre Christophe Grébert à Puteaux était reçevable (il a gagné contre la Maire, heureusement), amendement ou pas et même si le nouveau régime de responsabilité des médias en ligne avait été étendu aux blogs.

Et dans tous les cas de figure, il est de la responsabilité légale du média en ligne quelqu’il soit, de modéder son site.

Mais je reconnais que je ne suis pas spécialiste de ce sujet et si tu peux m’éclairer – POSEMENT – je suis preneur.

Répondre à ce commentaire

Commentaire 625 dans Financement public et privé de l’innovation, le 24 avril 2009

100% d’accord. Nos problèmes sont avant tout de nature culturelle.

C’est bien pour cela qu’il faut exporter et se comporter plutôt comme une boite danoise ou israélienne, que de persister à croire que son marché intérieur est suffisamment porteur.

Répondre à ce commentaire

Commentaire 624 dans Faut-il avoir si peur de la loi Hadopi ?, le 24 avril 2009

Museler ? Ils ne vont rien museler du tout avec tout ça !

Tant qu’on y est, c’est la presse qui a comploté pour créer le phénomène Facebook. Depuis que ce machin existe, les gens bloggent moins. Sans parler de Twitter ou plus de deux phrases de suite, c’est péché. Ca fait le jeu de la presse écrite non ?

Principes fondamentaux atteints ? Quand c’est fondamental oui, sinon, je relativise en effet. Mais pour ce qui est de XP, le trait a été plus que fortement grossi à l’époque.

Répondre à ce commentaire

Commentaire 623 dans Faut-il avoir si peur de la loi Hadopi ?, le 24 avril 2009

Of course, il plaisantait. Mais on a tout de même des incompétents notoires dans certains postes ministériels. Donc, rien n’est impossible de ce côté là !

Sur le statut des médias en ligne :
– Quel est le rapport entre la riposte graduée et ce truc ? C’est le lobby de la presse qui cherche à préserver son métier et a se faire subventionner par tous les moyens pour survivre.
– Quel est le lien avec la liberté d’expression ? On dirait surtout une affaire de TVA. Qu’est-ce qui t’empêche de t’exprimer sur un blog du fait de cet amendement ? Il faudrait par contre creuser les aspects de protection juridique, des sources, etc. Est-ce que ce statut sépare les médias des blogs de ce point de vue et quelles en sont les conséquences ?
– Cet amendement est le fait du lobby de la presse. Alors, eux-aussi veulent tuer la démocratie maintenant ?

Je relativise un peu tout cela car j’ai vécu lorsque j’étais chez Microsoft l’atmosphère un peu paranoiaque sur autour de la boite. En 2001, on entendait dire que Windows XP allait menacer les libertés à cause de “Passport”, l’ID que l’on trouve partout (chez Google, Yahoo, Facebook, etc). En 1998, on disait que MS était big brother et un grave danger pour les libertés et – mazette – pour la démocratie. Etc.

Depuis, de l’eau a coulé sous les ponts. Plus de peur que de mal. Même s’il est vrai que MS a du quelque peu bouger en fonction de ces craintes. Et la menace est apparue ailleurs, dans les moteurs de recherche et les réseaux sociaux.

Répondre à ce commentaire

Commentaire 622 dans Faut-il avoir si peur de la loi Hadopi ?, le 24 avril 2009

Tu veux me faire effacer un billet, toi qui lutte vaillamment pour la liberté d’expression sur Internet ? Et en me faisant dire ce que je n’ai ni dit ni écrit ? Sorry, I don’t agree !

Je n’ai pas écrit que j’étais pour HADOPI telle qu’elle était. J’ai souligné ses nombreux défauts (y compris sur la charge de la preuve) et le fait qu’un compromis pouvait la rendre acceptable. Compromis qui n’a pas été trouvé et qui la rend effectivement inacceptable en l’état. J’assume entièrement cette position.

Je ne pense pas que cette loi ait pour objectif de “contrôler l’Internet” notamment sur la liberté d’expression qui n’a rien à voir avec le piratage d’oeuvres audiovisuelles. C’est avec ce genre d’argument extrême que l’on empêche la création d’un compromis. Alors qu’il s’agit de l’éternel débat sur l’équilibre entre la liberté des uns et les droits des autres.

Par contre, si des dispositions légales (type LOPPSI 2) pas forcément liés à HADOPI pouvaient limiter cette liberté d’expression, oui, on aurait raison de crier au loup. De là à mettre Albanel et le Ministère de l’Intérieur dans le même sac, c’est un peu short. Bon, sauf si comme Jean-Michel Planche l’imagine, Albanel remplace Alliot-Marie à la place Beauveau. Ca me semble cependant assez stretch.

Répondre à ce commentaire

Commentaire 621 dans Financement public et privé de l’innovation, le 24 avril 2009

Ca m’amène deux questions :
– Comment éviter ces effets pervers ? Voulez vous que TOUT le financement de l’innovation soit public ?
– Etes vous sûrs que les fonds en question ont de si bons rendements ? Les dernières données que j’avais étaient plutôt moins enthousiasmantes, avec des rendements inférieurs à 3% dans la durée, pour le capital risque français.

Répondre à ce commentaire

Commentaire 620 dans Faut-il avoir si peur de la loi Hadopi ?, le 24 avril 2009

Fabrice, OUI, et NON.

Est-ce que les sociétés qui fabriquent les radars jouent le rôle de gendarme ? Est-ce que les personnes victimes de quelque délinquance que ce soit qui appellent la police ou la justice jouent le rôle de gendarme ? Tant que l’on est dans la constatation de faits et l’information de l’autorité sur ces faits, doit-on considérer qu’il s’agit d’un rôle de gendarme ? Tant que l’on ne se fait pas justice soi-même, et bien non.

Mais OK, le diable est dans les détails et dans l’exécution. Le gouvernement a effectivement saccagé les détails en créant un déséquilibre liberticide des pouvoirs : composition de la HADOPI, charge de la preuve, automatisme des sanctions, absence de réel recours, etc.

Mon point est que tout ceci n’était pas inéluctable. Le gouvernement aurait pu créer un compromis acceptable en respectant un meilleur équilibre et une impartialité, qui devrait guider toute forme de justice. L’Elysée, qui semble le seul à pousser cette loi, n’a pas tenu compte des feedbacks des citoyens. On a eu un dialogue de sourds bien français : positions extrêmes des deux côtés et pas de compromis possible. Too bad. C’est bien là que le gouvernement aurait du nommer un véritable médiateur, rôle qu’Olivennes ne pouvait pas jouer évidement.

Cela rappelle aussi le lien plus étroit que doivent nouer les parlementaires avec les citoyens, les experts, les associations, avant de voter toute loi. Il faut apprendre de ces fiascos pour éviter les suivants ! La construction d’une démocratie est un défi permanent…

Répondre à ce commentaire

Commentaire 619 dans Financement public et privé de l’innovation, le 23 avril 2009

Christophe, d’accord, il y a peu de business angels dans l’absolu, et aussi peu qui ont l’expérience de réussites internationales dans le secteur des TICs.

Olivier, les BA préfèrent en général financer le bizdev des startups. Le financement de l’international est souvent pris en charge par les tours des VCs. Est-ce que les BA sont des investisseurs avisés d’un point de vue business ? S’ils investissent via des fonds, peu importe, c’est de l’argent “transparent”. S’ils investissent en direct, c’est en général pour s’impliquer avec de la valeur ajoutée. En fait, la réduction d’ISF est la même que l’investissement soit fait en direct ou via un fond ISF. C’est seulement dans le cas des FCPI que la réduction d’impôts est plus faible. Pour les acquisitions des groupes étrangers, oui il en a. Une étude montrait récemment que 40% des exits des startups techno françaises étaient réalisées par des groupes étrangers. Mais nuance : comme nos boites ont moins grandi, c’est la techno qui est achetée et pas le marché généré. Donc, avec des valorisations moyennes ou faibles. Et quand les exits sont bonnes, les bénéficiaires quittent souvent la France pour éviter l’ISF et le reste.

Net net : il faut tout faire pour aider les boites à grandir vite et cela passe par de la formation et du financement du bizdev et de l’international. C’est le seul moyen de réamorcer une pompe positive comme aux USA. A ceci près qu’il faut savoir être patient : le process dure environ 10 à 20 ans… :).

Répondre à ce commentaire

Commentaire 618 dans Financement public et privé de l’innovation, le 21 avril 2009

@Fabien : il y a environ 600 sociétés financées par les VC chaque année. Oui, je ne sais pas trop quel est le niveau des prêts bancaires mais il reste relativement marginal dans le schéma et quelque soit son niveau, cela ne modifie pas le propos. 100% OK sur le fait que peu de startups arrivent à obtenir des prêts bancaires significatifs en phase d’amorçage.

@Justinthemiddle: l’intérêt du CIR est très variable selon le secteur d’activité des startups. Il est très élevé dans les biotechs dont le métier est vraiment de faire de la R&D, en sous-traitance des grands labos pharmaceutiques, et sur des cycles assez longs. Et ils recrutent effectivement des chercheurs. Et ces boites n’ont pas des besoins marketing et commerciaux énormes car les clients sont en btob et pas bien nombreux.

Dans le numérique, par contre, je suis très circonspect. Il est plutôt rare de croiser des doctorants ou d’anciens chercheurs dans les startups de ce secteur. On trouve plutôt de jeunes ingénieurs, des cadres qui sortent de grandes entreprise, des serial entrepreneurs, le tout aidés par de jeunes développeurs, parfois même délocalisés (Roumanie, etc). On trouve encore moins de startups qui font de la recherche. La recherche est encore plus risquée que la création et la mise sur le marché d’un nouveau produit ! Ce n’est pas l’objet d’une startup dans ce secteur d’activité. D’où la bidouille généralisée consistant à maquiller de la création de produit en recherche pour obtenir le CIR.

@olivier: oui, je pourrais ajouter 2 à 3 couleurs supplémentaires dans le schéma, mais il deviendrait incompréhensible. Aujourd’hui, la tendance est d’aller vers les avances remboursables et prêts divers. Les aides sont plus rares, et souvent associées à des partenariats croisés grandes entreprises / labos / startups comme dans les pôles de compétitivité ou le Pacte PME.

Sur tes propositions d’abondement, on peut dire qu’elles existent déjà soit sous la forme de l’exo ISF TEPA, soit dans la mécanique Oséo et le concours national qui conditionnent les avances et aides aux fonds propres.

Améliorer le financement privé ? En France, on a testé à peu près toutes les formules. Le schéma montre tous ces accélérateurs du public vers le privé, qui ont un effet, mais sont encore marginaux dans l’ensemble. Il subsiste un point bloquant fondamental : le rendement de ces investissements est mauvais ! Le capital risque en France rapporte moins que des bons du trésor dans la durée ! La loi TEPA-ISF est intéressante, mais c’est un cautère (baisse d’impôt) sur une jambe de bois (l’ISF) unique au monde. Comme le fou qui s’arrête de se taper sur la tête avec un marteau en se disant “qu’est-ce que cela fait du bien”…

Pourquoi le rendement est mauvais : parce que nos startups ne grandissent pas et il n’y a pas suffisamment de grands groupes pour les acquérir (en France). Pour décoller, il faut être meilleur en marketing et à l’international… CQFD ! Le gouvernement se focalise ainsi sur les gazelles, mais je ne suis pas sûr qu’il ne fasse en intégrant ces deux dimensions business.

Répondre à ce commentaire

Commentaire 617 dans Financement public et privé de l’innovation, le 20 avril 2009

La théorie du gouvernement et de la Commission Européenne : il faut financer la R&D car il y a déficience du marché dans amont de l’innovation. Et pas en aval, qui relève du business as usual. Mais je soupçonne que cela soit aussi lié à la culture de notre chère technostructure peu portée sur la réalité du business.

Le CIR permet d’augmenter la part de la R&D dans le PIB en augmentant la proportion du privé dans le mix, un peu faible historiquement en France. Mais cela coute bonbon ! Ce qui est un peu dommage, c’est de voir à quel point ce budget a augmenté alors que ce qui est allé à la restructuration de la recherche publique et à sa revalorisation n’a pas été à la hauteur. D’où le double discours de Valérie Pécresse : regardez comment on a augmenté le budget de la recherche… privée ! Mais avec des règles à la noix, poussant les entreprises à maquiller du développement produit en, au mieux, de la recherche appliquée.

En pratique : l’écosystème de l’innovation et notamment dans le numérique est plutôt déficient sur ce qui ne concerne pas la R&D. Mais est-ce une inefficience de marché pour autant dans la définition admise ? A mon avis, on devrait ne pas trop faire de philo et arroser là où c’est sec… :).

Oui, les incitations fiscales vont dans le bon sens. Mais elles ne représentent pas 50% du financement dans le schéma. C’est la partie gris foncé. En gros, au maximum 500m€. Sachant que la loi TEPA-ISF a aussi orienté des investissements de business angels vers des entreprises “non innovantes”. Surtout dans la mesure où un chef d’entreprise de n’importe quel secteur pouvait en bénéficier en investissant dans la sienne, si je ne me trompe pas.

Un volontaire pour faire le schéma pour les USA et pour trouver les données ? On pourrait y trouver d’autres surprises du même genre (poids de la commande publique, impact de la fiscalité elle aussi avantageuse pour les investisseurs) !

Répondre à ce commentaire

Commentaire 616 dans Moissonner le web avec Outwit, le 15 avril 2009

Plusieurs variantes, dont un service premium pour les entreprises.

Répondre à ce commentaire

Commentaire 615 dans Capital Week 2009 – Les infos, le 12 avril 2009

@Romain ; il y a effectivement beaucoup de non dits dans ces conférences !

@Pierre : c’est le résultat de mes observations d’enseignant dans le supérieur. Je trouve bien plus fréquemment des jeunes qui veulent entreprendre que des jeunes qui veulent intégrer des startups comme salariés. La volonté d’entreprendre est liée à au moins trois facteurs : l’indépendance, la volonté de créer quelque chose en le maitrisant, et un certain appât du gain (très potentiel), le tout au prix d’un peu de risque. Pour un salarié de startup, il n’y a ni l’indépendance, ni toute la créativité, ni le gain. Sauf à devenir partenaire de la société.

Qu’est-ce qu’un jeune ? Dans mon vocable sur l’entrepreneuriat, c’est surtout quelqu’un qui sort de ses études. Il y aussi les jeunes qui ont déjà une expérience professionnelle, même comme salariés. J’ai une autre définition : ce sont les gens qui sont moins âgés que moi (47 ans)… 🙂

@Fred : très bonnes questions, que je vais ajouter dans le Guide. Il n’est pas absurde de prévoir un salaire des dirigeants dans un BP, surtout lorsque ceux-ci n’ont pas d’économies ou de moyens persos. Dans le cas d’anciens cadres aux ASSEDIC (18 mois pour création d’entreprise), on en fait l’économie au début de l’existence de l’entreprise. Il est bon que ce salaire soit raisonnable. Je vois couramment des salaires compris entre 1 et 2 SMIC pour commencer. C’est lorsque l’entreprise commence à faire du chiffre d’affaire et à être break-even que le dirigeant peut envisager de s’augmenter au delà. Souvent, l’arrivée d’un VC permet de s’augmenter un peu avant cette étape, car la société dispose de plus de moyens. Mais c’est à compléter par des recrutements de qualité qui eux aussi devront être payés à un prix de marché.

Se payer avec les dividendes ? A mon avis, très lointain pour les startups qui sont en forte croissance. Les dividendes, c’est pour les PME (ou + grosses entreprises) profitables qui font peu de croissance. Lorsque l’on fait beaucoup de croissance, que l’on doit se développer à l’international, il faut investir pour la financer et cela mord mécaniquement sur des dividendes éventuels dans un compte d’exploitation. Ce d’autant plus que la marge réelle des entreprises est très souvent bien inférieure à ce qui figure dans les business plans à trois ans.

Les dirigeants de startups se payent d’abord en salaire, et ensuite en revendant leur société lors de la “sortie”. Sachant que cette sortie met du temps à se concrétiser, et elle a lieu assez rarement d’un point de vue statistique.

Répondre à ce commentaire

Commentaire 614 dans L’impression 3D en couleur, le 8 avril 2009

A ce stade, ces constructeurs rêvent encore un peu. Ils pensent notamment au domaine du jeu. Mais dans un avenir assez lointain. C’est plus de la prospective que de la planification marketing !

Clayton Christensen est un prof de Harvard considéré comme l’un des auteurs majeurs sur la description des cycles de l’innovation, et notamment des innovations disruptives. Dans ses différents ouvrages, et notamment “Seeing what’s next”, il décrit une typologie courante d’innovation : les offres moins chères et plus simples que les offres dominantes du moment. Ces offres peuvent créer des ruptures de marché fortes, qui au passage élargissent l’usage d’un produit. C’est un peu ce qui se passe en ce moment avec les netbooks.

Répondre à ce commentaire

Commentaire 613 dans L’impression 3D en couleur, le 8 avril 2009

Ils souhaitent visiblement élargir le marché du prototypage à un plus grand nombre d’entreprises (PME) et d’établissements d’enseignement supérieur et de recherche. En baissant le prix des engins. Tout en rêvant un peu au marché grand public à long terme.

Christensen dans le livre, Tome 3.

Répondre à ce commentaire

Commentaire 612 dans Faut-il avoir si peur de la loi Hadopi ?, le 8 avril 2009

Un article techno sur les sept derniers et Madame n’est pas contente ? Et bien, j’écris sur ce qui me chante, voilà. On appelle cela la liberté d’expression ! Et mon blog s’appelle “Opinions libres”. Pour les sujets politiques purs, autant aller sur les blogs militants et spécialisés.

Bon sang de bon soir, tout de même… !

Quand à faire venir en aide NKM aux entreprises innovantes, à supposer que j’y arrive, cela prendra du temps. L’influence de la sphère politique – surtout à titre individuel – s’effectue progressivement. Et sur plusieurs intervenants : associations professionnelles, élus, administration, etc. Ce voyage n’était donc pas du tout “pour rien” mais un élément parmi d’autres pouvant aller dans la direction des entreprises innovantes ! Stay tuned !

Répondre à ce commentaire

Commentaire 611 dans L’impression 3D en couleur, le 4 avril 2009

En effet, des entreprises françaises proposent des services exploitant ces différentes machines américaines ou allemandes. Monsieur Faltazi (quel branding !) utilise les machines de 3D Systems évoquées dans l’article.

Répondre à ce commentaire

Commentaire 610 dans Faut-il avoir si peur de la loi Hadopi ?, le 2 avril 2009

Sur le point de la responsabilité, la loi est ambigue : d’un côté, elle demande à ce que la liaison soit sécurisée, de l’autre, elle indique que l’Internaute n’est pas visé par la procédure de coupure Internet si l’accès a été réalisé par une personne qui n’est pas sous votre autorité (sous entendu, parentale). Mais comme c’est difficile à prouver, la charge pèse sur l’Internaute par défaut.

Au passage, sécuriser votre point d’accès Wifi est un basique pour empêcher ou au moins limiter des intrusions sur les ordinateurs de votre propre réseau. Même s’il est connu qu’aucune protection ne résiste aux pirates les plus avertis.

Maintenant, je ne pense pas que le gouvernement aie fait cela pour spécialement favoriser les opérateurs télécoms. Même si la loi va indirectement les avantager à la marge.

Pour les points d’accès gratuits, il y a peut-être une solution technique de filtrage dans les routeurs des protocoles et/ou ports des logiciels de téléchargement peer to peer. Je me demande si ce n’est pas déjà le cas, comme dans les points d’accès Wifi gratuits dans les bibliothèques parisiennes.

Répondre à ce commentaire

Commentaire 609 dans Banc d’essai à jour de lecteurs RSS, le 2 avril 2009

Bonjour Eric,

Mon tableau n’est pas complet et ne pourra jamais l’être tant sont nombreux les lecteurs RSS. Je ne connaissais pas celui-ci mais à vrai dire, il est loin d’intégrer les fonctions de base de mon comparatif. On ne peut pas effacer les flux lus, il n’y a pas de gestion d’arborescence de flux, etc. C’est un lecteur web assez rudimentaire.

Répondre à ce commentaire

Commentaire 608 dans Faut-il avoir si peur de la loi Hadopi ?, le 1 avril 2009

Dans le processus actuel comme dans celui qui serait en vigueur dans la loi HADOPI, ce sont les ayants droits et leurs sous-traitants qui s’inscrivent sur des systèmes de téléchargement en peer to peer pour identifier les utilisateurs qui téléchargent (piratage) et partagent dès facto les oeuvres (contrefaçon). Ils fournissent alors l’adresse IP des utilisateurs identifiés par ces logiciels aux FAI qui doivent fournir en retour à l’HADOPI l’identité du client. L’adresse IP fournie à la box est en général fixe dans le temps. C’est l’adresse de chaque PC qui est variable et est fournie par le serveur DHCP de la box ou bien par le DHCP du routeur/switch que vous lui connectez dessus.

La loi HADOPI va donc systématiser à grande échelle l’identification via l’HADOPI des utilisateurs de peer to peer sur des contenus surveillés par les ayant-droits. Avec les écueils largement cités dans les commentaires de cet article : l’adresse IP de la box correspond à plusieurs utilisateurs du foyer (parents, enfants), si ce n’est hors du foyer si la liaison Wifi est piratée. Et il est très difficile de prouver cela.

Répondre à ce commentaire

Commentaire 607 dans Hystérie économique : ça continue…, le 30 mars 2009

Voici un très bon article de Jean-David Chamboredon sur le “Capitalisme, bouc émissaire” fort à propos. Je crois qu’il vit actuellement aux USA.

http://jdch.blogspot.com/2009/03/le-capitalisme-bouc-emissaire.html

Répondre à ce commentaire

Commentaire 606 dans Hystérie économique : ça continue…, le 29 mars 2009

La hausse de l’immobilier aux USA est effectivement le résultat d’un déplacement non pas de la “spéculation” mais des placements du fait de l’effondrement de la bourse après l’éclatement de la bulle Internet. Tout ça, finalement, c’est de la faute d’Internet et des startups, encore elles. Voilà les vrais coupables ! Il faut les nationaliser ! 🙂

Et puis, la folie qui place l’argent avant l’homme est le fait de l’homme. Combien il-y-a-t-il d’ailleurs de gens qui jouent au Loto et au tiercé dans l’espoir d’en avoir plus ou d’en avoir tout court ?

Bon, et cette explication sur la crise est un peu courte et simplifiée. Il manque d’autres éléments : les hypothèques sur l’immobilier (en hausse) pour financer la consommation desdits ménages qui a accentué l’endettement des ménages, leur faillite par surendettement, la revente des maisons par les prêteurs, la baisse du marché immobilier conséquente qui avec la titrisation des subprimes a entrainé la chute du système financier, le manque de régulation de la finance aux USA pendant les années Bush sachant que l’encouragement à l’emprunt immobilier avait démarré sous Clinton, etc.

Mal conseillés, les consommateurs ont aussi commis l’erreur d’investir et emprunter en tablant sur un marché en perpétuelle hausse. Ce qui est fortement improbable, surtout sur 30 ans.

Au passage, pourquoi est-il si facile pour les Etats d’emprunter pour financer leurs plans de reprise ? Parce que l’immobilier étant à la baisse tout comme la bourse, et que les matières premières se calment du fait de la crise maintenant économique, les investisseurs se tournent vers l’investissement le moins risqué (en apparence) : les emprunts d’Etat. Ce n’est plus de la spéculation Madame, c’est juste un moyen d’éviter de perdre plus. Mais où cela peut-il mener ?

La suite au prochain épisode de la crise… !

Répondre à ce commentaire

Commentaire 605 dans Le numérique dans le plan de reprise – 2, le 28 mars 2009

Guillaume, merci pour ce très intéressant dépiautage du qui finance qui et qui contrôle qui ! On se demande vraiment s’il y a un pilote dans ce navire.

C’est en tout cas clair : que ce soit voulu ou pas, les interventions actuelles de l’Etat se détournent progressivement des startups et c’est une véritable erreur stratégique qui limite la capacité d’innovation du pays. Il ne faudra pas s’étonner si dans 20 ans on a encore les mêmes boites dans le CAC 40 qu’il y a 20 ans ! Le tissu industriel européen et français ne se renouvelle pas assez vite !

Pour ce qui est de l’aval de la R&D et de son financement, on ne peut pas dire que le système bancaire fonctionne à plein. En effet, avoir un produit ne signifie pas que les risques soient réduits. Dans certains secteurs comme le web et le logiciel, la phase aval intervient très vite dans le cycle de financement, avant même l’intervention de business angels dans certains cas. Les aides publiques là où il y a encore beaucoup de risques sont encore les bienvenues. Elles existent d’ailleurs bien chez Oséo mais c’est une véritable usine à gaz.

Une startup web ou logiciel peut développer assez vite son produit et sans R&D forcément très lourde. Par contre, rencontrer son marché nécessite de recruter un commercial, faire du marketing, industrialiser le logiciel ou les opérations Internet.

Notre système de valeur français est ainsi fait qu’il valorise culturellement la technologie (compliquée si possible) mais pas sa commercialisation. Cela se retrouve dans le dispositif des aides publiques qui ne s’explique pas seulement par la logique aval/amont du financement.

Nos élites n’ont pas encore compris ce qu’était une innovation. Ils la confondent toujours avec le progrès scientifique et les inventions. Une innovation, c’est avant tout un progrès technique qui a rencontré son marché et si possible à l’échelle mondiale. Et une innovation est ainsi qualifiable qu’après son succès sur le marché !

Maintenant, qu’il y ait des incohérences dans ce que demande le Comité Richelieu, ou que ce qu’ils aient demandé il y a des années ait été mis en oeuvre (par d’autres) avec plus ou moins de bonheur, c’est normal. Dans l’innovation, il faut aussi savoir expérimenter, tester, et ensuite corriger le tir.

Répondre à ce commentaire

Commentaire 604 dans Le numérique dans le plan de reprise – 2, le 28 mars 2009

Non, c’est la CGPME. Je corrige l’article de suite.

Et je n’aime ni les uns ni les autres. Faudrait se calmer un peu !

Répondre à ce commentaire

Commentaire 603 dans Hystérie économique : ça continue…, le 28 mars 2009

@Pierrot : je ne dis pas que les “salariés en profitent” mais que certains savent bien jouer du système à leur avantage. Je ne rêve pas du tout et j’ai des exemples dans mon entourage pro comme familial sous la main. Cela concerne surtout les cadres qui jouent la montre au lieu de se bouger, de se remettre en cause, de se former, etc. Mon histoire ne correspond pas non plus au cas des anciens remplacés par des jeunes puisque je parlais d’entreprises en déclin !

Aux US, t’as un boulot, t’es payé. T’as pas de boulot, t’es pas payé. En France, c’est l’inverse extrême : tu touches des indemnités de licenciement élevées (il y en a aux US, mais très faibles même pour les cadres), une transaction éventuelle, en plus d’indemnités de chômage et éventuellement de services d’outplacement. Ca se cumule pas mal et chacun sait que cela réduit la fluidité du marché du travail, y compris hors crise. Ce n’est pas pour rien que l’on dit que les ASSEDIC sont le premier business angel de France !

Pour Morin, encore un mélange des genres : ce n’est pas un bonus, c’est une indemnité de licenciement dont la proportion est normale au regard du salaire et de l’ancienneté. Rien ne dit que Morin a fauté dans l’histoire. Ni qu’il est coupable des difficultés actuelles de Valéo qui touchent toute l’industrie automobile. L’article d’Agoravox va dans ce sens.

Morin est président du conseil d’administration de l’INPI ? C’est un rôle non opérationnel, ca ne doit pas être bien payé et il n’y a pas forcément de conflit d’intérêt avec son rôle chez Valéo. Donc, où est le problème ? Oui, le cumul des postes. OK. S’il n’en cumule que deux, c’est un petit joueur dans le cercle des grands patrons français !

Enfin, c’est tout à son honneur, Morin n’est ni énarque, ni polytechnicien, ni issu des grands corps de l’Etat, mais universitaire (Dauphine).

Pour terminer sur la suggestion des capotes, oui, les grands patrons français qui empochent de sacrés pactoles ne savent pas le gérer pour le bien de la société. Ils devraient montrer par l’exemple qu’ils recyclent une partie de leur fortune dans l’innovation, dans l’éducation, etc. C’est ce qui manque beaucoup à la morale du capitalisme français au regard duquel le capitalisme américain fait figure de bien bon enfant.

Répondre à ce commentaire

Commentaire 602 dans Hystérie économique : ça continue…, le 28 mars 2009

En effet, la plupart des entreprises de ce pays bénéficient d’une manière ou d’une autre de l’aide de l’Etat.

Il y a celles qui en profitent au fil de l’eau (exonérations de charges sociales pour les heures supplémentaires, crédit impôt recherche, TVA à taux réduit, stagiaires sans charges, emplois aidés, etc) et celles qui en profitent en plus de manière exceptionnelle.

Pour ce qui est des banques, les aides prennent toutes la forme de prises de participation en recapitalisation ou bien de prêts, qui sont tous remboursables. Lorsque l’économie repartira, l’Etat retrouvera normalement sa mise, et même si cela se trouve, avec un bénéfice. Donc, net net, un bénéfice fiscal au lieu d’une dépense fiscale lorsque calculé sur la durée.

Même dans l’affaire de Thierry Morin de Valéo, je trouve que les médias et les politiques ont été un peu loin. En effet, après 20 ans d’ancienneté, il touche 2 années de salaire (moyenne des trois dernières années) après être viré, et conditionnées par des critères divers. Ce n’est pas loin de ce que n’importe quel cadre obtiendrait s’il était viré dans le cadre d’une transaction et après cette ancienneté. Et dans certains cas, pour les plans sociaux concernant les non-cadres. Avec bien sûr, un salaire de base assez élevé, de 1,6 million d’Euros. Mais sommes toutes, relativement modéré au sein du CAC 40.

La bizarrerie de l’indemnité est toute française et ne concerne pas que les dirigeants : les indemnités de départ pour tous les salariés sont assez élevées chez nous comparativement aux autres pays occidentaux. La raison ? Les prudhommes ! C’est un système qui profite assez aux salariés qui en connaissent maintenant les ressorts. Je connais plein d’exemples où des salariés attendent tranquillement d’être virés avec un pactole car ils savent que leur entreprise va mal. Aux USA, ils seraient partis fissa pour faire autre chose, sans attendre un tel pactole, qui n’existe pas. Ou ils auraient été virés avec une faible indemnité. Au lieu de pourrir dans une boite qui va mal, ils se seraient reconverti et auraient mis un peu plus de passion et d’énergie à travailler dans une autre boite. Je ne dis pas que le système US est merveilleux. Mais en tout cas, il fluidifie le marché du travail et les salariés se remettent plus en cause. En France, tout le monde profite d’un système qui génère des inerties et des chèques de départ bien supérieurs aux indemnités légales de licenciement.

Pour ce qui est de la performance de Thierry Morin pendant ses 8 années à la tête de Valéo : le groupe a en gros stagné en chiffre d’affaire de 2002 jusqu’en 2007 et le CA a baissé en 2008 comme dans toute l’industrie automobile.

A titre de comparaison avec les entreprises du secteur :
– Le CA de Delphi (US) a évolué de $27B (2002) à $18B (2008).
– Celui de Visteon a évolué de $17,6 (2003) à $11B (2007).
– Seul le CA de Bosch dont l’activité automobile représente une grosse part du revenu a augmenté jusqu’en 2007, de 36md€ en 2003 à 46md€ en 2007.

Bref, il est exagéré de dire que Morin a été viré pour incompétence. Il a pas mal transformé sa boite pendant son mandat de dirigeant et y a notamment encouragé l’innovation. Certes, la culture de cette entreprise est assez particulière, mais c’est une autre histoire.

Répondre à ce commentaire

Commentaire 601 dans Hystérie économique : ça continue…, le 27 mars 2009

Est-ce que cela veut dire que dans une entreprise donnée, aidée par l’Etat ou pas, des salariés performants ayant une rémunération variable devraient être pénalisés quand l’entreprise va mal globalement ?

Pourquoi pas. Mais alors, cela devrait se trouver dans le contrat de travail. Et puis, il faudrait comprendre les interactions, business par business, entre les activités et la performance de ces salariés et la non performance de l’entreprise. Si la performance de l’un se fait au dépends de celle des autres, il y a effectivement problème. Si la performance des meilleurs est purement “acrétive”, c’est-à-dire qu’elle s’additionne au reste de la performance de l’entreprise, alors il n’y a pas de raisons qu’elle soit pénalisée.

L’un des moyens de réduire l’effet néfaste du bonus à la performance est de le limiter dans son effet multiplicateur du salaire de base. Par exemple à trois fois le salaire. Ainsi, les bonus énormes liés à des effets de leviers sur la nature du business géré, comme dans le trading, disparaitraient. Comme ceux du commercial qui travaille sur l’un des plus gros clients de son entreprise.

Autre moyen, qui relève encore de l’ingénierie de la rémunération variable, consiste à couper en morceaux cette part variable avec un bout sur la performance personnelle et un autre sur la performance de l’entreprise, avec d’éventuels bouts pour les échelons intermédiaires. Cela permet de renforcer le collectif dans la performance.

Je viens de réaliser que ce tintamarre autour des bonus de Natixis a été généré par la CGT et FO qui mettent de l’huile sur le feu d’une opinion déjà surchauffée. Ils contestent les contrats de travail des traders ce qui est leur droit. Mais ils abusent d’un contexte émotionnel qui ne permet pas un débat serein. Si cela se trouve, ils sont même contre toute rémunération variable par principe. Les mêmes qui la trouvent scandaleuse lorsqu’elle fait son apparition au sein de l’Etat.

Nous sommes en ce moment en plein délire médiatique. Il serait bon de ne pas y céder et de prendre un peu de recul…

Répondre à ce commentaire

Commentaire 600 dans Faut-il avoir si peur de la loi Hadopi ?, le 27 mars 2009

Reconnaitre l’accès Internet comme un droit fondamental est une très bonne chose. Bravo au Parlement Européen.

Pour contourner cela, il suffira au gouvernement français ou aux Assemblées de remplacer la coupure Internet par une amende dans la riposte graduée, comme je l’indique et le suggère. L’article reste donc d’actualité ! Et tout comme on peut se voir retirer son permis de conduire, on pourra perdre son accès Internet mais seulement par décision de justice comme aujourd’hui.

Est-ce que dans ces conditions la loi serait applicable, respectueuse des droits de l’homme et non démagogique ?

Applicable ? Pas beaucoup plus qu’avant car la riposte graduée est lourde à mettre en oeuvre, même sans coupure Internet. C’est une usine à gaz (cf mon schéma).

Respectueuse des droits de l’homme ? Beaucoup plus qu’avec la coupure de l’accès. Mais pas moins que la loi actuelle qui permet déjà aux ayant droits de surveiller les téléchargements peer to peer en étant “peer” eux-mêmes !

Non démagogique : à mon sens, la loi HADOPI n’est pas démagogique car elle s’est attirée les foudres des Internautes et donc du “peuple”. Elle est plutôt qualifiable de partialle – en l’état – car elle favorise les droits fondamentaux des ayant-droits au détriment de ceux des citoyens ordinaires.

Quand au parlement européen, vous dites qu’il croit à la vertu intrinsèque de la loi. Dans le cas présent, il propose surtout de faire évoluer la loi pour l’aligner avec la réalité sociétale de l’usage d’Internet. C’est autre chose ! Disons qu’il vit avec son temps, chose que le gouvernement français a plus de mal à faire.

Si ma position était “nette”, elle ne ferait que répéter ce que l’on trouve déjà sur tous les sites web anti-HADOPI. J’ai préféré adopter une approche un peu plus mesurée. Voila.

Répondre à ce commentaire

Commentaire 599 dans Faut-il avoir si peur de la loi Hadopi ?, le 24 mars 2009

Pour Obispo que vous n’aimez pas : en général, les pirates se focalisent sur les auteurs et oeuvres qu’ils apprécient, sauf peut-être les masos et les collectionneurs impulsifs.

Si ces oeuvres et auteurs disparaissaient, ils ne seraient pas forcément heureux ! Surtout dans la mesure où malgré l’abondance du choix du Internet, il semblerait que les goûts des Internautes se portent tout de même sur les artistes les plus populaires pour la musique et sur les blockbusters pour le cinéma.

Mais bon, malgré le piratage, ils sont toujours bien là, sauf certains artistes qui n’arrivent plus à émerger et utilisent avec plus ou moins de bonheur les moyens alternatifs de promotion “à la Radiohead”. Ce sont à ces artistes que le gouvernement fait peut-être semblant de penser…

Je suis d’accord avec vous sur le besoin d’une procédure contradictoire qui considère que l’Internaute n’est pas coupable par défaut à cause de son adresse IP. Mais vous allez un peu loin dans le raisonnement : L’HADOPI n’est pas “n’importe qui”, c’est une autorité administrative indépendante. C’est comme si vous disiez que la CNIL, qui est construite sur un schéma équivalent dans sa composition, c’est “n’importe qui”…

Sur la coupure de mon blog : par contrat, on m’a enlevé une liberté (d’expression) qui est à mon sens plus fondamentale que la liberté de pirater des contenus. Qu’est-ce qui empêcherait les FAI d’intégrer une clause de coupure de ligne en cas de non respect de cette partie des CGU ?

Sachez pour terminer que je ne cherche pas à avoir raison contre vous, mais à trouver un juste milieu entre un gouvernement autiste et l’opposition radicale contre HADOPI et en général, contre toute forme de limitation du piratage voire même contre l’existence même de la notion de propriété intellectuelle.

La France est un pays où l’on aime bien les positions extrêmes, mais pas le compromis pour aboutir à une solution. Ce débat en est malheureusement une illustration.

Répondre à ce commentaire

Commentaire 598 dans Faut-il avoir si peur de la loi Hadopi ?, le 23 mars 2009

Ne vous réjouissez pas trop ! C’est la France qui semble être bien partie pour jouer ce rôle de rat de laboratoire ! Avec une loi qui créé une autorité administrative qui lève l’objection soulevée par l’article du Monde, autorité qui n’existait pas dans les lois prévues dans les pays cités. L’exception culturelle, quand tu nous tiens…

Répondre à ce commentaire

Commentaire 597 dans Faut-il avoir si peur de la loi Hadopi ?, le 23 mars 2009

Pour Obispo, le mieux n’est-il pas de le pirater et de ne pas l’écouter. C’est d’ailleurs ce que font de nombreux pirates qui accumulent des contenus qu’ils ne peuvent pas avoir le temps matériel d’écouter ou voir. Des collectionneurs impulsifs…

Revenons au sujet. Est-ce qu’une grande partie de vos objections, parfaitement compréhensibles, ne pourraient pas être levées au moins dans les cas généraux par une véritable procédure contradictoire avant la sanction de la coupure de l’accès Internet ? OK, j’ai compris, on peut dire qu’on n’y est pour rien, que l’on n’a rien fait, que c’est le voisin qui a piraté la ligne. Cela arrive parfois. Mais n’est-ce pas rare ? J’ai l’impression qu’au début, la majorité des gens qui se feront coincer seront des utilisateurs de peer to peer. Pas des Internautes dont la liaison a été piratée par le voisin.

Sachant que la loi VA être votée, ne vaudrait-il pas mieux focaliser le lobbying sur cette mesure de la procédure contradictoire ?

En généralisant un peu, on ne peut pas refuser le principe de la justice parce qu’il existe des erreurs judiciaires. Par contre, il faut tout faire pour les minimiser en effet.

Pour la petite histoire, il m’est déjà arrivé de voir mon blog coupé par mon hébergeur. Et là, pas d’HADOPI et pas de justice, une décision unilatérale. Il m’a fallut une semaine pour rétablir le fonctionnement de la base MySQL du blog. Là, c’est une vraie atteinte à la liberté d’expression non ? Et pourtant, elle ne reposait que sur un différent sur le respect ou non de clauses du contrat d’hébergement. Le respect de la PI pourrait très bien en être une des clauses de rupture totale ou partielle de contrats non ? Sans passer par HADOPI…

Quid donc des clauses des contrats que l’on signe avec les FAI sur le respect de la propriété intellectuelle des tiers ? Pour l’instant, ils ne s’engagent évidement pas au grand regret des ayant-droits comme Luc Besson.

Dans les CGU de Free, il y a par exemple la mention :

“En application des dispositions légales, Free, en tant qu’hébergeur, pourra être amenée à suspendre et, le cas échéant, à supprimer la mise à disposition d’un contenu manifestement
illicite”

Les CGU indiquent également :

“l’Usager, par son comportement et par les Données qu’il met à disposition, s’oblige à ne pas porter atteinte aux droits des tiers…”. Et puis, cela continue: “l’Usager s’engage à ne pas utiliser les Services à des fins de piratage, à ne pas télécharger des
fichiers dans des conditions illicites ou mettre à disposition des fichiers protégés (notamment des fichiers musicaux ou vidéos), à ne pas procéder à des intrusions dans des systèmes informatisés ou « hacking », à ne pas propager de virus, ou tous programmes destinés à nuire, à ne pas diffuser de courriers électroniques dans des conditions illicites (par exemple spamming et e.bombing).”

Et puis, sur la sanction éventuelle :

“Il est rappelé qu’en vertu de la législation en vigueur, Free n’est pas soumis à une obligation générale de surveiller les Données, ni à une obligation générale de rechercher des faits ou des circonstances révélant des activités illicites. Toutefois, en application de la réglementation en vigueur, l’Usager étant pleinement responsable des Données, Free peut être amenée à lui transmettre toute plainte le concernant dans le cadre de l’utilisation des Services, et à communiquer les éléments d’identification dudit Usager sur réquisition de l’autorité judiciaire et/ou administrative”.

Je n’ai pas la patience d’aller consulter celles de Orange / LiveBox. Sont-ils plus restrictifs ?

Répondre à ce commentaire

Commentaire 596 dans Faut-il avoir si peur de la loi Hadopi ?, le 23 mars 2009

@NM :

D’après ce que j’ai compris, la non sécurisation de la ligne était déjà considérée comme une faute de l’Internaute avant la loi HADOPI. On pouvait se faire attaquer en justice par un ayant-droit si le piratage était le résultat d’une intrusion dans son réseau. A charge pour la personne concernée de prouver que ce n’était pas le cas, le tout en justice ou dans le cadre de l’enquête préliminaire (qui intégrait une perquisition et tout le tralala).

Par ailleurs, l’article 6 de la loi qui fait litige prévoit tout de même le cas où la ligne de l’Internaute a été piratée à son insu :

“La responsabilité du titulaire de l’accès ne pourra pas être retenue dans les cas suivants : …2) Si l’atteinte visée au premier alinéa est le fait d’une personne qui a frauduleusement utilisé l’accès au service de communication au public en ligne, à moins que cette personne soit placée sous l’autorité ou la surveillance du titulaire de l’accès”.

Avec c’est certain plusieurs écueils : la procédure contradictoire avant la coupure de la ligne, qui n’est pas claire du tout, voire inexistante dans le texte de loi. Et les mesures techniques difficiles à prendre pour éviter non pas une “personne” mais un logiciel virus ou équivalent.

Sur votre commentaire 18, ma remarque était un commentaire par rapport à des commentaires précédents ! Et oui, il y a des virus, bien entendu et tout un tas de choses sur Internet. Mais quelle est la proportion des gens qui téléchargent d’eux-mêmes sur leur PC et de ceux qui le font à leur insu via des logiciels virus qui exécutent du code peer to peer ? Quel serait le poids des téléchargements d’Internautes piratant un point d’accès Wifi de particulier vs un piratage via virus ?

Pourquoi évoquer Pascal Obispo alors que le piratage concerne tous les contenus cinématographiques et musicaux ?

D’ailleurs, cette loi qui est présentée pour sauvegarder l’exception culturelle française ne sauvegardera d’ailleurs pas du tout cette exception culturelle. Je ne serai pas étonné que le piratage de films concerne avant tout la production hollywoodienne. Cela rappelle la lutte contre le piratage des logiciels que vous évoquez, et qui arrange “en masse” plus les éditeurs américains que les éditeurs français, sauf peut-être dans le cas des jeux.

Répondre à ce commentaire

Commentaire 595 dans Faut-il avoir si peur de la loi Hadopi ?, le 22 mars 2009

Pour le vote à l’Assemblée, comme très peu de députés sont présents à ces débats, les votes des amendements se font en bloc par parti. Existe-t-il un moyen de connaitre le nombre exact de députés présents à chaque séance et débat ? Il y en avait au maximum 106 à la séance du 11 mars dernier. Sachant que de nombreux députés votent par procuration.

Sur les méthodes d’identification des pirates, vous avez l’air de dire que seuls les usagers de logiciels de téléchargement peer to peer sont concernés. Est-ce sûr ? Quels sont les seuils de tolérance car ils ne pourront pas envoyer un avertissement à des millions d’utilisateurs tout de même ?

Suite à vos remarques, j’ai en tout cas modifié mon article pour intégrer un point à deux reprises sur le recours de l’Internaute avant la sanction de la coupure d’accès Internet.

Savez-vous sinon ce qui se passe aux USA et au Royaume-Uni, qui semblent avoir mis en place une mesure équivalente, passant directement des ayant-droits aux FAI ?

Répondre à ce commentaire

Commentaire 594 dans Faut-il avoir si peur de la loi Hadopi ?, le 22 mars 2009

Vous en connaissez des pirates “particuliers” qui ont fait de la prison ? Les plus fortes amendes se chiffrent en milliers d’Euros à ce jour. Ce qui est déjà très élevé comme dissuasion.

L’esprit du législateur semble être d’éviter les procédures judiciaires. C’est en ce sens qu’il y a une forme de dépénalisation. Mais cette dépénalisation ne sera au mieux que de fait et pas de par la loi, vous avez raison de le souligner tous.

Pour ce qui est des députés, il s’agit bien des députés UMP. En effet, comment fonctionnent les votes d’amendements ? Avec une quinzaine de députés dans l’hémicycle qui représentent leur parti et les commissions de l’Assemblée. Le gouvernement donne son avis, les commissions donnent leur avis, puis il y a vote. Au PS, c’est Patrick Bloche et Christian Paul qui sont le plus souvent présents dans ces débats. Si vous voulez qu’un amendement passe à coup sur, il faut avoir l’UMP dans sa poche puisqu’ils ont la majorité à l’Assemblée, comme au Sénat.

Pour ce qui est des délais dans la procédure de la riposte graduée, la loi est assez floue. Cf :

“En cas de renouvellement, dans un délai de six mois à compter de l’envoi de la recommandation visée au premier alinéa, …” blablabla envoi du second avertissement.

Ca mériterait d’être clarifié par le législateur !

Pour ce qui est du recours, il y a effectivement incohérence entre le texte de la loi :

“Le bien-fondé des recommandations adressées en vertu du présent article ne peut être contesté qu’à l’appui d’un recours dirigé contre une décision de sanction prononcée en application de l’article L. 331-25. ”

et la littérature du Ministère de la Culture qui évoque la procédure de contradiction.

Au passage, je découvre l’article Art. L. 331-28. qui oblige l’Internaute à continuer de payer son fournisseur d’accès pendant la période où celui-ci est bloqué du fait d’une sanction HADOPI. Inique !

Pour ce qui est des listes noires ou blanches de sites, elles devraient surtout concerner les sites de téléchargement de médias. Les moyens d’expression libres – et notamment politiques – comme les blogs, les wikis, forums et autres sites web n’ont pas besoin de passer par ces sites de téléchargement pour fonctionner !

Sinon, est-ce que vous savez quels outils emploient les agents qui travaillent pour les ayant-droits, pour détecter les pirates ?

J’ai en tout cas modifié le schéma sur le processus de la riposte graduée en fonction de vos commentaires. Merci pour ces mises au point.

Répondre à ce commentaire

Commentaire 593 dans Faut-il avoir si peur de la loi Hadopi ?, le 22 mars 2009

Si je comprends bien, des Internautes sont prêts à faire porter un risque à d’autres Internautes moins bidouilleurs qu’eux ?

Bel esprit citoyen et étonnant sens des responsabilités ! Tout ça pour télécharger le dernier épisode d’une série TV ou je ne sais quel film qui vient tout juste de sortir en salle, qui, c’est vrai, est absolument vital pour exercer ses libertés fondamentales !

La solution donc : pas de Wifi et que de l’Ethernet…? :). Et puis, au juste, le Wifi n’est-il pas aussi dangereux pour la santé ?

Est-ce que vous pensez que des offres légales et pas chères vont réellement réduire le piratage ?

Répondre à ce commentaire

Commentaire 592 dans Faut-il avoir si peur de la loi Hadopi ?, le 21 mars 2009

@Jean : oui, c’est vrai. Mais surtout face à des bidouilleurs qui connaissent les outils permettant de casser ces protections. Mais pour la moyenne des utilisateurs, cela suffit. A noter que toutes les et routeurs Wifi anciens ne supportent pas le WPA !

Répondre à ce commentaire

Commentaire 591 dans Faut-il avoir si peur de la loi Hadopi ?, le 21 mars 2009

@Guyome : je suis toujours étonné… par ces théories du complot auxquelles je fais allusion et qui circulent dans pas mal de commentaires. Comme quoi Sarkozy chercherait à contrôler la liberté sur Internet car sa politique n’y est pas populaire, histoire de préparer sa réélection en 2012. Les théories du complot consistent aussi à penser que les créateurs de ces lois ont des visées liberticides alors qu’ils gèrent un équilibre délicat entre les droits des auteurs et ceux des Internautes. Certes, comme je l’indique dans mon post, en favorisant trop les auteurs et ayant-droits.

Sinon, où est cette mention d’un logiciel “phone to home” dans la loi ? Le FAI sait déjà tout ce que l’on fait, à quoi on accède et quels protocoles on utilise !

@Aurélien : le délit sur la sécurisation d’un accès existait dès facto dans les procédures judiciaires en piratage et contrefaçon (dans le cas du peer to peer) puisqu’un Internaute pouvait être identifié comme pirate à partir de son adresse IP. Le Ministère de la Culture indique que le projet de loi vise “à détourner les ayants droits et les Internautes de la voie pénale”.

Oui, les dossiers de Quadrature du Net sont bien faits. A ceci près qu’ils ont un travers que j’ai découvert en menant ma propre enquête : des argumentaires qui s’émoussent avec le temps au gré des modifications de la loi. Les remarques de la CNIL ont par exemple été pour la plupart prises en compte dans les révisions du texte. De plus, une partie sera traitée – OU PAS ! – dans les décrets d’application.

Est-ce que le Conseil Constitutionnel sera saisi par le parlement ? Et cassera-t-il certaines dispositions de la loi ? On verra bien. L’aspect juridique et constitutionnel est très complexe. Il est difficile de se prononcer. Mais il semble que les points soulevés par Philippe Aigrain dans son analyse juridique de la loi soient déjà traités par le gouvernement. N’oublions pas aussi que la HADOPI sera constituée de juges !

Il est par contre quasiment certain que cette loi sera votée avant la fin du printemps. Il aurait été utile qu’un plus grand nombre de défauts soient corrigés avant la fin du processus parlementaire. Mais l’approche frontale contre la loi rend difficile la création d’un compromis. En effet, pour faire évoluer les choses, il faudrait convaincre des députés de la majorité de changer le cours des événements, pas ceux de la gauche. Or un député UMP ne va pas s’engager à contre-courant de la loi. Pour bouger les lignes, il vaudrait mieux adopter une approche de lobbying plus “graduelle”. Ca aussi, c’est de la realpolitik.

Répondre à ce commentaire

Commentaire 590 dans Hystérie économique, le 19 mars 2009

@Guillaume & @Fabio : patience, je regarde ce que je pourrais bien écrire au sujet de cette loi HADOPI qui fait tant jaser, et au delà de cette passe d’arme assez émotionnelle entre DailyMotion et NKM. Et j’ai aussi une activité professionnelle qui m’occupe pas mal. Je ne suis pas à temps plein sur mon blog…

@Suzy : n’en ajoutons pas à la théorie du complot ! Ce n’est pas l’intention du pouvoir, ni son intérêt, de vouloir fliquer l’expression sur Internet. Ne confondons pas la lutte contre le piratage et ses moyens contestés et contestables, et la liberté d’expression.

@Gui : pour ce qui est de DailyMotion, je serais curieux de voir où ils en sont côté cash. Je ne serais pas étonné qu’ils n’aient pas beaucoup de cash devant eux, comme un grand nombre de startups aujourd’hui. Ce qui, au delà de la théorie du complot du téléguidage par l’équipe d’Albanel, pourrait aussi expliquer leur énervement. Enervement qui n’a d’ailleurs pas l’air de porter spécifiquement sur la loi HADOPI.

Répondre à ce commentaire

Commentaire 589 dans Hystérie économique, le 19 mars 2009

@Macha : le point de vue de Toppaz n’est pas à prendre à la légère. Il n’est en effet pas isolé. C’est un point de vue partagé par une grande majorité des expatriés français qui développent rapidement un regard assez critique sur la métropole une fois installés qui aux USA ou ailleurs. Ce point de vue est également partagé par ceux des expatriés qui reviennent en France après plusieurs années passées à l’étranger. Tout leur semble alors plus compliqué, plus lourd, plus difficile pour gérer n’importe quel business. Tout en appréciant certains aspects du système français dont ils peuvent alors bénéficier, qui n’existe pas aux USA, notamment au niveau de la protection sociale et de la quasi gratuité de l’enseignement scolaire voire supérieur.

Macha, vous avez un point de vue diamétralement opposé, tendance isolationnisme et “seule la France a tout compris” de la crise, de la mondialisation, et à promouvoir la thèse du “tous pourris dans le libéralisme”. Un point de vue radical qui manque peut-être d’un peu de recul et d’autocritique sur le système français.

On ne vous départagera pas facilement !

Je crains néanmoins que la France n’ait pas tout compris, que collectivement, elle se soit embarquée dans un délire auto justificatif de ses travers (complexité de l’administration nationale et locale, complexité des lois, conservatisme économique, culture sociale très conflictuelle). La mise au ban de toute l’économie libérale sous couvert de dénonciation de la rapacité de quelques uns est un raccourci qui obscurcit le jugement et qui permet de ne pas traiter nos faiblesses structurelles.

Certains voient malgré tout loin et se posent la question de la sortie de crise. Est-ce que tout ce boucan anticapitaliste à la limite de la “pensée unique” va nous préparer à bien sortir de la crise dans la compétition économique actuelle ? Pas évident…

Répondre à ce commentaire

Commentaire 588 dans Hystérie économique, le 18 mars 2009

L’éventuelle fin du bouclier fiscal ne remet pas forcément en cause l’investissement des business angels si l’exonération d’ISF ne disparait pas au passage pour les investissements directs ou indirects (via FCPI…) dans les startups. Il serait même intelligent d’en augmenter le plafond (50K€). Il vaut mieux créer une dépense fiscale utile qui est réinvestie dans l’économie (cette exonération ISF) qu’une dépense fiscale tout court sans contrepartie (le bouclier fiscal).

A court terme, je ne crois pas que le bouclier fiscal ai vraiment changé la donne sur le nombre de business angels en France. Les statistiques de Bercy montrent qu’il n’y a pas eu énormément de retours depuis deux ans. La réversibilité des mesures fiscales explique cela. Les allemands ont résolu le problème en intégrant leur bouclier fiscal dans leur constitution. On n’est pas prêts de le faire.

Je n’ai pas les stats en tête, mais il me semble que la loi TEPA a eu un impact très important sur le nombre et les investissements de business angels. Plusieurs centaines de millions d’Euros investis, ce qui est énorme.

Répondre à ce commentaire

Commentaire 587 dans Retour de Corée et Japon – politiques de l’innovation, le 17 mars 2009

Oui, bien sûr, il faut lui laisser le temps. Mais je reste dubitatif sur le marché visé pour ce type de robot (de petite taille, donc plutôt ludique), même dans le grand public. Le fondateur est effectivement de grande qualité et saura certainement adapter le cours de son entreprise en fonction de ce qu’elle aura appris sur le terrain.

Répondre à ce commentaire

Commentaire 586 dans Retour de Corée et Japon – politiques de l’innovation, le 17 mars 2009

Les commentaires varient selon les sujet. Oséo et les FCPI passionnent les lecteurs entrepreneurs qui s’expriment sans problème. Les sujets plus entreprise passionnent les entreprises… qui s’expriment moins sur les blogs. Ceci explique cela.

Pour la Corée, nuance : je les ai trouvés bien plus ouverts sur les marchés extérieurs que les Japonais. Les Japonais privilégient bien plus leur marché intérieur que les Coréen, du fait de l’échelle (un pays 3 fois plus grand). Les Coréens sont bien moins insulaires. Samsung exporte 80% de sa production ! Ils ont certes un marché intérieur très développé, probablement le plus développé au monde, mais ne s’en servent pas pour rester recroquevillés sur eux-mêmes.

Oui, nous avons Aldebaran dans les robots. Mais cela ne me dit rien qui vaille. Ce robot est sympatique mais ce n’est un “outil de développement” pour développeurs de logiciels pour robots. Avec un marché pour l’instant très limité, concentré dans l’enseignement supérieur et la recherche. On est loin d’un marché de volume, comme d’ailleurs pour les robots japonais. Les robots qui se vendent le mieux sont plutôt des automates aspirateurs (Rumba, Microrobots). Et bien entendu, les robots industriels.

Répondre à ce commentaire

Commentaire 585 dans Alerte : Oséo asphyxie les startups !, le 15 mars 2009

@Suzy (commentaire 69 que je viens de déspammer…) : n’est-ce pas un peu court de considérer que parce que le Crédit Agricole a été affecté par la crise des subprime, tous ses experts sont incompétents ? D’autant plus que cette banque a plutôt bien résisté à la crise et tout de même fait des bénéfices !

Répondre à ce commentaire

Commentaire 584 dans Retour de Corée et Japon – télévision mobile et autres contenus, le 15 mars 2009

Merci pour la correction.

Je viens de valider votre commentaire qui avait été par erreur pris pour un spam par l’antispam de WordPress.

Répondre à ce commentaire

Commentaire 583 dans Faut-il se méfier des FCPI ?, le 14 mars 2009

Fabien, non la France n’a pas tout testé car la France n’a pas toujours diagnostiqué ce qu’elle devait changer. Elle a toujours eu tendance à complexifier au lieu de simplifier. Et elle excelle dans les demi-mesures ou les mesures mal exécutées.

Les clusters ? Oui, testés, mais il y en a bien trop car on a saupoudré l’approche, du fait d’un clientélisme indécrotable.

La régionalisation ? Oui, mais sans simplifier le découpage administratif sur lequel la commission Balladur est bien mal en peine d’y changer quelque chose sérieusement. Et qui se prend évidemment l’opposition des élus locaux de tous bords.

Le retour des grandes fortunes ? Il n’a pas encore eu lieu pour une raison simple : toutes les mesures de la loi TEPA sont réversibles à la prochaine alternance politique. Avec une opposition qui déclare d’ailleurs bien prête à le faire. On ne rentre pas en France pour repartir dans quatre ans…

L’enseignement supérieur ? Ca avance bien doucement.

Etc.

Par contre, je suis d’accord sur le besoin de pousser les grandes fortunes à investir dans les entreprises. Ceci étant il ne faut pas oublier qu’une grande part de ces fortunes sont des parts dans des entreprises !

Et puis, la France a ceci de particulier qu’elle réussi plutôt pas mal d’un point de vue économique malgré tous ses handicaps structurels. C’est ça le miracle français ! Que serait-il si on affinait un peu l’ensemble ?

Répondre à ce commentaire

Commentaire 582 dans Faut-il se méfier des FCPI ?, le 13 mars 2009

Oséo et toutes les aides à l’innovation qu’Hervé dénonce quelque peu sont des cautères sur jambe de bois, et en quelque sorte, le pansement que la puissance publique à trouvé pour colmater une situation dont elle est partiellement responsable.

Première erreur originelle dont le pays n’arrive toujours pas à se débarrasser : l’ISF, qui en plus de 25 ans a fait fuir entre le tiers et la moitié des grandes fortunes du pays (cf http://fr.wikipedia.org/wiki/Expatriation_fiscale). L’ISF a été créé et déployé au moment même où la notion de business angel apparaissait et où l’économie numérique explosait. Triste coincidence ! C’est une des principales raisons de notre déficit de business angels de haut calibre (en capacité d’investissement). Ensuite, il y la faiblesse de notre secteur IT local. Les principaux entrepreneurs en nombre qui ont réussi en France dans la hightech sont des créateurs de SSII. Avec en général, des fortunes plus faibles que celles que les créateurs d’entreprises de technologies (hardware, software et même Internet) ont pu créer dans d’autres pays. Et une expérience qui n’est pas nécessairement en phase avec les besoins en compétences des entreprises de technologie qui doivent croitre rapidement à l’international. De surcroit, rares sont les entreprises françaises du secteur high-tech qui ont mis en place des plans de stock-options pour leurs managers. Aux USA, beaucoup de business angels sont d’anciens cadres de grands groupes et pas seulement des fondateurs d’entreprises. Pour un Sergei Brin, un Larry Ellison ou un Bill Gates, il y a des centaines si ce n’est des milliers d’anciens de leurs entreprises respectives qui sont devenus des business angels. Bien plus rare en France !

Seconde erreur : un système d’aide et une stratégie industrielle qui a toujours favorisé les grandes structures, et de préférence les perdants pour ce qui est de la hightech (Bull étant l’exemple emblématique). Cela continue encore avec les pôles de compétitivité et les missions de l’Agence de l’Innovation Industrielle qui ont été intégrées l’année dernière dans celles d’Oséo Innovation. Le trou démographique des PME qui sévit dans tous les secteurs économiques nous handicape encore plus dans la hightech car c’est une industrie où les économies d’échelle sont plus élevées que dans la moyenne (comme dans la grande distribution ou l’agroalimentaire). L’approche du Small Business Act américain est souvent montrée en exemple. Elle a au moins un mérite : remplacer des aides diverses par des commandes. Aider des entreprises à rencontrer leur marché et à travailler pour de vrais clients (certes, du secteur public, et souvent de la défense) est probablement plus efficace de des subventions ou avances diverses.

Troisième erreur: la fonctionnarisation de la recherche qui a démarré au début des années 80 et dont l’Etat a bien grand mal à se dépêtrer (cf les remous actuels liés à la réforme du statut des enseignants-chercheurs). Ne parlons pas du faible lien organique entre les universités et même les grandes écoles, avec les entreprises privées.

Quatrième erreur: une classe politique professionnalisée qui ne perfuse pas assez avec le privé. Secteur privé qu’elle ne comprend donc pas, comparativement avec la classe politique américaine.

Cinquième facteur, qui n’est pas une erreur en soi, mais un contexte historique, culturel et éducatif pénalisant : la relation au risque, à l’économie, à l’argent.

Sachant qu’une part de tous ces facteurs existent dans le reste de l’Europe, et dans une moindre mesure dans le Royaume Uni (où il y a dix fois plus de business angels qu’en France).

Beaucoup d’oeufs et de poules pour expliquer la situation de l’investissement privé dans notre pays ! Pour en sortir, il faut certainement déployer une stratégie progressive. Tout en évitant les abus de la fameuse “financiarisation de l’économie” tant dénoncée pour de bien bonnes raisons. Mais pour l’instant, on n’en voit pas encore la couleur.

Répondre à ce commentaire

Commentaire 581 dans Retour de Corée et Japon – culture et innovations, le 13 mars 2009

@Alain, c’est un éclairage très intéressant. Il fait plus que compléter mon propos très simplificateur. Je cherchais surtout à créer un contraste dans le peu que j’avais pu observer entre la Corée et le Japon. Une Corée dans l’ensemble plus tournée sur le monde que le Japon.

Le Japon est plein de paradoxes. C’est un pays culturellement, géographiquement, démographiquement et linguistiquement très insulaire. La taille de son marché intérieur renforce ce point. Les entreprises japonaises semblent avoir développé une capacité à absorber le savoir faire externe tout en protégeant le sien. Il semble que ce partage soit un peu à sens unique. Ce qui explique en partie une faiblesse dans la création d’écosystèmes dans leurs stratégies.

Une autre observation : j’ai été très frappé du contraste entre les élites que nous avons rencontrées un soir (issues plutôt de l’université: ancien président de l’université de Tokyo, membre du conseil technologique du premier ministre, etc) et les responsables de deux entreprises (7-i, et Panasonic). Les premiers étaient “internationaux” au sens: maitrise de l’anglais, connaissance du monde, réflexes assez occidentaux (notamment sur la protection de la vie privée et les risques du RFID), j’ai même échangé avec l’un d’entre eux par email et il a un blog (http://www.KiyoshiKurokawa.com) ce qui est moins courant au Japon. Les seconds, assez fermés et très protocolaires. Mais c’est peut-être la même différence que nous aurions en France entre éminences universitaires et patrons de grandes entreprises…

La photo est une étude de cas intéressante. C’est un marché dominé presque sans partage par les entreprises japonaises, Canon, Nikon en tête. Il n’y a que dans le très haut de gamme (Hasselblad, Leica) que d’autres pays (européens) arrivent à sortir du lot. Et dans les compacts, les coréens et évidement et les chinois qui produisent des appareils de commodité. Pourtant, des entreprises comme Canon restent assez fermées dans leur communication. Il n’y a qu’à voir la difficulté qu’ils ont eu à réagir aux défauts découverts dans certains appareils récents. L’autofocus d’un des EOS Mark III, et plus récemment, les points noirs de l’EOS 5D Mark II, qu’ils ont un peu mieux géré. La communication avec leurs communautés d’utilisateurs restent encore très préhistoriques de l’ère du web 2.0.

Répondre à ce commentaire

Commentaire 580 dans Retour de Corée et Japon – culture et innovations, le 13 mars 2009

Bonjour Sylvain,

Merci de rappeler cet élément, en effet. C’est à mon sens un facteur parmi pas mal d’autres. Si tu prends le cas des mobiles, Samsung se distingue aussi des japonais par un design et une meilleure compréhension du rôle du logiciel (en tout cas récemment). Et Samsung a une agressivité commerciale (comme LG) plus efficace que celle des japonais, au moins aux USA. Les coréens parlent l’anglais ce qui n’est pas le cas des japonais, cela aide aussi dans le monde des affaires. J’avais aussi remarqué au CES de Las Vegas une propension des Coréens à faire plus de qualité que les japonais dans leurs présentations presse, dans leur stand et dans leur marketing en général. Ils ont aussi des stratégies de partenariat plus ouvertes et multipolaires que les japonais, trop refermés sur leur marché intérieur.

Les investissements de Samsung dans plusieurs projets en parallèle sont à la fois un moyen de ne pas mettre tous ses oeufs dans un même panier, mais en même temps une source d’inefficacité. Dans les exemples donnés sur les mobiles, il s’agit d’éviter de s’engager sur des composants spécifiques (Broadcom, Qualcomm) car le risque est grand d’avoir des problèmes avec. C’est donc plus un contrôle de l’amont industriel que des variations réelles de design produits. D’ailleurs, les téléphones Samsung se ressemblent tous. Et même chez Nokia qui ne pratique pas le même “hedge your bet exercice”, il y a de quoi s’y perdre dans leur gamme de mobiles. A l’envers, Apple a réussi à conquérir le marché avec seulement deux modèles en deux ans. Comme quoi…

Répondre à ce commentaire

Commentaire 579 dans Faut-il se méfier des FCPI ?, le 12 mars 2009

A mon sens l’incubateur de Lille est un incubateur de la ville de Lille aidé par Microsoft (probablement très symboliquement). Et pas le contraire. Sinon, il y en aurait aussi un à Paris…

Effectivement, évitons les fixations sur Microsoft dont l’impact potentiel sur le transfert de technologies vers les US de nos startups françaises est microscopique. Ce d’autant plus qu’à part les trois acquisitions récentes de petites boites, Microsoft n’a pas de participations dans les startups françaises, une approche qui a été par contre retenue par les trois opérateurs télécoms (FT, Bouygues, SFR).

Répondre à ce commentaire

Commentaire 578 dans Faut-il se méfier des FCPI ?, le 11 mars 2009

Microsoft n’a pas créé d’incubateur à ma connaissance ! Que le groupe ai des ennuis divers, là, oui, certainement. Mais on s’éloigne vraiment des FCPI…

Répondre à ce commentaire

Commentaire 577 dans Faut-il se méfier des FCPI ?, le 11 mars 2009

Je connais Jean-Marie Hulot et sa start-up Fotonauts. J’ai évoqué ce projet dans ce post en septembre dernier au moment de sa présentation au TechCrunch 50 : http://www.oezratty.net/wordpress/2008/lcosystme-des-logiciels-photo-5/. Et il n’est pas sponsorisé par Microsoft. D’ailleurs, Microsoft ne sponsorise par les startups. L’éditeur a bien des programmes d’accompagnement de startups (IDEES et BizSparks) mais il ne s’agit pas de sponsoring.

Répondre à ce commentaire

Commentaire 576 dans Faut-il se méfier des FCPI ?, le 10 mars 2009

Le Comité Richelieu est à l’origine du pacte PME, qui a notamment amené Oséo à créer le programme Passerelle qui permet aux grandes entreprises de faire appel à des startups pour mener des programmes de R&D, avec Crédit Impôt Recherche. Il semblerait que le programme Passerelle ait aussi fait les frais des réorientations récentes d’Oséo (mais non communiquées officiellement).

Bien entendu que tout ne passe pas devant les élus. Mais là, c’est un peu fort de café. C’est une décision administrative qui change en cati-mini la politique d’aide à l’innovation en pénalisant les startups en phase d’amorçage ! Ce n’est pas bénin.

Mais bon, il vaut mieux être café-restaurant pour obtenir gain de cause… !

Répondre à ce commentaire

Commentaire 575 dans Faut-il se méfier des FCPI ?, le 10 mars 2009

Non, je ne le crois pas. L’auteur m’a contacté et c’est quelqu’un de respectable qui n’est pas susceptible d’être ainsi manipulé. En plus, il n’habite pas en région parisienne ! Par contre, les effets induits du bouquin seront peut-être surprenants en effet.

Mais la boucle décrite n’est à mon sens pas liée au désengagement progressif d’Oséo sur les startups. C’est un obscur arbitrage qui n’a pas été mis sur la place publique et qui n’a pas été votée par nos élus (sauf à ce que des élus des Commissions des Finances de l’Assemblée ou du Sénat aient déchiffré le détail de la loi de finance qui est assez opaque sur le sujet).

On attend d’ailleurs toujours des explications officielles d’Oséo sur ces changements. Pour l’instant, on peut dire que leur communication n’est pas très ouverte. Ils n’ont pas réagit non plus à diverses sollicitations comme celles du Comité Richelieu dont j’ai croisé deux représentants récemment.

Répondre à ce commentaire

Commentaire 574 dans Alerte : Oséo asphyxie les startups !, le 10 mars 2009

Ce sujet est traité dans un post récent. Cf http://www.oezratty.net/wordpress/2009/faut-il-se-mfier-des-fcpi/. Et il s’avère que l’un des fonds accusés par les auteurs (pas nominativement, mais on peut en trouver la piste, cf les commentaires du post sur le sujet) s’avère être l’un des deux plus gros investisseurs du second semestre 2008 d’après l’indicateur de Chausson Finances.

Au passage, le rendement du capital risque et des FCPI est assez faible en France en moyenne. Cf cet exemple dans http://www.boursorama.com/investissez/fcpi/cour_catego.phtml. Je crois qu’il était de l’ordre de 4 à 5% ces dernières années. On est loin des fantasmes des 60% et même des 15% des hedge funds (à ne pas confondre avec les fonds de pension anglo-saxons qui vont rarement au delà de 7%/8% – hors période de crise bien entendu).

Répondre à ce commentaire

Commentaire 573 dans Faut-il se méfier des FCPI ?, le 9 mars 2009

Au fait, Airbus a tout de même monté des partenariats avec des constructeurs étrangers pour pouvoir exporter. Notamment en Chine et aux USA. Et les aides européennes auraient fait chou blanc si Airbus s’était contenté du marché européen.

Répondre à ce commentaire

Commentaire 572 dans Faut-il se méfier des FCPI ?, le 9 mars 2009

Bien sûr qu’il y a des entrepreneurs qui cherchent à faire des gains rapides. Mais heureusement qu’il y a aussi des Bernard Liautaud pour créer des Business Objects ou des Pierre Harren pour créer ILOG. Vous direz que c’était le bon temps des années 1990. PLus récemment, il y a eu la création de Soitec (vous connaissez?, une boite qui fait 300m€ de CA principalement à l’exportation, située dans la région de Grenoble). LaCIE ne se porte pas trop mal non plus. Dans le numérique (pas juste dans l’Internet), il y a de la place pour des boites françaises d’envergure internationale ! Sortez de ce défaitisme et de cette vision négative des choses, qui ne nous fera pas avancer bien loin !

Mais je crois que je ne vais pas réussir à vous convaincre à sortir de votre négativisme. Donc, je vais arrêter là.

Répondre à ce commentaire

Commentaire 571 dans Faut-il se méfier des FCPI ?, le 9 mars 2009

@macha : je persiste et signe, il faut d’un point de vue macro-économique que nos PME exportent plus. Et c’est vrai dans les TICs. Libre à vous de préférer le repli sur soi et le protectionnisme. Mais dans un scénario de sortie de crise, c’est le meilleur moyen d’enfoncer le pays. Je sens que nous ne serons pas d’accord sur pas mal de points sur la stratégie économique du pays !

Bien entendu, les startups ne doivent pas grandir plus vite qu’elles ne le peuvent. Certaines peuvent cependant sortir du lot pour devenir internationales: avec une bonne équipe, avec un produit ou un service capable de servir tous les pays (souvent, des technologies d’infrastructure transversales), avec de bons financements, du culot, et de l’aide bien placée. Seuls quelques startups répondent à ces critères. Mais il en faut !

Pour faire un parallèle, pensez-vous qu’il faudrait qu’Airbus ne construise des avions que pour l’Europe ? En fait, on a bien ce cas de figure avec le Rafale, que Dassault Aviation et le pays n’arrivent pas à exporter. Résultat, on le paye cher (dans le budget d’investissement de la défense) et avec nos impôts…

@Fab : oui, on peut être modeste et avancer à petits pas. Mais là encore, cela ne suffit pas d’un point de vue macro-économique. Pour gagner à l’échelle planétaire, il faut aller vite. Et surtout plus vite que les autres. Sans pour autant être trop en avance par rapport au marché. En allant à la vitesse de la 2CV, on ne risque pas de conquérir des marchés mondiaux. Question d’ambitions. On a besoin des deux : d’un vivier de nombreuses petites startups et de quelques unes qui vont bien grandir et devenir des leaders mondiaux. On peut aussi n’élever que du plancton et le revendre aux fermes de poissons. Mais c’est un petit business dans la chaine de valeur !

Répondre à ce commentaire

Commentaire 570 dans Faut-il se méfier des FCPI ?, le 9 mars 2009

Macha, devenir international et s’implanter aux USA ne signifie pas abandonner nos emplois en France, au contraire. Il vaut mieux avoir une boite de 3000 personnes dont un tiers aux USA et un tiers en France dans la R&D qu’une boite française de 50 personnes non ? Car ensuite, cela permet d’exporter et d’améliorer notre balance commerciale et de créer des emplois en volume en France.

Les grands succès français de l’IT sont justement ceux qui se sont implantés rapidement aux USA : Dassault Système a eu Boeing comme client bien avant Airbus, Business Objects s’est implanté dans la Silicon Valley 18 mois après sa création, ILOG a une grosse implantation aux USA, L’Oréal est sérieusement implanté au Japon et a une filiale US (Maybelline), etc. A contrario, Bull a toujours été faible aux USA (et faible dans plein d’autres domaines) en se sentant trop longtemps protégé par le marché français, à défaut d’Européen.

Dans l’IT, il faut avoir des stratégies mondiales car c’est le seul moyen d’obtenir de bonnes économiques d’échelle (surtout dans le logiciel et l’Internet, mais aussi dans les composants), d’influencer le marché, etc. Economies d’échelle veut dire plus grandes marges et capacités d’investissement et de croissance, et aussi d’acquisition de startups, notamment françaises. La chaine alimentaire des startups française est rompue car justement, il n’y a pas assez de groupes français voire européens ayant la taille critique pour acquérir nos startups locales, enrichir quelques créateurs qui deviendraient à leur tour business angels, etc.

Il n’y a aucune fatalité à ce que le leadership français ne s’exerce que dans l’agroalimentaire, l’énergie, l’aérospatial et le luxe ! Le marché à exploiter est dans tous les cas le marché mondial, pas le marché français. Se recroqueviller sur le marché français est la plus grande erreur à commettre d’un point de vue macroéconomique, et c’est malheureusement une erreur courante dans l’IT plus qu’ailleurs. Surtout dans la mesure où notre marché intérieur de l’IT est mou au regard de celui de nombreux autres pays européens (cycles de vente longs, peur du risque, poids du secteur public, délais de paiement, conservatisme des dirigeants, etc). La France ne pèse qu’environ 3% du marché mondial de l’IT !

Donc, si l’argent public aide une boite de l’IT à s’implanter aux USA (cela arrive), cela aide à créer des emplois en France. Sauf si bien sûr, la boite abandonne entièrement le territoire français comme ce fut le cas avec Seesmic qui s’est implanté directement aux USA. Mais dans ce cas, l’Etat n’aide évidemment pas du tout.

Répondre à ce commentaire

Commentaire 569 dans Faut-il se méfier des FCPI ?, le 8 mars 2009

@Macha : Microsoft a en effet la particularité d’avoir été l’une des premières entreprises de technologies à mettre en place un programme d’aide aux startups françaises. Il a heureusement été suivi d’initiatives équivalentes de groupes français tels que Bouygues Telecom et SFR. Mais aussi de l’américain Sun Microsystems. La faiblesse relative des groupes français du secteur s’explique en partie par la faiblesse industrielle du pays dans le secteur des TIC. Seuls les opérateurs télécoms aident vraiment les startups aujourd’hui (FT a été l’un des premiers avec son fonds d’investissement Innovacom). Dans les TIC, une majorité d’acquisitions de startups sont faites par les sociétés étrangères: comme Kelkoo acquis par Yahoo en 2004, ILOG acquis en 2008 par IBM ou Business Objects, acquis par SAP en 2007. Ces deux éditeurs de logiciels étaient dans le TOP 10 français. Comparativement, Microsoft a acquis trois éditeurs français en tout et pour tout, et depuis 2006, et de petite taille (moins de 20 employés pour deux d’entre eux, et moins de 100 pour le troisième). Contrairement aux frayeurs de certains acteurs français, Microsoft n’a donc pas ponctionné la valeur technologique française. Pas même non plus avec son laboratoire de recherche conjoint avec l’INRIA qui partagera les travaux générés.

Comme nos grands acteurs industriels locaux ne sont pas bien en forme (Alcatel, Thomson, Sagem/Safran), l’élément clé de stratégie pour le pays, c’est d’encourager nos startups et PME à devenir rapidement mondiales et à s’établir aux USA (au moins avec un bureau commercial). C’est indispensable pour atteindre la taille critique. C’est donc aussi important – si ce n’est plus – que de soutenir financièrement la R&D qui à mon sens est trop prioritaire en France. C’est le rôle d’Ubifrance et de certaines aides Oséo à l’exportation, et l’objectif des Missions Economiques situées dans les Ambassades de France, qui sont relativement méconnues. On parle aussi de fonds d’investissements souverains, mais la France a du mal à en constituer faute d’excédents budgétaires ou commerciaux.

Mais tout cela n’est pas “républicain” au sens de la démocratie. Ne mélangeons pas les concepts !
C’est du capitalisme et de la concurrence mondiale accompagnés par les états. Cela permet de créer ou protéger des emplois. C’est prosaiquement économique plus que républicain !

Pour ma part, après avoir longtemps travaillé pour une entreprise américaine et y avoir beaucoup appris, je suis content de mettre ce savoir – et ce que j’ai appris après – au service d’entreprise françaises et de les aider à justement se développer aussi rapidement que possible. D’où l’existence de ce blog et des documents que vous pouvez y trouver qui facilitent la veille industrielle (mes rapports de visite du CES de Las Vegas, des comptes rendus d’événements et de voyages) ou l’entrepreneuriat (le guide sur l’accompagnement des startups, des propositions pour le gouvernement dans le domaine).

Répondre à ce commentaire

Commentaire 568 dans Faut-il se méfier des FCPI ?, le 8 mars 2009

@startuper : digressions et nuances…

Sur le premier point, le décalage entre le cycle du VC et celui de l’entrepreneur n’est pas si élevé que cela dans le numérique, et en particulier dans l’Internet où les succès (ou les échecs) se construisent assez vite. Il en va différemment dans des industries plus traditionnelles et même dans la santé où les risques sont plus élevés, et le retour sur investissement beaucoup plus lointain.

Sur votre second point concernant les inventeurs et entrepreneurs, ce qui m’a surpris dans la Silicon Valley, c’est qu’on y trouve des inventeurs-entrepreneurs ou des ingénieurs-entrepreneurs, mais effectivement pas plus d’entrepreneurs qui viennent de business schools qu’en France. La différence culturelle des USA vs la France créé cependant un avantage pour les entrepreneurs US à profil technique: leur éducation leur a donné plus confiance en eux-mêmes, ils savent bien s’exprimer en public, communiquer, et vendre (au sens: promouvoir). Ils ont aussi une meilleure culture économique en général. Donc, d’accord avec vous : il faut mieux former nos ingénieurs, universitaires et chercheurs à ces différentes dimensions: économie, entrepreneuriat, marketing et communication. De nombreuses écoles d’ingénieur ont une filière d’entreprenariat et même un incubateur. Les universités scientifiques ont du chemin à rattraper dans ce domaine.

Sinon, au delà des moyens de financements, les succès américains sont très liés à la taille et au dynamisme de leur marché intérieur (tout du moins, hors crise…). D’où la nécessité pour nos entrepreneurs français d’attaquer rapidement le marché US s’ils veulent réussir à l’échelle mondiale. C’est un mal nécessaire (mal au sens: aller créer des emplois aux US au lieu de les créer tous en France, etc).

Sur le point 3), je pense que les cas relatés dans le livre sont à la fois scandaleux mais extrêmes et rares (grève de la faim…). Surtout dans l’IT.

@Macha : il y a beaucoup de yakafaucon dans vos propositions ou celles de Sabine Herold que vous mentionnez. Bannir les charges sociales ? Mais comment financer alors la protection sociale (plus de 500 milliards d’Euro par an) ? En augmentant les impôts sur le revenu ? La TVA ? La CSG/RDS (ce qui serait neutre pour les revenus salariés, mais pas pour ceux du capital) ? Plus facile à réclamer qu’à faire. Ou alors, bannir les charges juste pour les startups au même titre que les restaurateurs demandent une TVA à 5%. Ca fait assez catégoriel comme revendication. Et puis, pour la R&D, c’est quasiment déjà le cas. Nous avons déjà en France un système où le coût de la R&D est le plus subventionné au monde (en % du coût réel). Par contre, il serait intéressant de creuser des pistes sur les couches défavorisées et les “banlieues”. Il faut, au moins avec quelques exemples, montrer que la puissance publique peut aider de jeunes entrepreneurs issus de ces milieux puissent réussir. Le succès entraine ensuite l’envie et d’autres succès dans une spirale positive. Well, dans un monde bien orchestré…

Répondre à ce commentaire

Commentaire 567 dans Alerte : Oséo asphyxie les startups !, le 7 mars 2009

Ce n’est pas qu’une question de chance !

Mais je ne sais pas quelle est la proportion des projets qui rassemblent 300K€ sans levée de fond.

Un projet candidat sur 7 obtient l’aide du concours national de la recherche (moyenne de 225K€ je crois pour la partie développement, et de 45K€ pour la partie émergence, les projets en incubation).

Chez Scientipôle, plus de 60 projets par an obtiennent des prêts allant de 20K à 60K€, dépendant du nombre de fondateurs demandant ce prêt.

Répondre à ce commentaire

Commentaire 566 dans Alerte : Oséo asphyxie les startups !, le 7 mars 2009

Les prêts d’honneur sont généralement limités à 20K€ par personnes. Dans les associations des Réseaux Entreprendre et de France Initiative (dont Scientipole Initiative où j’officie fait partie), une équipe peut obtenir jusqu’à 60K€ de prêt d’honneur.

Quand Oséo demandait un ratio de 1 pour 1 de fonds propres, l’ensemble des aides cumulées et les fonds propres permettaient de démarrer avec 300K€ pour ceux qui se débrouillaient bien. En plus, certains bénéficient du bonus du concours national de la recherche (250K€, mais aussi conditionnés par les fonds propres, ratio de 1 pour 1). Un bon projet Internet pouvait ainsi se lancer avec 500K€ pour créer le produit et commencer à le “diffuser”.

Embauche d’ingénieur ? Nombre de startups font appel à des stagiaires d’écoles d’ingénieur avec une exonération d’une grande partie des charges sociales.

Autre source de financement bien connue, mais pas adaptée aux jeunes qui sortent de l’enseignement : les Assedic couplées au travail en équipe. Trois anciens cadres aux Assedic, dont au moins un développeur, peuvent démarrer un projet avec peu de moyens (dans l’immatériel) et financés pendant 18 par les Assedic. J’en croise régulièrement !

Répondre à ce commentaire

Commentaire 565 dans Alerte : Oséo asphyxie les startups !, le 7 mars 2009

Très bien vu ! Votre remarque soulève un autre lièvre, celui de la valorisation et du timing de la première levée de fonds.

En général, les business angels ne financent pas les projets “sur papier”. Ils financent des projets où il y a un produit presque prêt à être commercialisé. Or comme vous le dites, l’aide Oséo sert à financer la R&D, donc la création du produit.

En demandant des fonds propres de plus de 500K€, Oséo pousse donc les entrepreneurs à aller au delà de ce qui est raisonnable pour ne pas trop diluer le capital (financements non dilutifs : PCE, prêts d’honneurs, apports personnels, love money).

Si l’entrepreneur qui n’a pas encore de produit doit lever disons 400K€, il devra trop diluer son capital et trop tôt dans le cycle de vie de sa startup.

En l’état, le financement au démarrage de la startup devrait être non dilutif (pas de prise de participation dans le capital), et ne le devenir que lorsque la startup peut commencer à vendre son produit, générer du CA et à avoir une valorisation raisonnable limitant la dilution. Les spécialiste indiquent qu’à chaque tour, et surtout dans les premiers, il faut éviter de diluer son capital à plus de 20%-30%.

La qualité du BP ? Le niveau d’exigence monte en effet, tout le monde le sait. C’en est quasiment fini des plans de startups Internet avec un revenu publicitaire qui démarre à deux ans. Je vois de très nombreux projets btoc qui deviennent des projets btob avec une vente de services (souvent en SaaS) à des intermédiaires (sites web, entreprises). C’est plus rassurant sur le papier, mais n’est pas plus évident à réussir dans la mise en oeuvre car il faut vendre à la mano les projets un par un à des entreprises pas toujours perméables aux innovations, et avec des cycles de décision assez longs. L’exigence numéro un d’un nouveau service ou produit est de créer de la valeur pour les clients et de ne pas relever du “nice to have”. C’est là que le bât blesse en général.

Répondre à ce commentaire

Commentaire 564 dans Faut-il se méfier des FCPI ?, le 7 mars 2009

A noter que cet entrepreneur n’intervient pas du tout dans le secteur du numérique (il s’agit de la santé). Et qu’il est situé dans le pays basque.

Dans son histoire, l’entrepreneur a été en relation avec le VC sans leveur de fond, une pratique courante dans le secteur hightech. Le leveur est un prestataire de service qui joue un rôle d’intermédiaire et de conseil permettant de sécuriser une levée de fonds correcte dans des termes (le pacte d’actionnaire) qui ne lèse pas l’entrepreneur. Il y a probablement d’autres bouts de l’histoire qui manquent puisque l’on n’a pas le son de cloche du fond d’investissement, son qui doit passer dans le cadre d’une procédure judiciaire visiblement encore en cours.

L’histoire est en tout cas pleine de bizarreries à commencer par l’l’inexplicable cession par LBMA, la boite en question, de sa propriété intellectuelle (on suppose que c’est au fond d’investissement). Ce qui est tout bonnement incroyable. Mais s’explique peut-être par la situation de cessation de paiement de LBMA au moment de la levée de fond.

Cela fait penser à la technique de l’accordéon. Cf http://www.agoravox.fr/article.php3?id_article=19929 qui évoque un autre cas, aussi dans le secteur de la santé.

Répondre à ce commentaire

Commentaire 563 dans Transparence sur le revenu des startups, le 7 mars 2009

Je parlais surtout de transparence pour une étude externe du marché des startups, pour mener des analyses macro-économiques, etc.

Bien entendu, un investisseur aura accès aux données économiques d’une startup…

Répondre à ce commentaire

Commentaire 562 dans Faut-il se méfier des FCPI ?, le 7 mars 2009

J’applaudis des deux mains l’évolution vers une plus grande transparence sur les métiers qui ne le sont pas assez.

Si effectivement, vous arrivez à publier – sans risque juridique – des informations précises sur le fonctionnement des FCPI, un classement, etc, vous aurez effectivement accompli une oeuvre de salut public aidant bien les jeunes entrepreneurs.

Ceci étant, il est déjà difficile d’avoir une simple liste des startups en France, même financées par des fonds d’investissement. Alors, l’enquête sur les ratios d’emprise, pourquoi pas. Mais dans ce monde opaque où les sociétés non cotées ne publient presque jamais leurs résultats, la tâche sera plus qu’ardue !

Au USA, c’est plus simple. Cf la CrunchBase, dont l’équivalent reste à créer chez nous.

Au passage, il serait intéressant de comprendre si et comment la crise actuelle modifie les comportements des FCPI “voyoux” que vous dénoncez.

Répondre à ce commentaire

Commentaire 561 dans Faut-il se méfier des FCPI ?, le 6 mars 2009

@Jean : libre à vous de me faire dire ce que je n’ai pas écrit… ! Mais ne me méprenez pas. Je ne mets pas dans le même sac les personnes qui utilisent des procédés malhonnêtes dans les FCPI et ceux qui sont réglos. Bien sûr, certaines pratiques que vous rappelez et qui sont citées dans le livre sont illégales. Mais d’autres qui sont aussi jugées scandaleuses par les entrepreneurs sont justifiées d’un point de vue business et ne sont pas forcément malhonnêtes ou illégales dans leur mise en oeuvre.

Je connais des cas précis de startups qui se sont fait avoir par des FCPIs. Mais aussi des cas où le renvoi du dirigeant était justifié. Et une majorité de cas où la relation s’est bien déroulée.

Supposons qu’il y ait entre 10 et 20 cas extrêmes comme vous le soulignez. C’est à comparer à 600 projets financés par an. Je ne sais pas dire si 3% de malhonnêtes dans une profession est élevé ou pas. Mais cela fait 97% de cas “normaux” tout de même. Tout ceci n’ayant aucune valeur statistique au demeurant, faute d’étude précise. J’espère comme vous que si il y a eu spoliation et violation de la loi, les entrepreneurs lésés obtiendront réparation en justice (ça prendra certainement du temps, malheureusement).

Mais ne transformons donc pas l’existence de personnes malhonnêtes dans ce métier en une condamnation du métier. C’est le risque dans ce genre de dénonciation. Dans tous les métiers, malheureusement, nous avons des gens malhonnêtes. Même dans ceux qui sont censés créer, représenter ou faire appliquer la loi !

Sinon, pour ce qui est de la valeur relative (et pas absolue !) des idées comparée à la capacité d’exécution, je maintiens mon propos basé sur l’observation d’un nombre incalculable de projets. Tout du moins dans l’industrie du numérique. Sans compter le facteur chance et les circonstances qui conditionnent aussi pas mal les succès.

Et sur la forme, s’il vous plait, débattons sans invective !

Répondre à ce commentaire

Commentaire 560 dans Alerte : Oséo asphyxie les startups !, le 6 mars 2009

L’argument du CIR ne tient pas pour moi car c’est une économie fiscale sur une dépense qu’il faut avoir effectué… et donc financée ! A l’exception des projets de recherche commandités par des grands groupes. Projets qui ne sont pas forcément tournés vers de la création et commercialisation de produits et qui pourraient bien transformer les startups en mini-labos ou mini-Altran.

La garantie fonctionnerait bien si les banques jouaient mieux le jeu pour aider les startups. Mais par les temps qui courent, elles ne sont pas moins frileuses qu’elles ne l’étaient déjà avant. Même aux USA et sans crise, les startups ne pouvaient pas faire ainsi confiance aux banques.

Restent les business angels, l’ultime espoir. Ultime espoir fondamental puisqu’ils jouent un rôle clé dans d’autres pays comme les USA ou le Royaume Uni. Mais malgré tous les efforts louables des associations comme France Angels, de ses associations membres, et de l’impact TEPA, le monde des BA est encore sous-dimensionné pour créer le pipe de startups en amorçage.

A mon sens, la position d’Oséo ne tient pas compte de la réalité d’aujourd’hui du financement des startups et du fait que si il est certain qu’elle doit évoluer vers plus de financement privé, cela ne peut pas se faire brutalement, surtout en temps de crise.

Le patron d’Oséo fait du “damage control”. La plupart des boites et organisations en difficulté ont du mal à reconnaitre les erreurs, donc elles les nient pour commencer. Savoir dire “il y a un problème, on le reconnait et voilà comment on va le traiter” n’est pas une posture de communication classique, malheureusement. Mais je n’ai pas encore lu le transcript du chat de Monsieur Drouin.

Ceci étant, je ne suis pas contre un peu plus de sélectivité au niveau d’Oséo dans la labellisation des projets et l’octroi d’aides diverses. Je préfèrerai cela à des demandes délirantes de taux de financement. Ce que les startups qui m’ont contacté demandent, ce sont aussi des règles stables et des délais prévisibles dans leurs relations avec Oséo.

Il faut notamment tenir compte des besoins des jeunes créateurs d’entreprises (parfois brillants) mais qui n’ont pas de fortunes personnelles (familiales) ni de réseau dans l’industrie. Et je ne parle même pas de ceux qui proviendraient de zones difficiles (dites “banlieues”)…

Répondre à ce commentaire

Commentaire 559 dans Alerte : Oséo asphyxie les startups !, le 5 mars 2009

@Pierre Jol : merci pour le pointeur. Le dossier de 01 est assez complet et plutôt bien fait car il brosse un tableau large de la situation. Je n’en tirerai cependant pas des conclusions hâtives du genre “les startups préfèrent le CIR et les garanties de prêts bancaires aux avances remboursables”. Les startups interrogées sont matures et ont dépassé le stade de l’amorçage: Talend vient de lever 12 millions d’Euros (notamment chez Balderton) et en a levé 20 millions au total. Cela arrive à quelques dizaines de boites par an sur des milliers ! Wengo a levé 6m€….

Pour déchiffrer un tel article, il faudrait aussi pouvoir savoir d’où viennent les boites citées. Les contacts sont-ils fournis par Oséo ? Sont-ils des contacts habituels de journalistes ? J’aurais préféré voire interrogées des startups en phase d’amorçage qui sont celles qui ont le plus besoin d’Oséo en ce moment. Je n’en ai pas vu de citées dans l’article ! A part peut-être Open CS. et les boites qui sont en cours d’instruction chez Oséo n’oseront pas témoigner à visage découvert !

En tout cas, on voit bien qu’en sortant le budget issue de l’AII, le budget Oséo Innovation pour l’amorçage a bien baissé. Et les business angels sont loins d’avoir pris le relai, tout du moins dans le secteur du numérique. Et surtout pas dans les ratios de fonds propres maintenant demandés par Oséo. On est passé de 1 à 1 à 1 à 5 voire plus alors que l’effet TEPA n’a pas généré un afflux d’investissements de business angels dans un ratio de 1 à 5 par rapport à la baisse du budget d’Oséo si vous suivez…

Sinon, je suis cité par reprise d’extraits de cet article. Mais les journalistes ne m’ont pas contacté pour approfondir la question.

@Stanislas: oui, startups en phase d’amorçage, profitez-en pour vous exprimer !

Répondre à ce commentaire

Commentaire 558 dans Alerte : Oséo asphyxie les startups !, le 3 mars 2009

@Bonjour bonjour : si le budget est le même qu’en 2007, les modalités d’obtention pour les startups semblent bien révisées. Est-ce logique ? Je serais intéressé et nos lecteurs avec, d’obtenir le budget exact d’Oséo Innovation à périmètre constant (hors AII) sur 2006, 7, 8 et 9. Et si possible par région. Est-ce que ces données sont publiques ou “confidentiel défense” ?

Pour ce qui est des fonds propres qu’une startup techno se devrait d’avoir, c’est plus facile à dire qu’à faire, surtout quand le créateur de l’entreprise est primo-entrepreneur et n’a pas de réseau personnel étendu ! Il y a assez peu de business angels dans ce secteur car il n’y a pas eu beaucoup de réussites et notre fiscalité ISF a fait partir certains des plus gros investisseurs potentiels. Les banques sont plutôt frileuses, avec ou sans crise. Bref, obtenir des fonds propres n’est pas une sinécure, même pour les bons projets.

Est-ce que la typologie des entreprises hightech est “fortement capitalistique” ? Pas sûr. Et par rapport à quoi ? Au contraire, dans l’Internet et le logiciel, on peut démarrer avec des moyens relativement modestes au regard de ce qui est nécessaire dans l’industrie manufacturière, dans la santé et même dans le commerce en général (du fait du besoin de fond de roulement, du coût des usines, etc).

@Energo : vous pourriez élaborer un peu plus ? Que proposez-vous précisément ?

Répondre à ce commentaire

Commentaire 557 dans Retour de Corée et Japon – politiques de l’innovation, le 3 mars 2009

Le sujet mérite un vrai tour d’horizon de ce qui permettra 1) aux startups de traverser la crise et 2) de sortir renforcées et prêtes à grandir, après la crise. Il y a une piste à creuser en plus de tout ce qui concerne la fiscalité et l’encouragement du finanement privé : les achats publics, l’expérimentation publique, tout ce qui peut aider les startups à se créer rapidement des références.

A ce que j’en ai vu, NKM est encore en phase d’apprentissage sur le sujet de l’entrepreneuriat et doit réunir les experts du sujet.

Pour les 29 propositions, elle restent en effet toujours d’actualité même si certaines méritent d’être mises à jour ou modifiées (elles demandent parfois des dispositifs qui existent déjà mais sont méconnus).

Répondre à ce commentaire

Commentaire 556 dans Alerte : Oséo asphyxie les startups !, le 3 mars 2009

Merci beaucoup pour la précision sur la garantie des FCPI. Je n’en connaissai pas bien le mécanisme.

Comme quoi, le risque est sérieusement réduit pour ce qui les concerne. Tant qu’ils en acceptent la règle de partage pour le cas du succès. Sait-on quelle est la part des FCPI qui est ainsi couverte par Oséo ?

Sinon, puisque vous avez l’air d’être chez Oséo, il serait intéressant de vous voir réagir sur le propos de l’article et l’évolution des conditions d’accès aux avances remboursables pour les startups en phase d’amorçage.

Répondre à ce commentaire

Commentaire 555 dans Alerte : Oséo asphyxie les startups !, le 2 mars 2009

@Energo : je suis 100% d’accord, l’ensemble du système des aides publiques en tout genre est bien trop orienté sur la R&D en France, grand pays des Corps de l’Etat et d’ingénieurs (j’en suis un pourtant…). On confond innovation et invention, on oublie qu’au sens exact, une innovation, c’est une solution qui a rencontré son marché. Mais on finance leur création plus que la rencontre en question.

Par contre, il n’est pas exact d’affirmer que “pas un euro nest alloué aux tests commerciaux”. Il existe pas mal d’aides diverses pour l’international, la propriété intellectuelle, et pour faire appel à des services divers. Elles sont surtout régionales (CRITT/ARITT).

Par contre, je serais curieux de comprendre comment fonctionnent les expertises des projets chez Oséo. J’ai entendu dire qu’ils les faisaient de plus en plus en interne, et pas via des experts indépendants.

@startuper : je crois qu’Oséo garanti seulement les prêts bancaires. On appelle cela des prêts “sofarisables”, du nom de la Sofaris, qui a été intégrée dans Oséo au moment de la fusion ANVAR/BDPME. Les investissements en capital des VCs et des Business Angels ne sont pas “sofarisables”. Quand ils perdent leur investissement, ils perdent tout. Pour ce qui est des FCPI, j’ai un doute mais ne pense pas que les investissements dans des FCPI (le véhicule le plus courant pour les VCs avec les FCPR) soient couverts par la garantie de 70%. D’autant plus que les FCPI intègrent des investissements en capital, pas sous forme d’avances ou de prêts en compte courant.

Répondre à ce commentaire

Commentaire 554 dans Retour de Corée et Japon – politiques de l’innovation, le 1 mars 2009

Pas sur cette approche en particulier. Mais elle a prévu de rencontrer à nouveau les bloggeurs qu’elle avait invité la semaine dernière. On pourra faire le point là dessus. De plus, le cabinet de NKM lit régulièrement ce blog, et donc, vos interventions !

Répondre à ce commentaire

Commentaire 553 dans Retour de Corée et Japon – politiques de l’innovation, le 27 février 2009

Bien sûr qu’il y a un aspect PR. Mais contrairement à ce que Besson avait fait en mai 2008, cela pourrait aller au delà.

Oui, elle rencontre déjà des entrepreneurs et c’est évident qu’elle en rencontrera plus. Et une grosse moitié des bloggeurs présents mercredi soir sont aussi des entrepreneurs (comme Richard Menneveux).

N’oublie pas que “bloggeur” n’est pas un métier mais une activité. Et les bloggeurs invités avaient tous une compétence métier qui certes ne vaut pas l’expérience de Chappaz (qui est dans les livres, n’est-il pas…) ou de Simoncini, mais elle se respecte tout de même !

Répondre à ce commentaire

Commentaire 552 dans Retour de Corée et Japon – smart objects, le 26 février 2009

Le business model des cartes de paiement semble assez simple :
– Elles sont mises en place pour leurs besoins propres par les sociétés que nous avons visitées : chemins de fers ou distribution de détail. Pour réduire les coûts d’exploitation et fidéliser les clients.
– Ensuite, l’infrastructure informatique distribuée créée à l’occasion est mutualisée et commercialisée comme un service à d’autres acteurs économiques, avec un modèle proche de celui du groupement Visa : la commission. C’est une variante du SaaS d’Amazon (EC2).

Répondre à ce commentaire

Commentaire 551 dans Retour de Corée et Japon – smart objects, le 25 février 2009

Bon, c’est presque terminé. Je n’en ai plus qu’un seul sous le coude !

Répondre à ce commentaire

Commentaire 550 dans Retour de Corée et Japon – smart objects, le 25 février 2009

Je vous comprend, mais en même temps ne vous force pas à lire. Surtout si cela ne vous intéresse pas ! Les articles longs et en profondeur restent une spécificité de ce blog.

Quand aux commentaires, ils dépendent du sujet et de l’audience des articles. http://www.oezratty.net/wordpress/2009/alerte-oso-asphyxie-les-startups/ a beaucoup de commentaires car les entrepreneurs s’expriment plus facilement que les lecteurs de grandes entreprises. C’est aussi le cas pour les articles un peu polémiques.

Répondre à ce commentaire

Commentaire 549 dans Retour de Corée et Japon – télévision mobile et autres contenus, le 25 février 2009

Je veux dire par là que j’ai compilé dans mon compte rendu de nombreuses informations issues de notes des missions économiques qui n’étaient pas toujours datées. Donc, comme cela bouge tout le temps, ce n’est pas évident d’être à jour.

Francisco Song m’a fourni les données à jour sur le nombre d’abonnés à la TV mobile.

Répondre à ce commentaire

Commentaire 548 dans Retour de Corée et Japon – la délégation, le 23 février 2009

Hervé, il est encore trop tôt pour juger. En trois ans (ou huit ans), il peut s’en passer des choses !

NKM a effectivement beaucoup de potentiel et une opportunité “à la Obama” sous le coude comme tu le soulignes en détail.

Mais aussi :

1) Des étapes à franchir : un corpus politique qui reste à construire (des convictions sur la manière de faire évoluer le pays, un “rêve” à construire), un réseau et une véritable équipe à bâtir

2) Des obstacles : quelques crocodiles à éviter ou museler dans son propre parti.

3) Des éléments de contexte : son origine familiale “très bonne famille”, un mandat local limité (une ville de 22000 habitants), et le bilan du ou des quinquennats Sarkozy. Réussir deux fois de suite le coup de la “rupture” pour un même parti serait une belle performance !

4) Des éléments de posture : un débit de parole à ralentir (le défaut de certains qui pédalent trop vite et ne se mettent pas à la vitesse de leurs interlocuteurs, un pb en politique).

En tout cas, cela serait très intéressant de la voir un jour en face de Ségolène Royal qui paraitrait ainsi quelque peu usée.

Répondre à ce commentaire

Commentaire 547 dans Avec NKM en Corée et au Japon, le 21 février 2009

C’est corrigé Didier !

Répondre à ce commentaire

Commentaire 546 dans Avec NKM en Corée et au Japon, le 21 février 2009

NKM n’avait pas de startup française dans sa délégation. Elle souhaitait avant tout s’imprégner de ce qui fonctionnait dans les deux pays visités. Mais elle a tout de même trouvé l’occasion de créer un lien entre un éditeur de jeu coréen et un éditeur français.

L’agenda n’était pas propice à “caser des startups”. Il faudrait probablement un format différent avec par exemple une manifestation de rencontre entre startups francaises et groupes asiatiques qui aurait un keynote de NKM. Ce qui aurait un sacré coût et ne pourrait pas se monter en un mois (elle a été nommé à son poste mi janvier). Ubifrance fait cela dans certains pays. Ils avaient un village de plusieurs dizaines de startups françaises au MWC de Barcelonne, qui a été visité par NKM lundi dernier avant son départ pour Séoul.

Le maillage des startups francaises avec les groupes internationaux est assez complexe et il n’est pas évident qu’un cabinet comme celui de NKM puisse l’orchestrer. Il devrait s’appuyer sur Ubifrance, qui n’est pas plus au point pour l’instant. Cela nécessite une grande connaissance du marché. Ce que le Président de la République fait en intégrant des chefs d’entreprise dans sa délégation dans les voyages à l’étranger pourrait certainement être réalisable dans un voyage de NKM. C’est une question de moyens qui restent à trouver.

En tout cas, ton idée est intéressante à creuser. Elle fait partie du besoin d’augmenter la priorité qui est affectée au développement international dans les aides aux startups. Et cela ne doit pas être que des aides financières.

Répondre à ce commentaire

Commentaire 545 dans Avec NKM en Corée et au Japon, le 20 février 2009

@Daniel : j’ai entendu parler de la fibre en Corée. On a aussi rencontré l’éditeur de jeux NC Soft en Corée. Pas de rencontre spécifique sur les réseaux sociaux même si le sujet a été évoqué dans certains rendez-vous, comme avec des experts de grands groupes français rencontrés lors d’un déjeuner. Il y avait une focalisation forte sur la télé mobile en Corée mais nous n’avons pas eu l’occasion de creuser les autres usages du mobile, notamment au Japon, ce qui est effectivement dommage, mais on ne peut pas couvrir toute la richesse de l’industrie du numérique en quelques jours.

Pour Christophe et Marc-Antoine, NKM est un très bon sujet pour un photographe. Et j’aime faire des photos plus intimistes lorsque c’est possible (cf mes autres albums publics sur Picasa). Je l’ai trouvée très élégante, et surtout, bien plus élégante que ce que j’avais pu voir d’elle dans les médias français. Elle a aussi et surtout de quoi séduire avec son intellect qui pédale très très vite. Elle a digéré très rapidement les enjeux du numérique après un peu plus d’un mois dans ce poste. Ce qui m’a le plus surpris, c’est de l’entendre parler un langage “business”, de se soucier des modèles économiques, des positions entre acteurs, etc.

Répondre à ce commentaire

Commentaire 544 dans Alerte : Oséo asphyxie les startups !, le 19 février 2009

Le Monde n’a pas tardé à se réveiller puisque l’article d’Annie Kahn est sorti à peine trois jours après le mien !

Pour ce qui est de l’IFRAP, leur point de vue est toujours un peu extrême sur les dépenses de l’Etat.

On pourrait tourner l’argumentaire à l’envers : aider les startups là où le risque est très élevé et où le financement privé est défaillant est peut-être plus utile et censé que de le faire là où le risque est plus faible et où le financement privé fonctionne beaucoup mieux. Dans le financement à fort risque, il y a beaucoup moins de concurrence du privé ! Idem dans la recherche fondamentale.

Les évolutions récentes de la politique d’Oséo Innovation déstabilisent trop rapidement le financement d’amorçage des startups sans que cela corresponde à une politique concertée. Si le gouvernement affichait une véritable politique avec un véritable transfert d’activité du financement d’amorçage aux BAs, on pourrait voir le bout du tunnel. Mais on en est loin. Le relai est bien loin de fonctionner.

Ceci étant, je suis d’accord avec le besoin d’avoir plus de business angels dans les phases d’amorçage comme cela fonctionne aux USA. Et aussi d’avoir un dispositif fiscal qui favoriser encore plus les fonds d’amorçage. Cela fait partie des 29 propositions pour le plan numérique, qui datent de juillet dernier.

Mais l’aflux de business angels ne peut pas intervenir comme cela en peu de temps. Tout d’abord, il n’y a pas suffisamment de succès locaux pour amorcer la pompe (tout du moins dans l’IT). Ensuite, la moitié des fortunes se sont exilées à cause de l’erreur originelle de la création de l’ISF qu’on l’apprécie ou pas. Et si le bouclier fiscal et les exonérations diverses d’ISF ont limité les départs, ils n’ont pas généré de retours significatifs. Pourquoi ? Parce qu’on ne change pas de vie du jour au lendemain, et que la politique fiscale française est tout sauf stable (les allemands on résolu le problème en intégrant le bouclier fiscal dans leur constitution je crois).

Répondre à ce commentaire

Commentaire 543 dans Jusqu’où peut aller la Politique 2.0 ?, le 16 février 2009

C’est elle.

Répondre à ce commentaire

Commentaire 542 dans Alerte : Oséo asphyxie les startups !, le 15 février 2009

Si c’était plus simple… ce serait moins compliqué :). Mais les organisations préfèrent faire plus compliqué pour contrôler leur pré-carré. La relation entre Bercy et la rue Descartes est des plus alambiquées !

Reste à savoir si le processus de sélection du concours est réalisé avec plus de soins que celui d’Oséo, ou le contraire. Chez Oséo, une startup a (ou avait…) je crois plus d’une chance sur deux d’être aidée. Avec le concours, c’est une sur sept.

Et pour répondre à Marc (commentaire 35), la diminution globale des impôts si on supprimait Oséo n’enclencherait pas directement une augmentation du nombre de business angels en France ni à fortiori de VCs. N’oublions pas que le manque de BA en France dans les TIC provient de ce qu’il n’y a pas eu assez de succès chez nous. Et que les plus gros succès ont donné lieu à pas mal d’expatriations du fait de l’ISF. Ce dernier n’est pas prêt de disparaitre. Et le bouclier fiscal comme l’exonération de la loi TEPA pour investissement dans les PME innovantes est une avancée mais il n’est pas à l’abri d’une disparition à la prochaine alternance politique.

Répondre à ce commentaire

Commentaire 541 dans Alerte : Oséo asphyxie les startups !, le 15 février 2009

Bon point. Avec la forêt des aides, il est difficile d’avoir une vision d’ensemble. Cela fait d’ailleurs vivre par mal de sociétés qui conseillent les startups pour leur faire récupérer des aides, valider leur CIR, etc. Et qui se rémunèrent souvent au %. Donc, une perte en ligne des financements. La complexité nourrit la complexité…

Il me semble qu’environ un tiers des aides qui vont aux pôles de compétitivité sont destinées aux PME. Après, combien de startups dans ces PME, il n’y a pas d’indicateur !

Un autre problème est généré par notre système d’aides complexe : la lenteur. Le concours du Ministère de la Recherche est pas mal, mais aligné sur remise de dossier en janvier, annonce des gagnants en juin, et étalement ensuite sur plus d’un an de l’aide en fonction des capitaux propres levés. Le traitement d’un dossier chez Oséo peut prendre plusieurs mois. Chez des BA et VCs aussi d’ailleurs.

Il faudrait apprendre à faire tourner tout cela plus vite! La rapidité d’action est une aussi forte barrière à l’entrée que toute protection de la propriété intellectuelle !

Répondre à ce commentaire

Commentaire 540 dans Alerte : Oséo asphyxie les startups !, le 12 février 2009

Guillaume, nous en saurons plus sur la baisse du budget dans la publication des comptes 2008 détaillés. Visiblement, ils ne sont pas intervenus mardi pendant la conférence de presse d’Oséo. Il faudra attendre encore quelques mois pour disposer des comptes 2008. Et pour 2009, attendre le printemps 2010… :).

Anne, n’est-ce pas un peu rapide de dire que les banques n’aiment pas l’innovation dans le cas de Louis van Proosdij de Fairplay TV ? En effet, il a obtenu son prêt (et son projet est très intéressant, il me l’a présenté il y a quelques semaines). C’est surtout le process qui ne fonctionnait pas bien dans la banque !

Marc-Antoine, il semble que le gouvernement se soit lancé dans la création d’un gros pôle recherche/industrie dans la zone Saclay/Orsay/Palaiseau et cherche à se coordonner avec les parties prenantes pour les infrastructures. Mais cela n’a pas l’air facile effectivement. Et les moyens financiers vont manquer.

Sylvie, les 29 propositions mériteraient certainement une petite réactualisation post-crise. Elles datent de juillet 2008, la préhistoire économique… ! J’y évoquais le besoin de mieux soutenir très en amont les projets de jeunes entrepreneurs. En temps de crise, le curseur entre financement public en amont et privé en aval mérite effectivement d’être déplacé vers l’aval du fait de la défaillance du privé. Dans le cas d’Oséo qui nous occupait initialement dans ce thread, le glissement se produit à l’envers. Ce qui est complètement incompréhensible. Ceci étant, il y a toujours du risque dans un investissement. Et même Oséo cherche à minimiser les risques. Mais les seuls qui prennent véritablement un risque dans l’investissement sont les business angels car ils investissent leur propre argent. En amont, les associations comme Scientipôle où je suis expert et membre du comité de sélection comme Oséo investissent l’argent du contribuable, pas le leur. En aval, les VCs investissent aussi l’argent des autres. Avec certes un intéressement, mais pas de risque en cas l’échec, seulement un “upside” en cas de réussite. Le manque de business angels en France traduit deux phénomènes: une culture du risque plus faible qu’aux USA, et aussi, plus prosaiquement, le fait qu’il y a moins de réussites économiques, tout du moins dans le secteur hightech. Ah, et puis aussi, l’ISF qui a discrètement fait fuir la moitié des vraies grandes fortunes du pays. Pour la loi TEPA, la seule partie qui a généré des investissements est l’exonération d’ISF pour les prises de participation dans des PME innovantes ou dans des FCPI/FCPR. Mais cela ne représente que quelques centaines de millions d’Euros sur 15 milliards. Dans la loi TEPA, c’est la diminution des droits de succession qui me semblait être la mesure la plus contestable et la moins républicaine. L’éviter permettait de dégager 4 milliards d’Euros je crois. En bonne gestion, cela aurait été cela d’économisé dans l’appronfondissement de la dette… Avant qu’on lâche totalement le lest dans les différents plans de relance post-Lehman.

Répondre à ce commentaire

Commentaire 539 dans Alerte : Oséo asphyxie les startups !, le 11 février 2009

@Marc-Antoine : il existe déjà pas mal d’associations qui militent en faveur des startups : Croissance Plus (PME de croissance), l’IE Club (assez orienté web) ou l’AFDEL (pour le logiciel) pour n’en prendre que quelques unes. Mais il est vrai qu’il n’y a pas d’association professionnelle 100% dédiée aux startups. Ce qui s’explique d’ailleurs assez facilement : seules les boites établies peuvent consacrer un peu de ressources bénévoles à ce qui relève du lobbying. D’où des associations où les membres actifs sont souvent issus de boites de taille critique. Sans pour autant que les startups soient exclues. Mais il est clair que les startups se feront toujours moins entendre que les groupes divers qui occupent la rue en ce moment. Pour ce qui est de NKM, j’aurai sans doutes l’occasion de faire passer le message un de ces 4. Stay tuned. Sachant qu’il y a une base de travail : les 29 propositions que j’avais rassemblées pour les assises du numérique avec différentes associations comme l’IE Club, l’Echangeur PME et CyberElles.

@Alex : heureusement qu’il y a des cas positifs et on en trouvera des centaines. Ce qui gêne aujourd’hui, c’est une baisse de régime d’une organisation et d’un processus qui avaient trouvé leur place et qui structuraient le reste de l’écosystème du financement des startups.

@Stanislas : le Figaro écrit tout de même que
Oséo a consacré l’an dernier 800 millions au financement de l’innovation car elle a repris les dossiers de l’ex-Agence pour l’innovation industrielle, lancée par Jacques Chirac quand il était président de la République. «Nous n’avons jamais autant financé l’innovation», se félicite François Drouin, indiquant que plus de 5 000 entreprises innovantes ont été accompagnées. Après ce pic, la somme va redescendre cette année à 500 millions.
. Ne jetons donc pas trop la pierre aux journalistes. Le Fig a eu 24h pour écrire cet article. Il suffit que le journaliste ne soit pas bien branché avec ce secteur pour louper ce qui ne va pas. La journaliste du Monde (Annie Kahn) est tombée sur ce post par le truchement d’une recommandation d’un ami commun et la veille de la conférence de presse d’Oséo (que j’ignorais totalement). Donc, un peu par hasard.

Répondre à ce commentaire

Commentaire 538 dans Alerte : Oséo asphyxie les startups !, le 11 février 2009

J’avais eu la même réaction que vous sur les Echos, mais leur article n’est que la reprise à chaud d’une dépêche de l’AFP qui couvre une conférence de presse d’Oséo. Il ne faut donc pas leur jeter la pierre sur l’analyse, qui pourrait arriver dans le numéro d’aujourd’hui ou plus tard.

Obama et ses 30 milliards ? Attendons un peu pour voir et nuancer. Sachant que si ils existent bien, ils seront orientés vers la création d’infrastructures haut débit. Mais pas pour l’aide aux startups qui ont aussi des difficultés outre-Atlantique. Sachant que le point de départ, c’était 30 milliards de dollars de capital risque et autant d’investissements de business angels injectés dans l’innovation par an. A comparer à environ 2 milliards d’Euros toutes sources de financement confondues pour la France. Plus de 20 fois plus aux USA alors que les ratios économiques devraient être au pire de 1 pour 10 et plus idéalement de 1 pour 5.

Répondre à ce commentaire

Commentaire 537 dans Alerte : Oséo asphyxie les startups !, le 10 février 2009

Sophie, 85% des projets lauréats du concours du Ministère de la Recherche sont issus du supérieur ou de la recherche (je disais que 15% n’en sont pas issus!). On est donc en phase.

Pour les pôles, je suis tout autant circonspect, mais cela semble dépendre des endroits et des secteurs d’activité. Certains pôles comme Cap Digital donnent la part belle aux PME, d’autres sont clairement trustés par les grandes entreprises.

Laurent a sinon raison d’insister : les projets ne sont pas à priori de moindre qualité en région. Mais il ne sont pas pour autant plus mauvais dans les régions à forte densité et un déséquilibre des aides pour des raisons d’aménagement du territoire va finalement les désavantager !

Par contre, quand il s’agit de projets nécessitant un fort écosystème, ils sont peut-être désavantagés. Dixit un copain qui est à Lyon et que cela divisait par deux ses chances de réussite. Résultat : il passe la moitié de son temps en IDF.

La régionalisation des aides pose d’autres problèmes: une multiplication et la redondance des instances et des variations dans les aides qui rendent le système assez incompréhensible.

Sans subventions et aides de l’état, le problème est d’ailleurs voisin aux USA. Les boites de la hightech se concentrent dans la Silicon Valley au grand damne des autres régions. Il n’en reste pas moins que c’est là où les choses se passent. Où les talents se concentrent. Ou le capital risque est disposé à investir (pas loin de ses ouailles). Après, il y a d’autres pôles, comme la santé dans la côté est, la pub, les médias et (feu?) la finance à NYC, ou encore l’automobile à Détroit (enfin, pour ce qui va en rester…). Mais aucun n’est à la hauteur de la SV.

Répondre à ce commentaire

Commentaire 536 dans Alerte : Oséo asphyxie les startups !, le 10 février 2009

Dans le jargon Oséo, il est souvent fait allusion à la vague notion d’innovation alors qu’il n’en est rien pour de nombreuses PME qui sont sur des business traditionnels qui ne se transforment pas énormément. L’innovation sous-entend : “nouveauté mise sur le marché” et si possible forte croissance. Il y a confusion des genres notamment avec le plan de relance qui consiste à soutenir les besoins de fonds de roulement de PME qui sont mises à mal par la crise. Mais ces PME ne sont pas forcément innovantes.

Oséo parle de 5000 entreprises innovantes aidées et c’est par contre assez crédible.

Pour ce qui est du concours national d’aide à la création d’entreprises de technologies innovantes, les données 2008 sont : 170 lauréats sur 1174 dossiers reçus, donc une chance sur 7 de gagner. 15% des lauréats n’étaient pas issues d’un labo ou d’une université. J’en connais au moins 2 dans le tas ! Quand au prix, il s’agit d’une subvention et pas d’un prêt, mais cette subvention est conditionnée comme les avances Oséo par un apport en fonds propres. Et dans un ratio qui n’a pas l’air d’augmenter comme chez Oséo. Il est en général de 1 pour 1.

Ce concours est plutôt une bonne initiative, à ceci près qu’il se pose toujours la question des critères de sélection: scientifiques et/ou perspectives économiques et capacité de l’équipe à délivrer ?

Pour ce qui est de la fusion avec l’AII, il y a beaucoup à redire. J’avais l’année dernière essayé de décortiquer ce qu’il était advenu des subventions du méta-projet Quaero. On y voyait que les grandes entreprises récupéraient 38% des subventions alors qu’elles n’en ont franchement pas besoin (dans le cas de France Télécom qui récupérait 6,5 m€). Ca fait déjà une trentaine de startups avec une avance de 200K€ chacune, sachant que le budget de l’AII était fait de subventions et pas d’avances…

Enfin, les startups peuvent aussi creuser du côté des pôles de compétitivité. Le plus souvent en acceptant de devenir partenaires de grandes entreprises. Et étant localisé dans la bonne région puisque ces pôles sont des couples domaine technique/région.

Répondre à ce commentaire

Commentaire 535 dans Alerte : Oséo asphyxie les startups !, le 10 février 2009

Pourvu que cela dure pour vous…

Car la baisse du budget des avances remboursables d’Oséo pour les startups ne manquera pas d’affecter aussi les régions en 2009.

Cf article du Monde et une dépêche AFP reprise dans Les Echos qui couvre une conférence de presse d’Oséo de ce matin, sans mentionner cette baisse de budget significative.

Il reste à récupérer le tableau avec les budgets 2007, 2008 et 2009 par région pour en avoir le coeur net… ! Pas sûr que cela puisse sortir facilement du siège d’Oséo !

Répondre à ce commentaire

Commentaire 534 dans Alerte : Oséo asphyxie les startups !, le 10 février 2009

Merci pour ce complément précis qui confirme les propos des uns et des autres dans cet article et les commentaires.

Il n’en reste pas moins que si dans le même temps, le budget en question est réduit de 40% (ce qui reste à vérifier), la pénurie est dure à gérer pour Oséo et explique que le propos de mon article ne soit probablement pas qu’anecdotique.

Répondre à ce commentaire

Commentaire 533 dans Alerte : Oséo asphyxie les startups !, le 9 février 2009

Olivier, est-ce qu’il s’agit vraiment des mêmes conseillers ? Je croyais qu’il y en avait qui étaient spécialisés sur les startups (Oséo Innovation) et d’autres qui étaient spécialisés sur les PME (Oséo Financement).

Je suis sinon 100% d’accord sur la nécessité de dynamiser les financements privés. La loi TEPA/ISF a eu du bon de ce côté là, mais ce n’est qu’un petit bout du chemin. Et il faut être réaliste : de nombreux business angels ont pris un gros bouillon avec la baisse de la bourse de plus de 40% pendant 2008. La conséquence directe est simple : leur patrimoine aura baissé d’autant (selon la part de leur patrimoine en valeurs mobilières boursières) et donc, leur ISF va baisser… donc, leur capacité et leur volonté d’investissement. La “moisson” d’investissements avant juin ne sera donc pas aussi bonne qu’en juin 2008. D’autant plus qu’en 2008, le processus d’investissement était quelque peu chaotique si ce n’est amateur et qu’il va probablement se professionnaliser un peu cette année, et être redoublé d’une prudence accrue de la part des investisseurs.

Quand aux VCs, ils sont encore plus frileux qu’ils l’étaient déjà et ont tendance à se focaliser sur les sociétés qu’ils ont déjà en portefeuille.

Les startups vont donc avoir des difficultés à se financer par tous les canaux simultanément. Il n’est pas question de créer une officine de plus (il y en a effectivement assez) mais de faire en sorte que celle qui joue un rôle pivot dans l’écosystème du financement ne se dérobe pas à sa mission centrale au moment où on en a le plus besoin, et du fait d’une baisse de son budget dont le timing me semble plus que contestable.

Après, les startups pourront aussi être créatives, par exemple, en montant des partenariats de R&D avec des grands groupes, qui bénéficient eux, d’aides Oséo spécifiques, via le programme Passerelle.

Répondre à ce commentaire

Commentaire 532 dans Alerte : Oséo asphyxie les startups !, le 8 février 2009

Axel,

Il ne faut pas laisser tomber Oséo pour autant. Ils n’ont pas coupé le robinet, juste ralenti son débit ! Si ton projet est de qualité, il peut très bien passer avec succès leur processus de sélection.

Quand au rationnel de la réduction, c’est à la fois le résultat de contraintes budgétaires (que l’on peut comprendre) et de réallocations vers les gazelles (ce qui est plus discutable).

Philippe, bonne idée pour l’itw. Tu peux par exemple essayer de contacter Laure Reinhart, directrice d’Oséo Innovation. Je l’ai croisée en novembre dernier et c’est elle qui m’avait expliqué la réorientation d’Oséo sur les gazelles, mais on n’avait pas parlé des modalités précises de cette réorientation ! Elle a pris ses fonctions chez Oséo en octobre 2008, en provenance du Ministère de la Recherche.

Olivier

Répondre à ce commentaire

Commentaire 531 dans Alerte : Oséo asphyxie les startups !, le 8 février 2009

Karine,

Merci pour ces compléments qui confirment bien la direction que prend Oséo. La fusion avec la BDPME est effectivement à l’origine des évolutions d’Oséo vers le rôle d’une sorte de banque. Ce qui était l’ANVAR a tendance a être noyé dans la masse et à perdre de son influence.

Ce que je dénonce dans l’article est à la fois l’évolution en tant que telle mais la méthode (ou l’absence de méthode) employée par Oséo Innovation. Oséo communique plutôt peu et de manière peu transparente sur les évolutions de ses offres et des règles du jeu. Tout du moins sur son site web et dans sa communication institutionnelle. Après, avec les chargés d’affaire Oséo, cela dépend évidemment des personnes. Les startups qui m’ont témoigné leur aventure racontaient comment Oséo Innovation a changé les règles du jeu en cours de route pendant le traitement de leur dossier. Ce sont ces changements qui asphyxient les startups encore plus que les nouvelles règles elles-mêmes. Oséo n’échappe visiblement pas à cette malédiction des grandes organisations et du gouvernement qui peinent à communiquer et à faire de la pédagogie.

Pour ce qui est du CIR, effectivement, le gouvernement a mis le paquet dessus. C’était d’ailleurs un des moyens d’afficher une augmentation des budgets de la recherche par Valérie Pécresse en 2007. Mais le CIR a tendance a être plus consommé par les grandes entreprises (en partie, par effet d’aubaine) que par les startups. De plus, les grandes entreprises ne sont pas bien informées de ce qu’elles peuvent faire appel à des startups labellisées Oséo (liste ici) pour sous-traiter des projets de recherche en profitant du CIR. Enfin, le CIR est un remboursement sur une dépense qui a eu lieu. Et sans capacité d’investissement au départ, la startup ne peut pas profiter du CIR ! Donc, le CIR est bien trop « aval » dans le cycle de l’innovation pour avoir du sens pour les startups en phase de démarrage.

Enfin, le CIR comme toutes ces aides présentent l’énorme inconvénient d’être uniquement orientées vers le financement de la R&D. La technostructure française est encore ancrée dans ses convictions selon lesquelles innovation = R&D. Les aides vont donc avec. L’avantage des avances remboursables d’Oséo Innovation, c’est qu’elles étaient moins rigoureuses que le CIR sur l’aspect « recherche ». Oséo n’a pas de ressources pour véritablement contrôler l’usage qui est fait de ses avances alors que c’est le fisc (Services d’Imposition des Entreprises) qui contrôle la bonne application du CIR. Et de manière assez tatillonne.

Au passage, quelle est votre source publique sur la baisse de 40% du budget Oséo ? On parle d’Oséo Innovation ou d’Oséo tout court pour ces 40% ?

Hervé,

En effet, la notion de gazelle est toute relative. La réalité doit être plus prosaïque, l’effort sur les gazelles doit toucher en majorité des PME à croissance relativement modérée car il n’y a pas 2000 PME qui ont des taux de croissance de plusieurs dizaines de % en France, sinon, cela se saurait et elles embaucheraient massivement ! Et attention, quand on parle de gazelle, il s’agit de tous les secteurs d’activité, pas que de la high-tech.

Pour ce qui est de la transparence des comptes, je ne jetterai pas la pierre à Oséo. Ils publient chaque année un rapport d’activité complet et leurs comptes financiers. Il faut certes pas mal de patience pour les décrypter mais c’est possible. La difficulté se situe dans l’indisponibilité d’informations de ce type sur l’année en cours. Aujourd’hui, on dispose des comptes 2007 d’Oséo. On aura les comptes 2008 vers le milieu du printemps. Oséo n’affiche pas son budget en cours ni son évolution. Ce qui les concerne est noyé dans la Loi de Finances et est indéchiffrable pour le novice. C’est pourtant cette information qui permettrait d’améliorer la lisibilité de sa stratégie et de ses orientations.

Répondre à ce commentaire

Commentaire 530 dans Alerte : Oséo asphyxie les startups !, le 8 février 2009

Bonjour Jean-Philippe,

Toi qui suit de près l’actualité du financement des startups dans ton excellent blog, aurais-tu justement des informations sur l’évolution exacte du budget d’Oséo Innovation qui est en question ici ?

Sans “hard data”, nous en sommes réduits à des observations ponctuelles et on pourra toujours nous rétorquer qu’il s’agit d’exceptions !

Olivier

Répondre à ce commentaire

Commentaire 529 dans Alerte : Oséo asphyxie les startups !, le 7 février 2009

Merci Olivier,

Cela confirme au moins une chose : une différence notable de traitement selon les régions, que j’évoque dans l’article.

Répondre à ce commentaire

Commentaire 528 dans Relativisons, le 5 février 2009

Il y a de quoi effectivement, tout comme ces tout aussi nombreux recrutements de 2006 et 2007, en particulier dans la R&D, dont l’output ne s’est pas pour autant amélioré (Search, Windows Mobile…).

Ce que l’histoire ne dit pas, c’est qu’une grande partie de ces recrutements ont eu lieu en Chine et en Inde, avec un coût du travail plus faible. Résultat, Microsoft a accéléré le rythme de ses embauches, mais avec un rythme stable d’augmentation des coûts salariaux, à peu près en ligne avec son chiffre d’affaire.

Donc, maintenant, où licencient-ils ? En Chine ou en Inde, ou bien aux USA et en Europe ? Si c’est aux USA et en Europe, c’est une délocalisation déguisée des coûts salariaux. Si c’est en Chine et en Inde, c’est l’usage d’une variable d’ajustement loin du quartier général…

Les informations manquent pour l’instant pour identifier les endroits où on lieu ces ajustements d’effectifs. On le saura d’ici quelques mois !

Répondre à ce commentaire

Commentaire 527 dans Relativisons, le 2 février 2009

Il faut cependant faire la part des choses.

Ces déclarations de Ballmer relèvent de la méthode Jack Welch consistant à virer régulièrement les x% les moins performants chaque année et à les remplacer par de nouvelles recrues. L’histoire ne dit jamais si elles sont vraiment meilleures, et on ne s’en rend compte que bien plus tard. L’herbe est toujours plus verte ailleurs.

Dans un licenciement économique massif, on frappe plus fort et de manière concentrée dans le temps. Cela peut affecter des équipes entières qui disparaissent. Et c’est d’ailleurs déjà arrivé chez Microsoft Corp (aux USA) mais on n’en parle jamais !

L’approche de MS annoncée il y a deux semaines est en tout cas une demi-mesure : avec 2/3 des licenciements étalés dans le temps, ils se rapprochent de la méthode habituelle,… mais sans remplacement. D’autres boites ont annoncé un même étalement. Il permet de revenir sur la décision si l’économie se porte bien. Mais bon, ce n’est pas très probable dans le court terme.

Les résultats du trimestre en cours qui arrivent en avril prochain nous donneront la suite de l’histoire !

En attendant, les managers s’entrainent gaiement au sport du “stack ranking” sachant qu’eux-mêmes sont dans le stack ranking des managers du niveau supérieur. Jeu pervers !

Répondre à ce commentaire

Commentaire 526 dans Rapport CES 2009, le 20 janvier 2009

Il y a en effet un 2008 qui trainait dans les propriétés du fichier que certains logiciels mettent plus en évidence que le nom du fichier. Probablement sous Mac.

J’ai corrigé ce petit détail.

On va pouvoir discuter du fond maintenant… 🙂

Répondre à ce commentaire

Commentaire 525 dans Rapport CES 2009, le 20 janvier 2009

Curieux. La seule façon d’obtenir cette version, c’est de cliquer sur “2008” dans l’article là où je mentionne les rapports des années précédentes. Sinon, cela doit bien charger le rapport 2009: dans le lien 6,6Mo, puis 18,6 Mo, et aussi en cliquant sur la couverture.

Olivier

Répondre à ce commentaire

Commentaire 524 dans Google = Microsoft ? (1), le 6 janvier 2009

Il s’agit d’un simple diagramme que j’ai construit à l’époque de l’écriture de cet article en utilisant les informations publiques sur les résultats financiers de Microsoft. Presque deux ans après cet article, les données mériteraient d’être réactualisées, mais les proportions n’ont pas du changer entre ces différents business.

Répondre à ce commentaire

Commentaire 523 dans Buena Vista ?, le 30 décembre 2008

Ce pourcentage est de plus en plus faible, mais n’est pas réellement mesuré par qui que ce soit de manière crédible. En effet, quel périmètre considérer sachant qu’il y a des dizaines de milliers d’applications écrites pour Windows ?

En gros, deux ans après la sortie de Vista, la compatibilité des applications comme du matériel n’est plus réellement un problème. Tout du moins, ce n’est pas plus un problème que cela ne l’a été pour les versions antérieures de Windows. Moi qui teste beaucoup de logiciels divers, je n’ai presque plus de cas de figure où je dois passer par un PC sous XP pour mener à bien mon test.

Par rapport à cet article, la plupart des défauts de jeunesse de Vista ont été corrigés, notamment par le SP1. Il en subsiste cependant un qui est encore gênant : la lenteur du bureau, semble-t-il liée à la manière dont l’explorer a été écrit.

Répondre à ce commentaire

Commentaire 522 dans Entourloupe haute définition, le 28 décembre 2008

C’était en 2006…
Mais la pratique reste courante. La grande distribution continue d’écouler des écrans plats dont certains ne sont même pas 720p !
Si le prix d’un LCD ou d’un Plasma est anormalement bas, il y a un problème de ce côté là !

Répondre à ce commentaire

Commentaire 521 dans Cube, la set-top-box hybride de Canal+, le 25 décembre 2008

Il y a peut-être une solution consistant à transférer le signal en composantes qui sort de la prise Péritel du Cube et à l’injecter dans l’écran Plasma. Je crois que la sortie composante n’a pas à gérer le HDCP car elle est analogique.

Par contre, il faut trouver une prise Péritel mâle avec sortie composantes, ce qui n’est pas bien courant. Et je ne suis pas certain à 100% qu’elle soit cablée dans le Cube.

Répondre à ce commentaire

Commentaire 520 dans L’écosystème des logiciels photo en PDF, le 16 décembre 2008

Merci beaucoup pour la précision.

Il me reste donc à attendre une version d’évaluation de la 5.0 pour la tester et mettre à jour mon panorama !

Cordialement,

Olivier

Répondre à ce commentaire

Commentaire 519 dans LeWeb 2008 et les startups, le 16 décembre 2008

@Charles : j’ai corrigé le texte pour en tenir compte et au passage préciser mon propos.

@Jacques : c’est voulu. Je n’ai listé que les startups technos, et ai mis de côté les prestataires de services dont tu fais partie !

Répondre à ce commentaire

Commentaire 518 dans LeWeb 2008 et les startups, le 15 décembre 2008

je l’avais bien signalé Raphaël :

“Le vote des participants dans le concours de startups de LeWeb 2008.”

🙂

Répondre à ce commentaire

Commentaire 517 dans L’écosystème des logiciels photo en PDF, le 15 décembre 2008

OK, Photogeek, c’est corrigé.
Il me semblait que sur le stand du salon de la photo, c’était bien la version 5.0 qui était exposée et qu’elle était présentée justement comme améliorant très nettement les vitesses de calcul. Mais je ne sais plus quelle version j’ai du tester sur mon laptop.

Répondre à ce commentaire

Commentaire 516 dans LeWeb 2008 offline, le 13 décembre 2008

Pour Marisa, je trouvais la gestuelle intéressante. Comme indiqué dans mon texte, c’est un élément déterminant d’une bonne photo. Sur Fotonauts et Picasa, j’ai placé 14 photos de Marisa dans lesquelles chacun trouvera son bonheur !

Côté technique : les photos sont toutes prises à 12.6 mpix et converties automatiquement par Picasa en environ 3 mpix. Ca ne change pas grand chose à la perception du rendu.

J’utilisais un un mix d’objectifs à grande ouverture (comme le 50 mm 1.4) et d’objectifs à faible ouverture (comme le télé 100-400mm 4.5-5.6 qui est stabilisé). Les sensibilités allaient de 500 à 1600 ISO et j’ai évité le 3200 ISO, trop bruyant. 500 à 800 ISO pour les photos des intervenants et 1600 ISO pour les photos dans la salle.

Les meilleures photos sont prises au télé 100-400, qui est donc très moyen côté ouverture, mais apporte un bon piqué. C’est la qualité du capteur full frame du 5D, même s’il est maintenant dépassé par des appareils plus récents comme les Nikon D700 ou D3, ou par le 5D Mark II.

Je travaillais la plupart du temps en mode manuel pour éviter des erreurs d’exposition, classiques lorsque l’on utilise le mode automatique sur des photos de scène très éclairées.

Les photos sont en partie des RAW retraitées en JPEG via Photoshop CS3. Pour d’autres, le JPEG de l’appareil tel que (avant compression pour Picasa).

Cet équipement est loin d’être parfait pour ce genre de photos. Il vaudrait mieux avoir un 70-200mm IS USM 2.8 et un 24-70mm également à 2.8, sans compter un 5D II dont la sensibilité ISO est quasiment du double de celle du 5D avec une résolution de 21 mpix vs 12,6 mpix pour le 5D. Peut-être pour LeWeb 2009 ! Avec cela, je gagnerai au moins 2 à 3 ouvertures, donc plus grande vitesse, moins de flou et un meilleur piqué de l’image. Sans compter un capteur 14 bits au lieu de 12 bits, permettant un rattrapage plus fin des fichiers RAW.

Répondre à ce commentaire

Commentaire 515 dans LeWeb 2008 offline, le 11 décembre 2008

@Laurent : en fait, tous les sites web dépendent peu ou prou de Google et de son PageRank. Par contre, Wikio me semble assez respecteux des bloggeurs car il n’extrait de leur prose que les premières lignes et envoie ensuite le trafic chez eux. Et je ne me rappelle pas avoir vu des données sur l’origine du trafic dans les slides de Pierre.

@Captain : indeed. Et c’est d’ailleurs assez classique dans la plupart des conférences. Finalement, rares sont celles où le contenu prime sur le réseautage.

Répondre à ce commentaire

Commentaire 514 dans Petit parcours au Salon de la Photo, le 11 décembre 2008

Pour ce qui est de l’heure, en effet, et je ne la gère pas, c’est chez l’hébergeur. Il faut que je creuse cela…

Répondre à ce commentaire

Commentaire 513 dans Petit parcours au Salon de la Photo, le 11 décembre 2008

Canon ne fait pas de prix. Mais l’effet “standard” joue en leur faveur. Et probablement ce que l’on appelle le rapport qualité/prix. Même si je vois que leur 200mm 2.8 n’est pas si cher que cela chez Leica (http://www.summilux.net/r_system/VarioElmar80-200.htm), 2200€.

Répondre à ce commentaire

Commentaire 512 dans La crise financière et les startups, le 9 décembre 2008

Prendre un leveur est un excellent conseil, et il n’est pas vraiment lié à la crise actuelle. Il était 150% valable avant !

Répondre à ce commentaire

Commentaire 511 dans Les super-profits de Total ?, le 8 décembre 2008

A ma connaissance, l’Etat n’est pas actionnaire significatif du groupe Total. La SARA semble être une exception.

Mais je ne suis pas un spécialiste du domaine et n’ai pas eu l’occasion de creuser cette curieuse affaire de la Guyane qui intervenait alors qu’en métropole, le prix de l’essence est revenu en dessous du niveau de 2006/2007…

Répondre à ce commentaire

Commentaire 510 dans Petit parcours au Salon de la Photo, le 5 décembre 2008

En fait, en creusant, je me rend compte que l’offre de focales Leica est non seulement effectivement plutôt focales fixes, mais également grands/moyen angles. Pour les télés, il vaut mieux des réflex classiques. Et Canon reste la référence dans ce registre. Il suffit de regarder comment son équipés les photographes pros dans n’importe quel événement presse. Je fais toujours un arrêt sur image pour voir cela pendant la couverture TV du festival de Cannes…

Répondre à ce commentaire

Commentaire 509 dans Cube, la set-top-box hybride de Canal+, le 5 décembre 2008

@rthomas : entièrement d’accord. Dommage que MCE de Vista soit une régression. Encore un cas où la design va à l’encontre de l’ergonomie…

@OlivierJ : cette solution sont Linux est à comparer à XP ou Vista avec Media Center. Mais pour avoir testé MythTV, je préfère encore l’interface de MCE 2005. Par ailleurs, sous MythTV, est-il possible de reçevoir Canal+/CanalSat avec un tuner satellite ?

Répondre à ce commentaire

Commentaire 508 dans Petit parcours au Salon de la Photo, le 1 décembre 2008

Pas beaucoup plus ? Juste deux à trois fois plus…

Les optiques Canon ne sont pas mauvaises tout de même, et pourtant elles sont les plus chères du marché ! Et avec une gamme bien plus large que ce que l’on peut coller sur un tel Leica…

Autre différence: avec un compact, les dimensions sont telles que l’on n’a pas le même contrôle de la profondeur de champ qu’avec un réflex full frame.

Enfin, la sensibilité : le capteur du Leica ne peut pas égaler celui des Canon 5D, EOS 1D Mark III et Nikon D3 / D700.

Petite exception en faveur de Leica : leur objectif LEICA NOCTILUX-M qui ouvre à 0.95, un record qui compense la sensibilité moyenne du capteur. Dispo en février 2009. Mais semble-t-il pour plus de $7000…

Répondre à ce commentaire

Commentaire 507 dans L’écosystème des logiciels photo – 3, le 30 novembre 2008

J’avais lu d’autres séries d’articles sur Linux et la photo qui concluaient que l’offre n’y était pas encore suffisantes pour y faire migrer les photographes pros. Pour les amateurs, cela ne semble par contre pas être problématique.

Pour ce qui est de la dédup des images :
– J’ai fait un test sur un dossier et sous-dossier avec des milliers d’images et c’était très lent, et cela bloquait le soft.
– Une base de données est un moyen indispensable pour obtenir de bonnes performances autant dans la navigation dans les photos que pour trouver des images similaires ou en doublon. Le logiciel scanne les images et créé une sorte de signature de l’image (un code qui fait environ 128 bits) pour chaque image. La recherche des similaires consiste pour le logiciel à trouver les images qui ont une signature voisine.

Répondre à ce commentaire

Commentaire 506 dans L’écosystème des logiciels photo – 3, le 30 novembre 2008

OK, dont acte.

Quelques raisons pour lesquelles je n’étais pas enthousiaste : une interface utilisateur un peu ancienne et l’absence de base de données pour les images. J’ai aussi testé la fonction d’identification d’images similaires et elle n’est pas opérationnelle car elle ne s’appuie pas sur une base de données de signatures d’images.

J’ai cependant mis à jour la description de XVIew dans une nouvelle mouture de la version PDF de cette série d’articles. Cf ce lien.

Répondre à ce commentaire

Commentaire 505 dans La crise financière et les startups, le 24 novembre 2008

Merci Maud.

La couverture média/blogs sur le sujet est en effet assez prolixe aux USA depuis au moins 3 mois ! Un signe que le sujet est pris sérieusement, et que la Silicon Valley sait s’adapter rapidement à la nouvelle donne.

A noter également ce compte rendu de la conférence du G9+ par Olivier Rafal, du Monde Informatique.

Répondre à ce commentaire

Commentaire 504 dans L’écosystème des logiciels photo – 6, le 22 novembre 2008

Do you plan a Windows or Linux version of iLovePhotos ?

Répondre à ce commentaire

Commentaire 503 dans Grandeur et décadence des foires aux startups – 4, le 22 novembre 2008

Quelle est la spécificité de ce portail personnalisé ?

Répondre à ce commentaire

Commentaire 502 dans Petit parcours au Salon de la Photo, le 15 novembre 2008

En effet ! J’avais vu cela dans de nombreuses reviews mais n’avais pas relevé le fait que le système de Sony lui était spécifique.

Bon, et puis, est-ce que le LiveView est très souvent utilisé par ceux qui en ont ? Ne s’habitue-t-on pas à apprécier la qualité d’un bon viseur qui lui n’est pas numérique ?

Répondre à ce commentaire

Commentaire 501 dans Rencontre avec Bernard Liautaud, le 14 novembre 2008

L’article date de plus de deux ans…

Bien sûr, on peut noircir ces réussites qui doivent autant au talent qu’à la chance et aux circonstances.

Mais sur ces points, il y en a qui me semblent un peu exagérés. Notamment le 1 et le 2. Liautaud a créé le BP de sa boite lorsqu’il était chez Oracle, mais à ma connaissance, sans que cela n’impacte son activité là bas. C’est peut-être pour cela que la création du BP a duré un an.

De plus, il n’a pas vendu de logiciel BO tout en ayant la casquette Oracle. Il a quitté Oracle, puis créé la boite, puis vendu le soft. La casquette ex-Oracle a du servir, comme elle pourrait ou aurait pu servir nombre d’anciens d’IBM, Digital, Microsoft, Sun et autres. Et qui pour autant n’ont pas créé une telle boite !

Quand aux défaillances d’Oracle… c’est le sel de nombreuses réussites. On gagne parce que l’on est bon, et aussi parce que les concurrents existants ou potentiels sont mauvais, ou ne s’aventurent pas à temps et correctement sur de nouveaux marchés. Grande loi de l’innovation qui ralentit les gros acteurs…

Donc, ces circonstances n’ont rien de bien exceptionnel dans les cycles de l’innovation. Ces circonstances sont elles qui ont aussi permis à Google, Facebook, et autres d’émerger. Tout comme Oracle qui a été créé en allant plus vite dans la mise en oeuvre d’un SGBD relationnel, concept qui avait à l’époque (fin des années 70) été inventé en grande partie dans les labos IBM (Ted Codd, http://en.wikipedia.org/wiki/Edgar_F._Codd).

Répondre à ce commentaire

Commentaire 500 dans Les programmes startups de Microsoft et Sun, le 8 novembre 2008

Finalement, le process ne rend pas le programme sélectif. Il a plutôt tendance à simplement maximiser le recrutement. Isn’t it?

Répondre à ce commentaire

Commentaire 499 dans Ils l’ont fait !, le 6 novembre 2008

La techno sur CNN provient peut-être de Cisco, mais pas sûr.

C’est leur “TelePresence”. Visiblement il s’agit bien d’un hologramme qui nécessite plusieurs caméras vidéos pour la prise de vue en 3D. Par contre, je n’ai pas compris comment fonctionnait la projection holographique à l’arrivée. Cf http://newsroom.cisco.com/Newsroom/flash/evp/Flash7/main.html?videoXML=../xml/high/BA812487042B1FCE04B8C01254B51541_video.xml&defaultTopic=Technologies&defaultSubTopic=Technology%20Innovation. Démontrée par John Chambers en octobre 2007 !

Le truc sur CNN est expliqué ici : http://news.cnet.com/8301-11386_3-10082802-76.html. Et il ne s’agit pas d’hologramme, mais d’une image 2D incrustée.

La démo de Cisco semble différente. Ce n’est peut-être qu’une image vidéo projetée sur un écran semi-transparent. D’autant plus que le système Telepresence de Cisco que j’ai notamment vu au CES à Las Vegas en janvier 2008 n’est “que” de la vidéo de bonne qualité diffusée sur grand écran. Càd de la téléconférence avec un meilleur niveau de qualité qu’habituellement.

Pour MSNBC, ce n’était pas spécialement bluffant et Total Immersion a des scénarios d’intégration réel/virtuel bien plus bluffants. Sachant qu’ils ne sont probablement pas derrière l’effet de MSNBC.

Répondre à ce commentaire

Commentaire 498 dans Le fonctionnement de Software Business Angels, le 6 novembre 2008

Tu as raison, cela mérite quelques précisions.

Les limites dans les schémas sont des indications mais pas des montants précis butoirs.

Ils font effectivement un peu trop abstraction des levées de fonds réalisées dans des VCs de “petits fonds” ou bien des fonds d’investissement régionaux (comme Cap Décisif en Ile de France) qui investissent des tickets de 150 à 500K€ d’un montant équivalent à un tour de business angels.

Mon propos sur BA vs VC visait donc spécifiquement les entrepreneurs qui cherchent à la fois des business angels pour un tour de disons 300K€ et des VCs pour lever “1 à 2 millions d’Euros”. On voit cela souvent…

Tout ceci méritera une mise à jour dans le Guide sur l’accompagnement des startups hightech (prochaine édition prévue en janvier 2009).

Pour ton deuxième commentaire, bien vu, je viens de corriger le lien sur le fichier qui devrait maintenant bien fonctionner.

Répondre à ce commentaire

Commentaire 497 dans De Candidat 2.0 à Président 2.0, le 6 novembre 2008

OK. Donc je corrige l’article en précisant “grâce notamment à des dons de particuliers…”. Soyons précis effectivement !

Répondre à ce commentaire

Commentaire 496 dans De Candidat 2.0 à Président 2.0, le 5 novembre 2008

Bon, moi qui me disait qu’il y avait peut-être une techno de startup française derrière ces machines…

Il ne faut pas trop rêver tout de même !!!

Répondre à ce commentaire

Commentaire 495 dans De Candidat 2.0 à Président 2.0, le 4 novembre 2008

Par contre, pour ce qui est du vote électronique, les techniques de calibrage semblent sorties du 20eme siècle !

Cf http://www.videothevote.org/video/384/.

On n’ose imaginer ce qui se passerait si il fallait faire cela pour chaque iPhone !

Il est vrai que cette fonctionnalité de calibrage est parfois utile pour les Tablet PC sous Windows. Mais pas pour des erreurs telles que celle que l’on peut voir dans la vidéo !

Répondre à ce commentaire

Commentaire 494 dans De Candidat 2.0 à Président 2.0, le 4 novembre 2008

Intéressant et l’inventaire des solutions numériques employés dans la campagne n’est pas évident. En plus de Twitter, il y a évidemment au minimum Facebook, Flick et les SMS.

Sinon, pour ma gouverne et les lecteurs de ce blog, c’est qui “on” ?

Répondre à ce commentaire

Commentaire 493 dans De Candidat 2.0 à Président 2.0, le 3 novembre 2008

Messie… ! Evidemment non.

Pour ce qui est de ses positions sur le “fair trade”, il semble effectivement qu’il soit pour une renégociation des accords de libre échange comme le NAFTA (amériques) et les échanges avec la Corée du Sud. Notamment au niveau de l’harmonisation des conditions de travail. La question n’est pas d’imposer des taxes, mais de niveler par le haut ces conditions pour limiter le manque de compétitivité des entreprises US. Cela sera l’objet de négociations difficiles car les barrières douanières ne sont pas une solution et l’histoire a montré qu’elles ralentissaient l’économie du pays qui les créé. Mais cela relève de « wishfull thinking » visiblement.

En même temps, il a conscience qu’il faut investir localement dans l’innovation, dans la production d’énergies nouvelles et de voitures moins polluantes. Il vit aussi dans l’illusion qu’il est possible de « dé-Wallmartiser » l’économie US, droguée comme la notre aux produits à bas coûts fabriqués en Chine.

McCain comme Obama pensent sinon qu’ils peuvent significativement réduire dépendance énergétique vis-à-vis de l’étranger, qui est de $700B. Cela sera très difficile car les énergies nouvelles ne peuvent ni facilement ni rapidement remplacer le pétrole et le gaz. Ses $15B d’investissements promis dans ce domaine semblent assez faibles au regard de l’enjeu. Par comparaison, le budget de la NASA est de $17,6B en 2009. Mais c’est aussi un mois et demi de présence militaire en Irak. Mais la mobilisation américaine réserve souvent des surprises, et au vu de ce qui se passe dans la Silicon Valley sur les greentechs, l’enjeu énergétique pourrait être de la partie.

Répondre à ce commentaire

Commentaire 492 dans L’écosystème des logiciels photo – 7 et fin, le 27 octobre 2008

En vrac :
– La photo est avant tout pour Microsoft une “fonction système” que doit bien gérer Windows. D’où le support hardware, les profils couleurs, etc.
– La photo est aussi une fonctionnalité complètement accessoire d’Office.
– Le business photo à proprement parler est très grand public. D’où Digital Image Pro (qui faisait suite à Picture It). Qui a été (dommage) abandonné au profit de la fonctionnalité Windows Photo Gallery de Vista qui est devenue Windows Live Photo Gallery, synergie avec le service Live et le partage en ligne de photos.
– Le monde de la photo (et de la comm en général) est dominé par le Macintosh, où Microsoft n’investit pas/plus au dela de sa suite Office Mac. Leur site pour les pros de la photo (http://www.microsoft.com/prophoto/) présente une offre disparate, essentiellement des utilitaires freeware et surtout, pas éditeur d’image ! C’est bien pauvre. Ils essayent par contre de promouvoir le format HD Photo. Avec peu de chances de s’imposer pour l’instant.
– Les travaux chez Microsoft Research sont sympas mais n’aboutissent pas à un véritable business (Photosynth, etc).
– Le rachat de iViews était un moyen de compléter l’offre Visual Expression, une réponse à l’offre d’Adobe pour séduire les créateurs de sites web, mais pas vraiment les photographes. Ce n’est donc pas la même bataille!

En gros, la photo est une fonction transversale (pour OS, bureautique, développeurs, services web) mais pas un business à part entière pour Microsoft.

Répondre à ce commentaire

Commentaire 491 dans Faites-nous rêver Monsieur Besson !, le 26 octobre 2008

@DJM : entre la bonne intention et la mise en oeuvre, il y a toujours ce petit décalage effectivement. Pourtant, d’un autre côté, on se gargarise du succès du GSM dans le développement d’une industrie européenne (ou scandinave?) du mobile ! Deux poids deux mesures ? Probablement parce que l’on n’a pas à faire aux mêmes instances de régulation, lobbying, normalisation et décision…

La radio numérique arrive peut-être trop tard en effet alors que la bande passante IP mobile sera de plus en plus abordable et permettra tous les scénarios rich media.

Répondre à ce commentaire

Commentaire 490 dans Faites-nous rêver Monsieur Besson !, le 26 octobre 2008

Effectivement, dans les classements européens et OCDE la France a une bonne place dans l’administration électronique. Est-ce que cette bonne lui donne l’occasion d’exporter technologies et savoir faire dans le domaine ?

Répondre à ce commentaire

Commentaire 489 dans Faites-nous rêver Monsieur Besson !, le 23 octobre 2008

Oui, en retard en effet. Mais il y a des raisons à cela : le besoin d’une programmation sans publicité aux USA et les longs trajets en voiture, notamment à San Francisco et Los Angeles. Cela créé de l’appétance pour ce genre de solution. Il y a aussi la radio satellite payante, avec + de 13 millions d’abonnés aux USA !

Répondre à ce commentaire

Commentaire 488 dans Faites-nous rêver Monsieur Besson !, le 23 octobre 2008

Il faut effectivement lire entre les lignes pour comprendre les tenants et aboutissants dans le domaine du mobile et de la 3G. Et aussi sur le très haut débit puisque les deux fanas de ce secteur que je connais (Jean-Michel Billaud et Jean-Michel Planche) n’ont pas l’air bien enthousiastes sur le plan (qui est traité dans les actions 12 à 16 du plan France Numérique 2012).

Pour le mobile, l’accroissement de la concurrence passe par l’utilisation des fréquences du “dividende numérique” et par le biais des MVNO (ce qui favorise FT).

La grande question est : comment favoriser la généralisation de forfaits “flat fee data” abordables sur les mobiles, notamment pour le grand public ?

Répondre à ce commentaire

Commentaire 487 dans Faites-nous rêver Monsieur Besson !, le 22 octobre 2008

Des contenus en anglais, of course ? … 🙂

Je ne mettrais cependant pas ce plan au niveau du TO7 qui était “mono-produit et mono-application”.

Comme le PAGSI, le fourmillement de pistes sera en grande partie appliqué, mais il ne traitera pas forcément du problème, ni du bon problème.

Je suis par contre 100% d’accord sur la relative utilité du haut débit. Tout du moins, quand il n’est pas associé à une véritable vision sur les usages et sur leur impact sur la compétitivité économique.

A l’Ile Maurice, on a du haut débit pour faire du service en délocalisation. Et nous, on fera quoi avec ? On peut devenir les champions de la conception coopérative virtuelle (le cheval de bataille de Dassault Systèmes). On peut transformer l’urbanisme et la politique des transports (le plan parle d’ailleurs de télétravail, mais sans faire un lien direct avec le haut débit…). Etc.

Répondre à ce commentaire

Commentaire 486 dans Grandeur et décadence des foires aux startups – 6, le 15 octobre 2008

Bravo Jean-Denis pour cette levée de fonds,

Ceci confirme cela. Le e-commerce est un bon et sûr business model de l’Internet. Surtout si le créneau et la spécialité choisis ne sont pas trop concurrentiels ! Et de plus, contrairement aux réseaux sociaux qui demandent un trafic très élevé pour devenir vaguement profitables, les sites de ecommerce peuvent bien vivre à une échelle “juste” nationale ou régionale (au sens: Europe).

Par contre, la désintermédiation dans ce secteur semble plus délicate à rentabiliser avec la multiplication des sites de “social shopping”. La rentabilité est plus faible, il faut faire bosser les Internautes et il faut générer plus de trafic. On retrouve donc des difficultés voisines de celles des réseaux sociaux.

Répondre à ce commentaire

Commentaire 485 dans Grandeur et décadence des foires aux startups – 4, le 6 octobre 2008

Et ce n’est pas fini ! Il faut brasser beaucoup de projets pour trouver des pépites. Et ceux qui ont été rejetés par les commentateurs peuvent parfois tout de même s’en sortir ! Ce n’est pas une science exacte en tout cas.

Vous pouvez en tout cas m’envoyer votre doc.

Répondre à ce commentaire

Commentaire 484 dans Manhattan Project 2, le 6 octobre 2008

On peut aussi raisonner à l’envers : ce n’est pas cette “capacité” qui a permis de retrouver Sadam Hussein en décembre 2003, elle s’utilise plutôt dans les villes que dans les chemins escarpés dans les montages (Afghanistan, Pakistan). Mais bon, on est pas plus avancé pour autant !

Autre bizarrerie : si comme Bernstein l’affirme, les groupes armés en Irak sont au courant de la nature et de l’existence de cette arme, pourquoi cela reste un secret bien gardé ?

Répondre à ce commentaire

Commentaire 483 dans Grandeur et décadence des foires aux startups – 2, le 2 octobre 2008

100% d’accord : participer à un tel événement est une composante clé d’un plan média pour une startup. D’où le besoin de ne pas se louper sur le message et la démo !

Oui, LeWeb est devenu le premier événement généraliste en France, toutefois focalisé sur le web, et pas sur d’autres marchés comme le logiciel ou le hardware où il y a aussi des startups intéressantes (et dont on risque d’entendre plus parler avec les déboires des boites web 2.0 qui s’annoncent).

Mon souhait serait que LeWeb “théâtralise” et valorise un peu plus les présentations de startups dans l’agencement de son programme.

Sinon, Capital IT nous rappelle surtout que l’on ne peut plus raisonner uniquement dans le périmètre France pour ces marchés hightech !

Répondre à ce commentaire

Commentaire 482 dans Grandeur et décadence des foires aux startups – 1, le 2 octobre 2008

C’est le “one-click” externalisé ! Je vais regarder cela en détail.

D’accord sur les limites du modèle publicitaire du web 2.0. J’en parlerai bientôt dans un prochain post sur les startups que l’on pouvait voir dans ces deux événements.

Répondre à ce commentaire

Commentaire 481 dans L’écosystème des logiciels photo – 3, le 27 septembre 2008

JM, même commentaire que pour Axel.

Votre commentaire n’apparait que maintenant car il avait été bloqué par l’antispam Askimet de WordPress…

Répondre à ce commentaire

Commentaire 480 dans L’écosystème des logiciels photo – 3, le 27 septembre 2008

Merci Axel pour ces informations que je mets de côté pour une version “PDF” à venir de cette série d’articles.

Répondre à ce commentaire

Commentaire 479 dans Grandeur et décadence des foires aux startups – 1, le 24 septembre 2008

@Jacques: je n’avais pas récupéré les chiffres côté présents, mais dans les deux cas, je crois qu’il s’agit de plus de 1000 participants. A creuser.

@Hervé: les SeedCamps sont des événements européens, qui fonctionnent bien et reçoivent des startups réellement en phase d’amorçage. Mais à ce que j’en vois sur leurs sites web, ils brassent peu de sociétés (une vingtaine pour la dernière édition à Londres).

@Yohan: il est normal que les deux événements aient un positionnement différent, TC50 ayant fait le choix du logiciel et de l’Internet. Par contre, existe-t-il d’autres événements de cette ampleur aux USA ? Pour Twitter vs Yammer, le marché n’est pas encore maturé pour des usages professionnels, donc il reste encore assez ouvert. Et n’oublions pas que Facebook a détrôné MySpace en 3 ans !

Répondre à ce commentaire

Commentaire 478 dans Thermomètre de l’ARPU, le 21 septembre 2008

Non, d’autant plus que la plupart de ces acteurs ne publient pas leur audience et chiffre d’affaire…

Vous pensiez à quelles entreprises en particulier ?

Répondre à ce commentaire

Commentaire 477 dans L’écosystème des logiciels photo – 5, le 17 septembre 2008

Ok, corrigé. Petite erreur pavlovienne…

Au passage, ce tarif s’entend-il par client (avec un ID unique) ou par PC (lié à adresse MAC ou IP) ?

Répondre à ce commentaire

Commentaire 476 dans L’écosystème des logiciels photo – 5, le 16 septembre 2008

Merci du feedback, justifié. J’ai édité la description de Joomeo dans l’article pour la rendre plus complète.

Répondre à ce commentaire

Commentaire 475 dans L’écosystème des logiciels photo – 7 et fin, le 16 septembre 2008

J’y pense, j’y pense !

J’attend un peu, le temps que les commentaires arrivent et aussi pour laisser reposer la matière et la compléter ensuite avec ce que j’aurai pu oublier.

Répondre à ce commentaire

Commentaire 474 dans L’écosystème des logiciels photo – 3, le 14 septembre 2008

Picasa Web Album est traité dans le cinquième opus de cette série d’articles (http://www.oezratty.net/wordpress/2008/lcosystme-des-logiciels-photo-5/) qui est dédié aux systèmes de partage et stockage en ligne !

Répondre à ce commentaire

Commentaire 473 dans Edition de septembre 2008 du Guide des Startups, le 13 septembre 2008

Les ARITT sont un dispositif des CRITT, cités dans la légende, mais c’est effectivement un peu ambigu.

Répondre à ce commentaire

Commentaire 472 dans L’écosystème des logiciels photo – 4, le 10 septembre 2008

En effet Pierre. Et sous IE7, la mise en page est correcte. Comme je n’arrive pas à trouver d’où cela provient (rupture de colonne après l’objet Flash dans le code HTML), j’ai supprimé l’insersion de l’objet Zoomorama, en maintenant juste le lien vers leur site.

Répondre à ce commentaire

Commentaire 471 dans L’écosystème des logiciels photo – 2, le 10 septembre 2008

Avec Autostich, cela fait deux outils de génération de panorama à regarder de près. Je vais faire cela dans les jours qui viennent et mettre à jour le post. Sachant néanmoins que je prétends pas à l’exhaustivité de l’inventaire dans chaque catégorie. Il serait plus intéressant d’être auss large que possible dans la panoplie des fonctionnalités couverte.

Répondre à ce commentaire

Commentaire 470 dans L’écosystème des logiciels photo – 2, le 9 septembre 2008

Merci de l’avoir signalé. Comme c’est un logiciel d’origine française, je vais l’ajouter à la liste.

Répondre à ce commentaire

Commentaire 469 dans L’écosystème des logiciels photo – 3, le 9 septembre 2008

Jluk, OK, je n’avais pas vu cela dans le soft. J’ai donc corrigé l’article avec ces informations.

Répondre à ce commentaire

Commentaire 468 dans L’écosystème des logiciels photo – 1, le 8 septembre 2008

J’ai prévu d’en toucher un mot dans le tome 5… :).

Sachant que je vous avais vus au Web3. Cf http://www.oezratty.net/wordpress/2007/back-from-leweb3-les-startups/.

Répondre à ce commentaire

Commentaire 467 dans L’écosystème des logiciels photo – 2, le 8 septembre 2008

J’avais précisé dans le premier article que – honte à moi – je ne couvrirai pas les logiciels pour Macintosh, n’en n’ayant pas un sous la main, et malgré le fait que le Mac soit courant si ce n’est dominant dans la profession…

Mais j’ai l’impression que je vais devoir m’y coller d’une manière ou d’une autre !

Répondre à ce commentaire

Commentaire 466 dans L’écosystème des logiciels photo – 1, le 7 septembre 2008

Je faisais allusion à la dynamique de l’oeil pour traiter ne serait-ce que les contre-jours. Oui, on peut créer avec la photographie. Mais dans la plupart des cas, pour le grand public, il ne s’agit que de capter des instants et de ne rien louper.

Répondre à ce commentaire

Commentaire 465 dans L’écosystème des logiciels photo – 2, le 7 septembre 2008

Certes, mais il n’est pas bien génial pour la gestion des photos qui semble être sa fonction première.

Répondre à ce commentaire

Commentaire 464 dans L’écosystème des logiciels photo – 2, le 7 septembre 2008

J’ai prévu de citer ce logiciel dans le post suivant dédié aux gestionnaires de photo. Il est assez complet mais curieusement ne permet pas de scanner des répertoires existants de photo. La fonction d’import copie physiquement les photos dans userid/pictures. Et les folders copiés sont présentés alphabétiquement, et pas avec leur arborescence d’origine. Un peu comme avec les premières versions de Picasa.

J’ai du louper quelque chose ?

Répondre à ce commentaire

Commentaire 463 dans L’écosystème des logiciels photo – 1, le 6 septembre 2008

En effet, lorsque l’on parle d’encodage 8 bits pour le JPEG et 12 ou 14 bits pour le RAW des réflex, il s’agit de l’encodage d’un pixel de couleur primaire. Donc, à multiplier par 3 pour avoir les trois couleurs primaires.

A ceci près que…
– Dans un capteur d’appareil photo réflex de 10 mpixels, il y a exactement 10 millions de photosites, parfois avec autant de vert que de rouge et bleu. Donc, à la fin, cela fait un fichier de 10 millions x 12 ou 14 bits et non compressé. Et on a en fait 10/3 millions de pixels RGB encodés en 36 ou 42 bits après reconstruction de l’image par le logiciel de gestion du RAW qui l’injecte éventuellement ensuite dans un logiciel comme Photoshop qui est capable de travailler en 36 ou .
– Dans un fichier JPEG de 10 millions de pixels sorti d’appareil photo, il y a bien 10 millions de “pixels RGB”, à 8 bits par couleur primaire. Donc cela fait 10 millions x 3 x 8 bits, mais compressé spatialement.

L’arnaque, que l’on trouve aussi avec les capteurs de caméras HD, est qu’il y a confusion des genres entre photosites sur les capteurs et pixels RGB à l’arrivée. En JPEG, le nombre est le même, mais il y a eu scaling/interpolation pour générer les pixels RGB à partir d’un nombre de photosites inférieur (trois fois moins de photosites bleus que de pixels RGB dans le fichier résultant).

Effectivement, il vaut mieux stocker les RAW pour le futur. J’en parlerai dans l’article numéro 5 de cette série !

Répondre à ce commentaire

Commentaire 462 dans L’écosystème des logiciels photo – 1, le 5 septembre 2008

Tu fais allusion à quelle boite ?

Répondre à ce commentaire

Commentaire 461 dans Démocrates vs républicains sur Internet, le 5 septembre 2008

Oui, l’amérique profonde est très conservatrice, c’est bien connu. C’est l’amérique des grandes villes cotières qui vote démocrate et le reste du pays républicain. Cette élection comme les autres se jouera dans les “swing state” dont le vote n’est pas systématique d’un côté ou de l’autre. Il faudra regarder les sondages état par état pour se faire une idée. En consultant les sondages US avant 2004 on se rend compte que Bush avait acquis son avance après la convention républicaine. Mais que l’élection s’est jouée à relativement peu de choses du point de vue tant du nombre de voix que du nombre de grands électeurs. Les sondages des jours qui viennent seront intéressants. Ils risque bien de montrer un McCain qui reprend du poil de la bête et s’équilibre avec Obama, faisant des résultats de cette élection un suspens jusqu’au dernier moment.

Répondre à ce commentaire

Commentaire 460 dans Edition de septembre 2008 du Guide des Startups, le 4 septembre 2008

Format plutôt libre. Le plus classique serait un texte faisant une demi page pour un encadré comme il y en a beaucoup dans le document.

Répondre à ce commentaire

Commentaire 459 dans Edition de septembre 2008 du Guide des Startups, le 3 septembre 2008

Oui, effectivement. Julien Codorniou est parti au siège de Microsoft Corp à Redmond pour généraliser le programme IDEES au reste du monde.

J’ai corrigé cela dans le document sous forme de “silent release” !

Répondre à ce commentaire

Commentaire 458 dans Démocrates vs républicains sur Internet, le 3 septembre 2008

D’où mon “si” que tu n’as pas pris à sa mesure…

Il y a une différence entre les US et la France à prendre en compte: le taux d’équipement en accès Internet y est bien plus élevé, je crois 20% de pénétration en plus. Il explique certainement le différentiel entre les résultats Google Trends et l’issue de l’élection de Sarkozy, celui-ci ayant bénéficié de la faveur de deux populations faiblement Internetisées : les personnes âgées et une part supérieure aux habitudes de cols bleus.

Bien entendu, les données Internet ne traduisent pas ce qui se passe dans le middlewest conservateur. En même temps, l’intérêt pour Obama dans les populations que tu cites pourrait très bien se traduire par une baisse d’abstention les concernant. L’élection de 2000 a laissé des traces avec ces 541 voix qui ont fait “l’histoire” et pas forcément dans le bon sens. Et cette élection revêt un aspect historique pour les américains. Ce n’est plus le “more of the same” de 2000 !

Répondre à ce commentaire

Commentaire 457 dans Edition de septembre 2008 du Guide des Startups, le 3 septembre 2008

Ok, j’ajoute cela dans la “todo list” pour la prochaine édition. Aurais-tu des sources d’information sur le sujet, ou plus simplement pourrais-tu contribuer sous la forme d’un encadré sur le sujet ?

Répondre à ce commentaire

Commentaire 456 dans Démocrates vs républicains sur Internet, le 2 septembre 2008

En effet, merci. C’est maintenant corrigé.

Répondre à ce commentaire

Commentaire 455 dans Convention Démocrate en HD, le 27 août 2008

Oui, mais en HD ? Ou en 320×240 ?

Répondre à ce commentaire

Commentaire 454 dans En savoir plus sur les écrans plats, le 27 août 2008

Bien c’est justement expliqué dans le rapport en question ! Sinon, petit tour sur Wikipedia…

Le LCD est une technologie où de la lumière blanche passe au travers de cristaux liquides qui sont plus ou moins transparents en fonction du courant qui les traverse.

Le plasma est basé sur des pixels avec phosphores luminescents.

Répondre à ce commentaire

Commentaire 453 dans Banc d’essai à jour de lecteurs RSS, le 1 août 2008

Julien et Yttrium, j’ai donc ajouté Thunderbird dans le comparatif et avec une bonne évaluation car il est en effet de très bon niveau. Dommage qu’il n’aille pas jusqu’au bout dans la gestion des folders en n’affichant pas les posts des feeds d’un folder, et que l’import d’un OPML avec des folders mette tout à plat.

Ludovic, je testerai feedy un de ces 4. Ca m’a l’air d’être plus proche du gestionnaire de flux RSS de Wikio non ?

Répondre à ce commentaire

Commentaire 452 dans Cyber-Elles, l’Echangeur PME/CCIP et l’IE Club soutiennent les 29 propositions pour les Assises du Numérique, le 26 juillet 2008

Analyse intéressante. Le poids de nos SSII locales est en effet un talon d’Achille industriel. Leur force est le corrolaire de la faiblesse des acteurs industriels des TICs. La culture du projet n’a rien à voir avec la culture du produit. Le projet n’a pas besoin de marketing. Le projet n’a pas besoin de logique de volume. Le projet consiste à répondre à un cahier des charges. Pas à réfléchir avec un peu de recul aux besoins d’un marché. Cela a durablement structuré les compétences disponibles sur notre marché. Dans les années 1990, on a même vu de nombreuses SSII qui éditaient des logiciels (souvent des outils de génie logiciel) abandonner ce métier pour se consacrer uniquement aux services. Car effectivement, combiner les deux métiers est loin d’être évident.

Aux USA, c’est un peu le contraire: dans l’actualité des TICs, on n’y parle peu de ces SSII (IBM, EDS, etc). Ce sont les industriels (Apple, Google, Oracle, MS, etc) qui attirent les jeunes diplômés, pas les SSII (au moins, d’un point de vue médiatique). Le produit y attire plus que le projet.

Et bien entendu, les politiques ne sont qu’un des éléments de la chaîne de communication pour valoriser les technologies et ceux qui s’y investissent. Mais un peu d’affichage avec ceux qui préparent le futur, ceux qui innovent, ceux qui prennent des risques, ne ferait pas de mal !

Répondre à ce commentaire

Commentaire 451 dans L’impact sociétal des TICs, le 25 juillet 2008

Cela suppose aussi que les méthodes et le système de valeur du management suivent, et ce n’est pas du tout évident… ni courant !

Répondre à ce commentaire

Commentaire 450 dans Banc d’essai à jour de lecteurs RSS, le 22 juillet 2008

Bon, j’ai revu la cohérence du classement et du rating des lecteurs RSS mode web.

Pour l’archivage, cela signifie dans mon comparatif, la capacité à sélectionner un article et à le mettre de côté, à la ranger dans un ou plusieurs folders. Un peu comme un mail dans son gestionnaire de messagerie.

Répondre à ce commentaire

Commentaire 449 dans Banc d’essai à jour de lecteurs RSS, le 22 juillet 2008

Hervé,

Pour Wikipedia, il suffirait probablement de créer un lien vers le comparatif.

Pour ce qui est d’un tableau, on va commencer par éviter de créer un problème n^2 (n au carré), ça te connait ! Mon point de départ était de générer un OPML avec FeedReader (avec plusieurs niveaux de folders) et de l’importer dans les lecteurs testés. Il faudrait pour limiter la combinatoire aller dans le texte des fichiers OPML pour voir les balises utilisées par les uns et les autres, et leur respect du standard. Un truc de spécialiste…

Répondre à ce commentaire

Commentaire 448 dans Cyber-Elles, l’Echangeur PME/CCIP et l’IE Club soutiennent les 29 propositions pour les Assises du Numérique, le 21 juillet 2008

Dans les propositions structurées consécutives aux Assises, il y a aussi celles de Jean-Michel Planche à signaler. Il promeut notamment un Internet neutre, libre et ouvert.

Cf son plan sur : http://www.jmp.net/images/stories/2008-06_Propositions_JMP.pdf.

Le site associé à son initiative : http://www.internetforeveryone.fr/.

Et aussi le groupe Facebook associé : http://www.facebook.com/group.php?gid=20554633493.

Cela le détour et c’est bien vu.

Répondre à ce commentaire

Commentaire 447 dans Banc d’essai à jour de lecteurs RSS, le 21 juillet 2008

Et hop, c’est corrigé !

J’ai ajouté la 2.0 de RSSOwl… qui décoiffe. Je lui ai fait faire un bon dans le classement car ce lecteur a maintenant presque “tout bon”. Comme il est en Java, il est portable. C’est donc probablement l’un des meilleurs qui soit disponible sous Linux. Devant même RSS Bandit !

Merci d’avoir relevé tous ces points !

Répondre à ce commentaire

Commentaire 446 dans Banc d’essai à jour de lecteurs RSS, le 21 juillet 2008

Olivier et Vince2Panam, merci pour ces compléments que j’ai donc intégrés dans le comparatif. Snarfer est remonté dans le classement du fait de ces nouveautés. C’est l’un des rares lecteurs que je n’avais pas retesté dans le comparatif !

LezardBreton, oui, en fait, ce que les aggrégateurs affichent en mode HTML ou texte simple dépend de ce que le flux expose comme contenu et APIs. Donc, ce n’est pas l’utilisateur qui choisit. Dans certains cas, tu as trois lignes de résumé, dans d’autres, l’article complet. C’est pour cela que je préfère l’affichage complet des pages Web des sites dans une vue tri-pane, au moins il n’y a pas de … lézard (trop facile, oui…). Mais je dois reconnaitre que ce n’est pas la préférence de tous les utilisateurs, loin s’en faut !

Il reste aussi à inventer la fonction qui identifierait les articles répartis sur plusieurs pages web et les consoliderait en une seule !

Répondre à ce commentaire

Commentaire 445 dans Banc d’essai à jour de lecteurs RSS, le 20 juillet 2008

OK, je vois. Ca ne marche pas chez moi à cause d’une lib kfmclient que Akregator ne trouve pas. Un pb de config de mon Ubuntu sans doutes. Que je n’ai pas encore résolu.

Cette possibilité offerte par Akregator est à la fois intéressante (elle donne du choix) et un peu lourde à mettre en oeuvre (on ne peut visiblement pas la mettre en oeuvre sur l’ensemble des flux d’un seul coup).

Répondre à ce commentaire

Commentaire 444 dans Banc d’essai à jour de lecteurs RSS, le 20 juillet 2008

Yoda,

J’ai donc ajouté Akregator dans le tableau et dans les slides. En le testant, je ne trouve pas comment afficher les articles “full web” sans passer par la création d’un tab. Peut-être est-ce lié à ma configuration (Ubuntu, donc Gnome et pas l’environnement KDE).

Pour le reste, c’est un lecteur RSS de base, sans spécificité particulière au delà des scripts que vous mentionnez.

Je lui mets une note de 3 pour l’instant, mais qui passerait à 4 avec la résolution du problème des pages web. Dans les lecteurs open source, RSS Bandit semble le plus complet en tout cas.

Répondre à ce commentaire

Commentaire 443 dans Banc d’essai à jour de lecteurs RSS, le 20 juillet 2008

Mais l’affichage HTML des articles dépouillé du contexte a l’air de dépendre des sites, donc du contenu XML de leur flux ?

Répondre à ce commentaire

Commentaire 442 dans Banc d’essai à jour de lecteurs RSS, le 20 juillet 2008

Je faisais allusion à la possibilité dans les lecteurs de voir la page Web complète du site d’origine des flux. Et me rend compte que NetVibes le permet tout autant que l’affichage du contenu HTML de l’article, dépouillé de ce qu’il y a autour dans le site. Ce que fait NetVibes est très bien de ce point de vue là. Et il est d’ailleurs regrettable que ce mode d’extraction HTML de l’article ne soit pas courant dans les lecteurs “client riche”.

J’ai donc mis à jour le comparatif pour tenir compte de cette imprécision sur NetVibes. J’ai aussi intégré le gestionnaire de Flux de Wikio, à la demande (justifiée) de Pierre Chappaz.

Répondre à ce commentaire

Commentaire 441 dans Banc d’essai à jour de lecteurs RSS, le 20 juillet 2008

Je n’ai pas vu comment. Quel est le truc ?

Répondre à ce commentaire

Commentaire 440 dans Choisir son lecteur RSS, le 19 juillet 2008

Je vais l’intégrer, d’autant plus que je suis en train de mettre à jour le comparatif et de le compléter par un jeu de slides avec + et – et copie d’écran.

Par contre, en creusant, j’ai découvert qu’AlertInfo n’est qu’un FeedReader personnalisé pour le Geste. Et avec quelques fonctionnalités en moins, et pas mal de bugs (d’affichage) en plus.

Répondre à ce commentaire

Commentaire 439 dans Le marketing de Firefox 3, le 15 juillet 2008

Mais il y a plein de gens très biens chez Microsoft. Et beaucoup qui y sont encore ! Il faut juste gratter un peu pour le voir. Notamment au niveau technique justement. Car pour le marketing, il n’est pas aussi fort que la légende le véhicule !

Répondre à ce commentaire

Commentaire 438 dans La vogue des netbooks, le 15 juillet 2008

LVM, je n’ai pas cherché à comparer dans le détail l’offre des Mac et les netbooks, juste les ordres de grandeur. Et que l’on soit à 5 ou 10 millions de netbooks, cela sera pas mal dans les deux cas.

Votre point sur la marge générée est intéressant. En effet, Apple gagne plus d’argent par machine car il en contrôle plus la chaine de valeur que les constructeurs de PC qui dépendent de Microsoft (ou Linux) pour l’OS. Mais difficile d’avoir le beurre et l’argent du beurre: la diversité et la concurrence dans le monde du PC qui tire les prix vers le bas au profit finalement du consommateur, ET l’ergonomie, la puissance et le design des Macintosh. Le Macbook Air? Sympa, mais je demande à voir les résultats de vente au delà du premier million. Il est juste quatre fois plus cher qu’un netbook. Cela compte à l’échelle mondiale. Le marché mondial n’est pas seulement celui des bobos et autres qui peuvent investir 1800€ ou $ dans une machine!

Je pense sinon que les constructeurs de netbooks continueront à innover car leur innovation est essentiellement de l’innovation incrémentale par de l’intégration de composants tiers (Atom Intel, disques SSD, écrans LCD à rétroéclairage LED, etc). Et ce sont les mêmes fournisseurs que ceux d’Apple !

N’oublions pas non plus les OLPC de Negroponte qui répondent à un vrai besoin dans les pays en voie et développement et pour les enfants. Apple n’est effectivement pas près de s’investir dans un tel projet…

Pour ce qui est de l’échec des UMPC, 100% d’accord. Les “form factors” poussés par Microsoft (UMPC, Tablet PC, Media Center) ont eu des succès pour le moint mitigés. Cela n’empêche pas d’autres formats de PC de réussir là où Microsoft a échoué et les netbooks (plutôt poussés par Intel, mais sur lesquels Microsoft surfe en placant XP en attendant que ces machines puissent supporter Vista ou son successeur qui serait plus modulaire) pourraient bien faire un tabac.

Les scénarios d’usage peuvent être relativisés dans leur importance, mais attendons un peu de voir.

Répondre à ce commentaire

Commentaire 437 dans La vogue des netbooks, le 10 juillet 2008

J’ai remarqué tout de même que les templates des blogs sous WordPress étaient assez rarement à colonnes variables. D’ailleurs, dans le catalogue de templates récupérables, ils sont une minorité. Pour ma part, je suis parti d’un template que j’ai modifié à de nombreuses reprises pour aboutir au résultat présent, et notamment pour avoir un bandeau qui fonctionne bien quelle que soit la largeur de la fenêtre. Et les astuces liées (DIV encapsulées) n’étaient pas présentes dans les templates WordPress que j’avais pu récupérer.

Pour les netbooks, le EEE 901 devrait effectivement être pas mal. Mais j’ai maintenant un faible pour le Wind de MSI. Son clavier est bien plus confortable que celui du EEE. Et il a un disque dur de 80 Go ce qui laisse de la marge pour le stockage. Le tout avec un seul inconvénient : 1,2 Kg au lieu de 1Kg. Et à peu près le même prix.

Répondre à ce commentaire

Commentaire 436 dans La vogue des netbooks, le 10 juillet 2008

En effet, mieux vaut adapter le site à différentes largeurs d’écrans. Dans le cas de ce site, ce n’est pas WordPress qui joue ce rôle, mais le template CSS qui est prévu pour que le site s’adapte à la largeur de la fenêtre. C’est un “trois colonnes de largeur variable”. Assez difficile à développer d’ailleurs (cf les transparences dans le bandeau et les PNG utilisés). La plupart des blogs ont un CSS de largeur fixe.

Répondre à ce commentaire

Commentaire 435 dans Finalisation des propositions pour les Assises du Numérique, le 8 juillet 2008

Je ne suis pas certain qu’il faille ainsi faire la course au “dumping” par des réductions en tout genre. D’autant plus que la France est déjà un pays où il y a un tas d’incitations fiscales à la R&D, bien plus que dans plein d’endroits dans le monde, et notamment aux USA.

Il faut probablement d’abord relever les barrières avant d’inventer des aides (complexité du business, règlementations, souplesse du marché du travail). Ce n’est malheureusement pas la stratégie dominante en France.

Pour la SV française, 100% d’accord, même si nombreux sont les experts qui pensent que personne ne pourra en Europe recréer des conditions de succès de la Silicon Valley. Oui à la concentration physique (autour de la vallée de Chevreuse et de Saclay). C’est dans les propositions que j’ai faites et dont je parle depuis longtemps.

Répondre à ce commentaire

Commentaire 434 dans Transparence sur le revenu des startups, le 7 juillet 2008

Oui et c’est pour cette raison que les informations ne sont disponibles que pour les sociétés cotées : elles ne peuvent pas du tout se soustraire à l’obligation de publication de leurs résultats. Il y a matière à assainir un peu tout cela!

Répondre à ce commentaire

Commentaire 433 dans La vogue des netbooks, le 6 juillet 2008

Vu sur Bit-Tech, l’installation de MacOS sur le Wind de MSI.

Et son démontage au passage, qui semble très simple.

Répondre à ce commentaire

Commentaire 432 dans Forum sur Microsoft chez Challenges.fr, le 4 juillet 2008

Oui, il faut juste assumer !

Répondre à ce commentaire

Commentaire 431 dans Finalisation des propositions pour les Assises du Numérique, le 1 juillet 2008

@ Pierre : merci pour les encouragement. De tes 7 points, 6 sont déjà plus ou moins dans les propositions. Je n’ai effectivement pas traité de la LCEN et de ses petits-frères car plein de gens d’en chargent actuellement.

@ Yohan :

Point 1 : Ca m’a l’air bien compliqué ! Cela couvre la phase du démarrage, qui ne semble pas être la plus problématique en France. C’est surtout après (le chemin qui va vers la « gazelle ») que le déficit est le plus fort. Et évidemment, aussi en amont, dans le passage à l’acte vers l’entrepreneuriat.

Point 2: J’aime bien l’idée, mais pas entre les mains d’une administration ! Je traduirai ce que tu demandes en une mesure qui ne concerne pas directement l’Etat : que les incubateurs et autres associations subventionnent la participation des jeunes entrepreneurs aux événements « de réseautage » payants (et chers) comme LeWeb3. Donc, pas à intégrer dans ce plan là qui est fait pour ‘l’Etat’.

Point 3: J’ai intégré cette proposition dans la seconde de la rubrique sur l’international.

Point 4: Bonne idée. Si tu fais un listing, l’effet stagiaire viendra des élèves plus que des entrepreneurs! C’est au cas où tu ferais une liste d’élèves candidats que tu aurais l’effet que tu crains ! J’ai entendu parler d’une liste des JEI sur le site d’Oseo… mais ne l’ai pas trouvée ! Au Royaume Uni, c’est une boite privée qui vend cette liste ! (http://www.ventureone.com/). Je préfère être sur que cela n’existe pas déjà avant de le demander. Quelqu’un a une piste ?

Point 5: C’est déjà évoqué dans pas mal d’endroits, autour de la faible culture du risque et de son impact sur le marché intérieur.

Merci pour tous ces feedbacks !

Olivier

Répondre à ce commentaire

Commentaire 430 dans Le marketing de Firefox 3, le 28 juin 2008

Le débat n’est-il pas un peu éculé?

Sémantiquement, Microsoft est une entreprise innovante car elle met sur le marché des technologies nouvelles qu’elle réussit à commercialiser en volume.

On confond souvent innovation et invention. Microsoft est innovant. Mais en apparence, Microsoft n’invente pas grand chose. En fait, Microsoft invente beaucoup de choses, mais qui ne sont pas forcément visibles car liées à des produits moins connus que Windows ou Office.

Les deux termes d’innovation et d’invention recouvrent la notion de création d’une nouvelle catégorie de produits et les créations incrémentales. Microsoft a créé relativement peu de catégories nouvelles de produits (comme la suite Office). Mais beaucoup de fonctionnalités nouvelles. Rien que dans Office, il y a des dizaines de fonctionnalités apparues dans la suite qui étaient nouvelles au moment de leur mise sur le marché (spellcheck dynamique dans Word par exemple, certains aspects du multilinguisme). Dans l’offre serveur, c’est pareil, avec des tonnes de nouveautés inédites (moniteur transactionnels objet). Mais souvent, c’est assez pointu et pas forcément grand public.

Microsoft a des milliers de brevets et des dizaines d’accords de licences croisées avec de nombreux industriels, preuve d’une certaine forme de créativité. Même si certains vont évidemment contester la bien fondé des brevets dans le domaine du logiciel, une grande part de ces brevets relève d’une véritable créativité technique. A moins de considérer que par principe, les dizaines de milliers de développeurs et les centaines de chercheurs de Microsoft sont par construction tous des billes. Le système de valeur et de management de Microsoft n’est pas parfait, mais pas au point de transformer toutes ses recrues (de très bon niveau) en écervelés tout de même !

Apple est souvent comparé à Microsoft. Mais Apple ne se distingue pas forcément dans la notion d’innovation ni dans cette de l’invention. Car Apple n’a pas inventé grand chose non plus. Le Macintosh est largement inspiré du Star de Xerox. La réussite d’Apple est d’avoir commercialisé le Mac à grande échelle ce que Xerox a complètement loupé avec son Star (apparu en 1980, le Mac étant sorti en 1984, après le Lisa en 1983).

Dans tous ses succès, Apple a réussi plus de par un effort sur la qualité, sur l’ergonomie (avc beaucoup d’innovations incrémentales), grâce à l’intégration verticale de ses produits (hard+soft+services), et par son marketing, que par l’invention à proprement parler. Ils ont pratiqué l’innovation incrémentale au même titre que Microsoft.

On a trop tendance à vouloir considérer que l’innovation (ou les inventions) sortent “des entreprises”. Non, elles relèvent d’un parcours bien plus sinueux qui commence souvent dans les universités et laboratoires de recherche, dans les startups, chez certaines personnes inventives dans les entreprises, avec des échanges dans tous les sens. C’est ce que l’on appelle “l’open innovation”. Et Apple comme Microsoft ou Google en bénéficient régulièrement.

Ensuite, il y a des innovations croisées dans la technologie et les business models. Microsoft a innové avec le modèle de vente OEM des OS (modèle contesté évidemement). Et cela a eu un impact technologique fort sur les évolutions et la constitution de Windows. Autant pour le meilleurs (choix de PCs et de périphériques pour les clients) que pour le pire (pbs de compatibilité et de fiabilité). Apple a par certains côtés innové à rebrousse poil de l’intégration horizontale du marché avec l’iPod, qui est très intégré verticalement (hard + iTunes + contenus).

Apple a aussi inventé la notion “d’évangélisation” de la technologie, un concept marketing maintenant utilisé par Sun, Microsoft et les autres. Ils ont inventé la startisation de leur patron. Rappelez-vous les années Apple sans Steve Jobs. On avait l’impression à cette époque là qu’il ne sortait pas grand chose de bien de l’entreprise. Et maintenant, ce sont des oh et des ah à chaque keynote de Steve Jobs. Il n’y a pas que de l’invention ou de l’innovation, il y a aussi un bon marketing. Et effectivement, à ce jeu là, Microsoft a beaucoup à apprendre.

Répondre à ce commentaire

Commentaire 429 dans Point sur les propositions pour les Assises, le 27 juin 2008

AR, nous sommes 100% en phase. Une grande partie des propositions tourne autour de ce rééquilibrage :

– L’innovation demande pas seulement de la R&D, mais beaucoup plus : marketing, vente, international.

– Les dispositifs d’aide doivent être renforcés sur ces points là, simplifiés dans l’ensemble et avec un plus grand concours du “privé” (business angels, etc).

Reste à traduire tout cela en mesures précises “clé en main” pour le gouvernement. Ce qui n’est pas forcément évident. Par exemple, pour la répartition de l’aide R&D vs S&M, on peut par exemple modifier les critères d’obtention du label JEI d’Oséo, et élargir les aides à la dimension Sales&Marketing.

Pour les accompagnements, il y a beaucoup de discussions sur la notion de “guichet unique” où il faut distinguer la partie administrative/dossiers/financements, et la partie coaching/accompagnement/conseil.

J’ai un gros boulot de consolidation de divers feedbacks pour ce week-end. Une nouvelle mouture du plan en sortira !

Stay tuned!

Répondre à ce commentaire

Commentaire 428 dans Point sur les propositions pour les Assises, le 25 juin 2008

@Youen: je corrige donc cela dans la prochaine version du plan.

@JM: beaucoup de bonnes propositions à creuser. Cf commentaires:

– Guichet unique.

Où mettre ce guichet ?

– “Décharger” intégralement les 2 ou 3 premiers salaires pendant la période de démarrage (2 ou 3 premières années).

Pour les startups des TICs? Et après, on va avoir les hôtels restaurants qui vont demander la même chose (après la TVA), etc. Pas évident!

– Permettre une comptabilité simplifiée (à inventer ?)

Cela serait aussi pas mal pour les feuilles de paye…

– Favoriser le “crowd funding” et l’appel public à l’épargne. Si j’investis dans une pme je n’ai que 25% de mon investissement en crédit d’impot alors que c’est 100% si je suis à l’ISF… il y a beaucoup plus de personne en dehors de l’ISF.

Il semble que la disposition ISF de la loi TEPA ait eu un bon effet. Maintenant, il subsiste un trou de financement entre les 200K/400K€ et 1,5m€ pour les startups, avant que les VCs ne prennent le relai. Et le crowd funding n’est pas forcément la réponse.

– avantager fiscalement l’apport intellectuel que pourrait fournir un sponsor (entreprises, institutions)

Pouvez-vous préciser ?

– ouvrir un bureau dans 4 ou 5 pays majeurs et les régions de France, et permettre la circulation info et rencontres dans ce réseau, voyages, visio après des formations en langue adapté au métier exercé, favoriser le “stage” d’entrepreneur en immersion avec en cible les pays fournisseurs ou partenaires ou commercialement ciblés.

Idem? Mérite d’être précisé. Bureau de qui avec qui dedans pour faire quoi exactement ?

– Réinventer complètement le “congé projet/création”.

A préciser également.

– Inventer les mêmes avantages fiscaux / financiers des JEI sans la partie R&D et l’adapter pour les besoins RH, formation, transformation, marketing.

100% d’accord et figure déjà dans le plan.

– Favoriser économiquement l’exportation des biens et services pour qu’ils soient attractifs pour les clients potentiels.

Figure dans les objectifs du plan. A quelle mesure précises pensez-vous ?

– Avantager le recrutement des seniors et jeunes diplomés dans les entreprises en création

Sous quelle forme?

@Damien : c’est un peu hors sujet dans le plan. Mais c’est une application spécifique que le gouvernement pourrait mettre en place, sur appel d’offre. Et si cela pouvait permettre aux entreprises françaises de le gagner et de réussir, elles pourraient ensuite exporter le procédé.

@Hervé : je viens de parcourir le touffu article de Amar Bidhe. Il contient des thèses à tiroirs complexes difficiles à résumer. Pour ce qui est de la France, je constate en tout cas que dans les TICs, nous ne sommes NI un gros producteur, NI un gros consommateur au regard des pays les plus avancés et même de la moyenne européenne…

Merci à tous, le travail de consolidation des idées continue !

Répondre à ce commentaire

Commentaire 427 dans Propositions pour les Assises du Numérique, le 23 juin 2008

Je remercie Youene Chene de Rouen (Your Software 276) et Jérémy Fain (Emerald Vision) de Paris, deux jeunes entrepreneurs qui m’ont fait un tas de suggestions pour améliorer ce document. Une version 0.86 est maintenant en ligne qui les intègre. Elle concerne notamment l’aide aux jeunes entrepreneurs et l’enseignement supérieur.

Répondre à ce commentaire

Commentaire 426 dans Ecosystèmes virtuels ou réels ?, le 18 juin 2008

Oui, bien sûr, il y a eu mélange de hasard et de circonstances favorables.

On ne va pas par exemple s’amuser à créer des pôles de compétitivité (dans d’autres pays ou aux USA) dans des régions sismiques ou connues pour la grandes fréquence de leurs catastrophes naturelles pour créer le “sens du risque”.

En France, on peut tout de même s’inspirer de ce qui est potentiellement reproductible de la Silicon Valley. Et éviter de faire tout le contraire (saupoudrage des pôles de compétitivité, trop d’aide aux grandes boites, faible culture du risque, pas assez d’investissements privés, …).

Répondre à ce commentaire

Commentaire 425 dans Ecosystèmes virtuels ou réels ?, le 17 juin 2008

Jlc, on en est bien loin de la Silicon Valley !

La Silicon Valley ne “confisque” pas le capital sciemment. Elle bénéficie par effet de gravitation de sa masse critique. Et effectivement, le reste des USA ne voit pas cela d’un bon oeil !

La grande question est de savoir comment orienter l’action publique en Europe et en France pour ne pas trop s’éloigner des modèles qui fonctionnent bien.

Pas évident…

Répondre à ce commentaire

Commentaire 424 dans Financement de l’innovation et SBA, le 13 juin 2008

Il me semble que dans les projets du gouvernement sur les révision du droit du travail, il y a des points qui traitent de cette question.

Il y a aussi quelques dispositions favorables à l’entrepreunariat intégrées dans le projet de loi de modernisation de l’économie (voir le dossier de presse). Notamment: nouveau régime fiscal pour le capital risque, l’atténuation des effets de seuils financiers du nombre d’employés des PME, réduction des délais de paiement. C’est pas énorme, mais cela va dans le bon sens.

Répondre à ce commentaire

Commentaire 423 dans Financement de l’innovation et SBA, le 13 juin 2008

Alors, allons-y pour les propositions !

Qu’est-ce qui aurait précisément empêché ces deux ingénieurs de partir à Londres pour créer cette entreprise ? Le changement du droit du travail ? A quel niveau exactement ? En France, on peut très bien licencier rapidement et facilement. Mais le coût peut en être prohibitif. Là est le problème !

Au passage, quelle est la source de ce 40% de départs des diplômés (je suppose… “créateurs d’entreprises”) ?

Répondre à ce commentaire

Commentaire 422 dans Les super-profits de Total ?, le 13 juin 2008

Oui, il n’était pas mauvais, et posé comme d’habitude. Avec une maitrise des détails et des chiffres assez étonnante. On ne l’a pas vu trébucher là-dessus.

Mais il aurait pu répondre de manière plus directe sur le pourquoi du comment de l’équilibre de la pression fiscale vis à vis des gens qui entreprennent. Il y a toujours une gêne à appeler un chat un chat dans cette majorité.

Ce qui s’explique facilement : les réductions fiscales pour les plus aisés ne sont pas forcément assez bien ciblées sur ceux qui entreprennent ou qui les financent. La plus grosse erreur a probablement été cette modification du plafond d’exonération des droits de succession. C’était certes une promesse électorale. Mais franchement pas urgente car ses effets économiques induits sont mineurs.

Il faut dire que la fiscalité directe (autant l’IR que l’ISF) est devenue tellement complexe qu’il est difficile pour tout gouvernement d’en expliquer le sens.

Autre réponse que je trouve toujours timide: celle qui concerne le pouvoir d’achat. Il faut affirmer plus haut et fort que nous sommes dans une économie où il faut améliorer notre compétitivité, nos innovations, se bouger, pas juste “travailler plus” quantitativement. Que c’est le prix à payer (et à investir) pour augmenter le pouvoir d’achat. Et que cette augmentation sera un effet indirect d’une politique long terme. Et d’accepter de dire qu’en ce moment, oui, le pouvoir d’achat baisse du fait du marché mondial des matières premières, et de celui de l’immobilier, qui n’est pas encore à la baisse. Et que ce sera dur plutôt que de tourner autour du pot.

Répondre à ce commentaire

Commentaire 421 dans Transparence sur le revenu des startups, le 12 juin 2008

Oui, le côté vs non côté est le premier biais qui explique la transparence ou pas des comptes.

Mais de manière non régulatoire, l’Internet a un impact. Les logiciels ne sont pas concernés. Ce sont les startups Internet qui vivent de la publicité qui en général ne sont pas transparentes. En effet, elles peuvent passer pas mal à de temps à générer une audience avant d’acquérir la capacité de la monétiser. Elles communiquent donc volontiers sur l’audience car celle-ci est auditable (Alexa, Compete, Nielsen). Mais pas sur leur CA, trop modeste quand ce n’est pas inexistant pendant longtemps.

Pour ce qui est de l’obligation de publier des comptes pour les sociétés non cotées, aucune idée. Et si publication il y a, il y a-t-il aussi “publicité” ? Ou est-ce juste destiné aux SIE (Services d’Imposition des Entreprises) ?

Répondre à ce commentaire

Commentaire 420 dans Transparence sur le revenu des startups, le 11 juin 2008

Elles étaient sélectionnées oui, car le CA n’était pas fourni pour certaines sociétés dans lesquelles les investissements étaient récents. Mais dans l’ensemble, c’est pas mal. Et cela témoigne peut-être de la bonne santé du fond et de la qualité de leurs sélections. Encore que je ne sois pas suffisamment bien informé pour me prononcer de ce point de vue là.

Répondre à ce commentaire

Commentaire 419 dans Transparence sur le revenu des startups, le 10 juin 2008

Bonjour Nicolas,

societe.com est bien, mais cela ne te donnera pas le CA des boites qui ne le déclarent pas car elles ne sont pas obligées de le faire !!!

Répondre à ce commentaire

Commentaire 418 dans Les super-profits de Total ?, le 9 juin 2008

Bonjour Jonathan,

Oui, il est bon de remettre les pendules à l’heure.

Petit point de sémantique: quand tu dis que les bénéfices sont réinvestis là où là, ce n’est pas vrai financièrement. En effet, les investissements sont intégrés au compte d’exploitation. Et les bénéfices, c’est ce qui reste après avoir intégré tous les coûts – dont les investissements – et payé les impôts.

Les bénéfices d’une société vont en général dans trois directions:
– Des dividendes aux actionnaires (39% du résultat net de Total SA)
– Des rachats d’actions pour soutenir le cours de l’action et diminuer la partie “flottante” du capital.
– Alimenter la trésorerie pour parer au futur: acquisitions de sociétés en cash, plans de restructuration, gros investissements, etc.

L’équilibrage des trois destination est parlant de l’équilibre de la relation d’une boite avec ses actionnaires (les deux premiers points) et avec la préparation du long terme (le dernier point). Il est aussi lié à l’évolution du cours de l’action. Dans les boites en forte croissance de la high-tech, il n’y a pas beaucoup de versements de dividendes. C’est lorsque la croissance ralentit – et le cours de l’action avec – que les boites commencent généralement à distribuer des dividendes.

Maintenant, pour ce qui est de l’impact de l’évolution du prix du baril, lié à une forte spéculation sur les matières premières, il est significatif : le prix de revente du baril et des produits dérivés du pétrole est supérieur. Mais est-ce que les coûts d’approvisionnement augmentent autant ?

Le détail du mécanisme financier au sein d’un groupe comme Total mériterait un éclaircissement d’un spécialiste !

Olivier

Répondre à ce commentaire

Commentaire 417 dans Retour des Assises du Numérique, le 5 juin 2008

Robert, j’ai corrigé le lien qui était incorrect (le dernier…). Vous devriez pouvoir le recharger. Par contre, il manque quelques minutes du début.

Répondre à ce commentaire

Commentaire 416 dans Suite des Assises du Numérique, le 5 juin 2008

Tatiana, j’ai enlevé cette expression. Pourtant je suis sûr de ne pas avoir rêvé et de l’avoir lu quelque part. Si ce n’est pas chez Natacha, c’est chez une autre bloggeuse, donc, non présente à ce diner. D’où la confusion. Mais en googlelisant ces termes, je n’en retrouve pas la trace. Donc, c’est une preuve de gâtisme du bloggeur sans doutes…

Répondre à ce commentaire

Commentaire 415 dans Suite des Assises du Numérique, le 4 juin 2008

Julien,

On n’a pas de “légitimité” particulière lorsque l’on est bloggeur. On est à cheval entre un ou des métiers et un statut proche de celui de média, donc potentiellement de “leader d’opinion”. Les bloggeurs réunis étaient en tout cas pour certains des entrepreneurs (Planche, Glazman, Dubost, Menneveux). Donc, ils cumulaient visiblement les deux casquettes, plutôt appropriées pour influer sur le cours des événements.

Besson a déjà visiblement rencontré plein d’entrepreneurs. Ne serait-ce que la veille de notre diner, dans le débat avec des entrepreneurs du web qui avait lieu à La Cantine.

Mais tu as raison, dans l’ensemble, le sujet de l’entrepreneuriat n’est pas assez bien traité par le “plan numérique” en cours de gestation. Il y a une fenêtre de tir assez courte pour changer cela.

Répondre à ce commentaire

Commentaire 414 dans Retour des Assises du Numérique, le 4 juin 2008

Franck, j’ai corrigé ces deux points. Merci de les avoir signalés.

Répondre à ce commentaire

Commentaire 413 dans Suite des Assises du Numérique, le 4 juin 2008

@Jean-Marie, merci pour le pointeur, qui correspond à une impression générale. Que Besson a promis de corriger en acceptant l’idée d’organiser une réunion “d’écoute” avec des consommateurs et entrepreneurs (donc, j’imagine avec des associations de consommateurs). Je crois que Daniel Glazman va lui faire une proposition détaillée dans ce sens. Sinon, que les lobbies industriels soient plus puissants que les associations de consommateurs, cela ne devrait pas surprendre grand monde. Mais les associations de consommateurs sont entendues, à défaut d’être prises en compte.

@Daniel, je suis d’accord sur le besoin de ne pas victimiser les femmes. Mais le point de Natasha portait sur le fait que les femmes étaient nombreuses dans les blogs politiques et que ceux-ci étaient sous-représentés dans la table ronde. Donc, vous avez tous les deux raison…

@Olivier, si j’ai bien compris, les Assises du 29/5 étaient au départ une manifestation mélangeant acteurs privés et élus. Elle est devenue une plate-forme gouvernementale pour le lancement des Assises, suite à la nomination d’Eric Besson au numérique. Mais l’événement a conservé ses sponsors privés au passage, le cabinet de Besson étant probablement bien content de pouvoir autofinancer (au moins partiellement) l’événement grâce à ces sponsors privés. En mettant de côté quelques interventions, telle que ce gars d’Alcatel, la présence des sponsors n’était cependant pas trop voyante. Elle a d’ailleurs baissé avec la transformation de l’événement par rapport à ce pour quoi ils avaient payé initialement. Entre temps, ils devaient théoriquement s’y retrouver car l’audience est passée de 300 personnes (payantes, prévues dans l’événement initial) à plus de 1000.

Répondre à ce commentaire

Commentaire 412 dans Retour des Assises du Numérique, le 3 juin 2008

@the developer: lien corrigé. J’avais commis l’erreur d’intégrer des lettres accentuées dans les noms de fichiers et cela ne passait pas. J’ai donc enlevé les accents.

@Pierre: aucune info sur le sujet donc, espérons qu’un lecteur en saura plus.

@leafar: on peut toujours contester le choix des intervenants. Ici, c’est le star system qui a peut-être joué. Ou ces intervenants ont peut-être joué des coudes pour s’ajouter dans les tables rondes. C’est l’impression que donnait la présence de Pierre Bellenger et Bernard Charles. Quant aux idées, chacun est libre de contribuer. En ayant en tête qu’il faut proposer des actions qui sont à la portée de la puissance publique: lois, décrets, organisations, subventions ou incitations fiscales.

Répondre à ce commentaire

Commentaire 411 dans Lancement des Assises du Numérique, le 3 juin 2008

Il y avait aussi des entrepreneurs comme Tariq Krim (NetVibes) ou Pierre Bellanger (SkyRock). Mais c’est vrai qu’aux US, ce genre de colloque n’a pas besoin des politiques…

Répondre à ce commentaire

Commentaire 410 dans Enfin, un GPS dans un appareil photo !, le 29 mai 2008

On peut se permettre un peu d’utopie non?

L’idée que j’avais s’applique bien entendu “en priorité” à la photo en extérieur. Donc, plus facile d’être en portée de sat. Et par ailleurs, il existe maintenant des technos d’accéléromètres qui permettraient d’ajuster la position lors que les sat ne sont pas disponibles. Rien n’est impossible, c’est plutôt une question de coût et de marché.

Répondre à ce commentaire

Commentaire 409 dans Financement de l’innovation et SBA, le 26 mai 2008

Il me semble qu’il existe de grosses différences dans le financement de la recherche:
– L’Etat fédéral américain finance beaucoup la recherche privée sous contrats, en particulier dans le secteur de la défense. Les grandes agences de recherche financent les labos des universités – privés comme publics – et des labos privés.
– L’Etat français finance plutôt des établissements publics de recherche qui à leur tour financent de manière dispersée des labos de recherche d’universités (publiques). Il n’est pas rare de voir des labos d’université financés par trois à cinq organismes de recherche, eux-mêmes publics.

Mais je n’ai pas les données sous la main pour étayer cela. Un peu de recherche est nécessaire…

En gros, le public finance le privé aux US tandis
qu’en France, le public finance plutôt le public. D’où un bouclage plus difficile avec le privé pour le financement de l’innovation (les boites privées qui diffusent les nouvelles technos en volume).

Répondre à ce commentaire

Commentaire 408 dans Enfin, un GPS dans un appareil photo !, le 26 mai 2008

Il existe quelques limitations des lois de la physique et de l’optique qui rendront cela difficile.

1) Une optique de petit format ne peut pas capter beaucoup de lumière ni permettre un contrôle de la profondeur de champ comme on le fait sur un réflex.

2) Un petit capteur a une sensibilité faible et capte lui aussi peu de lumière. On ne peut pas non plus avoir de gros capteur dans un mobile car il n’y a pas assez de recul avec l’optique.

3) Difficile de placer un zoom dans un mobile.

4) Et comme pour tous les appareils mobiles, des considérations de consommation électriques limitent l’ensemble.

Bref, les capacités des fonctions photo des mobiles seront toujours en retrait de celles des appareils photos dédiés.

Par contre, les contraintes pour la vidéo sont un peu moindres donc on devrait encore voir des progrès spectaculaires de ce côté là. Avec même de la HD.

Répondre à ce commentaire

Commentaire 407 dans Tutorial Outwit – récupération d’images, le 26 mai 2008

Outwit fonctionne avec toute sorte de sites, pas seulement Google Images. Mais il existe effectivement des contre-mesures à ce genre d’outils.

Répondre à ce commentaire

Commentaire 406 dans Enfin, un GPS dans un appareil photo !, le 19 mai 2008

C’est une question d’usage et de génération… Les jeunes étant plus perméables à ces nouveaux scénarios. Je vois bien l’usage en cas de tourisme dans de nombreux endroits que l’on visite les uns après les autres (en voyage de groupe ou non).

Mais il y a beaucoup de poésie en moins avec la technologie, et pas seulement avec le GPS. Certains regrettent encore le développement de la photo dans le labo en lumière rouge. Même s’ils l’ont maintenant remplacé par le traitement en RAW avec Photoshop, ce qui donne un peu de mystère et de technique au procédé.

Au passage, j’ai eu l’occasion d’évoquer “la délocalisation du cerveau vers le numérique” dans ce post écrit en octobre dernier.

Répondre à ce commentaire

Commentaire 405 dans Nouvelle mouture du guide pour les entrepreneurs, le 19 mai 2008

Alex, un blog est un moyen assez courant aux US pour donner des nouvelles sur la vie de la startup et surtout de son produit. Il l’est moins en France. Il existe une alternative qui consiste à créer un groupe Facebook, l’avantage étant de créer assez facilement une liste de diffusion d’informations (nouvelles release, etc) à ceux de vos utilisateurs qui s’y sont inscrits d’eux-mêmes.

L’approche de Loic Lemeur est intéressante mais un peu extrême. On n’a pas besoin d’avoir le vécu quotidien sous forme de vidéo du créateur de sa boite. Une fois cela va (et dans son cas, pour un frenchie qui s’établit dans la Silicon Valley), au delà, cela devient rasant.

Il est donc bon de créer son blog en ayant bien en tête son objectif marketing. Par exemple:
– Montrer que le projet vit bien.
– Informer de l’évolution du produit.
– Créer un canal d’écoute de ses utilisateurs et de son marché,

Petit point: éviter le blog anonyme. Il vaut mieux signer les posts, et c’est encore mieux lorsque plusieurs contributeurs de la société s’y mettent.

Répondre à ce commentaire

Commentaire 404 dans Financement de l’innovation et SBA, le 18 mai 2008

Si il fallait faire une analogie, les prêts bancaires garantis par la SBA ont comme équivalent ceux des Réseaux Entreprendre ou de France Initiative, et couvrent toutes les PME. Ces organisations sont souvent aidées ou financées par des collectivités locales (et une agence fédérale pour les USA avec la SBA).

Par contre, les SBIC américains n’ont pas vraiment d’équivalent. Ils concernent la partie du financement d’amorçage mal couverte par les business angels: les tours entre 200K€ et 1,2m€.

Autre différence, la structure de la fiscalité qui encourage les PME innovantes qu’il serait bon d’étudier et comparer plus en détail.

Répondre à ce commentaire

Commentaire 403 dans Equipement TIC des foyers en France, le 16 mai 2008

Hugues,

Le tableau sur l’accès Internet s’arrêtait en 2006. En extrapolant, on retrouve bien le taux de 50% que tu décris. Pour ce qui est de l’accès haut débit par habitant, si on prend un taux de 2 à 2,5 personnes par foyers, on n’est pas loin du compte avec ces données ECTA, en prenant Q2 2007 pour les données ARCEP. Est-on en avance pour autant? La question est “par rapport à qui?”. Pas par rapport aux 8 pays qui sont devant nous… Mais on est un peu en avance par rapport à l’Allemagne.

En tout état de cause, un travail sur le diagnostic précis de ces différents retards serait de bon aloi pour ajuster les politiques publiques et les offres privées.

Répondre à ce commentaire

Commentaire 402 dans Nouvelle mouture du guide pour les entrepreneurs, le 15 mai 2008

Il y a plein de raisons pratiques qui font que ce n’est pas la bonne approche: fréquentes mises à jour, informations qui se périment rapidement. Et puis, mon “modèle” consiste à bénéficier indirectement de la diffusion large permise par un blog. Comme en plus, cela rend service à plein de jeunes entrepreneurs, c’est du gagnant gagnant.

Répondre à ce commentaire

Commentaire 401 dans Trop d’Etat – Où ça? – Bien en PDF…, le 14 mai 2008

Il me semblait qu’il y avait aussi un autre point clé : de toutes manières, les retraites du public sont budgétisées et ne fonctionnent pas par répartition. A savoir qu’elles sont intégrée dans le budget de l’Etat en fonction d’un calcul qui ne procède pas de la répartition. Et leur financement est partiellement couvert par les recettes de cotisation en effet.

Répondre à ce commentaire

Commentaire 400 dans Enfin, un GPS dans un appareil photo !, le 13 mai 2008

Oui, depuis un an ou deux, il y a aussi Pharos et Sony qui proposent ce genre de devices.

Anecdote: au CES de Las Vegas de janvier dernier, je suis passé sur le stand Pharos, qui est à la fois constructeur du composant GPS vendu en OEM, et de produits finis l’intégrant. Je leur ai suggéré de vendre le composant à des constructeurs d’appareils photos. Leur réponse a été “ça c’est une bonne idée, on n’y avait pas pensé…”. A leur décharge, il s’agissait pas de “décideurs”. Soit c’était une boutade, soit ils étaient nuls, soit les deux… :). Comme en général les américains sont assez directs et qu’il ne faut pas chercher à surinterpréter ce qu’ils disent, ils n’y avaient tout bonnement pas vraiment pensé, au moins “à la base”.

Répondre à ce commentaire

Commentaire 399 dans Enfin, un GPS dans un appareil photo !, le 12 mai 2008

Olivier, bien vu, une connexion avec un mobile pourrait faire l’affaire… pour le “push to publish”. Fonctionnalité qui n’est pas indispensable au demeurant.

Fabien, tout dépend ce que l’on entend par photo. La qualité d’une photo d’un mobile a tendance à se rapprocher progressivement de celle des compacts d’entrée de gamme. Mais elle n’atteindra jamais celle d’un réflex. Pour des raisons physiques assez incontournables: taille et consommation des capteurs, et taille des optiques (une “petite” optique ne permet pas de zoomer correctement ni de contrôler la profondeur de champs).

Répondre à ce commentaire

Commentaire 398 dans Equipement TIC des foyers en France, le 12 mai 2008

C’est un petit peu court de faire le rapprochement entre la tendance politique des personnes âgées et leur équipement informatique…

Le point commun serait le conservatisme? Mais Sarkozy n’est pas un conservateur : il change tout, tout le temps, et sans s’arrêter. Pas dans la bonne direction pour les uns, et pas assez vite pour les autres !

En tout cas, oui, il faudrait pouvoir mieux comprendre où sont les réfractaires aux TIC et pourquoi. Pour les segmenter et prioritiser les choix politiques de promotion des TIC.

Répondre à ce commentaire

Commentaire 397 dans Autres benchmarks de l’OCDE, le 12 mai 2008

Il est aussi intéressant de voir qui détient cette dette? Les acteurs économiques du pays ou de l’étranger? Il serait intéressant d’avoir une comparaison de cette proportion? A mon sens, la dette nette d’un pays vis à vis de l’étranger est un autre bon signe de son réel endettement. Et là, on risque d’avoir des surprises (notamment avec le rôle des chinois vis à vis des US, et probablement également des pays Européens dont la France).

Répondre à ce commentaire

Commentaire 396 dans Partage d’expérience à Capital Week, le 12 mai 2008

Nicolas, merci pour ces éléments qui complèteront la prochaine version du guide (sachant que certains y sont déjà).

Jean-Denis, oui, les bonnes images marquantes rappellent de bons principes. Raconter une histoire est une bonne pédagogie…

Répondre à ce commentaire

Commentaire 395 dans Leçons de deux ans de blogging, le 9 mai 2008

Hervé,

D’après les stats fournisseurs d’accès de Google Analytics, nous avons dans l’ordre décroissant:

Centrale Paris (j’y enseigne), Télécom Paris (du fait de son incubateur très actif), Centrale Lyon, Centrale Lille, HEC, Supelec, ESIEE, ENS Cachan et l’ESC Nantes. Et pas d’X de visible. Cela veut dire que le buzz dans les grandes écoles est encore bien incomplet!

En proportion, c’est difficile à dire. Au nez, je dirais 4 à 5% via les domaines fournisseurs. Sachant que les FAI représentant environ la moitié du trafic!

Pour ce qui de la gente féminine, aucun outil ne permet de le savoir. J’ai tout de même eu l’occasion de croiser des lectrices dans de nombreux événements (entrepreneurs, etc) et dans mes cours. Mais n’ai pas eu d’action spécifique permettant d’augmenter en amont le trop faible nombre de femmes qui agissent dans les secteurs d’activité couverts par ce blog.

Répondre à ce commentaire

Commentaire 394 dans Nouvelle mouture du guide pour les entrepreneurs, le 9 mai 2008

Lucite,

Le format PDF que je génère n’a effectivement pas l’air de satisfaire tout le monde. En plus des problèmes de rendering sur Mac, il y a aussi des liens intempestifs pour les images sur mon poste de travail. J’utilise le générateur de PDF de Microsoft pour Office 2007. Il va falloir que j’investigue pour savoir d’où viennent ces problèmes de restitution et s’ils sont traités d’une manière ou d’une autre. Avis techniques bienvenus…

Pour ce qui est de la mise en place d’une révision collaborative du document, j’ai eu la même réflexion et suis tombé sur la même conclusion: pas facile ! Effectivement, le wiki est une bonne chose, mais plus dans un optique glossaire évolué / dictionnaire des termes clés que pour une rédaction en partie narrative comme je le fais. Et de plus, je tiens à préserver un certain contrôle du document. Donc voilà, ce n’est pas aussi ouvert que le serait un Wiki, mais c’est collaboratif au sens où le document est libre d’accès et où je le modifie au gré des commentaires, corrections et suggestions reçus depuis sa création. Avec les commentaires ci-dessus, j’ai déjà un bon batch de choses à faire pour la prochaine mouture. Continuez…

Par contre, je pourrais envisager de le publier également au format HTML avec hyperliens. Mais ce n’est pas bien “transportable” au regard de la praticité du PDF.

Répondre à ce commentaire

Commentaire 393 dans Enfin, un GPS dans un appareil photo !, le 8 mai 2008

La techno pour le tilt existe. Notamment dans un brevet CEA-LETI exploité par la société Movéa qui en est une spin-off. C’est basé sur un composant miniaturisé qui exploite notamment le magnétisme terrestre et la gravité.

C’est tout à fait possible de le faire. Après, la question est de savoir à quel coût. D’où l’intérêt de commencer avec les réflex, quitte à ce que ce soit du haut de gamme dans un premier temps.

Répondre à ce commentaire

Commentaire 392 dans Leçons de deux ans de blogging, le 8 mai 2008

Rthomas et Arnaud, merci pour votre témoignage et vos encouragements. A vrai dire, je ne me plaignais pas du manque de réactions car il y en a et de qualité sur ce blog. Vos réactions posées en sont d’excellents exemples. Et je suis ravi de voir que vous avez la fibre de l’entrepreneuriat.

Je remarquais surtout que les réactions étaient rares de la part de personnes qui travaillaient dans de grosses boites (et ce blog n’est pas spécifique de ce point de vue là). Et qu’elles étaient tout aussi rares sur les thèmes politico-économiques. Probablement parce que le blog n’est pas assez lu par les accros à ces sujets. C’est probablement le travers d’un blog éclectique.

Après, il y a certainement de mon côté l’effet “posts très long” qu’il faudrait modérer…

Répondre à ce commentaire

Commentaire 391 dans Enfin, un GPS dans un appareil photo !, le 7 mai 2008

Fimail, c’est pour cela qu’il est dommage que l’intégration n’ait pas commencé avec les réflex!

Iti, ces solutions de GPS externes existent effectivement, mais elles sont un peu usines à gaz. Pour démocratiser un tel usage, l’intégration directe du composant GPS simplifiera grandement la vie !

Au passage, il faudra si ce n’est pas encore le cas que les données de “tilt” de l’appareil soient intégrées. A savoir l’orientation de l’objectif en azimut et pas simplement nord/sud-est-ouest. Est-ce que c’est fourni par le GPS ou par une bousole électronique ?

Répondre à ce commentaire

Commentaire 390 dans Nouvelle mouture du guide pour les entrepreneurs, le 7 mai 2008

Mati,

Et bien, cela doit être possible! Je mets tout cela dans ma “todo list” qui s’allonge bien avec tous les commentaires déjà postés.

Petit commentaire : la corrélation entre le détail du mode de financement et le succès des startups qui ont réussi n’est pas toujours évidente. Le point était souvent humain : le talent de l’équipe pour convaincre, la relation de confiance avec les investisseurs et des investisseur “qui en ont” et investissent dans la durée et avec une forte valeur ajoutée. Mais il fallait cependant une dilution bien contrôlée et le bon financement au bon moment.

Certains entrepreneurs ont eu à traverser des zones économiques rouges, comme l’éclatement de la bulle hightech en 2000. Et on est rentré dans une crise économique qui va rendre plus difficile les financements pour quelques temps. Savoir traverser ces épreuves mérite peut-être quelques témoignages à intégrer dans le doc.

Continuez à charger le mulot !

Répondre à ce commentaire

Commentaire 389 dans Leçons de deux ans de blogging, le 7 mai 2008

Adrien, il est vrai que certains sujets peuvent ressembler à du transfert de savoir. Et c’est phase avec la partie de mon activité qui relève de l’enseignement.

Cependant, de nombreux posts si ce n’est la plupart présentent certes des faits mais expriment également des opinions, comme l’indique le titre. Et les opinions sont faites pour être discutées et confrontées aux expériences des uns et des autres. Il n’y a pas de raisons de se plaindre car les contributions sont correctes.

Ce qui intéressant, c’est que ces contributions sont plutôt typées: leurs auteurs sont plutôt jeunes, ont en général un peu d’expérience professionnelle, ils ne travaillent pas dans de grandes entreprises et sont souvent eux-mêmes créateur de leur business. En effet, au moins 8 des 10 premiers contributeurs du blog sont des entrepreneurs. Ce qui contribue à enrichir le transfert d’expérience vers les autres, pouvant par exemple être tentés par l’aventure.

Bonne continuation !

Répondre à ce commentaire

Commentaire 388 dans Leçons de deux ans de blogging, le 7 mai 2008

Pierre, merci pour ton “profiling” et surtout pour tes motivations à lire ce blog, et au sujetd des commentaires.

Je connais comme cela le profil individuel de centaines de lecteurs. Mais comme partout sur Internet, c’est un tout petit bout de l’audience. Surtout dans la mesure où 95% des lecteurs ne font pas de commentaires. Je ne connais pas le chiffre sur l’ensemble des Internautes. Le % d’Internautes qui contribuent sur les sites est au moins de 20% à 30%. Mais c’est une donnée globale qui ne s’applique pas à chacun des sites qu’ils visitent. Résultat, on retrouve un taux générique de 1 contributeurs pour 20 consommateurs. C’est un taux voisin pour les logiciels libres, et aussi pour le ratio entre informaticiens et utilisateurs d’informatique…

Répondre à ce commentaire

Commentaire 387 dans Nouvelle mouture du guide pour les entrepreneurs, le 6 mai 2008

Leafar, oui j’y ai pensé. A mettre dans un tableau XL avec commentaire des concepts de BSA, de dillution, de valo, etc.

Répondre à ce commentaire

Commentaire 386 dans Leçons de deux ans de blogging, le 6 mai 2008

Indeed.

Mon dernier billet sur Yahoo est de cette veine, ça tombe bien…

Répondre à ce commentaire

Commentaire 385 dans Nouvelle mouture du guide pour les entrepreneurs, le 6 mai 2008

Oui, toute expérience pratique permettra d’enrichir ce document. Visiblement, il n’y a pas tant d’endroits que cela sur le web où ce genre d’informations est consolidée.

Répondre à ce commentaire

Commentaire 384 dans Pas de mariage du tout …, le 6 mai 2008

Fimail,

On ne doit effectivement écarter aucun scénario. Mais s’il est une chose qui est sûre, c’est que Ballmer ne va pas décider en fonction des désidérata des analystes, contre lesquels il est d’ailleurs souvent assez remonté.

Si on penche dans les théories du complot, on pourrait aussi spéculer sur le fait que certains analystes favorisent l’acquisition par “self prophecy” car ils ont recommandé à leur client d’acheter du YHOO au moment de l’offre MS, et en ont peut-être acheté eux-mêmes…

Sans être dans le secret des dieux, je penche aussi pour la réalisation interne chez MS des énormes difficultés de l’intégration de Yahoo. Si l’acquisition avait été faite immédiatement, alors ils se seraient lancés tête baissée (en attendant toutefois l’autorisation des autorités de la concurrence US, la FTC). Alors que là, tout MS a eu le temps de cogiter sur les pour et les contre de la fusion. Comme chez MS, il y a tout de même une forte tradition de “grande gueule” dans le management, les problèmes ont du remonter dans la hiérarchie. Plein de questions ont été levées. Et le top management a du rencontrer des difficultés pour y répondre.

En gros, le risque perçu de l’acquisition a nécessairement augmenté dans le temps, tandis que le prix risquait d’augmenter. Comme dans toute vente, c’est mauvais signe. En général, l’acheteur cherche à réduire et les risques et le prix, pas à les augmenter. Là, il y a peut-être une stratégie maline de réduction du prix, mais cela ne diminuera pas le risque pour autant. D’autant plus que plus le temps passe, plus il continue d’augmenter. A l’ère de l’Internet, le temps est une valeur bien précieuse !

Répondre à ce commentaire

Commentaire 383 dans Pas de mariage du tout …, le 6 mai 2008

Bonjour Jean-Christophe,

Je n’ai pas vraiment écrit que Yahoo était le grand perdant de l’opération. Mais que si ils ne rebondissent pas après cet épisode, la pente sera très savonneuse. Et les actionnaires se mordront les doigts que le board de YHOO n’ait accepté l’offre de MS.

La fragilité de l’action de MS n’est pas due uniquement à l’affaire Yahoo. Il y a eu aussi un quarter déçevant et les discours récents du Gartner sur “la fin de l’écosystème de Windows” qui soufflent sur les braises de déboires de Vista.

La capitalisation de Yahoo ne peut pas être jugée sur le court terme. Une partie du marché pense encore que le deal avec MS peut se faire. Donc, il y a encore un peu de spéculation.

Mais que se passera-t-il si Yahoo annonce encore un ou deux quarters avec une croissance d’un chiffre comme les deux derniers quarters, voire pas de croissance du tout ? Alors que Google continue de croitre avec une tendance de +50%…

Pour moi, ni Microsoft ni Yahoo ne sont gagnants dans cette histoire. Ni leurs actionnaires.

Les seuls qui auraient pu gagner quelque chose dans la fusion étaient les actionnaires de Yahoo. Il serait très étonnant qu’une telle occasion se reproduise pour eux, avec une telle valorisation d’acquisition.

Répondre à ce commentaire

Commentaire 382 dans Nouvelle mouture du guide pour les entrepreneurs, le 5 mai 2008

Pour répondre à vos différentes remarques et questions :

@Franck Perrier : en fait, je cite mes sources, mais le style narratif du document n’utilise pas les citations. Par contre, j’ai utilisé les résultats de nombreux entretiens, discussions et conférences pour alimenter le document. Mais je suis très intéressé par l’intégration de témoignages structurés sous forme d’encadrés.

Pour ce qui est des VCs vus par beaucoup de monde, il y a beaucoup d’avis tranchés dans la nature. Les VCs français en prennent pour leur grade. Mais comme pour tout métier, un peu de compréhension et d’empathie permettent d’aplanir les choses.

@Christophe: je fais état du besoin d’une bonne veille technologique. Les sources d’information sont très dépendantes du secteur d’activité de la startups et de sa concurrence existante ou potentielle. Je suis preneur de suggestions pour traiter de ce sujet complexe dans un document qui se veut quelque peu intemporel (pas trop lié à l’actualité).

@Stéphane: très bonne remarque. Je vais ajouter cela dans le doc. Jérémy Fain (Emerald Systems) m’a aussi fait part de la difficulté du jeune entrepreneur à faire les choses dans le bon ordre et va contribuer un de ces 4 sur le sujet.

Et thxs pour les remerciements de leafar “U-Lik”, Mickael “MyPronostic.com” et Jean-Christophe “FriendsClear”!

Répondre à ce commentaire

Commentaire 381 dans Réflexions sur le réflex, le 5 mai 2008

La qualité du capteur est en effet le point clé d’un réflex.

Ensuite, il y a :
– L’autofocus : nombre de points, rapidité
– La rapidité : nombre d’images /s, surtout si on photographie du sport et autres personnes en mouvement
– La qualité des automatismes car on ne peut pas toujours travailler en mode manuel.
– Le viseur et son angle de vue (le plus proche de 100% étant le mieux)
– L’ergonomie générale, des menus, le contrôle de la balance des blancs, etc
– L’écosystème: catalogue d’objectifs de la marque et tierces-parties, accessoires divers (télécommande, flashs externes, …)

Et plus récemment sont apparus :
– Le nettoyage automatique du capteur
– Le mode LiveView pour voir les photos avant de les prendre sur l’écran
– Des écrans de plus en plus grand (3 pouces)
– Le wifi (intégré ou en add-on)
– Le stockage bi-carte, et même de plus en plus en SD card (moins chères) au lieu des CompactFlash

Répondre à ce commentaire

Commentaire 380 dans Réflexions sur le réflex, le 4 mai 2008

Le marché a quelque peu changé depuis mon article (il y a un an et demi).

Les réflex ont vu leur nombre de pixels augmenter, ce qui n’est pas forcément un gage de qualité car leur taille diminuant, il devient difficile de contrôler le “bruit” dans les expositions en basse lumière. Ce n’est que partiellement compensé par l’amélioration des traitements numériques et par les performances intrinsèques des capteurs.

Dans une gamme de prix amateur, les marques leaders restent Canon et Nikon. Il y a notamment l’EOS 450D qui est pas mal. Environ 800€ avec un objectif je crois.

Sinon, les meilleurs comparatifs se font avec les bancs d’essai que l’on trouve sur les sites américains comme DCReview, Image Ressource, dont les URL sont dans le blogroll de ce blog dans la dernière colonne à droite.

Répondre à ce commentaire

Commentaire 379 dans Un Media Center pour CanalSat !, le 30 avril 2008

Oui, c’est évoqué dans le commentaire 6…

Répondre à ce commentaire

Commentaire 378 dans Un Media Center pour CanalSat !, le 30 avril 2008

Depuis ce post qui date de septembre 2007, Canal+ a fait quelques avancées avec le lancement de son tuner HD “Dual S” capable d’enregistrer les émissions sur un disque externe USB. On n’a donc plus de limitations en capacité. On peut y coller un disque 1 To par exemple. Mais la solution est toujours très fermée, contrairement à un PC Media Center, plus polyvalent. Et en plus Canal+ n’en fait pas un bon marketing. Moi qui suit utilisateur de Pilotime depuis 5 ans, je n’ai jamais été contacté par Canal+ pour l’upgrader vers un Dual S. Leur marketing sur la base installée Pilotime est incroyablement absent. Alors que c’est un terrain qu’ils devraient aborder en priorité.

Sinon, les solutions proposées par des sociétés comme la votre existent depuis pas mal de temps. Elles sont bien documentées comme les réactions sur ce post le montrent. Mais malheureusement, elles ne sont pas suffisamment grand public pour une large diffusion. Tant en termes de canal de diffusion que de prix.

A moins que… ?

Répondre à ce commentaire

Commentaire 377 dans Partage d’expérience à Capital Week, le 30 avril 2008

Le terme n’étant pas consacré, je me contente de “VC”, l’acronyme anglais…

Répondre à ce commentaire

Commentaire 376 dans Equipement TIC des foyers en France, le 25 avril 2008

Le capitalisme d’héritier est en effet prédominant en France et il a un impact sur nos investissements industriels. Aux USA, les milliardaires cèdent une grande partie de leur fortune à des fondations qui alimentent souvent l’enseignement supérieur et la recherche, l’innovation ou d’autres causes. La fiscalité locale les y encourage d’ailleurs.

En France, nous avons effectivement un capitalisme qui se transmet plus sous forme d’héritage. Avec ceci de particulier qu’il ne réinvestit pas ses gains dans la société.

Prenons l’exemple de Liliane Bettencourt, principale actionnaire du groupe L’Oréal, avec près de 23 milliards d’Euros. Aux USA, cela fait longtemps qu’une telle personne aurait vendu une grande partie de ses actions ou doté richement une fondation. Il y a bien une fondation Bettencourt-Schueller (du nom de son père, le créateur de L’Oréal) qui finance diverses actions: entrepreneuriat, santé, culturelles et humanitaire. Mais avec une dotation initiale de 120m€, une broutille par rapport à la fortune de 23md€.

Si on voulait réhabiliter le capitalisme en France, il serait bon que ces grandes fortunes – héritées ou pas – renvoient l’ascenseur vers la société et vers les talents en France qui cherchent à grandir. Bourses d’étudiants, financement d’amorçage des startups, aides aux quarties difficiles, que sais-je…

J’ai eu vent que certaines grandes fortunes ne faisaient pas cela car ils trouvaient que l’Etat prélevait déjà trop, notamment via l’ISF. Ils préfèreraient choisir là où va leur argent, leur impôt. En encourageant ces transferts, les mécaniques fiscales américaines ont ceci d’intéressant qu’elles créent un meilleur effet de levier financier que l’ISF en France. La baisse d’ISF à concurrence de 50K€ pour des investissements dans les PME innovantes de la loi TEPA va dans ce sens. C’est une bonne chose. Mais la baisse est inutilement bloquée à 50K€. Elle pourrait aller plus haut, mais pas nécessairement sur 75% des capitaux investis, mais juste à 33% où 50%, procurant ainsi un effet de levier x2 à x3.

Sarkozy qui est si proche de ces grandes fortunes pourrait bien leur souffler l’idée…

Bon, je rêve un peu à haute voix !

Répondre à ce commentaire

Commentaire 375 dans Rapport CES 2008, le 24 avril 2008

Il y a toutes sortes de “gens”. Bien sûr, une majorité qui lit les PDF sur écrans, de toute taille. Mais il en existe encore, j’en connais, qui impriment ou font imprimer, et lisent dans les transports, leur canapé ou dans leur lit… Même pour ce genre de pavé assez différent d’un bon roman !

Répondre à ce commentaire

Commentaire 374 dans Les faux semblants de Quaero, le 23 avril 2008

Je pensais en fait aux concurrents de FT pour les chinois ! Mais ton raisonnement s’applique aussi à eux car réduire les coûts variables des STB est très important pour tous les acteurs. Certains le font en adoptant des couches open source pour le middleware, mais leur l’écosystème open source des STB n’est pas suffisamment encore assez dense par rapport aux offres de middleware propriétaire.

FT est peut-être fort, mais en tout cas, leur stratégie n’est pas clean car ils avancent masqués dans le domaine. Ils prétendraient donc travailler sur un standard domotique, qui a certainement été un bon moyen d’obtenir des subventions ou aides publiques. Alors qu’ils sont sur un autre cheval, bien plus prosaïque.

Répondre à ce commentaire

Commentaire 373 dans Quelques pépites de la RGPP, le 22 avril 2008

Je ne souscris pas du tout à cette option ni aux thèses défendues dans levraidebat.com.

Ces 3 milliards d’Euro du net par rapport à l’Union Européenne nous servent indirectement. La construction européenne a énormément d’avantages économiques pour notre pays, certes pas faciles à mesurer. Mais la fluidité du commerce dans la zone Euro qui représente près des deux tiers de nos exportations fait de l’Europe une sorte de “marché intérieur” fort utile à notre économie. Et le nivellement global du niveau de vie dans cette Europe des 25 bénéficie indirectement à notre économie si elle sait rester compétitive. Cela nous rapproche de certaines caractéristiques du marché nord américain, tout en restant éloigné du fait de la fragmentation linguistique et culturelle. L’Europe, ce sont des règles du jeu. Il vaut mieux politiquement les accepter et les faire évoluer graduellement pour le bien commun que de tenter de créer une nouvelle forme d’isolationnisme.

Sinon, les décentralisations pourraient bien fonctionner si nous n’avions pas ce mille feuille administratif avec régions, départements, cantons, communautés de communes et 36000 communes. La complexité administrative du pays n’a pas d’équivalent en Europe et nous en payons le prix malgré les diverses lois sur la décentralisation. D’ailleurs, l’augmentation des budgets, impôts et fonctionnaires la plus importante ces 20 dernières années vient des collectivités locales même en mettant de côté les transferts de responsabilité de l’Etat vers les régions et l’augmentation démographique dans le pays. Réformer ce bazar est assez difficile puisque les élus locaux sont juges et parties, notamment par le biais du Sénat. Le dernier qui s’y était attaqué et en a payé le prix en quittant l’Elysée est l’homme d’Etat français pourtant le plus prestigieux que ce pays ait connu au 20eme siècle… De Gaulle. On comprend que Sarkozy ait botté en touche au sujet des départements quand le rapport Attalit a été publié. Il n’empêche qu’il faudra bien qu’il s’occupe de la question pendant son quinquennat.

Répondre à ce commentaire

Commentaire 372 dans Les faux semblants de Quaero, le 21 avril 2008

Il y a effectivement embrouille dans la communication sur cette Jv avec Thomson !

Par contre, est-ce que les concurrents de FT seront vraiment obligés d’en passer par là pour leurs STB? Pas sur. Il y a plein de constructeurs chinois prêts à créer toute stb sur commande. Ils sont de plus en plus souples et capables de répondre aux cahiers des charges européens.

Et quel est le middleware de FT dans la LiveBox (ou plutôt les briques middleware car elles doivent être d’origine variée)? C’est full-FT, ou d’origine tierce?

Répondre à ce commentaire

Commentaire 371 dans La bulle des set-top-boxes, le 20 avril 2008

Ca sort de mon domaine de compétences. Si un lecteur peut aider, il est le bienvenu !

Répondre à ce commentaire

Commentaire 370 dans Equipement TIC des foyers en France, le 19 avril 2008

Nicolas, c’est une analyse très intéressante. Ce à quoi on peut rajouter que la société française reste très hiérarchique dans sa structure. Et comme les élites ne sont pas suffisamment exemplaires dans l’appropriation des outils modernes, cela ralentit encore plus le reste que dans les sociétés qui sont moins hiérarchiques.

Mais bon, avons-nous de véritables points de comparaison avec d’autres pays sur l’appropriation des TICs par les élites ?

Il y en a aussi une qui a été particulièrement en retard : le corps enseignant. Les programmes d’équipement en TIC des établissements d’enseignement ont été non seulement lents et sous-dimensionnés (et cela remonte à au moins 20 ans) mais les équipements ont été très mal accompagnés du point de vue de la pédagogie. Le renouvellement des pédagogies d’enseignement lié à l’Internet semble vraiment à la traîne. Alors que l’on sait que le numérique est un formidable outil, mais il faut savoir l’employer à bon escient.

Répondre à ce commentaire

Commentaire 369 dans La bulle des set-top-boxes, le 19 avril 2008

Pas vraiment. Je connais juste une société française, Vianeos, qui fait du logiciel pour ce genre de boitiers. Et comme Amino, en particulier pour le marché de l’hospitality.

Répondre à ce commentaire

Commentaire 368 dans A la découverte d’Ubuntu, le 17 avril 2008

Pour ma part, pas de problèmes pour le wifi, les cartes et mon réflex Canon sous Ubuntu. Mais pour ce dernier, ce fut à force de recherches et de manipulations pas très “grand public”. Inconvénient majeur de Linux/Ubuntu pour moi, l’absence de bon logiciel de gestion de photos (avec vue linéaire des photos des sous-folders). Picasa est pas mal, tourne sous Ubuntu, mais plante très rapidement, donc à exclure pour l’instant. Autres manques pour ce qui me concerne: pas d’outil sympa d’authoring pour blog (j’utilise Windows Live Writer sous Vista qui est vraiment bien). Par contre, à l’envers, j’utilise Ubuntu (sur laptop en disque USB externe) comme serveur LAMP de développement et test.

Je mettrais à jour mon article sur Ubuntu par un “update” après la sortie très prochaine de la 8.04.

Répondre à ce commentaire

Commentaire 367 dans Equipement TIC des foyers en France, le 13 avril 2008

Le taux d’équipement en PC est légèrement supérieur en Espagne mais inférieur en Italie et au Portugal. Je pencherai plutôt pour une explication basée sur le niveau de vie pour ces deux derniers pays. Pour l’Espagne, ce n’est qu’un des indicateurs parmi d’autres de la grande modernisation économique de ce pays ces 30 dernières années. Et puis, il fait aussi beau – si ce n’est plus beau – en Californie que dans le Sud de la France…

Répondre à ce commentaire

Commentaire 366 dans Numérique : pas celui que l’on attendait !, le 13 avril 2008

Et hop, lettre de mission arrivée pour Eric Besson : http://www.premier-ministre.gouv.fr/IMG/pdf/Lettre_mission_EcoNum_avril08.pdf .

On notera le petit paragraphe où il est fait mention des startups du logiciel. Bonne nouvelle!

Répondre à ce commentaire

Commentaire 365 dans Marketing de l’informatique d’entreprise en France, le 13 avril 2008

Sur la gratuité, effectivement, en France on n’aime pas payer les idées ni le service. Pour ne prendre que l’exemple des conférences, la France est effectivement une exception. En Allemagne, à l’envers, on préfère payer car le prix est un gage de qualité. C’est d’ailleurs pareil avec les automobiles chez eux!

Autre symptôme: la formation est plus une obligation qu’une nécessité. Elle est régie par un tas de conventions, règlements et autres prélèvements obligatoires (le % formation, le “Droits Individuels à la Formation”, les congés formation, la formation professionnelle trustée par les organismes paritaires dont la fameuse UIMM, pompes à financement pour les syndicats. Système de financement récemment décortiqué par la Cour des Comptes. Il n’y a rien de tout cela dans plein d’autres pays et ils se forment tout de même autant. C’est une autre exception bien française, peut-être créée pour compenser le capitalisme aveugle français qui à l’origine ne voulait pas former ses salariés. Mais aussi par la volonté de tout faire régir par la puissance publique.

On peut aussi le voir en comparant le nombre de “petits boulots” dans les pays anglo-saxons par rapport à ce que l’on voit en France.

Seul contre-exemple, le poids des SSII dans l’écosystème informatique français. Ce poids n’est cependant que le résultat de la faiblesse relative des autres secteurs: construction, composants et logiciels.

On retombe en fait sur un aspect culturel de la France : sa relation complexée à l’argent. Relation qu’il faudrait pouvoir transformer, autrement que par les voyages en yatch, hôtels de lux et avions privés de notre Président…

Répondre à ce commentaire

Commentaire 364 dans Equipement TIC des foyers en France, le 12 avril 2008

Belle mission que je vous souhaite (l’association) de réussir. Pour ma part, je me focalise plutôt sur les facteurs de succès des startups dans la high-tech. Mon “programme” s’il en est un est à la fin de ce post sur la comparaison entre la Silicon Valley et la France.  Avec quelques autres pistes sur l’enseignement supérieur et sur le système de valeur et la culture de l’innovation et du risque en France.

Répondre à ce commentaire

Commentaire 363 dans Les faux semblants de Quaero, le 11 avril 2008

Hugues, dans mon article sur Quaero, j’ai tenté de mettre l’accent sur le fait que la seule société pour laquelle Quaero avait un sens était Exalead. Mais que malgré tout, cette société ne grandissait pas assez vite pour devenir un véritable acteur mondial de poids, comme la plupart des startups françaises du secteur de l’IT.

Il y a effectivement des innovations poussées ou financées par les Etats dans le monde. Il serait intéressant d’analyser celles qui fonctionnent ou pas pour créer de véritables business profitables et internationaux. Très souvent, ces innovations ont du mal à sortir des frontières. On peut aussi faire le tri entre commandes spécifiques (par exemple, la Darpa américaine qui commande des prototypes divers au complexe militaro-industriel américain et finance ainsi leur R&D) et de simples subventions (un modèle courant en Europe). Ne vaut-il pas mieux avoir l’état comme client que comme subventionneur pour les innovations?

Répondre à ce commentaire

Commentaire 362 dans Back from the Silicon Valley 3, le 11 avril 2008

Ludovic, c’est bien vu. J’ai traité ce sujet dans le post suivant qui date de la semaine dernière : Marketing de l’IT en France.

Ma conviction est qu’il faut toutefois trouver rapidement le moyen de s’extraire du marché français plutôt que de s’évertuer à y rentrer. Il vaut mieux devenir une belle boite internationale qui se comporte comme si elle était danoise ou israélienne (càd: issue d’un pays dont le marché intérieur est tout petit) plutôt que comme une boite moyenne cantonnée au marché français ou “européen proche”.

La clé, c’est en tout cas d’aller vite, de croitre vite, de prendre rapidement position sur les marchés (d’innovations). A moins d’effectivement choisir de cibler des marchés existants en mode “me-too” avec une bonne qualité d’exécution. Mais ce n’est pas le fort des boites françaises de faire cela non plus, donc attention.

Par contre, je suis preneur des trucs qui permettent réellement à un éditeur open source français de devenir international, et plus rapidement qu’un éditeur traditionnel. J’attend encore d’en trouver malgré toute la croissance que l’on observe dans l’open source. La proximité des modèles économiques et humains des services rend difficile la mise à l’échelle internationale pour les ISV open source.

Répondre à ce commentaire

Commentaire 361 dans Marketing de l’informatique d’entreprise en France, le 9 avril 2008

Manuel, j’ai en tête un éditeur de logiciel français dont je tairais le nom qui avait répondu sérieusement à un appel d’offre public, qui avait des références et était mieux disant à la fois sur la réponse à la demande et sur le prix. Il lui a été préféré un éditeur nord américain qui n’avait pas de référence en Europe, ni de ressources suffisantes. Le fait d’être français était quasiment un inconvénient pour ce client du secteur public qui se sentait plus sécurisé avec un éditeur américain, malgré les inconvénients dans ce cas précis (prix, proximité). Cela nous ramène à la relation au risque…

Pour ce qui est du réseau de VARs et SSII des grands éditeurs, tu as raison. Mais les grands éditeurs savent quand c’est indispensable devenir “prime contractors”, et eux-mêmes sous-traiter ensuite une partie du service à leurs partenaires. Ils évitent de le faire pour ne pas trop gêner leurs partenaires, mais sous la pression de clients exigeants et stratégique, et sur des technologies récentes qui ne sont pas encore bien maitrisées par les partenaires, ils savent le faire.

Répondre à ce commentaire

Commentaire 360 dans Marketing de l’informatique d’entreprise en France, le 8 avril 2008

Hervé, l’événement sponsorisé est en effet une bonne formule. Pour peu que la société organisatrice soit bien établie sur le marché, ce qui est le cas de Microsoft. Mais cela n’est pas forcément à la portée des acteurs de moindre importance qui doivent trouver d’autres solutions. Ou en tout cas, simplement financer des événements modestes avec leur budget marketing.

Répondre à ce commentaire

Commentaire 359 dans Marketing de l’informatique d’entreprise en France, le 8 avril 2008

Manuel, pourriez-vous préciser en quoi le modèle des grands acteurs est inadapté ? Sur la capacité d’engagement à long terme ? Très souvent, ils ont une capacité de services (IBM, Oracle, et même Microsoft) avec ou sans partenaires et savent s’engager sur des projets. Est-ce de cela qu’il s’agit ou d’autre chose (genre, garantir la pérennité du logiciel sur 30 ans pour les sous-marins ?) ?

Sinons, vous avez raison d’évoquer les bonnes évolutions récentes du code des marchés publics. Je ne sais pas si beaucoup de fournisseurs en informatique en profitent pour l’instant et si cela a “changé les moeurs”, notamment pour l’acceptation des startups par ces clients.

Répondre à ce commentaire

Commentaire 358 dans Startups et réalisme financier, le 6 avril 2008

Les conseils que vous demandez sont dans la dernière partie de l’article. J’insiste notamment sur la notion d’ambition (voir loin et grand) et de réalisme (les pieds sur terre).

La justesse des comptes prévisionnels est évidemment un exercice impossible. C’est de leur architecture et leur cohérence que je parle dans mon papier. Elle permet de voir si l’entrepreneur connait bien son marché (ordre de grandeur du CA et de la marge vs l’existant) et a une capacité à exécuter sa stratégie (prévisions sur la R&D et sur la vente et le marketing). L’exactitude au K€ près n’a évidemment pas d’importance comme vous le soulignez. Mais le sens de la qualité dans les comptes et la capacité à raconter une histoire cohérente à des investisseurs potentiels sont l’un des gages de réussite de la levée de fonds. Bien entendu, l’ensemble reposant au dessus d’une vision et d’un véritable business plan.

Sinon, il vous est peut-être arrivé de vous voir refuser un financement par un investisseur du fait des éléments chiffrés de votre plan. Il n’est pas impossible que la véritable raison soit toute autre, mais que l’investisseur n’aie pas eu le courage de vous la détailler ouvertement. Par exemple, que vous n’auriez pas selon lui les compétences ou aptitudes pour mener le projet à bien. Le “pinaillage” comme vous dites est toujours plus facile sur des éléments tangibles (chiffres) que sur des éléments intangibles (personnalité, etc).

Répondre à ce commentaire

Commentaire 357 dans Marketing de l’informatique d’entreprise en France, le 6 avril 2008

Les entreprises ont tout de même bien adopté les technologies de l’Internet pour développer une grande partie de leurs applications internes, notamment celles que vous citez?

Sinon, cela milite notamment pour la mise en place de moteurs de recherches internes à l’entreprise qui soient efficaces. Avec des contraintes de sécurité et de confidentialité à traiter (qui a le droit d’accéder à quoi…).

Répondre à ce commentaire

Commentaire 356 dans Marketing de l’informatique d’entreprise en France, le 5 avril 2008

Cela fait des années que l’industrie réclame un SBA à la française, mais je crains que cela ne soit une chimère. Tout d’abord, le SBA n’aide pas tant que cela les startups hightech aux USA, mais les PME en général. N’oublions pas que le SBA oriente une part de la commande publique du secteur public fédéral vers les PME. Pas vers les grands comptes en général. La création d’un SBA se heurte de plus aux règles de la commission européenne. Pour l’instant. Aux USA, les startups hightech ne se préoccupent pas trop du secteur public (là bas aussi trop lent à la détente) et se concentrent sur le secteur privé, plus dynamique. Je ne connais pas bien le Pacte PME, qui a l’air d’une démarche expérimentale et non légiférée plus qu’autre chose.

Les bonnes pratiques pour la vente dans les cas où la décision est diluée sont connues dans les livres : identifier le décideur “business” de niveau le plus élevé, gérer les cercles d’influence autour de lui, se focaliser sur les projets et clients où un décideur et un budget sont clairement identifiés, tout comme sur des projets qui apportent une valeur “business” claire aux clients. Il faut au contraire éviter les projets qui ne semblent pas prioritaires, qui n’apportent pas une valeur ajoutée claire au business où à la structure de coût du client, et où les centres de décision ne sont pas clairement identifiés. Mais très souvent, on ne choisit pas vraiment ses premières opportunités, ni ne peut faire la fine bouche…

Pour l’efficacité du discours de vente, voir quelques pistes dans “Le avant et le après en marketing“.

Répondre à ce commentaire

Commentaire 355 dans Les faux semblants de Quaero, le 4 avril 2008

On peut aussi noter la confusion générale entre le R(ercherche) et le D(éveloppement) dans les financements publics. Oséo comme Quaero dans ce cas là financent beaucoup de D, surtout dans le cas d’Exalead. Et même probablement également chez pas mal d’autres acteurs concernés. Ce qui est intéressant, c’est de voir comment la quasi-totalité des startups qui demandent des financements à Oséo maquillent du D en R pour faire joli et améliorer les chances d’acceptationd de leur dossier. Comme la distinction entre R et D en informatique n’est pas toujours évidente, cela passe.

Répondre à ce commentaire

Commentaire 354 dans Les faux semblants de Quaero, le 1 avril 2008

Hugues, ne me fais pas écrire ce que je n’ai pas écrit! Je note qu’Exalead est la société pour laquelle les aides de Quaero ont le plus de sens, et dénonce plutôt les aides aux grands groupes comme France Telecom qui ont déjà largement de quoi financer leur R&D.

Malgré tout, la taille d’Exalead en fait un acteur réellement mineur à l’échelle mondiale. Les PME françaises et européenne high-tech ont toujours bien du mal à avoir une croissance rapide.

C’est bien documenté dans le livre “Startups” d’Hervé Lebret, qui est intervenu plus haut dans les commentaires de cet article. Une fois le bootstrap de la R&D déclenché (comme avec Exalead), le développement de la boite n’est plus réellement une affaire de R&D, mais plutôt de sales/marketing/management/leadership/financement.C’est plus là que l’on pêche en France que dans la R&D.

Pour les stb, je demande à voir et me demande si FT veut réellement créer un standard européen ou simplement prendre de l’avance par rapport à Free et NeufTelecom dont les parts de marché croissantes commencent à gratouiller le leader Orange…

Répondre à ce commentaire

Commentaire 353 dans Cartoreso deuxième, le 31 mars 2008

Patrimoine… pourquoi pas. Mais dans pas mal de cas, cela fait plus penser aux oeuvres non exposées des sous-sols du Louvre qu’autre chose! En tout cas, comme dans la culture, il y a un processus de sélection qui s’opère par l’audimat.

Je souscris entièrement à ton dernier point. En général, développement logiciel ou pas, il y a environ un contributeur pour 25 à 50 consommateurs d’un produit ou service immatériel. Donc, pour avoir des contributeurs, il faut d’abord attirer un grand nombre de consommateurs. Parmi eux, on aura alors quelques développeurs ayant le pédigrée souhaité: intéressés, compétents, ayant du temps, et quelque peu altruistes.

Répondre à ce commentaire

Commentaire 352 dans Cartoreso deuxième, le 31 mars 2008

Steph, vous prenez comme exemples les logiciels libres les plus connus et sur lesquels la communauté (d’entreprises, effectivement) est très active.

Mais il y a 173000 projets open source dans SourceForge et la grande majorité ne bénéficient pas de cet effet. Cela comprend certes des outils mineurs peu utilisés, mais probablement des projets issus de petites SSLL ou petits éditeurs de logiciels libres. L’indicateur pertinent, c’est le % des développements qui ne proviennent pas de l’équipe d’origine du logiciel. Avez-vous cet indicateur pour toutes les SSLL françaises par exemple ?

Argument marketing ? Ca l’est au moins pour des raisons pratiques quand les avantages de l’open source sont mis en avant mais pas forcément opérationnels si le logiciel ne bénéficie pas d’une véritable communauté active.

Les raisons de l’investissement d’industriels comme IBM dans Linux sont à mettre sur le compte de plein de raisons stratégiques qui pour certaines n’ont rien à voir avec les beautés de Linux :
– Coût de maintenance des Unix propriétaires
– Tendances du marché
– Positionnement marché “communautaire”
– Possibilité de vendre du service grâce à l’open source
– Résistance à la part de marché croissante de Microsoft dans les logiciels serveurs

Ce qui n’a pas empêché IBM de rester le second éditeur de logiciels propriétaires du marché professionnel derrière MS et proche d’Oracle. IBM est open source quand ça l’arrange (pour les OS, pour vendre du matériel et des services), mais pas au point de saborder son business logiciel classique : les softs mainframes, les Lotus, Tivoli, Rational, DB2 et autres Websphere. Si ils croyaient tant à l’open source comme modèle universel, n’auraient-ils pas adopté le modèle pour leurs logiciels propriétaires ?…

Pour Microsoft, c’est pareil. Certains ont vu les récentes annonces de l’éditeur comme une “adoption de l’open source” (leurs licences open source validées par l’OSI, etc). Loin de là ! C’est surtout un moyen de se faire bien voir de la communauté open source (et il y a encore du chemin!), et de l’enseignement supérieur et de la recherche. Mais pas question de mettre leurs logiciels propriétaires classiques et rémunérateurs en open source ! Même quand leurs codes sources sont par ailleurs disponibles pour consultation (comme c’est le cas de Windows depuis des années).

Sinon, le fork que vous décrivez est effectivement une sorte d’assurance vie, mais en même temps, c’est un talon d’Achille. La grande diversité des distributions Linux est probablement l’un des facteurs qui ralentit l’adoption de Linux, au moins sur le poste de travail. Ce qui explique la sélection naturelle du moment, qui voit Ubuntu surpasser les autres distributions. Pour devenir un marché de masse, Linux a besoin d’être unifié et moins “divers”. C’est un paradoxe difficile à admettre pour la communauté Linux.

Répondre à ce commentaire

Commentaire 351 dans Les faux semblants de Quaero, le 30 mars 2008

Frédéric, j’ai corrigé le texte pour MASA.

J’avais bien noté la création de la JV FT/Thomson/Sagem mais sa mission était quelque peu obscure et il n’était pas explicitement fait allusion au business des STB, mais plutôt de la domotique. Si la JV sert “juste” à faire évoluer la Livebox, c’est une mission bien limitée. Mais je parie que cette JV va aussi obtenir des subventions pour mener ses “recherches”…

Répondre à ce commentaire

Commentaire 350 dans Cartoreso deuxième, le 30 mars 2008

Pour ce qui est du business model, je faisais évidemment allusion à celui d’un éditeur de logiciel, pas à une SSII / SSLL.

Répondre à ce commentaire

Commentaire 349 dans Google = Microsoft ? (1), le 28 mars 2008

Je l’ai créé moi-même sous Excel à partir des données publiques de chiffre d’affaire de Microsoft, publiées sur leur site “Investor Relations”. Elles sont à mettre à jour avec les données plus récentes (FY2007 et H1 2008). Mais le mix n’a pas beaucoup changé en un an.

Répondre à ce commentaire

Commentaire 348 dans Rapport Attali et Innovation, le 27 mars 2008

Est-ce que la comparaison n’est pas rendue difficile par la légère désynchronisation entre les cycles? Est-ce qu’un PhD américain est de moins bon niveau qu’un français avec son doctorat?

En tout cas, la réputation des français en termes de maths, sciences dures et résolution de problèmes complexe n’est plus à faire. C’est à la fois notre point fort et notre talon d’Achille. Mais la force dans les dimensions “molles” des étudiants issus du système US provient peut-être plus du système de valeur et de la culture que de l’enseignement supérieur lui-même.

Les partenariats écoles d’ingénieurs et écoles de commerce sont de bonnes initiatives en tout cas. Même si leur mise en oeuvre semble quelque peu laborieuse. Il serait préférable que ces écoles soient géographiquement plus proches les unes des autres. Il y a deux “bons” cas: Centrale Lyon et l’EM Lyon, à Ecully, et l’INT qui regroupe une école d’ingé et une business school sur le même campus.

Répondre à ce commentaire

Commentaire 347 dans Les faux semblants de Quaero, le 25 mars 2008

J’en pense plutôt du bien, car cette stratégie est rare en France, et est porteuse d’un meilleur recyclage des idées et de la création de richesse. Les entreprises high-tech françaises n’achètent pas assez de startups et préfèrent trop souvent mener de la R&D interne. Alors que l’innovation provient plus souvent des petites structures, que les grandes doivent apprendre à identifier, acquérir et digérer.

Le leader en la matière aux US est Cisco. Les grands de l’Internet procèdent également à de nombreuses acquisitions (Google, Yahoo, MS, etc) pour aller vite au lieu de vouloir tour faire en interne. Mais réussir ces acquisitions est une autre paire de manche.

Comment promouvoir cela en France? Pas évident car le système repose sur la non intervention de l’Etat (sauf en matière régulatoire pour limiter les entraves à la concurrence). Cela devrait commencer par la limitation des subventions de R&D pour les grands groupes et leur concentration sur les PME innovantes (et réellement indépendante, pas les PME filiales de grands groupes). Ainsi, cela contribuerait à l’éclosion des PME innovantes (avec d’autres facteurs) et pousserait les grandes entreprises à se bouger, et à faire des acquisitions. Il y a par ailleurs tout l’environnement de valeur autour du risque et de la culture du résultat à faire graduellement évoluer. C’est un programme au long cours!

Seul écueil en France: nous n’avons quasiment plus d’industriels des TIC pouvant déclencher ce cercle vertueux de l’innovation. Les poids lourds des TIC sont des entreprises de services: télécoms et SSII pour l’essentiel. S’ils achètent des startups, ce n’est pas dans la logique de création de valeur industrielle, mais pour renforcer leurs services. Souvent, avec un impact plutôt local. Nous avons une déficience claire dans notre industrie des TIC (comme en Europe en général). Un grand “restart” est nécessaire, qui doit faire relativement abstration des grandes entreprises existantes. Sinon, on n’arrivera pas à créer en Europe de nouveaux acteurs mondiaux des technologies.

Petite comparaison pour illustrer cela : ces 5 dernières années, Dassault Systèmes a probablement du acquérir plus de startups que France Télécom, qui est 50 fois plus grand. Mais je n’ai pas les chiffres sous la main, c’est une intuition basée sur l’observation de l’actualité.

Répondre à ce commentaire

Commentaire 346 dans Les faux semblants de Quaero, le 24 mars 2008

Oui, je vois ce débat en parallèle sur le blog de Pierre Chappaz. J’y ai ajouté également un commentaire. Mais rien n’empêche d’avoir ce débat ici même… :).

Répondre à ce commentaire

Commentaire 345 dans Numérique : pas celui que l’on attendait !, le 21 mars 2008

Je ne l’inquiète pas trop sur ce point car le pays a une propension sans mesure à légiférer. Les parlementaires ou le gouvernement s’empareront certainement du sujet d’autant plus qu’il a un impact médiatique certain et qu’il a récemment affecté Nicolas Sarkozy (dans l’affaire du SMS).

Malheureusement, la compréhension du lien entre les mécanismes économiques, l’émotionnel et le culturel est moins courante…

Répondre à ce commentaire

Commentaire 344 dans Numérique : pas celui que l’on attendait !, le 21 mars 2008

100% des foyers avec le haut débit…

Pourquoi pas, si l’on traite en amont les problèmes d’illétrisme rampants qui rongent une partie de la population, jeunes compris.

Répondre à ce commentaire

Commentaire 343 dans Photo numérique et GPS, le 18 mars 2008

Applications, peut-être, mais malheureusement, aucun appareil photo n’intègre nativement de GPS à ma connaissance! Alors que cela commence à être le cas de smartphones. Dans la photo, on en est toujours à des accessoires externes qui permettent d’ajouter les coordonnées GPS dans l’EXIF par synchro avec l’ordinateur en fonction de l’heure de prise des photos. Aucun des réflex récemment annoncés (Canon, Nikon, etc) n’intègre de GPS! Incroyable! A moins que le remplaçant à venir du Canon EOS 5D nous réserve cette surprise. Mais aucun bruit ne court à ce sujet, donc il va encore falloir attendre un peu.

Répondre à ce commentaire

Commentaire 342 dans Un Dyson de la glisse ?, le 16 mars 2008

Monsieur Verna,

Vous proposez beaucoup d’inventions intéressantes. Mais le chemin qui va de l’invention à l’innovation passe le plus souvent par la création d’entreprises, avec une prise de risque conséquente et des moyens financiers. Beaucoup plus rarement par la vente de brevets ou de leur licence d’utilisation. Ou alors, vous crééez une société d’exploitation des brevets qui entame des démarches de commercialisation auprès d’industriels. Il en existe aux USA comme Intellectual Ventures. Je n’en connais pas d’équivalent en France.

Avez-vous sinon déjà pu exploiter ou faire exploiter les dizaines de brevets en tout genre que vous avez déposés?

Répondre à ce commentaire

Commentaire 341 dans Un mariage risqué, le 16 mars 2008

Au moins deux raisons:
– L’une financière: Google coûte trop cher : $137B au cours d’aujourd’hui, sans compter un “bonus” comme pour Yahoo. C’est hors de prix : Microsoft devrait s’endetter énormément pour payer cette acquisition, qui boufferait leur profits sur au moins une dizaine d’années.
– L’autre, régulatoire: les autorités antitrust bloqueraient certainement l’acquisition.

Répondre à ce commentaire

Commentaire 340 dans Back from the Silicon Valley 1, le 12 mars 2008

J’ai découvert par hasard ce document intéressant Index of Silicon Valley, créé par une association de la Silicon Valley. L’édition 2008 de ce document fait état des changements économiques globaux qui impactent la Silicon Valley. C’est aussi plein d’indicateurs d’une richesse incroyable. La croissance de la part des brevets déposés dans la Silicon Valley par rapport aux US et à la Californie. La diversité ethnique et linguistique grandissante (après l’espagnol et le chinois, la troisième langue parlée est… le vietnamien). La croissance des investissements greentech et bio/medtech. La pénétration de l’ADSL (51% des foyers), avec un indicateur qui place la France au dernier rang des pays étudiés (en 2006). Le document s’achève sur une analyse détaillée des évolutions de l’emploi et notamment de la promotion sociale.

Une bible à conserver sous le coude…

Répondre à ce commentaire

Commentaire 339 dans Un Dyson de la glisse ?, le 11 mars 2008

Il a une approche marketing, mais elle est peut-être trop traditionnelle: concurrence, positionnement, etc. L’invention a beaucoup de potentiels et de marchés différents. Entre le loisir et l’utilitaire, il faudrait choisir. Et surtout comme le faisait remarquer Jean-Michel Planche, trouver le moyen de créer un effet de mode. Où que ce soit…

Répondre à ce commentaire

Commentaire 338 dans Un Dyson de la glisse ?, le 10 mars 2008

Les jeunes et les “loisirs de glisse” sont l’un de leurs marchés cibles clés, pouvant générer un véritable “effet de mode”. Mais ils ont tout à apprendre pour lancer un véritable marketing destiné aux jeunes des banlieues.

Répondre à ce commentaire

Commentaire 337 dans Conférence LeWeb3 – Startups en plénière, le 7 mars 2008

Je vais signaler la chose à Jeremy Berrebi, le fondateur de Zlio. Il est le mieux placé pour répondre!

Répondre à ce commentaire

Commentaire 336 dans Trop d’Etat – Où ça? – Bien en PDF…, le 3 mars 2008

Vous avez raison, je n’ai fait qu’effleurer le sujet qui a été traité bien en détail depuis à l’occasion de la réforme des régimes spéciaux.

Réforme pendant laquelle cependant peu de données objectives du problème ont été mises sur la table par les grands médias. Même en sa paluchant les rapports du Conseil d’Orientations des Retraites, il n’était pas évident de comprendre. De plus, les régimes spéciaux sont différents et certains sont plus avantageux que d’autres (age de la retraite, taux de pensions, inclusion ou pas des primes et autres avantages dans le calcul des primes).

Pour ce qui est de la défiance des jeunes, elle semble être universelle : vis à vis de la mondialisation, des élites, du futur, etc. C’est un mal français qui n’est pas seulement lié au système des retraites. Le “trop d’état” joue peut-être mais aussi notre culture et la forme de l’enseignement scolaire.

Cette méfiance généralisée a notamment un impact sur la prise de risque et la capacité d’entreprendre. On le paye par un manque de dynamisme économique.

Répondre à ce commentaire

Commentaire 335 dans Microsoft Clouds, le 3 mars 2008

Démagogie? Comparaison n’est pas raison parait-il.
Mais je donne bien les ordres de grandeur d’ensemble, notamment le budget global de l’Union Européenne. La Commission gère effectivement un budget global tant pour les recettes que pour les dépenses et c’est tout à son honneur. Elle le peut parce qu’elle tient l’essentiel de ses ressources des cotisations de ses états membres. A l’autre extrémité, nous avons la France qui créé une palanquée d’impôts divers pour les associer à des poches de dépenses (état, région, sociales, etc). La taxe bidule pour financer machin, etc.

Par contre, la PAC n’est pas un sujet archaique pour moi, mais véritablement stratégique. Pour l’Europe comme pour la France. Il est crucial de préserver une certaine autonomie alimentaire du continent à l’heure où ces denrées risquent de devenir à la fois rares et chères à transporter. Le mécanisme est peut-être inadéquat et poussiéreux tout en générant des abus qui favorisent les gros exploitants, mais le soutien à l’agriculture a tout son sens stratégique. Qui est d’ailleurs rarement mis en avant…

Pour revenir à MS, l’amende est tout de même à mon sens trop élevée par rapport à ce qui était reproché. Qui ne relevait pas d’abus de position de monopole, mais de retard au respect d’une mesure imprécise concernant la documentation de protocoles d’interopérabilité entre clients et serveurs permettant à des concurrents de cloner les fonctionnalités de Windows Server.

Répondre à ce commentaire

Commentaire 334 dans Rapport CES 2008, le 1 mars 2008

En fait, c’est moi qui ai cherché à toucher de l’ordre de 15€ de royalties par impression. Comme indiqué ici : http://www.oezratty.net/wordpress/2008/commander-le-rapport-ces-2008-imprim/. mais cela n’a pas attiré grand monde! Comme quoi quand quelque chose est gratuit, les “clients” ne sont pas prêts à payer pour un petit service complémentaire. Cela me rappelle un peu le modèle économique de l’édition de logiciels libres…

Ce n’est pas le rapport qui plante Adobe, mais Adobe qui plante sous Internet Explorer. Pour éviter cela, il faut sauvegarder le fichier sur son bureau et l’ouvrir ensuite seulement. J’ai aujourd’hui modifié légèrement le code HTML sur mon blog pour forcer cette sauvegarde.

Répondre à ce commentaire

Commentaire 333 dans Emails datamining, le 25 février 2008

Leur FAQ indique ceci :

Do you support Lotus Notes, Eudora, Outlook Express, Mozilla Thunderbird or any other email clients besides Outlook?
Not at this time. Our initial efforts have gone into creating a great add-on for Outlook, but other desktop and web clients will follow.

Donc… non !

Répondre à ce commentaire

Commentaire 332 dans Emails datamining, le 22 février 2008

En effet, l’intégration entre messagerie, réseaux sociaux et tous les outils de communication est un territoire encore plutôt inexploré! Pourquoi donc? Complexité d’intégration? Complexité potentielle pour ces nouveaux usages? Manque d’innovation des acteurs de ce marché, occupés par d’autres choses?

Répondre à ce commentaire

Commentaire 331 dans Rapport CES 2008, le 22 février 2008

Il me semblait que l’annonce de Wallmart avait précédé celle de Toshiba. Et il y avait eu aussi avant celle de Best Buy. Juste après le CES, les vautours se sont rués pour “terminer” le HD-DVD. La décision de Warner a été le coup de grâce et tout s’est ensuite enchaîné très rapidement.

Répondre à ce commentaire

Commentaire 330 dans Rapport CES 2008, le 19 février 2008

Comme indiqué dans un commentaire (numéro 25), je n’ai pas évoqué le FemtoCell dans le rapport.

“Il ne faisait pas l’actualité au CES. Pour le lecteur, il s’agit de la technologie permettant de créer un “mini émetteur” GSM connecté au réseau ADSL. Pas très courant pour l’instant même si certains constructeurs présentaient quelques offres au CES (comme Samsung).”.

Etre exhaustif sur l’ensemble des technologies proposées dans le vaste secteur des loisirs numériques est loin d’être évident!

Répondre à ce commentaire

Commentaire 329 dans Un mariage risqué, suite, le 19 février 2008

Pour la XBOX, ce n’est pas un échec. Je l’ai mise dans les résultats mitigés.

Les +:
– Elle est numéro 1 pour les jeux en ligne.
– Son graphisme est top.
– Son intégration avec Media Center est intéressante + support de la VOD et de l’IPTV.
– Le catalogue de jeux est maintenant OK.
– Elle effectivement un peu sonné la PS3, arrivé après et dont le lancement n’a pas été médiatiquement réussi.
– La XBOX commence à faire gagner de l’argent à Microsoft après en avoir fait perdre des milliards de $. Je serais cependant curieux de comparer les comptes d’exploitation complets de la PS3 et de la XBOBX360. Mais ils ne seront jamais publics!

Les -:
– Le lancement de la première XBOX a été laborieux. Mais c’était effectivement une première.
– La Wii a pris le dessus sur la XBOX 360 et la PS3. Mais on peut arguer du fait qu’elle ne joue pas exactement dans la même catégorie.
– La PS3 risque de la rattraper très vite cette année.
– Le défaut détecté mi 2007 qui a généré un rappel des XBOX 360, et le transformateur gigantesque.

J’avais c’est vrai un peu hésité sur la catégorie à lui attribuer entre “succès” et “résultat mitigé”…

Répondre à ce commentaire

Commentaire 328 dans Choisir son lecteur RSS, le 19 février 2008

J’avais testé BlogBridge et avais été déçu car il ne permettait pas l’affichage en mode HTML des articles…

Un an et demi après mon test, je n’ai pas constaté beaucoup de progrès. Même si je suis passé entre temps de SharpReader à FeedReader qui est pas mal… mais mériterait d’être complété, comme les autres!

Répondre à ce commentaire

Commentaire 327 dans New look, le 18 février 2008

Voilà un bug qui ne va pas être facile à corriger… à la main! Il est probable que les développeurs du plug-in que j’ai installé ne supportent pas encore l’iPhone, mais cela pourrait évoluer favorablement. Je vais aller vérifier cela…

Répondre à ce commentaire

Commentaire 326 dans Un mariage risqué, suite, le 17 février 2008

N’exagérons pas non plus. Microsoft décroche sur le search mais n’est pas mauvais sur la communication (Hotmail, Messenger) ni sur le portail (MSN) et sur la gestion d’inventaire (la régie pub).

Il leur faut trouver des relais de croissance et des services associés à de la publicité qui n’entrent pas directement en concurrence avec le search de Google.

Répondre à ce commentaire

Commentaire 325 dans Commander le Rapport CES 2008 imprimé, le 16 février 2008

Lulu est à peu près au même prix. Dans le cas présent, j’ai ajouté une petite marge. Mais les lecteurs ne sont visiblement pas prêts à contribuer…

Répondre à ce commentaire

Commentaire 324 dans Un mariage risqué, suite, le 14 février 2008

@dePassage,

La stratégie de MS est de rendre complémentaires son offre client (Windows, Office) et ses services Internet (Live).

Il fut un temps où l’on disait que le navigateur Internet (IE) avait sauvé Microsoft de la déroute face à Netscape (et Java) et que son intégration avait été illégale! Depuis, Microsoft doit faire attention à ce qu’il intègre dans Windows et comment il le fait.

Les navigateurs n’ont pas fait que la fortune de Google, mais ont permis à tout un secteur d’émerger (les pure-players Internet) et de transformer toute l’économie et notre vie. Rendons donc grâce à Microsoft, à Netscape, et maintenant à la Mozilla Foundation de permettre tout cela (avec certes quelques incompatibilités – que je vis moi-même avec mon blog – qui génèrent du travail additionnel pour le support des différentes versions de ces navigateurs)! Et puis, les peurs d’un “big brother” qui étaient courantes surtout entre 1998 et 2001 sont beaucoup moins liées à Microsoft qu’initialement et ont glissé vers Google et Facebook.

Microsoft fait cependant un pari avec Silverlight qui permettra de créer des expériences utilisateur plus riches au sein du navigateur et qui s’appuie sur sa technologie .NET. Reste pour eux à en tirer parti dans leurs propres services Internet. Ils ont la plate-forme système pour cela, reste pour eux à créer une véritable plate-forme applicative, qu’elle s’appelle MSN, Live ou Yahoo quelque chose.

Microsoft a tout de même tenté le coup de l’intégration en incorporant la fonction de search dans tous les recoins de l’interface utilisateur de Windows Vista. Mais le moteur de cette fonctionnalité va être substituable par Google ou un autre système de recherche (je crois, dans le SP1, suite aux décisions de la Commission Européenne). Donc, exit la différentiation vis à vis de Google!

Enfin, malgré les tentations, Microsoft ne peut pas “propriétariser” l’Internet. L’expérience utilisateur des applications Internet ne dépend plus beaucoup de l’habillage du navigateur, mais plutôt de ce qu’il est capable d’exécuter comme code, à quelle vitesse et avec quel niveau de sécurité. Et même la techno Silverlight propre à MS tourne sous Windows autant que sur MacOS et sous Linux! Comme Flash de Macromedia.

Cela serait bien si quelqu’un de chez MS répondait aussi à la question. Mais chez eux comme dans la plupart des grands groupes, les interventions dans les blogs se font rares!

Répondre à ce commentaire

Commentaire 323 dans Un mariage risqué, suite, le 14 février 2008

@Fimail: je ne cache pas que j’ai passé 15 ans chez Microsoft, ce qui au minimum donne un peu de recul et de mémoire à leur sujet.

Oui, il y a des synergies potentielles, mais franchement, l’alignement des planètes est assez délicat. C’est même plutôt de l’alignement de planètes de deux systèmes solaires distants de quelques années lumières qu’il s’agit…

Répondre à ce commentaire

Commentaire 322 dans Un mariage risqué, le 12 février 2008

Louis, j’ai commenté ton post avec ce qui suit sur ton blog:

Mouef….

On prête souvent des réflexions stratégiques à Microsoft qu’ils n’ont pas forcément. Je l’ai vécu de l’intérieur à de nombreuses reprises pendant 15 ans.

Oui, ils ont à gérer une certaines schizophrénie entre leur business entreprise et l’activité grand public, d’autant plus que certains produits comme Vista sont à cheval entre les deux. Mais je le les vois pas s’embarquer dans ce découpage en deux de la marque Microsoft d’autant plus qu’elle a énormément de valeur malgré ses déboires. Et plus de valeur que celle de Yahoo, même dans le grand public.

Ils ne vont pas s’amuser à rebrander la XBOX en Yahoo XBOX non plus! D’autant plus que la XBOX gomme discrètement la marque Microsoft dans son marketing. Tout comme MSN d’ailleurs. Ce n’est pas pour ajouter une marque de plus qui leur est totalement étrangère.

En France, on a tendance à trop stratégiser les choses. Les américains sont plus pragmatiques. Ils font moins de plans sur la comète. Quand ils voient une opportunité, ils se lancent sans trop gamberger. Ils gèrent l’intendance après. C’est leur vision optimiste du monde qui veut cela. Combien d’erreurs ai-je vues commises chez MS – presque en connaissance de cause – parce qu’ils avaient la conviction de pouvoir les corriger ensuite! Je pense qu’on est dans ce cas de figure.

Seul problème, dans le cas de cette fusion, les aspects opérationnels sont considérables et Microsoft a un très mauvais “track record” dans le domaine. Et qui peut citer des fusions réussies de deux challengers “moyens” dans l’exécution face à un leader dominant exécutant bien? Et dans n’importe quelle industrie? Et à fortiori dans une industrie qui évolue à la vitesse de l’Internet?

Les rebondissements récents ne me disent rien qui vaillent. C’est la première fois qu’une société que Microsoft veut acheter se refuse, et pas simplement pour des questions d’argent. Il y a bien eu SAP et Rational dans le passé. Mais on ne connait pas les détails. Sur Rational, MS s’est fait “outbidded” par IBM. Sur SAP, cela ne s’est pas fait pour des raisons non publiques. Là, le beans est sur la place publique! Quelle humiliation! Si le mariage a vraiment lieu, cela sera à reculon ce qui d’un point de vue humain ne va vraiment pas faciliter les choses.

Si MS avait vraiment tout prévu, ils auraient mieux préparé leur coup pour éviter cela. Ils auraient eu l’assentimment au moins des dirigeants de Yahoo à défaut du board.

Vraiment, cette affaire est très mal barrée pour MS. Et quoi qu’il arrive…

Et il n’y a pas que les employés de Yahoo qui ont les boules. Ceux de MS également, aux USA. Cf http://minimsft.blogspot.com/2008/02/microsofts-yahoo-acquisition-is-bold.html.

Répondre à ce commentaire

Commentaire 321 dans Commander le Rapport CES 2008 imprimé, le 11 février 2008

dePassage, merci pour les pointeurs, très instructifs. J’ai utilisé le format PDF pour l’upload et le document utilise des polices standards (Times, Arial) donc cela devrait passer sans pb.

Répondre à ce commentaire

Commentaire 320 dans Commander le Rapport CES 2008 imprimé, le 11 février 2008

Leafar, à vrai dire, non je n’en ai pas commandé un.

C’est cher? Tout dépend du point de référence: le prix du papier en couleur ou la valeur du contenu.

J’ai pris une toute petite marge, c’est ce que permet le système de Lulu. Cela le vaut bien tout de même non?

Il existe bien entendu plein d’autre moyens d’imprimer un doc via Internet. Celui-ci est pratique, direct, préconfiguré et présente la caractéristique de rémunérer modestement (dans le cas présent) l’auteur…

Répondre à ce commentaire

Commentaire 319 dans New look, le 10 février 2008

C’est maintenant corrigé et testé sur IE 5.5, IE6, IE7 et Firefox 2.0X et compatibles.

Répondre à ce commentaire

Commentaire 318 dans New look, le 10 février 2008

Bon, j’ai trouvé un outil qui permet de tester IE5/6 sur XP, et identifié d’où provenait le pb: IE6 ne supporte pas la couche Alpha (de transparence) des PNG, que j’utilise pour créer les liens dans le bandeau vers la page d’accueil et vers la page de téléchargement (peut-être pas la méthode la plus clean de faire cela, en effet…). Donc, je vais intégrer un code supprimant ces PNG dans le cas où le browser est IE6 ou inférieur.

Répondre à ce commentaire

Commentaire 317 dans New look, le 10 février 2008

Flute! Je n’ai pas de quoi tester IE6 chez moi. Il ne doit pas bien supporter les CSS2 et les DIV imbriquées. Il faudrait donc que j’intègre du code conditionnel dans mes templates… et que je trouve le moyen de faire des tests sur IE6 (et Safari au passage). Existe-t-il des outils pour ce faire?

Répondre à ce commentaire

Commentaire 316 dans New look, le 7 février 2008

En fait, il fonctionnait sur Firefox, mais pas sous IE7, donc je l’ai désactivé en attendant de trouver le pourquoi de cette différence de comportement! Et c’est maintenant corrigé. Voilà ce que c’est de faire du PHP à la petite semaine…

Répondre à ce commentaire

Commentaire 315 dans Un mariage risqué, le 7 février 2008

Filmail, une partie de vos remarques s’adressent à Jean-Christophe et d’autres à moi-même.

Pas le choix? Disons que pour grossir rapidement et devenir concurrentiel face à Google, cette acquisition est le moyen le plus rapide d’opérer.

Se rendre compte de la difficulté? Je pense qu’ils le sont, mais ils sont quelque peu optimistes. C’est un bon moteur pour prendre des risques. Il est possible qu’ils aient aussi un peu appris des acquisitions passées qui n’ont pas bien réussi.

Le poids de la bureaucratie? Ce n’est jamais voulu directement. Il y a d’ailleurs des senior execs chez Microsoft qui communiquent et agissent beaucoup pour y réduire la bureaucratie et les pesanteurs. Mais ils n’y peuvent rien: la taille, les recrutements et les évolutions des politiques de rémunération conduisent à apensantir la société.

Oui, il vaut mieux s’endetter un peu ou tout du moins ne pas avoir trop de cash. C’est une question de rendement. Le cash de Microsoft rapportte environ 7% par an car il est placé assez “pépère”. Si il était investit dans de nouveaux business en croissance, le rendement serait meilleur. Et comme le crédit n’est pas cher, on peut encore améliorer le rendement global du capital en s’endettant. Tout du moins, tant que la santé économique permet de rembourser. Microsoft n’a jamais été endetté de presque toute son existence. Il leur reste donc à réduire le niveau de leur cash dans un premier temps. Ils l’ont fait sans impact de rentabilité économique il y a quelques années en distribuant $70B de cash aux actionnaires avec un dividende exceptionnel. Leurs acquisitions n’ont jamais représenté plus de 10% et quelques du cash qu’il généraient (le procès DOJ et la Commission Européenne leur ont couté plus cher, $10B au total). Avec l’acquisition de Yahoo, ils passent en effet au stade supérieur…

Répondre à ce commentaire

Commentaire 314 dans New look, le 7 février 2008

Suffit de demander!

J’ai fait en sorte que l’on puisse cliquer sur les images des docs dans le bandeau de titre et cela va sur une page d’accueil de téléchargement. Et avec un beau bouton au milieu. Le tout grâce à une image PNG transparente positionnée en coordonnées absolues en haut.

Et puis, dans la colonne de droite, “Publications” et “Conférences” sont sous la rubrique Téléchargements.

Répondre à ce commentaire

Commentaire 313 dans New look, le 7 février 2008

En fait, la section téléchargement existe, elle s’appelle “Publications”. Donc, il faudrait peut-être que je la renomme.

Et sinon, je cherche à créer un lien direct sur les PDF dans les images des deux docs dans le bandeau. Mais, je ne sais pas comment faire. Est-il possible en XHTML de créer un lien “ Répondre à ce commentaire

Commentaire 312 dans Un mariage risqué, le 7 février 2008

Tu as raison, ils n’ont pas le choix. Mais il leur reste à créer la capacité à digérer une telle acquisition.

Tout est à faire pour eux. Tous les obstacles imaginables sont là. Avec en plus, un nouvel obstacle auquel ils ne s’attendaient pas forcément: Yahoo résiste à l’acquisition et cherche d’autres options. Ce qui ne manquera pas de laisser des traces et de rendre la digestion encore plus difficile, si elle a lieu. Sans compter que cela risque en plus de couter plus cher à Microsoft car les enchères seraient en train de monter. Mais bon, l’argent est la commodité qui leur est la plus facilement accessible.

Répondre à ce commentaire

Commentaire 311 dans Un mariage risqué, le 5 février 2008

D’accord sur l’aspect stratégique : c’est la seule solution pour avancer pour MS.

En même temps, “risquée”. Car elle est très délicate à mettre en oeuvre opérationnellement pour les nombreuses raisons évoquées dans le post et dans les réactions associées.

Comme on aime à le dire dans les boites américaines: “c’est une affaire d’exécution”.

Attentons de voir les premières décisions de Microsoft, au cas où l’acquisition se déroule comme prévu pour eux.

Répondre à ce commentaire

Commentaire 310 dans Un mariage risqué, le 5 février 2008

Ok avec Andreseen.

D’autant plus que Microsoft fait beaucoup d’acquisitions en ce moment. Environ 25 boites par an depuis deux ans.

Et même s’ils vont cramer tout leur cash disponible pour l’acquisition de Yahoo (si elle se fait), ils reconstituent leurs réserves à hauteur de 4 à 5 milliards de dollars par trimestre, ce qui laisse largement de quoi poursuivre les emplettes…

Répondre à ce commentaire

Commentaire 309 dans Un mariage risqué, le 4 février 2008

L’attitude de Google se comprend sur la messagerie et la messagerie instantanée car MS+Yahoo, cela fait une sacrée dominance sur le marché. Mais bon, aucun des deux ne monétise cela correctement, ni Google avec Gmail, donc à quoi bon s’inquiéter? Surtout dans la mesure où l’acquisition va tellement geler les choses chez MS et yahoo, pas connus pour leur vitesse d’exécution, que cela donnera de la marge à Google pour continuer à progresser.

A part ça, une faille de toutes nos analyses est que , au cas où l’acquisition a bien lieu, que fera exactement Microsoft. A ce moment là, seulement, on pourra juger. Même si au premier abord, quoi qu’ils fassent (Yahoo restant indépendant, ou pas, fusion ou pas avec assets de MS, etc), cela ne dit rien qui vaille…

Répondre à ce commentaire

Commentaire 308 dans Un mariage risqué, le 3 février 2008

En effet, j’enlève le zéro de trop. Et il semblerait que Yahoo ait environ 11000 à 12000 employés et non pas 15000.

Répondre à ce commentaire

Commentaire 307 dans Un mariage risqué, le 3 février 2008

Jean-Eudes, il est marquant de voir que ce qui est à charge est assez spécifique aux boites concernées (et colossal) et ce qui est à décharge est plutôt générique au marché (et maigre). Cela se sentait dans la conférence de presse de Microsoft, pleine de “wishful thinking” : le marché de la pub est une belle opportunité, on va faire des économies d’échelle, avoir un meilleur “inventory”, etc.

Comme le disait Churchill sur la démocratie: “c’est la pire des solutions, mais on n’a pas trouvé mieux”…

Il y a des tas de scénarios sur la manière dont la fusion se produira (pas avant 3 mois, le délai pour l’approbation aux US, et 6 mois pour la France…). Il est probable qu’ils vont en inventer d’autres car la combinatoire est infinie!

Ce qui me gêne dans la démarche de Microsoft, c’est la quasi absence de discours “consommateur” dans ses prises de paroles sur cette acquisition. Ils présentent cela comme un gros meccano industriel plutôt que comme une opération qui pourrait réellement changer la vie des internautes. Or un “client” sur Internet est beaucoup plus volatile qu’un client dans le logiciel ou toute autre industrie traditionnels.

Pour l’anecdote, Kelkoo, l’un des plus beaux succès du Web en France se retrouvera probablement dans les mains de Microsoft. Yahoo voulait les vendre, après avoir raté leur intégration, mais n’a toujours pas aboutit. Microsoft voudra-t-il faire de même et les revendre ou chercher à avoir un pieds dans le commerce électronique (là où il est quasiment absent)?

Répondre à ce commentaire

Commentaire 306 dans Un mariage risqué, le 2 février 2008

Regardez les commentaires sur http://minimsft.blogspot.com/2008/02/microsoft-yahoo-microsoft-44600000000.html . Cela montre au moins une chose: au sein de Microsoft Corp même, les employés ne sont pas rassurés par une telle acquisition.

Quand je pense qu’ils ont aussi failli acquérir SAP il y a un an ou plus…

Répondre à ce commentaire

Commentaire 305 dans Un mariage risqué, le 2 février 2008

Pas con, mais peu probable…
Au moins pour une raison opérationnelle: il ya plein de points communs entre la branche entreprise et la branche grand public de MS. Ne serait-ce qu’au niveau de Vista.

Répondre à ce commentaire

Commentaire 304 dans Un mariage risqué, le 2 février 2008

Bienvu! Chez Yahoo, c’est plutôt dominante Linux et LAMP comme chez Google… Leurs frontaux web sont sous FreeBSD selon Netcraft.

Répondre à ce commentaire

Commentaire 303 dans Un mariage risqué, le 2 février 2008

Perspective historique : combien de fusion de deux boites mal en point (dans un domaine) face à un leader dominant ont donné des résultats probants ? Voir par exemple cet article pris un peu au hasard sur la toile. Les études aux US montrent que la majorité des fusions ne fonctionnent pas et que moins de 20% d’entre elles génèrent de la valeur pour les actionnaires ! Les revues comme Harvard Business Review sont pleines d’exemples de fusions ratées et d’études associées. Ces échecs en quantité sont liés à des raisons qui sont dans mon post et qui n’ont pas grand-chose à voir avec le marché considéré. Elles sont managériales et humaines bien plus que techniques.

Combien de fois des challengers se sont fusionnés pour contrer la dominance de Microsoft sur le poste de travail ? Novell rachetant Wordperfect en 1994 et le revendant à Corel deux années plus tard. Et IBM avalant Lotus en 1995 pour $5B, ce qui était énorme à l’époque, alors que Microsoft faisait « juste » $6B de chiffre d’affaire (en 10 fois plus aujourd’hui). Il y a peut-être une exception : Hewlett Packard qui a acquis Compaq en 2002 et ne s’en sort pas trop mal. Compaq avait eu du mal à digérer Digital Equipment acquis en 1998. Et HP a maintenant dépassé IBM en chiffre d’affaire et est devenu le numéro un mondial en informatique. Oui… mais, les marchés dans lesquels ils opèrent n’ont pas d’acteur dominant comme Microsoft l’est dans le logiciel ou Google dans le search.

Est-ce que l’aversion vis-à-vis de Google va les ralentir ? Oui, peut-être, et dans la même mesure que Microsoft a été ralenti par plus de 15 années de procédures antitrust. Mais Microsoft est toujours bien en point, globalement. Dernier trimestre à 30% de croissance ! Une année fiscale qui va se boucler à plus de $60B. Quand le procès antitrust a démarré en 1998, Microsoft faisait $15B. Ils sont donc quatre fois plus gros aujourd’hui. Leur part de marché a augmenté dans quasiment tous les domaines où ils opèrent. Et même si leur image s’est bien améliorée, la société a des détracteurs encore virulents.

Alors, sommes nous dans un cas différent ? Oui, certainement, car il s’agit d’Internet et de grand public. Alors que l’inertie du succès de Microsoft est liée à son business dans les entreprises. Le marché est plus « flexible », il y a moins d’économies de réseau. Donc, cela ouvre des portes. Mais l’obsession de Microsoft face à Google ne me semble pas forcément bienvenue car cela leur fait louper d’autres phénomènes tels que les réseaux sociaux. Cela paralyse l’innovation que de vouloir à tout prix battre un leader dans un domaine très précis (le search). Dans le même temps, Microsoft a un peu raté l’opportunité de réaliser une intégration poussée de ses services Internet pour faciliter la vie de ses utilisateurs, tout en restant interopérable avec les autres. Autre circonstance atténuante : Microsoft a peut être appris en interne de ses (grosses) acquisitions mal digérées par le passé. Plein de gens « intelligents » les ont auditées et ont du faire des recommandations.

Reprenons l’argument : « les gens intelligents de MS ont du penser à tout cela ». Oui, comme ils ont du penser à l’impact de Vista sur le marché lorsque des gens très intelligents l’on conçu. Comme les gens très intelligents de la SG, bourrée à craquer de polytechniciens et autres ingénieurs de haut vol, ont évité le beans récent. Comme les gens très intelligents qui peuplent les allées des pouvoirs (USA, France, etc) et qui provoquent erreurs sur erreurs, plus humaines que techniques (comme dans le cas de Sarkozy) sans les admettre et en persévérant.

Maintenir Yahoo à part ? Pourquoi pas, mais alors cela irait directement à contre-courant des déclarations de Ballmer hier qui parlait d’économies (ie : fusion => licenciements de personnes occupant des fonctions redondantes), de synergies dans la R&D, dans la publicité, etc. MS digère ses acquisitions en général. Il n’y a eu qu’une ou deux exceptions comme SoftImage, restée une filiale indépendante car dans un business très différent de celui de Microsoft. L’éditeur de logiciels 3D a été acquis en 1994 et revendu en 1998 (à Avid).

Tient, au passage, McKinsey est un fournisseur attitré de conseil en stratégie de Microsoft Corp, et je les y ai vu mettre en place une ou deux réorganisations consécutives… No comment !

Bref, je leur souhaite bon courage ! Si Microsoft réussit et la fusion et à en tirer profit pour réduire la puissance de Google, alors cela sera une première historique qui méritera toutes nos louanges.

Répondre à ce commentaire

Commentaire 302 dans Un mariage risqué, le 1 février 2008

Oui, peut-être. Les réactions des utilisateurs aux agissements du résultat de la fusion pourraient avoir un impact négatif sur le trafic. Et pas nécessairement à cause de l’image Microsoft mais à plus de décisions produit. Comme le rebranding de services, leur fusion, le passage à un ID unique (probablement à terme celui de Microsoft, anciennement appelé Passport) ou tout du moins l’interopérabilité avec l’ID Yahoo.

Répondre à ce commentaire

Commentaire 301 dans Un mariage risqué, le 1 février 2008

Ayant passé 15 ans chez Microsoft, j’ai cotoyé les gens en question!

Ils ont beau être brillants individuellement, cela ne les empêche pas collectivement de pêcher et notamment d’avoir des difficultés à intégrer les acquisitions.

C’est le propre des grandes organisations. Très peut savent digérer correctement leurs acquisitions. Cisco est un modèle du genre, jamais véritablement égalé avec succès dans l’industrie. Microsoft est plutôt en queue de peloton dans ce sport, surtout pour les “grosses” acquisitions (Visio, Great Plains, Navision, on demande à voir ce qu’il adviendra de aQuantive).

J’ai vécu diverses acquisitions et beaucoup étaient gérées sans forcément un bon travail de préparation. Et d’ailleurs, je ferais plus confiance au middle management qu’à ceux du dessus…!

Répondre à ce commentaire

Commentaire 300 dans Rapport Attali et Innovation, le 1 février 2008

On peut au moins commencer par les sujets les plus polémiques. Tous ne le sont pas dans les propositions d’Attali. Juste une dizaine. Cela devient donc humainement faisable…

Répondre à ce commentaire

Commentaire 299 dans Festival de prédictions pour 2008, le 1 février 2008

Bonjour Fabulous, la réponse votre question ne tenant pas dans un commentaire, je l’ai intégrée dans un post “Un mariage risqué”. Vous pouvez évidemment réagir à cet endroit là.

Répondre à ce commentaire

Commentaire 298 dans Rapport Attali et Innovation, le 1 février 2008

Oui, je suis bien d’accord, le rapport couvre un spectre trop large de sujets. Pourquoi donc? N’est-ce pas parce qu’une telle commission rassemble trop de personnes et interroge trop de corps constitués? C’en est souvent le travers. Mais pouvait-il faire autrement?

Dans les techniques de brainstorming sur des sujets complexes, il est souvent de bon ton de tout mettre sur la table et ensuite d’élaguer. Sarkozy avait donné carte blanche à Attali, ce qu’il fait qu’il a tout étalé. Mais l’élagage n’a pas été fait.

Moi qui apprécie les schémas, j’aurais bien aimé que le rapport en contienne quelques uns. Avec par exemple, la relation de cause à effet entre les mesures proposées. Avec un peu de chiffrage. Avec de la vulgarisation. Les “rapports de la République” ont souvent ce travers que leurs rédacteurs ne vivent pas encore à l’ère du multimédia. Quand on lit un rapport de la Cour des Comptes, c’est la même histoire. Aucun travail de mise en perspective et de vulgarisation, pas de schémas explicatifs, peu de tableaux de synthèse. Les rédacteurs n’ont pas compris qu’à l’ère de l’Internet, leurs travaux n’étaient plus réservés à un cercle d’initiés ou aux tiroirs. Les citoyens (enfin, certains) s’informent. Les médias consultent. les bloggeurs crunchent.

Je m’étais fait la même remarque sur les différentes réformes lancées par le gouvernement ces derniers mois: tribunaux, retraites, universités. Aucun des ministères concernés n’avait fait l’effort de produire une documentation de vulgarisation des réformes qu’ils lancaient et qui pour certaines ont bloqué facs et transports pendant des jours. Incroyable!

L’exemple des taxis est tout aussi éloquent. Au delà du fait que c’est un peu hors sujet par rapport à la croissance, pourquoi il n’est pas expliqué? Cela ne suffit pas de dire qu’il n’y a pas assez de taxis par rapport à telle ou telle ville. Il faut expliquer comment les taxis y fonctionnent, quelles sont les différences de “régime”. Quel est l’impact d’une dérégulation? Comment compenser cet impact? Et si cela prend trop de place, fournir un pointeur sur des travaux annexes. Et puis comment gérer la transition? Mais plus de taxis, cela peut générer de la croissance: cela améliorerait le services apporté à nos touristes et donc augmenterait potentiellement leur nombre. C’est évidemment un effet très indirect. C’est le cas des infrastructures en général. Mettre du haut débit partout est du même tonneau. Cela ne veut pas dire que la France va générer le prochain Google pour autant!

Bref, nos élites devraient suivre des stages de communication et prendre la peine de faire preuve d’un peu de pédagogie.

Répondre à ce commentaire

Commentaire 297 dans Rapport Attali et Innovation, le 31 janvier 2008

Je me suis fait les mêmes remarques au départ. C’était un sport de dénigrer ce rapport. Peu s’aventurent à en dire du bien.

Mais en lisant le document en entier et en consultant les différentes critiques qui en étaient faites, j’ai trouvé qu’il était trop injuste de blâmer tout azimut le travail de cette commission. C’est une posture maximaliste bien française consistant à toujours voir la partie à moitié vide du verre.

Il y a dans ce rapport un ensemble plus cohérent qu’il n’y parait, même si parfois il faut une explication de texte. Il est plus incomplet qu’incohérent. Il est plus hors sujet qu’il ne contient de pistes à écarter entièrement.

Le “tout ou rien” est une posture à la fois de provocation de la part d’Attali, mais aussi le souhait de préserver les équilibres socialo-libéraux du rapport. C’est également une manière de dire au pouvoir politique: “êtes vous chiches? pour bouger la France, malgré les risques que cela comporte?”.

Soyons constructifs! Peu de critiques du rapport ont précisé leurs solutions pour générer de la croissance.

Après, on peut se poser la question de l’intérêt de générer de la croissance. Une “bonne” croissance doit effectivement enrichir le pays sans détruire (plus avant…) la planète, et ses fruits doivent être équitablement distribués tout en valorisant l’entrepreneuriat et l’effort.

Répondre à ce commentaire

Commentaire 296 dans Rapport CES 2008, le 31 janvier 2008

Aldus, OK, mais pensez à mettre à jour le contenu en suivant les évolution des versions de mon document (actuellement en 1.4). Mais promis, j’arrêterai les mises à jour d’ici une semaine. J’intègre en fait les corrections des erreurs qui me sont signalées par les lecteurs, que je remercie au passage.

Répondre à ce commentaire

Commentaire 295 dans Rapport CES 2008, le 31 janvier 2008

Bien vu. En fait, les 35K correspondent aux nouveaux abonnés Orange générés par les ventes d’iPhone et FT a bien déclaré en avoir vendu 70K en 2007, en ligne avec leurs prévisions. J’ai donc corrigé le doc (version 1.4) en conséquence, comme pour quelques autres détails qui m’ont été signalés hier.

Il sera intéressant de voir ce qu’Apple annoncera en 2008 pour contribuer à élargir le marché de l’iPhone. Nouveaux prix? Nouvelle version? Support de la 3G?

Répondre à ce commentaire

Commentaire 294 dans Rapport CES 2008, le 30 janvier 2008

En effet, bien vu. Il m’avait semblé voir une barre chez eux avec 5 HP, mais c’était donc peut-être ailleurs…

Par contre, je me demande si Yamaha n’a pas raté quelque chose dans cette affaire car ils se font “piquer” le marché via l’entrée de gamme avec des produits plus simples et moins chers.

Répondre à ce commentaire

Commentaire 293 dans Festival de prédictions pour 2008, le 29 janvier 2008

Bonjour Serge,

Curieux ce Jamespot…
– Ca sert à quoi et ça fait quoi précisément?
– Pas compris non plus le lien avec flux RSS.
– Impossible sur le site de savoir qui a créé la boite et dans quel pays. Ils cachent le fait qu’ils sont français ou quoi?

Olivier

Répondre à ce commentaire

Commentaire 292 dans Rapport CES 2008, le 29 janvier 2008

Tekwizz, merci pour votre contribution constructive… J.

Sur le fond :

– Qu’ai-je donc dit (de mal) sur ST Microélectronics dans ce rapport? Surtout dans la mesure où je ne les cite pas dans mon rapport !

– Sur Sagem, Thomson et Alcatel, je suis preneur de vos informations contradictoires sur les investissements de ces sociétés dans les loisirs numériques grand public. Il me semble qu’elles s’orientent nettement vers le « btob » ou le back-end : broadcast TV pour Thomson, infrastructures réseau pour Alcatel, etc. Et leur business set-top-box subsiste certes, mais est orienté vers la fourniture de boitiers sur spécifications des opérateurs, sans relation ni marketing vis-à-vis des consommateurs et de réseaux de distribution. Ce que j’avance est le résultat d’entretiens nombreux avec des professionnels du secteur, certains ayant cottoyé les entreprises en question, voire y ayant collaboré !

– Sur ces mêmes boites, pouvez-vous citer des projets, spin-offs, startups ou nouveaux business créés grâce aux subventions diverses qu’ils ont pu récolter ?

– Pour Archos, je m’appuie sur leur couverture presse et sur les résultats financiers pas bien brillants (-15% au dernier trimestre, 9 millions de pertes dans le résultat courant sur H1 2007…).

– Tout n’est pas noir pour les sociétés françaises du secteur. J’évoque plutôt positivement les sociétés Parrot, LaCie et DibCom.

Triple-play : c’est page 27. J’avais omis le tiret entre triple et play…

Residential gateways : le sujet est traité des pages 136 à 139. Les « residential gateways » sont un autre nom donné aux routeurs wifi – modem ADSL qui sont courants depuis des années maintenant, et pour lesquels la nouveauté du moment est le passage au 802.11n.

FemToCell : c’est vrai, je n’en ai pas parlé dans mon rapport. Ce n’est pas un sujet qui me passionne tout simplement, et il ne faisait pas l’actualité au CES. Pour le lecteur, il s’agit de la technologie permettant de créer un “mini émetteur” GSM connecté au réseau ADSL. Pas très courant pour l’instant même si certains constructeurs présentaient quelques offres au CES (comme Samsung).

Vous me proposez de « travailler plus » un peu comme un maitre d’école qui ferait la leçon à son élève. Mais au juste, je n’ai pas bien noté le nom de votre blog (ou de tout autre support) où vous éclairez les lecteurs sur les sujets que vous évoquez. Demander aux autres de l’effort requiert un peu d’exemplarité tout de même…

Répondre à ce commentaire

Commentaire 291 dans Rapport CES 2008, le 29 janvier 2008

Gui_d, en effet. Alienware est une filiale de Dell et cet écran était exposé sur le stand de Dell.

Répondre à ce commentaire

Commentaire 290 dans Rapport CES 2008, le 28 janvier 2008

Merci à vous tous pour vos feedbacks et au passage à ces bloggeurs qui ont relayé la disponibilité du Rapport CES 2008 et l’ont ainsi fait connaitre à un maximum de lecteurs potentiels : Cédric Ingrand de LCI, Guillaume Grallet de L’Express, Ouriel Ohayon de TechCrunch France, Sir Jean-Michel Billaut, Benjamin Gauthey de Microsoft France, Grégory Renard, Richard Menneveux et Dominique Piottet de L’Atelier US qui m’avait interviewé sur place.

Maintenant, reste à discuter du fond…

Répondre à ce commentaire

Commentaire 289 dans Rapport CES 2008, le 28 janvier 2008

Jean-Eudes, j’ai l’impression que les technologies Nanosolar et Heliovolt basées sur le cuivre/indium/gallium/sélénium ne sont pas encore exploitées par les chinois. Ce qui semble normal puisque les américains sont à peine en train de démarrer leur production. Les trois premiers panneaux Nanosolar ont été fabriqués il y a quelques semaines seulement. Ce n’est pas encore du volume. Les boites américaines réussiront peut-être à protéger leur procédé quelque temps.

Au CES, il y avait seulement de “petites” boites chinoises avec des panneaux solaires de taille diverse et au silicium.

Répondre à ce commentaire

Commentaire 288 dans Rapport CES 2008, le 28 janvier 2008

Dans la variante « Paternité-Pas d’Utilisation Commerciale-Pas de Modification 2.0 France ».
Voir http://creativecommons.org/licenses/by-nc-nd/2.0/fr/ .

Merci d’avoir détecté cette imprécision! Je l’intègre dans la prochaine version (1.3) que je vais mettre à jour d’ici demain.

Répondre à ce commentaire

Commentaire 287 dans Rapport CES 2008, le 28 janvier 2008

VODMAN : et ils en font quoi ces décideurs? Est-ce que tu en connais qui vont aux CES dans ta boite?

Répondre à ce commentaire

Commentaire 286 dans Rapport CES 2008, le 25 janvier 2008

Rémi, effectivement, Numéricâble est plus avancé que Canal+ côté stb et PVR.
Très bien le tableau de synthèse pour Wikipedia!

Répondre à ce commentaire

Commentaire 285 dans Rapport CES 2008, le 24 janvier 2008

Merci pour vos compliments.

Aldus, je découvre l’Iliad. Je vais l’ajouter dans mon petit topo sur les ebooks dans le rapport!

Répondre à ce commentaire

Commentaire 284 dans Festival de prédictions pour 2008, le 19 janvier 2008

Il ne faut pas comparer le CES et MacWorld. Le premier couvre toute l’industrie, et c’est mécaniquement une cacophonie. Le second est un événement d’un seul acteur, qui peut donc focaliser son discours. Sur 4 points comme l’a fait Steve Jobs lors de son keynote.

Pas tout à fait d’accord sur les laptops à SSD. On en voyait pas mal. Si la presse n’en parle pas beaucoup, c’est qu’elle n’a pas saisi à quel point cela va changer la vie des gens. Pour moi, c’est un point clé de ce CES. Chez Asus et Toshiba notamment. Et Apple a à la fois bien surfé sur cette vague, et comme d’habitude, créé un produit de classe associant le design, la fonction et la miniaturisation. Il est juste un peu cher.

Répondre à ce commentaire

Commentaire 283 dans Festival de prédictions pour 2008, le 7 janvier 2008

Merci LVM pour tous ces commentaires.

Premier feedback du CES. J’ai assiste aux confs de presse des constructeurs japonais et coreens et constate qu’ils sont largues par l’iPhone. Pas vraiment de nouveaux modeles. Un peu de travail sur le design (LG), des smartphones avec clavier premier prix a $45, de la tv sur mobile. Et toujours cette incomprehension du role du logiciel.

Cote Microsoft, un keynote assez moyen, centre sur Windows Live, avec des scenarios ‘tout MS’ sans grande originalite. Rien de frappant sur les mobiles a part quelques chiffres (20m units ww) et autocongratulations.

Cote PC, ce sont les UMPC et autres PC ultra legers qui vont faire le salon.

J’attendrai effectivement les annonces de MacWorld pour boucler mon rapport du CES!

Répondre à ce commentaire

Commentaire 282 dans Le avant et le après en marketing, le 3 janvier 2008

Frédéric,

Merci pour le “heads up”.

J’ai complété la liste des sociétés d’accompagnement avec Tioga (+ quelques autres modifications) dans une “silent release” pointée par l’article et datée Janvier 2008.

Olivier

Répondre à ce commentaire

Commentaire 281 dans Festival de prédictions pour 2008, le 2 janvier 2008

D’accord, mais on sort des clous de l’installation standard, ce qui réserve la manip à des utilisateurs “un poil” plus expérimentés. La config est-elle suffisante pour utiliser des outils au quotidien, type OpenOffice, GIMP, etc? La config SSD a l’air un peu réduite tout de même non?

Répondre à ce commentaire

Commentaire 280 dans Festival de prédictions pour 2008, le 2 janvier 2008

Pierre, je m’étais penché sur la question il y a plus d’un an sur http://www.oezratty.net/wordpress/2006/choisir-son-lecteur-rss/. Depuis, le marché des lecteurs RSS n’a pas évolué significativement. Je fais partie de ceux qui brassent beaucoup d’information par jour et trouve que l’on pourrait encore améliorer ce genre d’outils en aidant à faire le tri, à identifier les posts redondants, ceux qui ont le plus de valeur… le tout dans les sources d’information que l’on a sélectionnées, et pas pour toutes (comme le font techmeme ou wikio). Mais mon besoin correspond à une petite frange du marché, alors que la masse est semble-t-il comblée avec des lecteurs RSS web du genre Google Reader.

Les PC à mémoire flash sont et ne sont pas des PDA de luxe. L’EEE peut être considéré comme un PDA de luxe. Mais un laptop avec un SSD de 30 Go ou plus, avec Windows ou Linux est un … laptop classique, sauf qu’il boote dix fois plus vite et fonctionne bien plus rapidement. J’ai hâte de tester cela pour constater le confort que cela peut apporter au quotidien.

Répondre à ce commentaire

Commentaire 279 dans Le avant et le après en marketing, le 27 décembre 2007

Excellent ce post de ReadWriteWeb, et ouf, la plupart des trucs cités sont déjà dans mon doc!

Répondre à ce commentaire

Commentaire 278 dans Back from LeWeb3 – Les startups, le 26 décembre 2007

Bonne idée pour les organisateurs de la prochaine édition du Web3! En effet, il serait bon de donner plus de chances aux projets véritablement early stage, même si cela n’affranchit pas d’un processus de sélection préalable. Une sorte de startup-crochet…

Répondre à ce commentaire

Commentaire 277 dans Back from LeWeb3 – Les startups, le 22 décembre 2007

En effet… intriguant!

Les VCs diront-ils qu’ils manquent de projets de qualité en early stage?

Répondre à ce commentaire

Commentaire 276 dans Bundles contestés, et après?, le 20 décembre 2007

Vous jouez sur les mots! Ma conclusion était une question. Le débat qui en a suivi permet aux lecteurs de se faire une opinion de la réponse potentielle. Je ne vais pas pour autant poser la question différemment. Et comme l’article commence à dater, je vais en profiter pour en fermer les commentaires.

Répondre à ce commentaire

Commentaire 275 dans Bundles contestés, et après?, le 19 décembre 2007

Il n’y aurait pas de préjudice, mais juste un processus d’achat un pouillème plus compliqué. Et si l’ensemble coûte un peu plus cher aux intermédiaires constructeurs et distributeurs, le consommateur en paiera indirectement le prix un jour où l’autre.

Répondre à ce commentaire

Commentaire 274 dans Bundles contestés, et après?, le 19 décembre 2007

Sauf que…
– Quand ils bendent des options, c’est pour vendre quelque chose en plus, et si possible à un maximum de clients, et souvent, pour une bonne marge.
– Ce que vous proposez consiste pour les distributeurs à vendre “en moins”, et à un nombre très réduit de clients.

Comprenez que dans ces conditions les distributeurs ne soient pas franchement motivés à se bouger!

Il n’y a que deux facteurs qui pourraient changer la donne:
– Une régulation (loi, DGCCRF, etc)
– Une évolution significative de la demande du marché en faveur de Linux, elle-même subordonnée aux évolution du système et de son écosystème.

Comme les deux ne sont pas encore au rendez-vous, il faudra attendre!

Répondre à ce commentaire

Commentaire 273 dans Bundles contestés, et après?, le 19 décembre 2007

Bien, il faut que le constructeur développe un bout de logiciel qui se superpose à Windows ou s’intercale dedans, je ne sais pas trop comment.

Ensuite, imaginons le processus pour le distributeur. il devrait avoir deux références pour chaque PC: une avec les logiciels une sans, et dans le premier cas, fournir le code d’activation pour les logiciels, et pas dans l’autre. Cela parait simple comme cela, mais ça alourdit la chaine logistique du revendeur. Surtout s’il faut qu’il la mette en place pour quelques % de ses clients (au moins au départ).

Pourquoi Linux? Parce que c’est la seule alternative courante à Windows sur un PC nu. A moins qu’il s’agisse d’y installer un Windows non OEM? Dans ce cas là, cela n’a aucun sens car c’est plus cher qu’en OEM. Et les licences OEM ne sont pas transférables d’une machine à une autre.

Enfin, question à mon tour : est-ce qu’il existe un pays dans le monde où il est possible d’acheter des PC sans Windows dans la grande distribution et où les mécanismes que vous appelez de vos voeux ont été mis en place? La question des bundles ne semble pas être limitée à la France…

Répondre à ce commentaire

Commentaire 272 dans Back from LeWeb3 – Les startups, le 19 décembre 2007

David, merci pour la précision, j’ai corrigé la coquille dans l’article. Et je suis preneur du test.

Carlos, je comprend mieux maintenant. C’est intéressant comment positionnement par rapport à tout ce qui se dit/écrit sur l’open source dans l’édition de logiciels…

Répondre à ce commentaire

Commentaire 271 dans Back from the Silicon Valley 2, le 18 décembre 2007

N’avons nous pas aussi en France cette main d’oeuvre bon marché? Pour les récoltes dans le sud, il y a plein de personnels mal payés en provenance d’afrique du nord, via l’Espagne. Et pour les travaux de maçonnerie et équivalents, plein de travailleurs d’Europe de l’Est. Tout ça plus ou moins au noir. La garde d’enfants? En France aussi cela se fait souvent au black, même s’il y a les chèques emploi service qui ont réduit le phénomène.

La différence peut-être avec les US, c’est que là bas, on accepte plus facilement de payer pour des “petits services” alors qu’en France, on paye le service quand on n’a pas d’autre choix. Je suis toujours étonné de voir par exemple le nombre de personnes dans les aéroports qui gèrent l’accueil aux USA: contrôle des passeport, douanes, plein de gars redondants les uns avec les autres dont le métier est de récupérer un petit bout de papier blanc.

Répondre à ce commentaire

Commentaire 270 dans Bundles contestés, et après?, le 18 décembre 2007

J’ai du mal à retrouver la trace de cette proposition d’interdiction qui est effectivement plus extrême que les autres propositions (choix, code d’activation). Il me semble qu’elle provient de certains élus qui se sont penchés sur la question.

Nonobstant, l’histoire des codes d’activation et du refus des logiciels est pratiquement difficile à mettre en place pour les circuits de distribution (OEM+retailers). Et avec un coût logistique qui ne serait pas amorti car la demande Linux est encore assez faible dans le grand public. D’où le fait que certains constructeurs évoquent un prix plus cher pour des machines sans Windows. Un comble effectivement, mais qui s’explique quand on regarder l’équation économique en détail du constructeur.

Quand au remboursement des logiciels, la base de calcul n’est pas évidente. Surtout pour les logiciels intégrés au delà de Windows. La plupart l’on été avec un coût très faible pour le constructeur (parfois même pour moins de 1€ par licence), et dans des versions pas forcément identiques aux versions vendues à l’unité. Le calcul du “prix” comme du “coût” des logiciels bundlés sont un véritable casse-tête chinois. Si on prenait le “prix rue” des logiciels, on aboutirait à un “prix” du bundling logiciel qui serait supérieur à la moitié du prix de la machine. Ce qui ne serait pas normal car le remboursement du logiciel ferait donc perdre de l’argent au constructeur qui n’oublions pas ne marge pas à plus de 5%. Le revendeur marge quant à lui à environ 20%. Ca aussi ça fait partie du coût. Si on augmente le coût de gestion pour le revendeur, il va aussi être tenté d’augmenter les prix.

La vie du consommateur qui sort des clous est toujours malheureusement difficile. Tout comme l’est l’impossibilité de s’abonner à CanalSatellite/Canal+ en enlevant les chaînes du sport qui leur coûtent très cher (600m€ pour la ligue de foot) et ne m’intéressent pas. Et Canal+ a une situation de dominance dans les contenus premium en France! Et je ne parle pas de l’arnaque autour de l’iPhone…

Répondre à ce commentaire

Commentaire 269 dans Back from the Silicon Valley 1, le 17 décembre 2007

Domi,
Oui sans doutes. Mais aux USA, c’est le rêve de la Silicon Valley, par le rêve américain. Vu de la Silicon Valley, la côte est est aussi ringarde et dépassée que l’Europe. Autant d’un point de vue culturel (au sens culture entrepreneuriale telle que je l’évoque) qu’économique.

Répondre à ce commentaire

Commentaire 268 dans Back from LeWeb3 – Les startups, le 17 décembre 2007

JB,
Merci pour ces précisions utiles sur UpShot!
Oui, les objectifs de la compétition semblaient contradictoires : chercher du financement? La plupart des projets avaient déjà levé des millions! Faire du buzz? Oui, potentiellement. Intéresser le public? Si ce sont des VCs, c’est normalement déjà fait en amont… pour les bons qui font une bonne veille.

Laurent,
Effectivement, la monétisation sera plus facile sur les sites pros, même si ce n’est pas forcément là que l’on y trouve la plus grosse activité communautaire.

Répondre à ce commentaire

Commentaire 267 dans Back from LeWeb3 – Un web responsable ?, le 17 décembre 2007

Joss, je me suis mal exprimé. Le point sur le bullshitomêtre faisait référence à la présentation de Doc Searls qui associait étroitement social network à bullshit.

Le projet VRM est intéressant en soi, c’est une variante précise et commerciale du social networking, le social shopping.

Répondre à ce commentaire

Commentaire 266 dans Back from LeWeb3 – Les startups, le 17 décembre 2007

Bonjour Carlos,

Intéressant. Pourquoi donc de tels développements? Qu’est-ce qui est devenu propriétaire dans l’architecture? Quelles APIs sont liées aux services web 2.0?

Olivier

Répondre à ce commentaire

Commentaire 265 dans Back from the Silicon Valley 3, le 16 décembre 2007

Oui Fred, c’est la différence entre les pionniers et les autres! Le mythe de l’Ouest américain n’est pas né pour rien!

Répondre à ce commentaire

Commentaire 264 dans Back from LeWeb3 – Un web responsable ?, le 15 décembre 2007

My pleasure!

J’ai fourni quelques pointeurs sur d’autres CR intéressants de la conférence dans mon second post (sur les startups, à la fin).

Répondre à ce commentaire

Commentaire 263 dans Back from the Silicon Valley 3, le 11 décembre 2007

Edwin, tout ceci existe aussi déjà ou a existé. Sauf le montant de 200m€ que tu évoques.

Mais n’a pas donné des résultats extraordinaires, tout du moins au regard de ce que génère la Silicon Valley. Tous les moyens existent ici mais sont très dispersés et en masse sous-critique. Rien qu’à Paris, il y a plusieurs incubateurs et divers programmes d’accompagnement de la Ville de Paris qui s’appuient sur des experts.

La tendance ici est d’avoir plutôt des experts de l’industrie “lourde” et des ingénieurs qui ont une vision assez technique des projets. Mais peu d’expertise en “b-to-c” et en marketing consommateur.

Autre annecdote : je participe pour ma part au comité de sélection de Scientipole Initiative, une assocations 1901 financée par la région Ile de France et différentes institutions financières comme la CDC. Quand des projets Internet sont présentés, l’une des questions classiques qui revient est “quelle est la barrière à l’entrée”. Sous-entendu barrière à l’entrée technologique. Alors que dans ces business, il y a bien des barrières à l’entrée mais elles ne sont pas technologiques et sont plutôt liées à la rapidité d’exécution, à la valeur utilisateur, à l’extensibilité de la plate-forme et aux investissement de création d’un écosystème de produits ou services complémentaires.

Ce que tu proposes ressemble un peu à l’Agence de l’Innovation Industrielle créée en 2005 et dirigée par Jean-Louis Beffa, le CEO de Saint Gobain. Mais au lieu de financer 6 projets “gouffres financiers”, en aurait financé quelques dizaines avec des montants plus faibles. Et en faisant intervenir d’autres compétences que les polytechniciens et autres têtes bien pensantes de la technostructure locale.

Répondre à ce commentaire

Commentaire 262 dans Grandes Ecoles et Innovations, le 11 décembre 2007

Le projet de Pouletty semble bien mal en point si je comprends bien! Comme beaucoup, il cherchait à faire avancer le schmilblick par petits racommodages, mais ajoutait une complexité de plus à un système qui est déjà trop complexe comme le relève la Cour des Comptes. Dès lors que plusieurs organisations sont concernées, cela devient vite la zizanie. Notamment cette rivalité inutile et destructrice entre universités et grandes écoles.

Créer une SV dans la Vallée de Chevreuse n’est pas qu’une affaire d’élus locaux. C’est l’affaire d’une volonté politique de très haut niveau (Elysée) et sur la durée, et liant privé et public. Elle doit se mener sur 2 à 3 quinquenats.

Répondre à ce commentaire

Commentaire 261 dans Back from the Silicon Valley 3, le 10 décembre 2007

Une grande partie des dispositifs que tu décris existent déjà. Le financement? Il est assuré largement par les ASSEDIC, premier fond d’amorçage et “business angel” de France pour les entrepreneurs qui viennent du salariat! Il y a aussi pléthore de programmes et organisations pour aider les entrepreneurs: INRIA Transfert, Scientipôle, Paris Développement, des pôles en régions, etc. Ce qui peut manquer parfois à ces pôles, c’est une forte expérience marketing. Mais on peut en trouver.

Les moyens financiers disponibles ne permettent par contre pas souvent de procéder aux itérations que tu décris. Ils sont à l’échelle de la France: plus réduits qu’aux USA pour un business équivalent. En même temps, les montants d’investissements aux USA donnent à penser qu’il y a beaucoup de gaspillage et de déperdition là-bas.

Tu as raison sinon de rappeler que la situation dans la Silicon Valley est loin d’être idyllique. Elle est meilleure à la France sur un grand nombre de points mais elle a aussi ses points noirs. Comme nous disait Jean-Louis Gassée, c’est un “soleil froid”. Les grands groupes regorgent de cadres qui n’ont pas réussi dans les startups. Mais au moins, les allers et retours sont possibles entre grandes boites et startups.

Répondre à ce commentaire

Commentaire 260 dans Back from the Silicon Valley 3, le 9 décembre 2007

Olivier, oui je vais consolider et compléter tout cela dans un PDF unifié. J’attends d’avoir un peu de temps, et aussi quelques commentaires et discussions.

Répondre à ce commentaire

Commentaire 259 dans Back from the Silicon Valley 3, le 9 décembre 2007

Laurent, la piste de la francophonie est évidente. C’est souvent la première qui est adoptée par les acteurs français de notre industrie. Mais je dirais que c’est une solution de facilité et qu’elle fait même “petit joueur”. Le marché de la francophonie est ridicule au regard de celui de l’anglophonie et des autres langues. Il faut donc d’emblée avoir une ambition mondiale, même si elle doit se réaliser pas à pas.

De plus, cela dépend du business. Par exemple, le maghreb est probablement intéressant pour le logiciel et le matériel d’entreprise. Mais pour les services Internet, son taux d’équipement est encore trop faible, sans compter la maturité des marchés publicitaires. Mais je n’ai peut-être pas les bonnes données pour véritablement juger sur ces points.

Répondre à ce commentaire

Commentaire 258 dans Back from the Silicon Valley 2, le 6 décembre 2007

Apbianco, est-ce que la main d’oeuvre bon marché non qualifiée est vraiment plus abondante dans la vallée? Pas évident! Ou alors, cela ne concerne pas vraiment l’économie de la high-tech. Mais les français qui nous lisent et vivent en Californie pourraient nous renseigner.

Répondre à ce commentaire

Commentaire 257 dans Back from the Silicon Valley 2, le 6 décembre 2007

Laurent, tu as tout vu. C’est une question de culture et d’état d’esprit, puis de capacité à déployer une véritable démarche marketing et commerciale. Il y a cependant pas mal de changements à opérer pour redonner du tonus au pays : dans la société, dans la gouvernance du pays, dans l’enseignement supérieur et la recherche, dans la fiscalité. Pour la culture et les valeurs, cela prendra peut-être du temps. Mais l’expérience montre qu’une sensibilisation et une mobilisation médiatique peut facilement changer les choses.

Christophe, merci pour ton petit mot. Cela fait toujours plaisir de voir qu’il y en a qui prennent le temps de lire mes posts-roman. Cela évite l’impression d’être lancé dans de longs monologues… :).

Répondre à ce commentaire

Commentaire 256 dans Back from the Silicon Valley 2, le 6 décembre 2007

Elle n’existe pas en un seul lieu.

Mis il y a quelques pôles intéressants:
– Cambridge au Royaume Uni est dans les 10 premiers du classement de Shanghaï, c’est une excellente université et elle est entourée de pas mal de boites de high-tech.
– Grenoble pour les nano-tech et un environnement universitaire scientifique de taille critique.

L’Europe a décidé que sa Silicon Valley serait distribuée et virtuelle avec son “European Institute of Technology”. C’est la réponse du compromis, aucun pays ne pouvant acccepter qu’un autre héberge un tel avantage compétitif. Or l’expérience de la SV montre que la concentration physique des ressources est indispensable.

Bref, il faut déjà commencer à raisonner au niveau du pays et concentrer les ressources. Tu connais ma préférence pour la Vallée de Chevreuse…

Répondre à ce commentaire

Commentaire 255 dans Back from the Silicon Valley 1, le 5 décembre 2007

Ben non, pas encore repéré… Mais cela va venir, patience!

Valérie Pécresse serait bien entendu d’accord pour la Vallée de Chevreuse puisqu’elle en est députée (en suspens du fait de son statut de Ministre)! Reste à avoir le courage de déplaire aux autres…

Les captchas illisibles? Je ne les dessine pas à la main à chaque fois que tu commentes! Et pourtant, je les ai agrandis il n’y a pas longtemps pour qu’ils passent sur des mobiles.

Répondre à ce commentaire

Commentaire 254 dans Mission CES 2008 à Las Vegas, le 4 décembre 2007

Pour ma part, je n’ai assisté les années précédentes qu’aux keynote qui sont en général de bonne facture même s’il s’agit de show à l’américaine. Les autres confs sont souvent des débats entre industriels, régulateurs et médias. Intéressants pour se faire une idée des sujets chauds du moment.

Répondre à ce commentaire

Commentaire 253 dans Back from the Silicon Valley 1, le 4 décembre 2007

En effet Yonathan. j’ai oublié cela alors que je l’ai pourtant vécu en France… mais chez Microsoft. L’attribution de SO à tous les collaborateurs n’est cependant pas systématique dans les boites high-tech, tant en France qu’aux USA.

Répondre à ce commentaire

Commentaire 252 dans Back from the Silicon Valley 1, le 4 décembre 2007

Dans ce cas là, autant qu’elle soit en France…
Pour l’instant, l’Europe planche pour un “MIT à l’Européenne”. C’est-à-dire qu’il est à la fois partout (dans plusieurs universités de taille critique) et nulle part (pas suffisamment concentré). La culture du consensus de l’Europe ne peut pas mener à autre chose. A ce jeu là, la France a des atouts, mais aussi de sérieux handicaps à lever.

Répondre à ce commentaire

Commentaire 251 dans Back from the Silicon Valley 1, le 4 décembre 2007

En effet, vérifications faites c’est bien Chicago. Comme quoi soit j’ai mal noté, soit le type qui nous l’a dit s’est planté…
J’ai donc corrigé le post.

Répondre à ce commentaire

Commentaire 250 dans Privé de blog…, le 3 décembre 2007

Le problème, c’est que le illico et presto est une théorie et qu’il faut du temps pour le faire. Ne serait-ce que pour transférer la propriété des noms de domaine. Il semblerait que cela ne soit pas instantané! Enfin, je crains fort que les pratiques des hébergeurs soient plus ou moins voisines, surtout pour les forfaits d’entrée de gamme comme celui que j’utilise. On ne peut pas non plus demander la lune pour 6€ / mois!

Tu as une suggestion? Au moins, pour un backup…

Répondre à ce commentaire

Commentaire 249 dans Abécédaire des conflits sociaux, le 28 novembre 2007

Ca se discute…

Quand la démocratie, ou la république, restreint les libertés des autres, c’est soit pour punir le non respect de la loi (retraits de permis, prison), soit effectivement pour réguler la vie commune.

Mais dans le cas des étudiants et des grèves, on a non seulement une démocratie généralement non représentative mais également une définition à géométrie variable de l’intérêt général. Ainsi, quand des étudiants menacaient de bloquer les trains, cela pouvait affecter d’autres personnes que les étudiants. Cette notion élastique de l’intérêt général génère des débordements inacceptables pour des personnes non concernées directement par le conflit. Dans un tel cas, une véritable démocratie implique que tous les citoyens concernés votent, comme dans des référendums. Quand un mouvement commence par priver les autres d’une liberté fondamentale, le “libertarien” que je suis peut-être n’est en tout cas pas rassuré!

Le coup de la grève par procuration inventé par les salariés du public ou des régimes spéciaux est de la même veine.

Le plus absurde dans les grèves actuelles des étudiants, c’est que les protestations visent des mesures qui ne font pas partie de la loi SRU (“privatisation des universités”, “droits d’inscription”). Mesures qui n’ont pas été intégrées par peur des réactions des étudiants. On marche donc sur la tête et on est dans l’émotionnel, pas dans le rationnel.

Je suis actuellement dans la Silicon Valley, et les protestations des étudiants français contre l’irruption du privé dans l’université y font pleurer (chez les français établis ici). J’en reparlerai à mon retour.

Répondre à ce commentaire

Commentaire 248 dans Exo-Darwinisme Numérique, le 24 novembre 2007

Mon intuition est qu’il y a un peu des deux: l’homme externaliste certaines fonctions ce qui lui donne une meilleure capacité d’adaptation.

En même temps, l’usage extrème de technologies numériques transformera notre manière de penser, d’assembler des idées, de communiquer, de rêver. On devient plus multitâche. Notre mémoire fonctionne plus par associations que par mémorisation pure. Est-ce que cela ne transforme pas l’homme d’une manière ou d’une autre à moyen terme? Et là, je ne pense pas à une forme de sélection (même s’il n’est pas impossible qu’elle opère), simplement d’évolution graduelle. De toutes manières, nous ne vivrons pas assez longtemps pour voir si telle ou telle hypothèse se vérifie…

Répondre à ce commentaire

Commentaire 247 dans Mythes et limites du marketing viral, le 17 novembre 2007

Je commence mon article au passé. En effet, les VCs sont devenus plus prudents dans leurs investissements. Le Web 2.0 n’est plus la coqueluche comme il y a deux ans!

Pour Kelkoo, on entend dire que Yahoo veut maintenant le revendre, après avoir progressivement dépouillé la structure en France (où elle s’est dépouillée toute seule). Dommage.

Autre société “bulle” à regarder de près en ce moment, c’est NetVibes. Audience qui stagne, équipe qui s’étiole, toujours pas de monétisation, concurrents qui ne sont pas inertes (surtout Google)…

Répondre à ce commentaire

Commentaire 246 dans Thermomètre de l’ARPU, le 16 novembre 2007

Il y a peut-être des variations, mais l’ordre de grandeur doit être voisin. Je n’ai pas cherché de ce côté là car il n’est pas facile de dépiauter les rapports d’activité des grands opérateurs télécom qui mixent différentes sources de revenus. Il serait par contre intéressant d’avoir cette information pour les opérateurs japonais et coréen, pays très consommateurs de services à valeur ajoutée pour mobiles.

Répondre à ce commentaire

Commentaire 245 dans Mythes et limites du marketing viral, le 12 novembre 2007

Divertissement? Cela dépend des usages. Chez les jeunes peut-être. Mais tous ceux qui m’invitent à être leurs amis sont plutôt dans une logique de réseau professionnel à la LinkedIn. Cela dépend donc de l’audience.

Que Facebook soit utile ou pas, cela dépend donc. La frontière entre l’utile et le futile est bien floue. Mais c’est un fait que la viralité relève pas mal du spam pas toujours bien contrôlé par les émetteurs. Ils ont réussi un beau coup, c’est certain. Mais le monde des réseaux sociaux semble bien volatile. Et la viralité à la Facebook n’est pas à la portée de tous les sites. N’oublions pas aussi qu’ils ont levé $12m chez Accel en 2005 alors qu’ils n’avaient “que” 2 millions d’utilisateurs!

Le captcha utilise un générateur de texte aléatoire. Essayez encore une fois, vous obtiendrez peut-être PS FHVSR”… 🙂

Répondre à ce commentaire

Commentaire 244 dans Thermomètre de l’ARPU, le 4 novembre 2007

En effet, c’est pour cela que j’en proposais une version PDF téléchargeable sur http://www.oezratty.net/Files/Divers/Internet,%20Media%20and%20Software%20ARPU%202007.pdf.

Répondre à ce commentaire

Commentaire 243 dans Business Angels du logiciel, le 3 novembre 2007

Oui oui, Frédéric m’en a parlé. Il faudrait que j’aille y faire un tour lors de la prochaine édition. Ne serait-ce que pour le citer dans mon doc sur l’aide aux entrepreneurs!

Répondre à ce commentaire

Commentaire 242 dans GIMP et la photo numérique, le 3 novembre 2007

Je n’ai pas oublié puisque je l’ai bien cité:

“Il est animé par de nombreuses communautés d’utilisateurs. Celles-ci ont la caractérisque d’être plutôt dédiées à la création de graphiques pour sites web. Et moins à la photographie numérique, mon dada. D’où une orientation plus technique de cette communauté. Et aussi l’absence de support natif des fichiers RAW pour la photo et le traitement des photos en “8 bits” uniquement.”

J’attend effectivement avec impatience un support 16 bits. J’ai pu tester Krita qui est pas mal mais a l’air moins complet que GIMP et surtout, moins bien entouré côté communauté et tutoriels.

Répondre à ce commentaire

Commentaire 241 dans Startups et réalisme financier, le 22 octobre 2007

Comme toujours très intéressant le Kawa!

Et encore, il ne traite que des coûts / employés. Ce n’est pas forcément là où les erreurs sont les plus fréquentes.

Le coût du recrutement est un facteur très pertinent car en période difficile comme en ce moment, il peut devenir élevé. D’où l’intérêt, lorsque bien mise en oeuvre, d’une approche réseau / cooptation. Et le pari sur des jeunes!

Le timing du recrutement également. Dans certains business qui sont très intensifs en resources humaines, la difficulté du recrutement peut ralentir sérieusement la croissance d’une startup. D’où l’importance d’approches de partenariats et d’écosystème tendant à externaliser d’une manière ou d’une autre la plus grande partie de ces activités.

Répondre à ce commentaire

Commentaire 240 dans Exo-Darwinisme Numérique, le 12 octobre 2007

Arnaud et Théolane, je voulais bien écrire “la préhension”. Question de chronologie: l’arrivée de la parole a précédé de loin celle de l’écrit, et à fortiori sa décrue qui pourrait advenir de certains abus du numérique.

Joss, les articles de Wikipedia semblent indiquer qu’il peut y avoir complémentarité entre les théories Lamarckiennes et Darwiniennes. Je ferais juste remarquer que ces deux scientifiques de renom n’ont pas vraiment connu l’impact des trois révolutions industrielles (Darwin a vécu aux tous débuts de la première). A fortiori la dernière!

Les évolutions que je mets sur la table ne sont peut-être donc ni darwiniennes ni larmarckiennes. Elles transcendent la notion de “plus faible” ou “plus fort” car elles font abstraction des contraintes géographiques et mêmes ethniques. Mais j’intuite qu’elles ne sont pas que culturelles car le cerveau, à la longue, va certainement évoluer.

Il peut à la fois évoluer vers le haut comme le pense Michel Serres, ou vers le bas, si on est déclinologue quant à l’impact des TIC sur certains types d’utilisateurs.

On manque évidemment de recul puisque les TICs n’ont qu’une à deux générations derrière elles! Alors que les évolutions des espèces et de l’espèce humaine se mesurent en x milliers d’années. Mais comme l’évolution des technos s’accélère, ne serait-il pas envisageable que l’évolution humaine s’accélère en proportion?

Avec un peu de recul, on pourrait se dire: pourquoi s’en soucier? Puisque l’on rencontrera des problèmes bien plus structurants avant qu’un brin d’ADN ne change : fin de l’ère du pétrole, réchauffement de la planète, etc.

Répondre à ce commentaire

Commentaire 239 dans Illusions de la Commission Européenne sur Microsoft, le 8 octobre 2007

Jack, merci pour ce complément d’analyse, fort à propos.

Les relations de causalité entre événements sont effectivement complexes. Je souhaitais en tout cas montrer que certains événements liés aux procédures antitrust ont permis à Microsoft de s’adapter et de s’améliorer dans certaines dimensions et que cela lui a été profitable. C’est une conséquence inattendue pour ce qui aurait du juste générer la “peur du gendarme”. Puisque l’on est dans les analogies, on peut faire le parallèle avec Pearl Harbour, bataille perdue pour les USA, mais prélude à un renforcement de ce dernier.

Microsoft avait des capacités d’adaptation qui ont peut-être été sous-estimées par ceux qui l’ont attaqué, ou en tout cas par ceux qui souhaitent comme Nelly Kroes voir Microsoft perdre beaucoup de parts de marché. Souhait qui fait d’ailleurs fi des mécanismes d’écosystèmes et d’économie de réseau toujours favorables aux acteurs dominants. En particulier pour le coeur des technologies d’aujourd’hui (les microprocesseurs, les systèmes d’exploitation, les moteurs de recherche).

Mon autre point reste déconnecté de l’analyse de l’antitrust: si et quand Microsoft perd des parts de marché (comme contre Firefox), c’est plus le fait de ses erreurs internes liées à sa taille et à son inertie que des attaques antitrust, même si pour Firefox, on peut remonter la chaine de causalité au procès américain (DOJ vs Microsoft, 1998-2002) terminé par un règlement “à l’amiable”.

Répondre à ce commentaire

Commentaire 238 dans Illusions de la Commission Européenne sur Microsoft, le 4 octobre 2007

La différence de prix des logiciels entre les US et l’Europe est (malheureusement) classique dans la plupart des boites américaines. Ce n’est pas vraiment une spécificité de Microsoft. Ni lié à quelque procédure antitrust que ce soit. Mais une petite étude comparative des prix des logiciels des deux côté de l’Atlantique serait intéressante pour les grands éditeurs (MS, Adobe, Symantec, Oracle, …).

Pour ce qui est de Windows, le prix est le même quand on achète son PC chez un constructeur international. Celui-ci paye en $ et au même prix les Windows préinstallés, quels que soient les pays de vente des PCs. Par contre, pour la mise à jour achetée en boite à la FNAC, oui, il y a une belle différence.

Répondre à ce commentaire

Commentaire 237 dans Un Media Center pour CanalSat !, le 30 septembre 2007

Est-ce que le support HDMI est vraiment lié à Media Center dans Vista? Les cartes ATI Radeon 2×00 supportent à la fois Windows Vista, HDMI et le système de protection HDCP. Cela ne fonctionnerait-il pas du tout au sein de l’application Media Center de Vista? Je ne sais pas.

Par contre, les cartes nVidia semblent n’avoir que des connecteurs DVI. Mais ce n’est pas une catastrophe pour autant car la plupart des écrans plats ont une entrée DVI. Tout comme les amplis récents. La différence d’image entre DVI et HDMI est inexistante. C’est du numérique dans les deux cas. Le passage du son dans le HDMI ne sert que si l’on souhaite alimenter l’écran avec un seul cable et utiliser le son via la TV. Si on passe par un ampli, DVI + connection SPDIF (audio numérique) en optique ou coax RCA suffisent.

Répondre à ce commentaire

Commentaire 236 dans Photo parlante sur les TIC, le 25 septembre 2007

Cette photo n’est pas porteuse d’un sens particulier.

Cela peut être Ségolène Royal en train de dicter un texte à une secrétaire. Donc, du banal… et du traditionnel.

Répondre à ce commentaire

Commentaire 235 dans Grandes Ecoles et Innovations, le 25 septembre 2007

Intéressante en effet cette mise en perspective qui illustre le manque d’appréhension des sciences et technologies chez les gens dits “lettrés”. Cela se retrouve dans notre classe dirigeante autant politique qu’en entreprise. Ceci étant, c’est même vrai pour de nombreux dirigeants d’entreprises pourtant passés par une formation initiale de nature scientifique…

Pour ce qui est du manque d’interdisciplinarité des grandes écoles, je suis plus circonspect (en gros: pas d’accord). Cela dépend des écoles, selon qu’elles sont plus ou moins spécialisées. Beaucoup d’écoles dites du “groupe A” (comme l’X, les Ecoles Centrale, Supelec, Mines, etc) sont plutôt généralistes et exposent leurs élèves à de nombreuses disciplines et s’ouvrent de plus en plus sur les sciences sociales, l’international et l’économie sans compter une exposition très large au monde de l’entreprise couplée à une vie associative intense. On ne peut pas en dire autant des universités où de nombreux étudiants s’engouffrent dans des silos de compétences très pointus. Chose qui est moins vraie aux US où les étudiants du supérieur peuvent facilement étudier deux branches très différentes en même temps.

Par contre, le caractère généraliste de certaines grandes écoles ne pousse effectivement pas les élèves ingénieurs à devenir chercheurs. Là, OK.

Enfin, la “valorisation” (des docteurs) ne se décrète pas. Elle correspond à un système de valeur ambiant et à un mode de financement et de confrontation au marché. Le système est déterminant. Certains chercheurs sont très attachés au côté “service public” de la recherche, et préfèrent ne pas se confronter aux logiques économiques. C’est louable. Mais en même temps, cela génère le système de valeur actuel. Car qui dit public, dit en général “mal financé”, donc pas forcément bien reconnu.

Répondre à ce commentaire

Commentaire 234 dans Canon s’approche du rêve, le 21 septembre 2007

Demander à Canon, voir leurs coordonnées sur leur site Web. Je n’assure pas le service après-vente de cette société, quelque soit le pays, désolé!

Répondre à ce commentaire

Commentaire 233 dans Surtaxer les stock options ?, le 18 septembre 2007

En effet, dans un calcul macro-économique, les effets induits latéraux sont à prendre en compte pour de tels dispositifs.

Ce que dit l’OCDE, c’est qu’il ne faut pas plus taxer les SO que les salaires pour éviter cette fuite, rien de plus. Les charges patronales sur les SO posent un véritable problème aux entreprises concernées car cela charge leur compte d’exploitation de manière plutôt imprévisible. En même temps, ces charges seront plus lourdes si la plus-value de cession est élevée, plus value qui traduirait une augmentation du cours en bourse, donc en général de la profitabilité de l’entreprise. Sauf évidemement dans les cas de manipulation de cours qui existent parfois.

Même taxé comme les salaires, les SO ont toujours un intérêt pour les entreprises concernées (on l’a vu : côtées mais pas PME, et filiales de groupes étrangers):
– Fidélisation des collaborateurs sur la durée. Tout du moins si il subsiste une taxation globale inférieure au bout d’un certain nombre d’années comme aujourd’hui.
– Création du sentiment d’appartenance à l’entreprise.
– Augmentation indirecte de la culture économique des collaborateurs (sur la “bottom line”).

Les 3md€ estimés semblent ne correspondre qu’aux SO des entreprises cotées en France. Et ne pas intégrer les BSA et BCE, ni les SO de filiales d’entreprises étrangères. Ni les plans d’attribution d’action, eux-mêmes déjà taxés comme les salaires.

Répondre à ce commentaire

Commentaire 232 dans Un Media Center pour CanalSat !, le 18 septembre 2007

Argh! Il y a donc bien un lièvre!

Qui s’applique donc probablement à tous les tutos qui ont été proposés dans les commentaires.
Il faut donc réellement attendre que MS, Canal+ et d’autres finissent de bosser ensembles pour obtenir une solution MCE numérique de bout en bout pour CanalSat!

Répondre à ce commentaire

Commentaire 231 dans Un Media Center pour CanalSat !, le 16 septembre 2007

De ce point de vue là, il n’y a pas de mystère. Tout d’abord, la configuration est à priori assez musclée: grosse capacité de stockage, boitier silencieux, CPU, mémoire (par contre, le boitier utilise un chipset graphique Intel, donc il y a plutôt économie de ce point de vue là). Puis, il y a le travail d’intégration qu’il faut bien vendre, surtout dans la mesure où il doit être réalisé à petite échelle. Ce n’est pas une boite qui roule sur l’or!

Aujourd’hui, un Media Center de base est à environ 800€-1000€. Si on met un disque dur de gros calibre (1 To), 2 Go de RAM pour être à l’aise, une carte sat bi-tuner en remplacement de la carte TNT classique, la carte Common Interface, cela doit ajouter au grand maximum 500€ de matos. Donc, on pourrait arriver à une configuration grand public prêt à l’emploi pour moins de 1500€ et en tirant un peu à environ 1100/1300€.

Mais le marché des Media Center rééllement utilisé dans le salon pour la TV reste encore trop marginal. Cela explique la timidité du marché côté offre. HP a même annoncé arrêter la fabrication de Media Centers! Les set-top-boxes tout en un ont aussi de l’avenir. On arrivera sans doutes un jour à un équilibre avec de telles STB, genre WyPlay ou Dreambox, qui sont à la fois puissantes et ouvertes, mais en même temps, bien intégrées, mises à jour à distance, et sans la prise de tête des PC classiques sous Windows (ou Linux).

Répondre à ce commentaire

Commentaire 230 dans Un Media Center pour CanalSat !, le 15 septembre 2007

Effectivement, il faut être patient, car le tuto est loin d’être simplissime! Merci pour le partage, cela fait un tuto de plus pour arriver à la solution.

Maintenant, pourquoi personne ne propose ce genre de configuration toute prête aux alentours de 1000€ et quelques? Pourquoi est-ce réservé soit aux fortunés, soit aux experts bidouilleurs (et je ne dis pas ça au sens péjoratif… j’en suis un à mes heures perdues)?

Répondre à ce commentaire

Commentaire 229 dans Un Media Center pour CanalSat !, le 11 septembre 2007

Pour faire écho aux commentaires de Mickg, Stéphane et jyq :
– La Dreambox est effectivement une solution sympa. Par contre, quel est son degré d’ouverture? Est-ce que l’on peut la configurer confortablement côté disque dur (avec 500 Go ou 1 To)? Cela nécessite j’imagine d’avoir un disque de setup complet avec les drivers pour pouvoir réinstaller l’ensemble si on change le disque. A moins qu’il ne soit juste possible d’ajouter un disque complémentaire au disque système.
– MythTV, ça peut marcher, mais effectivement ce n’est pas très grand public. La solution est intégrée dans “Linux MCE” qui est à base d’Ubuntu. Mais ce n’est pas prêt d’être supporté officiellement par Canal+. Des fichiers de TV numériques qui se balladent en clair sur des PC, quelle horreur!
– Stephane, quelle est votre configuration exacte? Hard, soft, drivers, fournisseur EPG, carte tuner et lecteur de carte de contrôle d’accès? Avec un tuto, on pourrait avoir une idée de la diffusion potentielle de ce genre de solution.

La solution de DHC a le mérite d’être packagée, prête à l’emploi, mais son prix la rend prohibitive pour la grande partie du marché des 1 à 2 millions d’abonnés à CanalSat. De plus, par rapport à toutes les autres solutions évoquées, elle s’appuie sur Windows Media Center qui présente l’avantage d’avoir une interface utilisateur vraiment sympa (en version XP, pas Vista).

Le besoin du marché, c’est d’une solution à moins de 1000€ ou sur abonnement, qui soit distribuée partout (Fnac, et revendeurs Canal+), et reconnue officiellement par Canal+. Et là, on en est encore loin. Même pour l’offre DHC d’ailleurs.

Répondre à ce commentaire

Commentaire 228 dans Les doutes autour de Vista, le 8 septembre 2007

Pour info, voir http://windowsvistablog.com/blogs/windowsvista/pages/windows-vista-service-pack-1-beta-whitepaper.aspx qui contient la liste des améliorations (bug fixes pour l’essentiel) intégrées dans le SP1 à venir de Vista.

Répondre à ce commentaire

Commentaire 227 dans Un Media Center pour CanalSat !, le 8 septembre 2007

Merci Rémi pour le tuto.

Il semble que cela reste encore un peu complexe, donc réservé aux initiés ou aux intégrateurs. Ce n’est pas encore ni standard ni très grand public!

En effet, pour la réception TNT comme DBB-S, il n’y a pas de décodage de flux, il entre en MPEG2 et le reste dans le stockage. Par contre, dans le cas de CanalSat, il doit y avoir un décryptage car le signal n’est pas en clair.

Répondre à ce commentaire

Commentaire 226 dans Réflexions sur le réflex II, le 6 septembre 2007

Indeed.
Les Canon 5D (et probablement 350/400/30/40D) affichent l’ISO dans le viseur.
Le mode miroir relevé n’existe chez Canon que dans leur nouveau modèle 1D III haut de gamme.

Répondre à ce commentaire

Commentaire 225 dans Réflexions sur le réflex II, le 5 septembre 2007

La qualité de ces photos est en effet due au “full frame”. Et probablement à l’optique, celles de Canon étant de très bon niveau (ici un 24-105mm qui ouvre à 4).

J’avais fait une petite comparaison avec mon G7 sur http://www.oezratty.net/wordpress/2006/review-du-canon-powershot-g7/ et c’est édifiant. Les APS type 350/400D ou D200/D70 doivent donner un résultat intermédiaire. Mais c’est vrai que je n’ai jamais vu un journal spécialisé faire ce genre de comparaison. Eux seuls peuvent se le permettre facilement car ils testent tous les appareils.

Tu peux aussi faire une telle comparaison sur le site http://www.dcresource.com qui réalise ses bancs d’essais en faisant toujours les mêmes photos. Notamment les tours d’une grande ville américaine dans la nuit (je crois Chicago). Ce n’est probablement pas suffisant et une pièce et/ou une personne dans une pièce faiblement éclairée seraient plus pertinentes.

Répondre à ce commentaire

Commentaire 224 dans Photo parlante sur les TIC, le 4 septembre 2007

Ah et au passage, dans les photos du bureau de Sarkozy dans l’autre sens parues cet été dans la presse (notamment dans Marianne), on découvre que le truc en cuir est un porte documents vertical rempli de courriers divers…

Répondre à ce commentaire

Commentaire 223 dans Photo parlante sur les TIC, le 4 septembre 2007

Laura Garcia, si votre remarque concerne le post, le point est que le nouveau président a raté l’occasion de marquer symboliquement un attachement pour l’innovation et les TIC. A la fois par son comportement personnel réfractaire à l’ordinateur personnel (et certes, pas au mobile) et pas l’absence des TIC dans les attributions des Ministères et d’un rôle de coordination sur le sujet. On est loin d’Al Gore, et d’ailleurs, il n’y a pas d’Al Gore dans toute l’Europe.

Mais j’ai entendu dire qu’un secrétaire d’Etat ou Ministre Délégué serait bientôt nommé pour être en charge des TIC. Cela pourrait éventuellement changer la donne, même si ce n’est que symboliquement, une fois encore. Cette fois-ci dans le bon sens.

Répondre à ce commentaire

Commentaire 222 dans Google vs MS, en PDF, le 2 septembre 2007

Non, pas de version anglaise. Mais rien ne vous empêche de traduire pour une citation!

Répondre à ce commentaire

Commentaire 221 dans Les doutes autour de Vista, le 29 août 2007

J’ai effectivement une lecture “réaliste” de la situation et je mets l’émotionnel de côté. Ce qui n’est pas pour autant du cynisme. Dans cette histoire comme dans bien d’autres, le consommateur se voit effectivement imposer la dernière génération de produits, même si elle n’est pas encore tout à fait au point et doit encore maturer. C’est aussi le prix à payer pour que les technologies évoluent. Sinon, elles évolueraient deux à trois fois plus lentement. C’est le même problème dans plein d’industries (automobile, santé, télécoms) même si celles-ci sont parfois plus contraintes (comme les autorisations de mise sur le marché pour les médicaments, même si il y a des travers que l’on découvre bien plus tard) et moins concentrées que le marché des systèmes d’exploitation. Pour qu’un système soit au point, il faut que son écosystème le soit également. Or ce dernier a tendance à se bouger que s’il y a un début d’usage du produit. C’est un cercle vertueux difficile à enclencher pour tous les acteurs de l’industrie. Et malgré son monopole dénoncé par tous, malgré la distribution OEM très avantageuse pour Microsoft, le cercle vertueux reste difficile à enclencher.

Malgré tout ce que j’ai écris, je pense qu’il ne faut pas pour autant taper brutalement sur Microsoft. Ils ont mis beaucoup d’énergie et de ressources pour développer cette version de Windows. 5000 personnes sur 5 ans. C’était un projet colossal. Il a connu des difficultés. Ils ont certainement commis des erreurs. Ils ont du couper les ailes à certains aspects du produit pour le sortir dans un délai acceptable, l’inacceptable ayant en fait été déjà dépassé du point de vue de leur business en entreprise (je passe le détail sur les « accords entreprises »). Ces erreurs et ces aléas ont un impact sur la vie courante de dizaines de millions d’utilisateurs. Il faut donc remonter ce qui ne va pas et pousser Microsoft à s’améliorer là où il le faut. Quand ils sont dans l’adversité, et ils le sont dans le cas présent, ils écoutent… mieux.

Et ce n’est pas le “Directeur marketing de MS france” qui écrit cela. Je ne le suis plus depuis 2001! Sachant que j’ai quitté Microsoft il y a deux ans. Ca fait un (petit) bail.

Sinon, pourquoi chercher un autre job? Je suis indépendant et donc tout à fait libre de m’exprimer! Et souhaite d’ailleurs le rester. Ce que j’écris est là pour l’illustrer. Et c’est bien dans mon activité puisque je m’intéresse aux mécanismes de diffusion des innovations. Même si l’on peut juger qu’une nouvelle version d’un système d’exploitation n’est pas en soi une innovation, elle s’inscrit au minimum dans un contexte d’innovation : du matériel, de l’Internet et des usages. Et l’adoption de Vista, qu’on aime ou pas, est un événement important dans l’industrie informatique. Les aléas de cette adoption ont un impact majeur sur cette industrie.

Répondre à ce commentaire

Commentaire 220 dans Les doutes autour de Vista, le 29 août 2007

Le mode administrateur existe sous Vista, et même sous Windows depuis Windows XP. Même s’il ne se comporte pas de la même manière que sous Linux. Les demandes de validation d’installation de logiciels ou relatives à la sécurité que l’on a dans Vista s’apparentent un peu au “sudo” d’un Ubuntu ou des demandes de logon lorsque l’on lance l’outil d’installation d’applications Synaptic. En fait, ce qui est nécessaire, c’est de disposer d’un mode mixte, où de manière courante, on est simple utilisateur, et de manière sporadique, on peut passer sans changer de compte administrateur pour modifier la configuration du système. C’est là que Linux et Windows diffèrent dans leur mode opératoire. Et pas dans la notion de “mode administrateur” au sens “se logger avec un compte utilisateur qui a des droits d’administrateur sur la machine”.

Oui, l’OEM garantit bien à Microsoft un flot de revenu continu. Mais l’édifice est moins solide qu’il n’y parait et les dépendances technologiques (inerties de base installée, etc) jouent plus en faveur – ou défaveur, selon – de MS que son propre marketing qui n’a rien d’extraordinaire. On a vu également que les annonces d’un ou deux constructeurs (Dell, Acer) peuvent avoir un impact, au moins médiatique.

Il y a un point que je n’ai pas creusé dans mon post qui est l’attitude des grandes entreprises. Elles vont sans doutes être lentes à déployer Vista, mais pas forcément plus lentes qu’avec les précédentes versions de Windows. Elles subiront la pression des utilisateurs grand public passés à Vista, mais seulement si ces derniers en sont globalement satisfaits, ce qui ne semble pas être encore le cas. La mayonnaise en faveur de MS n’est pas encore totalement en place. Il leur faut cependant peu de choses pour qu’elle le soit: “finaliser” Vista de manière incrémentale, améliorer le support et la compatibilité avec le hard et les applications, et profiter de l’augmentation graduelle de la puissance des PCs.

Les variations géographiques de la position concurrentielle de MSN que vous citez à juste titre confirment la position de Microsoft dans l’Internet: leader parfois et challenger souvent. Leur capacité d’innovation et d’exécution est extrèmement inégale dans ce domaine. Ils sont plutôt moyens partout qu’excellents quelque part. Mais ils en ont conscience, ont récemment revu leur organisation et viré quelques VP dinosaures. Ils disposent aussi de très bons talents dans la recherche fondamentale, qu’il leur faut mieux exploiter pour créer des “produits finis”.

Répondre à ce commentaire

Commentaire 219 dans Les doutes autour de Vista, le 28 août 2007

To apbianco: ces cas restent marginaux, heureusement. Reste à savoir si Microsoft les présente comme des “bugs” ou des “features”. Dans le premier cas, ils devraient les corriger un de ces 4. Surtout si justement cela concerne beaucoup d’utilisateurs.

Répondre à ce commentaire

Commentaire 218 dans Les doutes autour de Vista, le 28 août 2007

Rémi, ce rêve est malheureusement très éloigné de la réalité! Car il y a tout un tas de raisons qui expliquent la richesse actuelle des systèmes d’exploitation. Et de ce point de vue là, Windows n’est pas si exceptionnel que cela. Linux et MacOS sont également très riches fonctionnement même si le premier est certainement plus modulaire.

Oui, un OS doit fonctionner avec le matériel. Comme le matériel est de plus en plus diversifié, la tâche est de plus en lourde pour les créateurs d’OS.

Par ailleurs, les fonctions que vous listez sont considérées comme étant basiques maintenant et donc installées par défaut. Pour un utilisateur qui achète un PC, le fait qu’il puisse lire une vidéo ou un CD ou n’importe quoi est naturel. C’est pour cela que c’est censé fonctionner immédiatement. Dans les faits, ce n’est pas toujours le cas car il y a pléthore de formats dans la nature. L’exemple du PDF est intéressant à ce titre: sa lecture n’est pas supportée par défaut dans Windows, mais les constructeurs ajoutent quasi-systématiquement le viewer PDF d’Adobe dans leur configuration Windows pour simplifier la vie des utilisateurs et leur éviter d’avoir à le télécharger et l’installer. Ceci va exactement à l’encontre de votre rêve! Combien d’utilisateurs ont de plus souffert de ne pas pouvoir directement lire un DVD vidéo sous Windows XP parce que le système n’intègre pas de codec MPEG2 (codec maintenant en standard dans Vista Premium et Ultimate)?

“Un OS ultra léger, l’espace disque disponible le permet largement maintenant” n’est-il pas contradictoire? Si il y a de l’espace disque, on peut y intégrer ce que l’on veut non? Peut-être pensez-vous à l’intégration dans l’espace de tous les modules nécessaires et leur installation à la volée en fonction des besoins. C’est un peu ce que font les OS aujourd’hui. Dans Windows comme dans Linux ou MacOS, la plupart des services “système” peuvent être chargés en mémoire et déchargés à la volée. Le travers classique étant d’en charger plus qu’il n’en faut et d’alourdir ainsi les performances du PC.

Répondre à ce commentaire

Commentaire 217 dans Industrie du logiciel libre ou artisanat ?, le 20 août 2007

Il y a eu plein d’annonces de ce genre avec au minimum des délais importants pour ces migrations voire des annulations. Cela concerne surtout les postes de travail car leur migration sous Linux n’est pas simple du fait du poids de l’existant tant technique qu’au niveau des habitudes des utilisateurs.

Il sera intéressant de voir d’ici 6 mois ce que donne le déploiement d’Ubuntu à l’Assemblée Nationale.

Répondre à ce commentaire

Commentaire 216 dans Aides aux entrepreneurs – Nouvelle Edition, le 20 août 2007

Merci Lionel, j’ai intègré cette structure et ce site dans le doc (liste des prestataires d’accompagnement, et liste de sites à la fin).

Répondre à ce commentaire

Commentaire 215 dans Industrie du logiciel libre ou artisanat ?, le 20 août 2007

Jérôme, tu décris un phénomène bien connu: le libre se généralise d’abord par les couches basses de l’infrastructure. Et il grignote ces couches vers le haut progressivement. En touchant maintenant des couches applicatives CRM ou ERP: SugarCRM, Compiere, et bureautique (OpenOffice).

Tes invectives à la “tu n’as rien compris” sont sinon un peu limites car ton propos n’est pas forcément contradictoire avec le mien (et réciproquement). Je mets en évidence un équilibre entre libre et commercial qui se cherche. Les faits le montrent avec les stratégies d’acteurs, y compris dans le logiciel libre.

Comme le dit François Letellier dans l’article que tu as pointé, les industriels ne sont pas altruistes. Ils voient bien où est leur intérêt. Je simplifierai leur stratégie de la manière suivante : ils s’appuient sur des couches basses dont le développement est mutualisé de plus en plus en open source, et avec leur contribution éventuelle, apportant à la fois un gage de bon positionnement marketing et une assurance que les évolutions tiennent compte de leurs besoins. Ils travaillent aussi à la certification des plates-formes avec les éditeurs de distro comme RedHat ou Novell et avec les grands constructeurs. C’est indispensable à une logique de volume. Mais ils se gardent bien d’appliquer cette démarche à leur coeur de métier qui reste bien propriétaire. C’est exactement la stratégie d’IBM et d’Oracle. On pourrait arguer du fait qu’IBM est maintenant une grande SSII et profitera bien du boom de l’open source. C’est vrai mais en même temps, leur activité « logiciels commerciaux » leur apporte le même niveau de profitabilité que les services. Pour un revenu trois fois moindre. C’est en partie lié au fait qu’une grosse moitié de leur CA logiciel relève de vaches à lait sur lesquelles ils n’investissent plus (les soft pour mainframes). Même en tenant compte du déclin inexorable de ces logiciels mainframe, IBM n’est pas prêt de s’assoir entièrement sur son revenu de licences logicielles. En tout cas, pas volontairement !

Si on prend le cas de Google que tu cites, le libre n’est pas du tout une menace pour eux. Au contraire, cela leur apporte des économies d’échelle avec les centaines de milliers de serveurs qu’ils ont à gérer. C’est le propre des grands sites Web de chercher des solutions logicielles scalable techniquement, mais pas au niveau des coûts de licence. Il y a d’ailleurs un point que tu n’évoques pas du tout et qui pourrait éventuellement mettre de l’eau dans ton moulin : la croissance des modèles économiques « software as a service » via Internet. Ces modèles sont techniquement relativement neutres du point de vue des plates-formes, tant que les standards du web sont bien respectés. Mais leurs offreurs peuvent préférer les plates-formes libres pour la raison déjà citée.

Alors, oui, il y a une concurrence bénéfique au marché. L’open source met la pression sur IBM et Oracle (en + de Microsoft, bien entendu). Oracle est menacé par MySQL et PostgreSQL. IBM WebSphere par ObjectWeb et Jboss. Les Oracle Applications (qui intègrent maintenant l’offre de Peoplesoft, Siebel et Retek) n’ont pas encore d’équivalent en open source et se frottent plutôt à SAP. Mais cela ne veut pas dire que l’open source va tout balayer et devenir le modèle logiciel unique. Pourquoi, parce que quoi qu’on en dise, les logiciels libres n’ont pas que des avantages, et les logiciels commerciaux, que des inconvénients. L’approche plus « technique » des logiciels libres est inhérente à leur mode de conception, basé essentiellement sur des communautés de développeurs. C’est à la fois une force et une faiblesse, qui explique la complexité de leur mise en œuvre (cf mon article sur GIMP, que j’utilise personnellement, mais en ayant bien constaté cette différence avec les logiciels commerciaux).

D’où un équilibre entre les deux modèles qui est mouvant et reste incertain. Prévoir une disparition totale du logiciel commercial serait franchement présomptueux.

La diversité est le propre de cette industrie et il est bon qu’elle perdure. Prévoir que Microsoft va abandonner ses propres plates-formes (Windows, Office) parce que « ces briques appartiennent à l’open source » est un peu rapide. D’abord, il n’y a pas de notion d’appartenance. Ensuite, il y a des briques différentes avec leurs avantages et leurs inconvénients. Sans compter le fameux poids des bases installées. Et l’émulation entre le libre et Microsoft est plutôt bénéfique aux deux parties. Microsoft a d’autres voies de sortie que cette évolution imaginée comme inéluctable vers le libre : software as a service, une plus grande flexibilité sur les prix, de la R&D apportant (parfois, pas toujours) une certaine différentiation, l’approche grand public, les logiciels embarqués, etc.

Répondre à ce commentaire

Commentaire 214 dans Industrie du logiciel libre ou artisanat ?, le 16 août 2007

Jérôme, je met en évidence une sous-estimation du nombre d’emplois informatiques liés aux logiciels libres par ceux même qui en font la promotion! Et les éléments de mon analyse restent d’actualité. Il y a peut-être des choses que je n’ai pas écrites que j’aurais du écrire, mais on ne peut pas commenter ce qui n’est pas écrit! Et en deux ans, des choses ont changé, comme tout ce qui concerne Ubuntu sur lequel je me suis déjà étendu.

Les grands acteurs du logiciel continuent à faire leur chiffre d’affaire avec du logiciel commercial. Il en va ainsi de tous ceux que tu cites: IBM, Oracle, SAP, etc. Et leur contribution aux logiciels libres (bien que fort peu étudiée dans le détail) est marginale par rapport à ce qu’ils investissent dans leurs propres logiciels commerciaux. Rien que pour IBM qui fait 17 milliards de dollars de CA par an en logiciels (propriétaires), le fameux milliard investi en 2000 et dont on ne reparle d’ailleurs plus, est bien léger. Pour Oracle, même chose. Ils vendent toujours autant de logiciels propriétaires qu’avant. Itou pour SAP et autres éditeurs d’ERP et CRM.

Ce qui a changé ces deux dernières années, c’est que Linux est plus utilisé sur les serveurs et sur des scénarios de plus en plus diversifiés. Et of course, dans le privé comme dans le public, et aussi de plus en plus dans les PME. Il est très déployé dans l’infrastructure réseau et cela ne fait pas pour autant vivre des éditeurs de logiciels (libres ou pas). Les acteurs de l’industrie informatique qui bénéficient le plus de la montée du libre sont les SSII (d’où mon trait forcé sur l’opposition entre industrie du logiciel et artisanat).

Ensuite, il y a tout le monde des logiciels embarqués qui est moins connu et profite pas mal aux industriels, mais ce sont des acteurs dont le métier principal n’est pas le logiciel. Net net, le logiciel libre ne profite pas directement à l’industrie du logiciel, mais plutôt à sa périphérie: services et matériel. Et aussi aux acteurs de l’Internet et du “software as a service”.

Le calcul de Laurent Guerby sur la balance commerciale met en évidence la baisse des importations potentielle liée à l’usage de logiciels libres dans le pays. Je demande d’abord à voir le détail de ces chiffres. L’économie réalisée ces cinq dernières années est assez marginale. Au pif, j’estimerai que le manque à gagner pour les Microsoft, Oracle et compagnie – du fait de la popularisation des solutions libres équivalentes à leurs logiciels – est de l’ordre de grandeur de 100m€ en licences, et pas beaucoup plus (on pourrait détailler, à partir de leur CA Serveur et des évolutions des parts de marché…). Or Business Object, Dassault Systèmes et ILOG font à eux seuls plus d’un milliard d’Euros d’exportations en logiciels. Et leur croissance dépasse ces 100m€ économisés. Les éditeurs locaux et commerciaux contribuent donc plus à l’amélioration de la balance commerciale du logiciel que les économies générées par l’usage de logiciels libres. Donc, certes le libre a permis de réduire certains coûts, mais il n’a pas pour autant permis de créer plus de valeur améliorant la balance commerciale.

L’argument du libre – notamment dans le secteur public – est avant tout une logique d’acheteur, mais pas du tout une logique industrielle. Les rapports Européens n’y changeront pas grand-chose. Ils prêchent la création d’une industrie du logiciel libre en Europe (et sont rédigés par des gens convaincus de la chose). Mais ont-ils plus de chances de réussir que Galileo et autres Quaero? Ont-ils véritablement une approche industrielle en volume? Appréhendent-ils le poids du marketing et de l’internationalisation dans l’industrie du logiciel? A moins de devenir un centre d’offshore comme en Inde, le libre n’améliorera pas la compétitivité de l’Europe. Tout du moins, à mon sens, l’Europe ne bénéficiera pas plus du libre que les autres continents, et même, que les américains. C’est un jeu à somme nulle pour l’Europe tant qu’elle ne saura pas faire émerger plus de grands acteurs du logiciel “en volume”.

A terme, un équilibre va être trouvé entre libre et commercial avec de plus en plus d’approches hybrides. Le cas d’Idealx, rebaptisé OpenTrust, est intéressant à ce titre. Leur offre comprend maintenant des éléments commerciaux complémentaires de leur souche open source. Et le “libre” est de moins en moins utilisé dans leur argumentaire commercial.

Répondre à ce commentaire

Commentaire 213 dans Photo parlante sur les TIC, le 14 août 2007

Le programme ADELE était en effet riche et a bien avancé en 3 ans. Mais par rapport à mon propos, il ne couvre qu’une partie du sujet, à savoir plutôt l’administration électronique. Je m’intéresse plus particulièrement à la “politique industrielle”, si l’on peut considérer qu’il est encore du ressort de l’Etat d’en avoir une dans ce domaine.

Répondre à ce commentaire

Commentaire 212 dans A la découverte d’Ubuntu, le 2 août 2007

Certes certes.

Mais la comparaison que vous faites entre Windows et Ubuntu est un peu tirée par les cheveux car les solutions que vous évoquez existent bel et bien sous Windows et tout aussi gratuitement:

– Graver ses disques: DeepBurner (pour Vista) ou CDBurnerXPPro (pour Windows XP). On peut facilement éviter Nero.
– Le choix des bons packs de codecs pour lire des DVDs n’est pas évident pour Windows comme pour Ubuntu. En tout cas, pour lire des DVD avec codage CSS. Il me semble de plus que Vista Premium contient un codec MPEG2 et sait lire “out of the box” les DVD.
– Pour le texte, certains OEMs proposent effectivement ou bien un Works complet ou bien un MS Office en version d’évaluation. Si des OEM font prendre une version d’évaluation pour une version complète, il y a entourloupe. Mais je n’ai pas encore vu cela. Et on peut très bien installer un OpenOffice sur Windows.
– Pareil pour GIMP qui fonctionne aussi bien sous Windows que sous Linux. Et que j’ai dépiauté dans un récent post.

Pour ce qui est de l’enregistrement de Windows, il ne faut pas le confondre avec l’activation. Autant le dernière est indispensable et automatique dès qu’on est connecté à Internet, autant la première est facultative.

On peut être dérangé par certains des dispositifs anti-piratage de Microsoft. Mais de là à être dégouté… c’est une affaire de goût. Et il ne faut pas tout mettre dans le même sac. On trouve sous Windows plein de freeware et logiciels open source qui font l’affaire et n’obligent pas à passer sous Linux.

On verra en tout cas ce que donneront ces offres sous Ubuntu chez Dell et ailleurs.

Répondre à ce commentaire

Commentaire 211 dans GIMP et la photo numérique, le 27 juillet 2007

Pour répondre à Etienne au sujet de Paint.net, je viens de le tester. C’est pas mal pour des fonctionnalités de base de retouche. Il gère les calques, est plus simple que Gimp pour gérer les sélections, et propose quelques effets sympas. Pour un logiciel “simple”, il manque cependant d’automatisme, pour gérer la température de couleur, le contraste automatique. La fonction de gestion de niveaux est vraiment bien foutue avec ses histogrammes en entrée et en sortie qui se modifient en temps réel.

Bon, c’est sous Windows. Les utilisateurs de Linux ne pourront pas le tester sauf à tenter le coup avec Wine et Mono.

Répondre à ce commentaire

Commentaire 210 dans A la découverte d’Ubuntu, le 27 juillet 2007

Depuis mon premier test qui remonte à mars 2007, je suis aussi passé à Feisty (7.04) et ma configuration est maintenant stabilisée. Je teste beaucoup de logiciels libres divers. Je viens de faire un tout assez complet de GIMP qui est à la fois très bien mais un peu trop compliqué. Je vais maintenant m’attaquer aux logiciels 3D et aux logiciels musicaux (séquenceurs MIDI, etc).

Par contre, je maintiens une grande partie de mes propos de mon post initial sur Ubuntu. C’est encore trop compliqué dès que l’on rencontre un problème assez banal. Et le mode commande, c’est bien, mais cela déroute beaucoup d’utilisateurs. Et je suis toujours sous Vista pour mon usage courant. Mais il est vrai qu’il ne manque pas grand chose à Ubuntu (et Linux en général) pour dans mon cas perso permettre une substitution totale à Vista. C’est le fait des logiciels applicatifs et de leur philosophie plus que de différences au niveau de l’OS. Et les “file manager” aussi bien KDE que Gnome sont encore un peu lourdingues.

Je suis orienté “self service” côté technique, mais j’ai conscience que tout le monde ne peut pas en faire autant et que tous les utilisateurs n’ont pas un technicien sous la main lorsqu’ils rencontrent un problème. Même s’il est vrai que cela peut fort bien leur arriver sous Windows.

Répondre à ce commentaire

Commentaire 209 dans GIMP et la photo numérique, le 23 juillet 2007

Pour ce qui est de la commercialisation de logiciels GPL, tout est question de sémantique. A mon sens, aucun logiciel en GPL n’est vendu et n’est vendable “en tant que tel” (en tant que logiciel). Ce qui est vendu le cas échéant, c’est du service autour du logiciel. Quand chacun est libre d’utiliser un logiciel (ce qui fait partie des termes de la GPL), le marché pour en vendre un droit d’usage est nul et non avenu car le prix concurrentiel est “zéro”. D’où le transfert de valeur vers des services d’accompagnement. Mais un service n’est pas une licence d’usage d’un logiciel. L’amalgamme est malheureusement fréquent…

Répondre à ce commentaire

Commentaire 208 dans GIMP et la photo numérique, le 23 juillet 2007

Ceci confirme donc cela… Merci Olivier.

Au passage, je suis en train de tester pas mal de scripts récupérés sur les sites pointés dans mon post. Et un grand nombre ne fonctionnent pas sur GIMP 2.3 car le langage a évolué. Donc, la compatibilité ascendante du code n’est pas véritablement assurée dans ce produit.

Bref, on retrouve des inconvénients présentés parfois par certains comme des inconvénients des logiciels commerciaux.

Même avec le libre, on ne peut donc pas être parfait!

Répondre à ce commentaire

Commentaire 207 dans Photo parlante sur les TIC, le 12 juillet 2007

C’est une très bonne segmentation! Qui montre effectivement qu’une concentration des moyens “TIC” n’est pas nécessaire au sein d’un unique ministère. Mais cette vision d’ensemble mérite à elle-même une certaine coordination car il y a des liens. Liens entre l’administration électronique et la politique industrielle (par exemple, dans le cas des logiciels libres). La politique industrielle nécessite un croisement des efforts entre le Minefi et le Ministère de la Recherche et de l’Enseignement Supérieur. Notamment, afin de simplifier les aides à l’innovation (certe pas spécifiques aux TIC). Sans compter le saucissonnage introduit par la régionalisation qui voit se démultiplier les organisations parfois redondantes d’aides aux startups.

Répondre à ce commentaire

Commentaire 206 dans Choisir son lecteur RSS, le 12 juillet 2007

Dans le tableau, je faisais allusion au déplacement de posts dans des folders. Pas au déplacement de feeds dans des catégories.

Répondre à ce commentaire

Commentaire 205 dans RSS & Blog Tools Update, le 12 juillet 2007

OK, j’ai intégré cela dans le tableau pour les search folders. Par contre, pour la gestion de l’archivage des feeds, je faisais allusion au déplacement de posts dans des folders. Pas au déplacement de feeds dans des catégories.

Répondre à ce commentaire

Commentaire 204 dans RSS & Blog Tools Update, le 1 juillet 2007

Le + de FeedReader, ce sont les search folder. Et j’apprécie bien. J’ai quelques plantages mais qui ne bloquent pas l’utilisation du reader.

Répondre à ce commentaire

Commentaire 203 dans Rencontre avec le père de Mono, le 25 juin 2007

Non, nous n’avons pas parlé d’histoires de brevets.

Pour le NIH, je le constate indirectement par le fait que trop de projets open source, notamment tournés vers les utilisateurs, soient redondants sans pour autant aller très loin d’un point de vue fonctionnel comme ergonomie. Si les développeurs de ces projets travaillaient plus ensembles, on aurait de meilleures solutions.

Les éditeurs commerciaux ont tendance à structurer un peu mieux cette mutualisation du développement. Même si le monde du logiciel commercial est fait avec d’un côté de grands acteurs, et de l’autres, d’une myriade de développeurs de sharewares. Ces sharewares présentent les mêmes redondances que les logiciels libres équivalents. Et d’ailleurs, très peu de développeurs de shareware gagnent bien leur vie.

Mon point, que je mettais souvent en avant lorsque j’étais chez Microsoft, est que le modèle de développement des logiciels open source ne présente pas systématiquement les avantages qu’on lui attribue et que la qualité et l’organisation des équipes de développement compte autant si ce n’est plus que le modèle (commercial ou open source, ou un mix des deux). Pour la simple raison que les organisations humaines sont imparfaites et pas toujours organisées optimalement. C’est aussi une affaire de volume et de “long tail”. Le millième projet de SourceForge n’a souvent pas plus de développeurs contributeurs que le millionnième blog de SkyBlog n’a de lecteurs!

Répondre à ce commentaire

Commentaire 202 dans Industrie du logiciel libre ou artisanat ?, le 21 juin 2007

Oui, mais dans le cas de Firefox, n’est-ce pas pour la bonne cause?

Répondre à ce commentaire

Commentaire 201 dans Accès Internet chez les VCs, le 15 juin 2007

Je ne dirais pas qu’il s’agit d’incompétence. Mais plutôt d’un laisser-aller, d’un oubli, et aussi d’un léger manque d’empathie pour les startups qui se pointent chez vous. C’est peut-être aussi un moyen de les déstabiliser pour voir comment elles d’adaptent à la situation et si elles ont prévu ce cas là et si elles savent bien défendre leur dossier sans démo. Mais franchement, dans l’industrie où nous sommes, l’absence d’accès Internet est assimilable à ne pas avoir de chaises dans une salle de réunion…

L’accès Internet est un basique incontournable. Faut-il une aide de l’Etat pour que les VCs s’équipent correctement?…

Répondre à ce commentaire

Commentaire 200 dans Accès Internet chez les VCs, le 15 juin 2007

OK pour la Fonera, mais la brancher sur quoi? Il faut avoir accès à une partie du réseau qui est ouverte sur Internet et cela ne doit pas être bien commode. Quand on arrive chez un VC, on n’a pas un quart d’heure pour mettre au point une installation. Bref, c’est un peu trop usine à gaz si je puis me permettre…

Je pense à autre chose: les VCs français font peu de seed (amorçage). Donc, ceci explique peut-être cela!

Répondre à ce commentaire

Commentaire 199 dans RSS & Blog Tools Update, le 11 juin 2007

Bonjour, je n’ai effectivement pas trouvé comment afficher les articles en HTML au sein du reader. C’est possible? Les options de configuration qui sont des plus rudimentaires ne proposent pas cela. Il le lecteur n’affiche toujours pas le nombre de posts non lus par dossier. Sinon, il est effectivement assez rapide.

Répondre à ce commentaire

Commentaire 198 dans Bulle ou pas ?, le 6 juin 2007

Cela ressemble effectivement au premier stade à une feature company, mais elle peut potentiellement dépasser ce stade par l’ajout de services tiers externes. Tout dépend du mode de développement et du business model qu’ils ont choisi. Tout comme leurs partenariats.

Cela peut intéresser effectivement les grands de l’Internet.

Mais reste à voir si ce truc va résister dans la durée. Pour comprendre cela, il faut peut-être avoir entre 15 et 25 ans. Mais on pensait peut-être cela des blogs à leurs débuts. Il faut donc conserver un tant soi peu d’humilité face à des phénomènes sociaux qui nous dépassent…

Répondre à ce commentaire

Commentaire 197 dans Bulle ou pas ?, le 6 juin 2007

Jean-Philippe,

Bonne analyse sur la partie financière. S’il ne s’agit que d’affaire de valorisation dans les levées, cela devrait se calmer. D’autant plus que ces valos sont le résultat de rapports de force entre entrepreneurs et investisseurs.

Pour ce qui est du seed en France, ce n’est pas bien nouveau. Cela explique indirectement l’empressement des pouvoirs publics à compenser modestement ce déficit (via Oséo et autres dispositifs). C’est un peu bancal car ces dispositifs réunis ne suffisent pas à eux seuls à financer l’amorçage de nombreux projets.

En tout cas, ce commentaire rappelle bien aux entrepreneurs qu’il leur faut “lécher” l’aspect économique (retour sur investissement, profitabilité des opérations) de leur business plan.

Répondre à ce commentaire

Commentaire 196 dans Bulle ou pas ?, le 2 juin 2007

En fait, je ne dis pas qu’il n’y a pas de bulle web 2.0. Je pense simplement que c’est une bulle limitée à un microcosme et dont l’affadissement n’aura pas du tout l’impact économique et financier de l’explosion de la bulle 1.0. Mais le phénomène que tu décris dans ton post est déjà en train de démarrer pour le 2.0. L’innovation est ainsi faite, avec ses hauts, ses bas, ses gagnants et ses perdants. Rien de très surprenant car l’histoire se répête, même si on oublie plus facilement les perdants que les gagnants.

Répondre à ce commentaire

Commentaire 195 dans Un SOLEIL dans la recherche française, le 2 juin 2007

Comme quoi un “comme” peut avoir plusieurs sens!
Je ne sais pas trop si des startups sont nées autour de Soitec. Pour STM, c’est plus probable. Au moins dans le manufacturing de machines de production de semi-conducteurs ou d’analyse de process. C’est le rôle du pôle de compétitivité du Minatec que de les avoir fédérées. C’est d’ailleurs le pôle modèle qui fonctionne le mieux en France il parait.

Répondre à ce commentaire

Commentaire 194 dans Un SOLEIL dans la recherche française, le 27 mai 2007

Soitec est issue du CEA / LETI à Grenoble qui avait créé le procédé du SOI (“silicon on insulator”).
STM est le résultat de la fusion en 1987 de SGS Microelettronica (Italie) et Thomson Semiconducteurs. Pas vraiment un spin-off.

Alcatel et Thalès n’ont donc pas de liens originels avec Soitec et STM. Tu connais des spin-offs de taille respectable qui viennent de ces deux boites?

Répondre à ce commentaire

Commentaire 193 dans Un SOLEIL dans la recherche française, le 26 mai 2007

Oui, j’avais oublié tout cela. Mais on est encore loin de la Valley…

PSA, Thalès, Alcatel. C’est bien, mais ce ne sont pas des entreprises en forte croissance.

Il manque non seulement des startups (il y en a d’ailleurs probablement bien plus que celles que tu cites), mais des startups high-tech qui ont grandi pour devenir de grosses PME voire de grandes entreprises. Combien de boites ressemblent à cela en France? J’en vois moins d’une dizaine au nez, dont Soitec (Grenoble), Iliad (Paris), Archos, BO, Dassault Systèmes, ILOG.

Répondre à ce commentaire

Commentaire 192 dans Google = Microsoft ? (3), le 26 mai 2007

Tient tient, ça commence…
http://feeds.wired.com/~r/wired/topheadlines/~3/119643784/EU_GOOGLE_PRIVACY_PROBE
La Commission Européenne s’intéresse à la politique de Google de stockage sur 2 ans des données relatives aux recherches des utilisateurs.

Ironie de l’histoire, le représentant de Google à bruxelles sur le thème de la vie privée est un certain Peter Fleischer. C’est un ancien de Microsoft où il occupait un rôle voisin dans la Division Juridique en Europe.

Et chose originale pour quelqu’un qui agit dans ce domaine, il entretient un blog: http://peterfleischer.blogspot.com/2007/04/la-protection-de-la-vie-prive-sur.html.

Répondre à ce commentaire

Commentaire 191 dans TV numérique paradoxale, le 24 mai 2007

Oui, et depuis peu, on peut enregistrer ses programmes TV HD sur un disque externe via liaison USB2. Et ils sont en plus accessibles en FTP à partir du PC ou d’un Mac. Cela en fait probablement la set-top-box la plus ouverte et interopérable du marché. Au grand damn des ayants droits de contenus vidéos puisque cette fonction d’enregistrement n’est pas possible pour les programmes de Canal+ et des bouquels de Canal… grr! Et je n’ai pas l’impression que le guide de programmes soit vraiment digne de ce nom dans la Freebox HD.

Répondre à ce commentaire

Commentaire 190 dans Silverlight et consors, le 23 mai 2007

C’est limite spam ce truc…

Répondre à ce commentaire

Commentaire 189 dans TechDays Backstage, le 23 mai 2007

J’ai eu l’occasion de rencontrer Sébastien Vaillant de Vixid et cela m’a conforté dans votre impression. Leur console est vraiment très intéressante. Elle ne fait qu’arriver sur le marché, donc sa diffusion va bientôt démarrer, après une quinzaine de beta testeurs.

J’apprécie surtout le pilotage de la console via MIDI. Cela lui donne une belle ouverture pour gérer la dimension “temps” dans le mixage vidéo.

Répondre à ce commentaire

Commentaire 188 dans Silverlight et consors, le 21 mai 2007

Philippe, oui, ce qui compte c’est de pouvoir indexer les données exposées par les applications web. C’est un choix. Et certains font explicitement le choix de la non indexation, de la non-URLization des données (hotlinks), etc. On peut donc effectivement se méfier des technologies qui ferment le web. Tout du moins, en tant qu’utilisateur qui subit plus qu’autre chose les choix des créateurs de sites.

Mais pour revenir à Ajax, c’est sympa pour limiter les allers et retours avec les serveurs Web dans la cinématique des applications, mais cela ne permet pas de créer des interfaces graphiques du même niveau de richesse et d’interactivité qu’avec XUL ou XAML/WPF. Isn’t it?

Répondre à ce commentaire

Commentaire 187 dans Silverlight et consors, le 21 mai 2007

A Jimich: je connaissais Joost mais pas Songbird, que je viens de télécharger pour le tester. L’outil est sympa mais n’est pas très innovant en matière d’interface graphique. Un arbre, des listes, des boutons. Vouala!

Répondre à ce commentaire

Commentaire 186 dans Silverlight et consors, le 21 mai 2007

Laurent,

Bon point, effectivement, Adobe s’est appuyé sur des briques open source XUL. Tout en les rendant propriétaires malgré tout dans leur assemblage.

Jean-Marc,

Remarque exacte sur le timing : XUL date de la fin des années 1990 et XAML a vu le jour – au niveau des labs – aux alentours de 2001/2002, avant la sortie de la première Alpha de Vista (Longhorn). Prises isolément, toutes ces technologies s’inspirent les unes des autres. Et cela remonte souvent loin dans le temps. Doit-on cependant comparer XUL à XAML isolément du reste ? XUL d’intègre à Gecko, le moteur de Mozilla intégré dans Firefox. XAML s’intègre au framework .NET 3.0 de MS, avec une couverture fonctionnelle très large. Je pense en particulier à l’architecture qui relie XAML au moteur graphique de Windows et aux drivers de carte graphique, en particulier pour les rendus vidéo et la gestion de textures. Egalement au traitement 2D qui peut être appliqué à l’ensemble d’une fenêtre et de ses objets, au placage de vidéo (fichier ou streamée) sur n’importe quelle surface 2D ou 3D. Architecture qui n’a à ma connaissance par d’équivalent dans XUL/Gecko, et pour cause, car cette technologie est indépendante de l’OS. Ensuite, XUL est interprété alors que XAML est compilé, avec un impact sur la performance et sur la capacité à créer des applications riches et rapide et pas seulement des widgets pour le navigateur. Il est plus approprié de comparer des architectures que des langages « tags à tags » comme le font certains au sujet de XUL et XAML. Dans ce contexte, l’approche intégrée de Microsoft a les avantages de ses inconvénients et réciproquement: cohérente de l’interface au hard, mais propriétaire et non standard (de jure). Le monde du libre reste encore fragmenté et divisé, ce qui nuit à sa compétitivité dans ce domaine face à Microsoft et à Adobe. Cela n’a pas été arrangé par la perte de leadership du W3C qui n’a pas réussi à s’imposer dans les dialectes XML de spécification d’interface graphique (cf l’état des lieux sur http://www.w3.org/2006/appformats/).

Bon, mais chez Microsoft, on attend toujours des applications sérieuses développées en .NET en XAML, hors Windows Live ! A croire que c’est « pour les autres ».

Répondre à ce commentaire

Commentaire 185 dans Valeur enlevée du logiciel, le 21 mai 2007

Certaines préférences personnelles que vous évoquez relèvent pourtant du bon sens et pas du tout d’une approche power user. Pourquoi donc est-ce qu’il devrait être plus compliqué de scanner une image dans Office 12 que dans la version précédente? Idem pour Vista vs Windows XP?

Pour ce qui est de la nouvelle barre de menus, elle a un côté ergonomique sympathique, certainement. Mais au bout du compte, est-on vraiment plus productif? Est-ce plus efficace? Et puis, la notion de “power user” est très vague. Je pense qu’il faudrait penser aux deux audiences: les débutants et les utilisateurs dits “power users”. Ouvrir un peu le choix, donner la flexibilité. Les choix d’Office 12 ont plutôt refermé ce choix et cette flexibilité. C’est vraiment regrettable.

Répondre à ce commentaire

Commentaire 184 dans Silverlight et consors, le 21 mai 2007

Pour moi, Adobe Flex est plus “open source” que “libre” dans la philosophie. C’est un bout de techno en open source lié à plein de technologies et outils propriétaires. Et une palanquée de brevets logiciels à n’en pas douter.

Bref, un positionnement “open source” très marketing.

Répondre à ce commentaire

Commentaire 183 dans Silverlight et consors, le 20 mai 2007

Philippe,

J’ai cité Ajax dans les technos open source, même si elles sont également utilisées chez MS (dans Atlas). Ajax permet de créer des sites dynamiques, mais pas forcément du rich media (“whaou” comme vous dites) comme les solutions d’Adobe et surtout MS le proposent. Mais comme indiqué dans la conclusion, reste à savoir quel est le réel besoin du marché dans son ensemble.

Au passage, on est tous en tant qu’utilisateurs, plutôt agacés par ces sites vitrines d’entreprises qui démarrent avec une animation Flash. C’est une véritable pollution du Web qui mériterait d’être limitée. Mais que le rich media ne va pas arrêter, malheureusement!

Répondre à ce commentaire

Commentaire 182 dans Silverlight et consors, le 19 mai 2007

La question est de savoir où l’on place le curseur pour le “rich media”. On peut déjà faire pas mal de “media” avec les technos web traditionnelles…

Répondre à ce commentaire

Commentaire 181 dans Silverlight et consors, le 19 mai 2007

Juste une différence entre URL et UNC? C’est aussi une affaire de standards et de protocoles utilisés.

Il n’y a en tout cas pas vraiment unification (c’est plutôt le bazar) et toutes les applications ont une dose client et une dose serveur, le dosage étant très variable. Mais un browser, à la longue, c’est devenu un client riche…

Répondre à ce commentaire

Commentaire 180 dans Valeur enlevée du logiciel, le 19 mai 2007

Live Mail Desktop semble être le remplaçant d’Outlook Express. Mais bon, pour ce qui me concerne, il ne vaut pas le Outlook d’Office. Ne serait-ce que par l’intégration du calendrier qui n’est pas totale (elle est en mode web et sur MSN). L’interface est de plus très peu personnalisable.

J’ai donc testé… mais n’y suis pas resté comme toi! Chacun ses besoins!

Répondre à ce commentaire

Commentaire 179 dans Valeur enlevée du logiciel, le 17 mai 2007

Après 6 mois de recherches, j’ai enfin trouvé l’origine des problèmes du “double écran” avec Vista cité dans ce post. nVidia n’était visiblement pas directement en cause. C’était Vista qui l’était. Et plus précisément la fonctionnalité Transient Multimon Manager qui sert à simplifier l’ajout de moniteurs ou projecteurs externes. Mais les automatismes poussés et non débrayables ni paramétrables de cet outil le rendent impropres à la consommation.

La solution consiste à désactiver ce service TMM dans le Task Manager de Vista. Elle est documentée sur http://arnulfowing.blogspot.com/2007/05/vista-and-dual-monitors.html .

Comme quoi, l’ajout d’une fonctionnalité peut revenir à la suppression d’une autre fonctionnalité. La tendance à vouloir prendre en charge tout pour l’utilisateur aboutit à ce genre de paradoxe.

Répondre à ce commentaire

Commentaire 178 dans TV numérique paradoxale, le 14 mai 2007

Bon, et bien il y a encore de l’espoir! Encore une fois, ce sont les challengers qui font mieux!

Répondre à ce commentaire

Commentaire 177 dans Le discours et la méthode, le 9 mai 2007

Bonjour Yannick,

Effectivement, intéressant. C’est presque un parallèle entre l’innovation dite incrémentale (qui écoute d’abord les besoins exprimés des clients) et l’innovation de rupture (qui anticipe des besoins latents). Et comme dans le cas présent, il n’y a pas d’inertie d’écosystème, ni de poids de la base installée (dont le vieillissement explique le glissement à droite), c’est la seconde qui a eu le dessus.

Olivier

Répondre à ce commentaire

Commentaire 176 dans Le discours et la méthode, le 8 mai 2007

Oui, surtout qu’il s’agit visiblement d’un avantage en nature fourni par son ami Vincent Bolloré.

Mais c’est un bon moyen d’être vraiment tranquille et pas trop dérangé par les paparazzi. Et puis, Kennedy faisait de même pour se détendre en famille. Ca a du l’inspirer…

Répondre à ce commentaire

Commentaire 175 dans Le discours et la méthode, le 7 mai 2007

Oui, la politique ne sera plus comme avant du fait de l’Internet, cette soupape de sécurité des libertés qu’il est difficile de fermer. C’est un complément du quatrième pouvoir qui permet à chaque citoyen de s’exprimer, et de s’informer et de changer le cours des événements.

C’est un contre pouvoir face aux entreprises et face aux gouvernants. A nous de bien l’utiliser. Il élève également le niveau d’exigence de notre côté. Comme je l’avais soulevé dans mon doc sur “Trop d’Etat, oui mais où ça”, exercer son droit d’information n’est pas trivial pour faire le tour d’un sujet complexe.

Répondre à ce commentaire

Commentaire 174 dans TV numérique paradoxale, le 7 mai 2007

Salut Laurent,

Très bien cet article d’André Tonic!

Effectivement, il y a une opportunité à saisir et pour une fois, une petite intervention de l’Etat pour favoriser une plus grande concurrence serait la bienvenue.

Répondre à ce commentaire

Commentaire 173 dans Le discours et la méthode, le 7 mai 2007

Disons que je rêve un peu en souhaitant que les dérives soient réduites. Surtout sur le premier et le dernier point. Ils ne sont pas la spécialité de Sarkozy pour autant, mais il ferait bien de les corriger dare dare. Cela serait du meilleur effet tant sur son image que sur la fameuse “morale” qu’il a mise à l’ordre du jour.

Pour avoir vécu dans une grande organisation, je connais néanmoins le poids des relations personnelles qui joue trop souvent au détriment du bon sens et de cette morale. Pour être exemplaire, il faut savoir être dur avec les siens. Et ce n’est pas facile du tout!

Mais pour signaler un renouveau de la politique, il faut … envoyer des signaux! Cela passe à la fois par des lois (comme ce qui relève des pouvoirs du parlement) mais aussi par la symbolique de décisions parfois isolées, mais qui font un ensemble cohérent.

Répondre à ce commentaire

Commentaire 172 dans Le discours et la méthode, le 7 mai 2007

Right!
J’ai donc corrigé cette introduction avec :
“Une grosse moitié de la France qui s’est exprimée lors de l’élection est satisfaite…”.

Répondre à ce commentaire

Commentaire 171 dans TV numérique paradoxale, le 5 mai 2007

Lionel, est-ce que le disque ajouté est bien géré pour la fonction PVR de la Freebox 5?

Rémi, oui l’EPG est un aspect fondamental du PVR. Sa gratuité et sa qualité respectable dans le cas d’un Media Center est appréciable! Tu mets bien l’accent sur le besoin de proposer des solutions d’enregistrement grand public qui fonctionnent bien.

Répondre à ce commentaire

Commentaire 170 dans Mises à jour de printemps, le 4 mai 2007

Jean-Yves,

Je ne faisais que souligner une certaine incohérence entre ce qui se trouve dans la “liste des nouveautés” de la 7.04 et ce qui est installé en standard.

Tu as raison sur le besoin d’éviter le bloatware. Ubuntu l’évite pas mal tout en proposant l’outil Synaptic qui permet de sélectionner les logiciels que l’on veut installer. D’autres distributions de Linux ont effectivement une propension à installer beaucoup trop de composants en standard, même si c’est une tendance à la baisse. Dans le cas de Windows Vista, la “flat” nécessite maintenant un DVD, ce qui n’est pas (encore) le cas d’Ubuntu pour la version desktop de base. Mais pour installer l’équivalent d’un média center, il faut l’équivalent de deux CD avec Ubuntu (Linux MCE) et l’installation semble assez laborieuse. Je ne l’ai pas testée, dommage!, car la carte tuner de mon media center (Creative Labs) n’est pas supportée. Il ne semble pas non plus que les cartes USB TNT soient supportées.

Répondre à ce commentaire

Commentaire 169 dans Mises à jour de printemps, le 1 mai 2007

C’est donc bien la notion de ce qui est “dedans” – donc installé par défaut – qui est un peu floue dans Ubuntu. Dans Synaptic, on a accès à 21370 paquets! Pourtant. Et heureusement, la liste de tous ces paquets – ou des nouveaux paquets – ne figure pas dans les nouveautés d’Ubuntu!

Répondre à ce commentaire

Commentaire 168 dans Les TIC dans la campagne, le 30 avril 2007

Bonnes précisions Jérémy.

En effet, 3 ans dans l’armée en équipe, cela forme.
Même si parfois, c’est dans des conditions humaines assez éloignées de la startup, comme dans les territoires occupés.

C’est surtout valable dans certaines équipes celles du renseignement notamment. C’est de ces équipes que proviennent les fondateurs de CheckPoint par exemple!

Répondre à ce commentaire

Commentaire 167 dans A la découverte de Voozici, le 26 avril 2007

Ce sont des précisions utiles Daniel. Je suis ravi de voir que Quotatis se porte bien. 3,5md€ de transactions intermédiées! C’est conséquent! Votre modèle économique est je crois de facturer les leads à un tarif fixe mais pas en % de la presta. Cela ferait donc déjà quelques bons millions d’€ de CA, ce qui est pas mal du tout.

Michel Dahan de Banexi m’avait dit le plus grand bien de Quotatis qu’il finance depuis quelques temps et je vois qu’il ne s’est pas trompé!

Cordialement,

Olivier

Répondre à ce commentaire

Commentaire 166 dans Les TIC dans la campagne, le 26 avril 2007

Et j’oublai, comme dans beaucoup d’autres pays, il est plus facile d’y créer une entreprise, la fiscalité y est bien plus favorable, etc.

Répondre à ce commentaire

Commentaire 165 dans Les TIC dans la campagne, le 24 avril 2007

Les spécificités d’Israël sont nombreuses:
– Effectivement, applications civiles de projets militaires, notamment dans le domaine de la sécurité informatique (de nombreux créateurs de ces startups sont des anciens de la “NSA” israélienne).
– Culture avec un fort goût du risque.
– Pays qui a peu de ressources naturelles.
– Pays qui est obligé de se tourner vers l’exportation et ne peut pas compter sur son marché intérieur. Et qui est naturellement très proche des USA dont ils dépendent économiquement par ailleurs.
– Quelques actions gouvernementales d’encouragement aux PMEs. Et là bas, il n’y a pas des masses de grands groupes à la française pouvant truster les aides.
– Excellence du système d’enseignement supérieur (Technion à Haifa par exemple).
– Ils parlent tous anglais, comme dans pas mal de pays de l’Europe du Nord qui n’ont pas d’autre choix car leur langue est largement minoritaire.

On peut chercher à répliquer ce qui n’est pas culturel. Mais ce qui l’est, et est lié à la position historique et géostratégique du pays, l’est moins. La culture du risque est par exemple difficile à reproduire dans un pays qui n’est pas en guerre depuis 60 ans et vit par ailleurs au dessus de ses moyens…

Une leçon d’Israël pour la France est l’impérieuse nécessité d’exporter rapidement et de sortir du cocon faussement confortable du marché intérieur français.

Répondre à ce commentaire

Commentaire 164 dans Les TIC dans la campagne, le 23 avril 2007

Je suis assez dubitatif face aux pôles de compétitivité dans leur ensemble. Le modèle d’origine de ces pôles est pourtant un succès avéré: le Minatec de Grenoble sur les nanotechs. Il avait bien fonctionné car il est parti de presque zéro et s’est développé sur de nombreuses années avec le CEA LETI qui en est à son origine et des entreprises privées comme STM et SOITEC, suivies de pas mal de startups dans ce secteur d’activité. C’est un processus industriel qui a duré bien plus qu’une décennie.

Les “copies” du Minatec sont des raccommodages réalisés avec l’existant. Les grands groupes ont trusté les aides et les PME en ont récupéré les miettes. Trop de pôles sont sur des niches de marché ou dans des industries assez traditionnelles sans grandes ruptures technologiques : automobile haut de gamme (ah bon, on en fabrique vraiment en France ?), fibres naturelles, filière du cheval – il faut quand même être fort pour avoir pu faire passer celui-là !, industries et pin maritime du futur, viande. Et puis 67 pôles, c’est une dispersion incroyable. La résultante étant une fragmentation des aides. Le clientélisme local a fait son effet!

Les pôles peuvent cependant fonctionner à quelques endroits, même si cela sera principalement le résultat de la méthode Coué. Et je dois reconnaître que l’on manque encore de recul pour juger de l’efficacité des pôles qui ont été créés il y a à peine deux ans. Il faut savoir être patient.

Que manque-t-il dans l’approche des pôles de compétitivité? Primo, une focalisation sur les PME innovantes – notamment au niveau de leur financement – et ne plus considérer que les pôles doivent graviter autour des grandes entreprises. Secundo, avoir le courage d’effectuer un réaménagement des territoires avec notamment une défragmentation des établissements d’enseignement supérieur et de recherche. Il faut atteindre des tailles critiques ! Tertio, ne pas considérer que l’innovation et la compétitivité ne proviennent que de la R&D, mais aussi de la vente, du marketing, de l’international. Les PME innovantes ont surtout besoin d’une plus grande ouverture sur le monde plutôt que de micro approches régionales. En quoi les pôles aident-ils dan cette dimension ?

Pour ce qui est de l’INRIA, oui, quelques succès comme ceux que tu cites, et aussi ILOG, en sont la résultante. Une cinquantaine de startups high-tech sont issues de l’INRIA. Avec une mortalité inférieure à la moyenne du secteur. Mais pour 50 de ces startups, il y en a plein d’autres qui ont bien marché sans en être issues. Le rendement en termes d’innovation des laboratoires de recherche publique est relativement modeste. Et d’ailleurs, l’INRIA est plutôt dans les bons élèves avec le CEA dans ce domaine. Le mauvais élève étant sans doutes le CNRS. La recherche publique française a besoin d’être plus « appliquée » au-delà de la recherche fondamentale. Le processus n’est pas assez continu entre recherche et innovation. Il s’arrête trop souvent en route et pas seulement par manque de moyens, mais aussi du fait de l’état d’esprit qui règne dans la recherche publique. Le simple fait d’avoir des chercheurs fonctionnaires (certes mal payés) mais sans risque est déjà un problème. J’approuve de ce point de vue là la tendance actuelle à financer la recherche par projets et pas par organisation. Cela créé un sens de l’objectif et du résultat.

Répondre à ce commentaire

Commentaire 163 dans Les TIC dans la campagne, le 22 avril 2007

Salut Thierry,

Dont acte pour ce qui concerne Cisco! Je vois donc que la boite évite les écueils de ce genre d’approche. Même si au bout du compte, cela reste toujours fait pour l’image avec un bénéfice indirect. Mais dans le business, il n’y a jamais d’altruisme total. C’est normal.

Bonnes élections… puisque j’ai vu que Cisco était partenaire d’un institut de sondage!

Olivier

Répondre à ce commentaire

Commentaire 162 dans Visite à Linux Expo, le 17 avril 2007

Ce n’est que partie remise! Au 25 peut-être…

Répondre à ce commentaire

Commentaire 161 dans Google = Microsoft ? (3), le 17 avril 2007

Oui, sachant que le contrat et le divorce, dans le cas de Google, n’ont rien à voir selon que l’on est un Internaute lambda ou un annonceur plus ou moins obligé par la force des choses de passer par eux!

Répondre à ce commentaire

Commentaire 160 dans Google = Microsoft ? (2), le 14 avril 2007

Et hop, Google vient d’annoncer l’acquisition de DoubleClick pour 3 milliards de dollars. C’est la plus grosse acquisition de Google, le double de YouTube. Et c’est dans la pub… Mais c’est du logiciel, pas seulement du service. L’intégration horizontale dans la pub continue pour Google!

Répondre à ce commentaire

Commentaire 159 dans Trop d’Etat – Où ça? – Bien en PDF…, le 14 avril 2007

Bon, bien on ne doit pas être bien loin de la réalité! Cela devrait me donner l’occasion de mettre à jour le PDF avec votre analyse très poussée.

On dit souvent que la France est difficile à réformer à cause des politiques. En fait, c’est plutôt à cause des français qui acceptent les réformes tant qu’elles ne les concernent pas (quand cela fait mal).

Répondre à ce commentaire

Commentaire 158 dans Photo numérique et innovation, le 14 avril 2007

Il y a quand même des limites mathématiques théoriques à la compression! Les ratios actuels sont déjà bien performants.

Le mieux consiste à ne pas utiliser systématiquement la haute résolution sur son appareil ou lui demander d’utiliser une compression supérieure (possible sur les Canon compacts).

Répondre à ce commentaire

Commentaire 157 dans Choisir son lecteur RSS, le 14 avril 2007

Je suis en fait revenu à SharpReader! Car je n’ai pas trouvé mieux pour visualiser d’un seul clic sur la liste des articles, leur page en HTML dans le panneau à droite.

Répondre à ce commentaire

Commentaire 156 dans Trop d’Etat – Où ça? – Bien en PDF…, le 14 avril 2007

C’est un bug lié à la combinaison d’Acrobat 7.0 et d’Internet Explorer pour l’ouverture directe de fichiers.

La solution de contournement consiste à faire “bouton droit” sur le lien et à sauvegarder le fichier sur son bureau, puis à ouvrir le fichier à partir de son bureau.

J’espère que cela résoudra le pb!

Répondre à ce commentaire

Commentaire 155 dans Google = Microsoft ? (3), le 14 avril 2007

Les concurrents de Microsoft qui sont complémentaires entre eux ont naturellement tendance à s’allier effectivement. Mais je ne souscris pas trop à cette vision des stratégies “pour fragiliser untel ou untel” qui plus est secrètes. Il n’y a pas besoin de secret pour cacher la concurrence, ou la “concurralliance” dans certains cas, entre les différents protagonistes de la high-tech. C’est un éternel jeu de position où chacun gère au mieux son intérêt. Avant tout, il s’agit de se renforcer et d’améliorer l’accès au marché pour ses propres offres. La conséquence est une fragilisation des concurrents. Il est évident pour Google qu’une “place” sur l’iPhone est à optimiser. Et que de toutes façons, MS ne peut pas obtenir ce placement du fait de sa rivalité avec Apple, présente forte dans les mobiles que sur les ordinateurs personnels.

Les stratégies qui consistent à d’abord fragiliser le concurrent avant de renforcer sa propre position sont risquées, voire perdantes. C’est par exemple le cas de Sun Microsystems et de son rachat de Star Office, devenu depuis OpenOffice. C’était clairement une stratégie de fragilisation de MS et d’office. Mais qu’est-ce que cela a rapporté à Sun? Pas grand chose. Même si au passage, cela a un peu gêné MS. Cela a surtout détourné l’attention de Sun d’ennuis sérieux qui touchaient leur offre serveur. Ennuis qui ont généré une baisse de CA et des plans de licenciements nombreux chez le constructeur ces dernières années. Par ailleurs, Sun n’a jamais vraiment réussi à être un acteur solide dans le logiciel. Ils se sont fait damer le pion par IBM, Oracle et BEA dans le middleware Java.

Autre exemple plus ancien: le rachat de WordPerfect par Novell au début des années 1990. Résultat de l’obsession du patron de Novell de l’époque, Ray Noorda, de gêner Microsoft. Résultat désastreux!

On pourrait objecter que ces deux histoires sont liées à MS et à sa dominance avec Office. Il y a en a sûrement d’autres de ce genre ailleurs. Attaquer un concurrent sans se donner les moyens de gagner les clients et d’en tirer un bénéfice commercial ne mêne à rien!

Répondre à ce commentaire

Commentaire 154 dans Google = Microsoft ? (3), le 14 avril 2007

Microsoft aussi sait laisser d’autres parler d’eux. Mais une grosse boite doit s’exprimer elle-même pour être en contact avec ses clients et partenaires. Et pas seulement avec ses dirigeants. Mettre un visage humain sur des boites qui font peur n’est-il pas judicieux tout de même?

Répondre à ce commentaire

Commentaire 153 dans Trop d’Etat – Où ça? – Bien en PDF…, le 13 avril 2007

Merci pour avoir creusé ce sujet qui m’interloquait quelque peu!

Le tableau de comparaison est bien dans le rapport de la Cour des Comptes “La sécurité sociale – Septembre 2006”, page 310 (ou 305 dans le PDF).

Il indique que le nombre de bénéficiaires des régimes complémentaires est de 14 millions de personnes, ce qui correspond à peu près au total du nombre de bénéficiaires du privé (10,7 millions) et du public (4 millions). J’en ai déduit, sans en être certain, que les retraités du public touchaient également une retraite complémentaire. En appliquant la même moyenne de cette retraite au public et au privé, je suis arrivé à ce rapport de 1 à 2 pour la retraite totale percue.

Alors, les retraités du public ont-ils ou pas une retraite complémentaire?

Répondre à ce commentaire

Commentaire 152 dans Google = Microsoft ? (2), le 12 avril 2007

Et aussi l’accord en devenir avec DirecTV…

Répondre à ce commentaire

Commentaire 151 dans Google = Microsoft ? (1), le 12 avril 2007

Le fait que les outils de Google s’appuie sur des logiciels libre importe peu par rapport à leur situation de dominance. Compte-tenu du nombre de serveurs qu’ils ont à gérer, cela leur a certainement généré des économies en logiciels commerciaux. Cela leur a donc donné de l’autonomie et un moyen de bien optimiser leurs coûts. Au point que maintenant, une grosse part du “TCO” de leurs data centers, c’est la consommation électrique!

Et attention: Google donne des services aux utilisateurs (presque tous), et fait payer l’accès aux utilisateurs à ses clients qui sont des annonceurs. La concurrence est intéressante en ce sens qu’il ne suffit pas de donner pour être le meilleur. Il faut donner le meilleur!

Répondre à ce commentaire

Commentaire 150 dans Google = Microsoft ? (1), le 12 avril 2007

Carat estime la part de la pub en ligne à 5,2% du budget mondial de la publicité en 2006, avec 26% de croissance.

Donc, effectivement de la marge de croissance pour Google à la fois par transferts vers la pub online, et dans l’offline.

Google permet pour la pub en ligne de se passer des média planners classiques qui se voient probablement menacés. Mais ils ont déjà un pieds dans la publicité en ligne. Je ne sais pas comment/si ils s’adaptent à cette nouvelle donne.

Mais ces transformations du marché créent de nouveaux acteurs, tels que les sociétés spécialisées dans l’optimisation de la pub en ligne (comme http://www.adcom.fr/).

Répondre à ce commentaire

Commentaire 149 dans Google = Microsoft ? (2), le 12 avril 2007

Public large, certes, mais hyper-ciblé, dans le cas des AdWords. C’est ce qui rend cette publicité plus prédictive que la pub télé ou presse généraliste qui est justement trop large et pas assez ciblée. Le public de la télé est le plus large qui soit, et le moins ciblé, même si on peut affiner les plans médias en choisissant les bonnes chaines (CSP+ avec pub sur LCI en fin de journée par exemple).

Qu’est-ce qui pourrait déstabiliser nos deux rentiers? Principalement des chamboulements qui leur auraient échappé. Pour MS, cela peut-être l’open source ou les logiciels en ligne. Pour Google, cela pourrait être une organisation mutualisée de la recherche sur Internet qui s’affranchirait de la pub. Une sorte de Wikipedia du search. Bon, c’est juste une idée…

Répondre à ce commentaire

Commentaire 148 dans Google = Microsoft ? (2), le 12 avril 2007

Oui, en effet, Google créé des “espaces de vie” en ligne, et les monétise ensuite à la Decaux.

J’ai souvent entendu dire que Google serait fragilisé en temps de récession à cause de l’impact de la baisse d’activité économique sur les marchés publicitaires. Mais je ne suis pas sûr de cela. Une récession pourrait amener les annonceurs à baisser leurs investissements sur les médias traditionnels et à privilégier les médias en ligne qui présentent l’intérêt d’être plus mesurables et prédictibles.

Pour leurs liens avec l’open source et le reste, il s’agit d’une stratégie d’écosystème bien vue en général. Je n’avais pas prévu de parler écosystème dans les similitudes entre les deux sociétés. Il faudrait que j’ajoute cela effectivement.

Répondre à ce commentaire

Commentaire 147 dans Google = Microsoft ? (1), le 12 avril 2007

Actuellement, le marché de la publicité en ligne est du même ordre de grandeur que celui du logiciel dans le grand public (jeux compris). Mais le premier croit plus vite que le second. Et oui, le marché adressable par Google est énorme si l’on intègre la publicité offline.

La notion de dominance est un sujet qui se manipule avec flexibilité par le politique. Si quelqu’un décide que le marché à considérer (dans le cadre d’une procédure antitrust) est le search sur Internet, cela sera la définition! De même que Windows est dominant dans le marché des micro-ordinateurs personnels, mais pas sur les “matériels informatiques ou électroniques à base de microprocesseurs”.

Je ne conclue pas que la croissance de Google va rester exponentielle. J’en doute justement. Et la courbe de croissance le montre bien. Effet de taille oblige, leur croissance deviendra linéaire comme celle de Microsoft, d’ici quelques années.

Pour leur résultat net, on a vu qu’il est impacté négativement par leur “revenue sharing model” avec les sites où ils achètent de l’espace pour AdSense. En le soustrayant de leur revenu, cela donnerait un résultat net bien meilleurs, d’au moins 40%, ce qui est pas mal!

Si ils cherchent à entrer sérieusement dans le marché des entreprises, comme avec Google Apps, cela génèrera des coûts variables plus élevés. C’est l’inconvénient de la diversification dans ce domaine, comme l’est celle de Microsoft dans les consoles de jeu.

Les économies d’échelle ont déjà été atteintes par Google. Maintenant, ils doivent en gros augmenter leur capacité de production (les data centers) proportionnellement à leur trafic et à leur revenu. Ils peuvent par contre faire quelques économies en poussant à fond le bénéfice de la Loi de Moore (qui les amène à changer assez fréquemment leurs serveurs), et en optimisant leur consommation d’électricité. On dit qu’ils construisent leurs data centers aux USA au Nord du pays, près des barrages, là où l’électricité serait moins chère.

Répondre à ce commentaire

Commentaire 146 dans Google = Microsoft ? (1), le 11 avril 2007

C’est en tout cas comme cela qu’ils le présentent dans leurs résultats financiers, et c’est bien ainsi car sinon, on n’aurait strictement aucune idée de la manière dont ils gèrent leur revenu! Je serais en tout cas curieux de savoir comment se répartissent les 62% de revenus de leurs sites. Quelle est la part qui ne vient pas d’AdWords dans le search?

Leur business est bien de la pub à 100%. Mais dans un cas, ils vendent un espace qui est à eux, et dans l’autre, ils achètent l’espace de tiers pour le revendre. Ce qui explique l’achat de YouTube. Ils préféraient de loin posséder l’autoroute de la vidéo plutôt que payer un péage pour y passer.

Répondre à ce commentaire

Commentaire 145 dans A la découverte de CartoReso, le 4 avril 2007

C’est effectivement une très bonne chose que d’avoir mis ce projet sur SourceForge. Pour ce qui est de Vista, il n’y a pas d’optimisation nécessaire au premier abord. Une version XP qui tourne sur Vista devrait convenir. Sauf si la bibliothèque graphique utilisée dans le projet venait à utiliser Aero.

Répondre à ce commentaire

Commentaire 144 dans Dures leçons pour Sony, le 31 mars 2007

Oui, Jean-Michel, cette présentation Sony était assez moyenne, en effet. Elle mettait plus en évidence le film “Da Vinci Code” mis à toutes les sauces que l’offre Sony. Et leur narration était mal construite.

Ils étaient assez prudents sur la PS3 (nb: janvier 2006), car encore à 10 mois du lancement US, qu’ils avaient du retarder. Donc, aucune spécification, très peu de démos, et probablement à l’époque, encore trop peu de jeux en bêta tirant parti de la console.

Répondre à ce commentaire

Commentaire 143 dans A la découverte d’Ubuntu, le 31 mars 2007

Supposons que le support de HDCP ne soit pas intégré par Microsoft dans Vista. Celà voudrait dire qu’il serait impossible de lire en HD un DVD HD (Blu-Ray comme HD-DVD) en haute définition sur un PC. Ce serait une autre privation de liberté, même si j’appelle cela plutôt une fonctionnalité de moins qu’une liberté de moins. A moins d’installer un logiciel qui ajoute le support de HDCP sur Vista.

D’ailleurs, l’entourloupe HDCP s’il y en a n’est pas dans Vista, mais plutôt dans les écrans. Ils doivent aussi supporter le HDCP pour lire des contenus protégés haute définition, sinon, il y a effectivement une “contrainte HDCP” qui redescendra la résolution de l’image en simple définition. Les possesseurs de moniteurs haute résolution (même pas trop) anciens et ne supportent pas le HDCP en sont ainsi pour leurs frais.

Les déficiences d’information sur Vista, je les ai soulevées en novembre dernier, ayant constaté qu’il était difficile de trouver l’inventaire des nouveautés intégrées dans cette version. Mais cette difficulté n’était pas du tout spécifique au DRM. Elle relevait d’un marketing “de simplification” que l’on n’apprécie effectivement pas beaucoup quand on aime aller dans les détails.

Mais sur le site de MS France, il y a bien un chapitre sur le DRM destiné aux utilisateurs, dans http://www.microsoft.com/france/windows/products/windowsvista/faq/default.mspx.

Le product guide de Windows Vista de 300 pages est quant à lui téléchargeable sur leur site (en anglais comme en français). Mais seulement dans deux formats: le DOCX, nouveau format de Word 2007 (qui dispose d’une visionneuse gratuite pour Windows), et le XPS, format Microsoft concurrent du PDF utilisable uniquement sous Vista à ma connaissance. Là, c’est clair, ils font trop la promotion de leurs formats au détriment de la simplicité pour les clients!

Répondre à ce commentaire

Commentaire 142 dans A la découverte d’Ubuntu, le 29 mars 2007

Devenir dépendant d’une SSII pour utiliser un PC comme particulier? Non, pas pour moi! Ni pour un tas de gens!

Toujours cette histoire de DRM. C’est vrai que c’est foireux. C’est vrai que cela pose des problèmes techniques. Mais comme je l’ai déjà écrit, personnellement, je n’y fais pas appel. Je suis libre de ripper mes CD audio achetés légalement, sans faire appel à du DRM. Cela coute un peu plus cher que d’acheter de la musique en ligne avec du DRM, c’est certain. Un inconvénient contre un autre inconvénient. Mais ce sont les ayant droits qui protègent les contenus. Microsoft ne fait que fournir un moyen technique de protection. Un moyen parmi d’autres.

Le HDCP? Ce n’est pas Microsoft qui l’a imposé. C’est une technologie spécifiée par Intel et commercialisée sous licence par une filiale d’Intel: Digital Content Protection (http://www.digital-cp.com/home). Comme le CSS des DVD du DVD Consortium, et que Micrsoft implémente pour supporter les nouveaux DVD haute définition qui requièrent le HDCP (nb: pour pouvoir afficher les vidéos en haute résolution). Si restriction de liberté il y a avec HDCP, ce n’est pas MS qui en est à l’origine.

Pour ce qui est du SP2 de Windows XP, je ne savais pas qu’il y avait eu des modifs relatives au DRM dedans. Il me semblait que c’était plutôt dans les évolutions de Windows Media Player que se situait le DRM. Est-ce que le SP2 contient une version à jour de Windows Media Player, possible. Je ne me souviens pas. Mais le jour où les diffuseurs de contenus souhaiteront commercialiser leurs contenus sans DRM, on sera libre de les utiliser sous Windows comme sous Linux, indépendamment de Microsoft. Dans Vista, il y par contre l’intégration des fameux modules TPM liés à du hardware (co-spécifié avec Intel) pour l’encryptage de contenus. Mais on n’est pas utilisé de le mettre en oeuvre. On ne risque pas beaucoup de le faire car ce n’est pas évident.

Microsoft fournit les informations sur les évolutions de ses Service Packs et autres mises à jour. Parfois, c’est planqué. D’autre fois, c’est très technique car ils segmentent leur information en fonction de l’audience. Pour le SP2, l’info utilisateur est ici: http://www.microsoft.com/windowsxp/sp2/preinstall.mspx. Et l’info pour les techos est là: http://www.microsoft.com/technet/prodtechnol/winxppro/maintain/winxpsp2.mspx . Voulez-vous inonder les utilisateurs avec l’information pour ces derniers? En marketing, on appelle cela une communication segmentée et ciblée.

Enfin, tester Ubuntu sur un disque externe plutôt qu’un Live CD change énormément de choses: 1) on peut installer ce que l’on veut, modifier la configuration, installer des drivers à demeure et 2) on a un niveau de performances bien meilleur qu’avec un CD. Donc, on peut juger sur pièces de la rapidité de l’OS.

Répondre à ce commentaire

Commentaire 141 dans A la découverte d’Ubuntu, le 29 mars 2007

Justement, j’ai tendance à me méfier des idéologies! Surtout teintées du label de la liberté brandie à tout bout de champs. Et quand vous parlez ensuite d’orthodoxie… :).

Mon approche était pragmatique, pas idéologique. J’ai montré que l’on pouvait tester Ubuntu sans même toucher à un octet de son disque dur sous Windows. Donc, une manière de faire à la fois un test complet (au delà du boot d’un Live CD) et sans risque (bousiller le boot sector de son disque dur et se demander ensuite comment le restaurer).

Vous n’y couperez pas: si vous voulez séduire les utilisateurs de Windows qui rappelons le représentent plus de 92% du total, il faudra bien en passer par là: penser à eux. Si vous pensez convaincre les utilisateurs de Windows avec de l’idéologie mais sans vous mettre à leur place, vous n’irez pas bien loin. Et ces utilisateurs ne sont pas des gens si bizarres que cela.

D’ailleurs, les quelques pointeurs sur des essais plus complets d’Ubuntu réalisés par des américains étaient rédigés sur le même registre: le pragmatisme de l’utilisation.

Et je maintiens ma conclusion sur Ubuntu tant pour le logiciel que pour ce qui l’entoure, notamment les sites communautaires avec leurs tutoriaux: ils sont ce qui se fait de mieux pour l’utilisateur lambda dans la sphère Linux. Que voulez-vous de plus? Que je brûle une tonne de boites Windows devant le siège de la FSF pour vous contenter?

Et je me sens libre. Ma liberté n’est pas limitée à cause de Windows ou particulièrement améliorée vec Ubuntu. J’ai autant de choix de part et d’autre mais avec un équilibre différent entre prix, facilité d’installation et fonctionnalités.

Mettre l’utilisateur au centre des débats, OK. Mais alors, pas en l’obligeant à passer en mode commande à tout bout de champ ou en voulant lui apprendre la vie! Windows n’a pas à rougir de la manière dont il traite l’utilisateur, même si parfois, il comporte des lacunes. Mon propos dans cette évaluation d’Ubuntu était de montrer que Linux avait fait de gros progrès de ce point de vue là. Au point d’être proche de Windows, voire de le dépasser, dans pas mal d’aspect, y compris au niveau de la notion d’écosystème applicatif.

Bon et puis mon installation d’Ubuntu n’était pas si bizarre que cela. La faire sur un disque externe USB était à la fois un bon point pour ce système, et pas l’origine des divers problèmes que j’ai rencontrés. Le boot en USB est géré par le BIOS de la machine. Après, l’OS n’y voit que du feu! Et ce n’est pas ce disque externe qui génère les problèmes avec la carte réseau ou la pénible installation du driver nVidia. Carte réseau qui était bien détectée. La preuve, en relançant en mode commande à la mano les services réseaux, celui-ci se mettait à fonctionner. Il y avait donc chez moi un problème d’initialisation quelque part au niveau de l’OS.

J’ai tenté l’installation en LiveCD de Mandriva One sur deux laptops différents, et là, je n’ai pas été bien loin. Avec une palanquée de messages d’erreurs visiblement liés à la gestion du disque (/hdc pas trouvé…). Et pourtant, là, je n’avais pas connecté de disque externe pour booter! Ca n’arrive pas qu’aux autres…

Répondre à ce commentaire

Commentaire 140 dans Trop d’Etat, oui mais où ça? (6), le 29 mars 2007

Je vais regarder cela car les masses en jeu sont conséquentes (400md€). A l’occasion d’une consolidation des 6 posts dans un seul document PDF, je prévois de traiter le secteur protection sociale et santé, tout comme un petit survol des grandes masses de la fiscalité.

Répondre à ce commentaire

Commentaire 139 dans A la découverte de Voozici, le 27 mars 2007

De rien, de rien!
Le spam que tu décris, c’est de la recommandation !

Répondre à ce commentaire

Commentaire 138 dans A la découverte de Voozici, le 26 mars 2007

Oops, en effet. J’avais survolé trop rapidement le site. Autant pour moi. J’ai donc corrigé l’article sur ce point.

Olivier

Répondre à ce commentaire

Commentaire 137 dans A la découverte d’Ubuntu, le 19 mars 2007

Laurent, arrêtons la discussion qui commence à se faire longue. Passe à autre chose!

Répondre à ce commentaire

Commentaire 136 dans A la découverte d’Ubuntu, le 19 mars 2007

Laurent,

L’histoire en Israël pourrait très bien arriver en France si quelqu’un menaçait d’une manière ou d’une autre la “sécurité nationale” du point de vue du gouvernement. Ils pourraient demander une saisie d’informations au niveau des FAI par exemple (Free, Wanadoo ou autre). Les FAI se conformeraient alors à la loi en vigueur en France. Je crains fort que c’est ce que MS a fait en Israël où la question du nucléaire est très sensible pour la sécurité du pays. Les Etats considèrent, qu’on l’aime ou non, que leur sécurité nationale est au dessus de la liberté individuelle de quelqu’un qui la menacerait. Et les entreprises n’ont pas beaucoup d’autres choix que de se conformer à cela. Sinon, elles mêmes peuvent être alors considérées par ces Etats comme des menaces à cette sécurité nationale.

Je ne vais sinon pas rentrer dans cette histoire de DRM qui est un véritable sac de noeuds. Je mettais surtout en évidence les incohérences naturelles qui peuvent avoir cours dans l’expression de la stratégie des entreprises que tu cites. Quand c’est le boss qui s’exprime, c’est plus clair comme pour Steve Jobs. En attendant, je demande à voir quand il supprimera le DRM de iTunes et des iPod. On verra si les actes sont alignées sur les paroles. Et on découvrira que ce n’est pas forcément le cas, du fait des pressions des ayants droits de contenus qui sont plus importantes que tu ne l’imagines dans cette histoire.

Sinon, pourquoi diable ne peut-on toujours pas enregistrer sur un Media Center PC (Windows ou Linux) des émissions de télévision satellite en numérique qui proviennent de bouquets payants (en France en tout cas)? Tu ne vas tout de même me faire croire que c’est à cause de Microsoft qui chercherait ainsi à protéger son monopole! Alors qu’en fait, c’est plutôt Canal+/Sat qui protège sa position!

L’économie de réseau te semble néfaste, mais c’est une réalité qui profite au leader dans de nombreuses circonstances, comme celle d’une “forte adhérence de plate-forme”. Et le cas du système d’exploitation est assez unique de ce point de vue là. Mais pour lutter contre cette dominance, il ne faut pas juste compter sur la notion de liberté, mais sur des notions macro-économiques et de structure de l’industrie, que j’évoquais dans mes différentes réponses et mon post, et qui sont incontournables pour faire réussir un initiative comme Ubuntu. A ce que j’en vois, Ubuntu est en tout cas déjà une menace sérieuse pour MS et ils ne vont pas rester inactifs.

Répondre à ce commentaire

Commentaire 135 dans A la découverte d’Ubuntu, le 18 mars 2007

Réponse à Laurent:

“Je n’ai pas compris tout ton passage sur l’«économie de réseau». Tu fais référence au développement des applications “web2″ ?”

Non, je fais allusion à un principe économique qui est très courant dans la high-tech: c’est le bénéfice qu’obtient un acteur lorsque le nombre croissant de ses utilisateurs ou des acteurs de son écosystème favorise sa position sur le marché. Cette notion peut-être complétée d’une autre: “l’adhérence de plate-forme” (platform stickiness). Plus une plate-forme est complexe à supporter, plus son écosystème (produits et services complémentaires) y adhère fortement et est difficile à migrer ailleurs. C’est ce qui favorise Windows car l’adhérence à la plate-forme est forte et elle n’est pas facilement substituable. L’adhérence au Mac est également forte. Mais l’adhérence à ta chaine hifi est faible car tu peux remplacer facilement les éléments. Parce que les interfaces de ta chaîne sont non seulement standard (audio analogique ou numérique, etc) mais également relativement simples techniquement.

“Bref, je ne crois pas en la bonne foi de MS quand ils font de l’ouverture de format. Steve Balmer avait déclaré qu’il préférait mourir que supporter ODF dans MS-Office moins de 3 mois avant qu’il le fasse. Il a donc sciemment menti (ils n’ont pas tout codé en 3 mois); dans quel but, sinon décourager l’adoption de ODF ?”

Je ne sais pas ce que Steve a dit sur le sujet, mais il n’a pas menti pour autant. Il a simplement accepté de changer d’avis ce qui est très différent. C’est même probablement Jean Paoli qui a du obtenir cela. Si un mec dit une connerie et accepte de se dédire et d’accepter de la corriger, et bien, c’est mieux que de perdurer dans l’erreur.

Pour ce qui est de MS en Chine et en Palestine, l’information que tu donnes ne fournit pas le point de vue de MS. Point de vue que je ne connais d’ailleurs pas. Laissons les
s’exprimer sur le sujet. Il y en une centaine de gars de MS qui lisent régulièrement ce blog. Il y en a bien un qui pourrait nous expliquer cela non?

Sur les DRM, je me trompe? Parce qu’un organisme belge pense ceci, ou un clampin chez Apple ou la Fnac cela? Tu as déjà vu sur un sujet complexe tout le monde d’accord? Le monde n’est pas binaire comme cela. Ce que je te dis, je l’ai vécu chez MS, c’est tout. Le DRM est un truc pour faire accepter le rôle du PC dans les médias. L’impact sur la dominance de MS est un “side effect” indirect qui les arrange mais qui n’est pas la motivation première. Microsoft n’est pas une personne, ce sont près de 80000 employés, et sur des sujets complexes, il est rare qu’ils aient tous le même avis. Cela dépend d’ailleurs de leur propension à lire des documents de “talking points” de la Corporation, documents souvent assez longs, nombreux et pas faciles à assimiler. Dans une boite, pas mal de gens s’expriment en confondant leur avis, leur interprétation et l’avis officiel… quand il existe. Donc, ne t’étonnes pas si tu trouves des incohérences dans les avis de ces boites.

Pour Gnome, j’ai en fait trouvé la solution. Il faut faire CTRL-SHIFT-drag-and-drop avec un dossier, ou bien faire ALT-drag-and-drop pour avoir le choix de ce que l’on fait à l’arrivée (déplacer, copier, créer un lien). C’est un peu moins intuitif que sous Windows, où l’on fait juste “bouton-droit-drag-and-drop”. Et sur Mac, cela doit si cela se trouve être encore plus facile.

Répondre à ce commentaire

Commentaire 134 dans Mac Gyver au féminin, le 18 mars 2007

OK, tu remets bien les choses en place pour relativiser la performance. Je n’y connais rien à la voile!

En tout cas pour Maud, il y a donc une bonne combinaison de savoir faire et de faire savoir. Indispensable pour la réussite!

Répondre à ce commentaire

Commentaire 133 dans A la découverte d’Ubuntu, le 17 mars 2007

Laurent,

Merci pour ta contribution.

Pour la culture informatique, oui, ce serait bien si celle des utilisateurs était plus développée. Mais ce n’est pas incompatible avec un usage en mode graphique. Je me considère comme quelqu’un d’assez “cultivé” en informatique, et pourtant, le mode commande me gonfle, sauf s’il faut automatiser quelque chose (je fais par exemple mes backups en mode commande avec l’utilitaire robocopy, un utilitaire MS maintenant intégré dans Vista).

Toi tu parles d’Ubuntu, mais un autre m’a parlé de Mepis, d’autres ne jurent que par une pûre Debian. C’est ça le problème qui doit être réglé. Pour le grand public, les constructeurs et les éditeurs de logiciels, la diversité des distros Linux est un handicap. Quand je suis arrivé chez MS (début 1990) et en particulier au moment du lancement de Windows NT, MS utilisait l’argument de la fragmentation d’Unix pour gagner des parts de marché sur les serveurs. Partant de pas grand-chose, MS est arrivé à plus de 60% de parts de marché en 5 ans sur les serveurs, aux dépends à la fois de Novell et d’Unix. Cette fragmentation d’Unix les a aidés, notamment pour séduire les éditeurs de logiciels. Sur le poste de travail, l’histoire se reproduit dans l’autre sens: MS est dominant, et la concurrence (Linux) est fragmentée. Pour régler le problème, il faudrait créer une autre forme de dominance, pourquoi pas celle d’Ubuntu. Cette dominance pourrait à la rigueur être acceptée si l’initiative de Shuttleworth restait sous la forme d’une sorte d’ONG non commerciale. Mais si elle était récupérée par une boite commerciale, n’aurait-elle pas des travers similaires à ceux de Microsoft et ne serait-elle pas combattue par les autres tendances du mouvement Linux?

Pour ce qui est des docs Word publiés par des organismes publics en Belgique, je vais être d’accord avec toi sur un point: ils ont tord d’utiliser ce format et devraient adopter le PDF comme le font la plupart des autres organismes. Il ne faut pas confondre format d’édition et format de diffusion, c’est tout. Comme pour la CAO, il vaut mieux transférer un objet en DXF ou équivalent que dans le format natif d’Autocad, CATIA ou autre PTC. En France, le PDF est généralisé pour le transfert de document. Et Office le supporte en export soit nativement (via plug-in dans Office 2007) soit via un freeware externe pour les autres Office (via l’excellent PDF Creator par exemple) ou encore avec les outils commerciaux (bien chers…) d’Adobe.

L’étude de cas de Microsoft Belgique est pour moi une erreur de marketing flagrante. Les gars du marketing de Microsoft n’auraient pas du ainsi mettre en évidence ce qui relève de la notion “d’économie de réseau” mais de bénéfices utilisateurs plus tangibles. C’est disons une méthode “bourrine” de gens qui croient bien faire mais font mal. Au passage, dans les boites, cette économie de réseau joue aussi en faveur d’Excel. Les financiers ont développé des tonnes de macros ou add-ins pour XL. Et là encore, cela rend difficile des migrations ailleurs. Mais l’économie de réseau est contournable si la proposition de valeur du concurrent est disruptive. La dominance de MS n’empêche pas par exemple Google de se lancer dans un autre paradigme: la suite bureautique en ligne. On va voir ce que cela va donner avec les moyens qu’ils mettent dessus.

Les problèmes de lecture avec OpenOffice devraient être traités par la publication du format OpenXML pour ce qui concerne Office 2007. Tu te méfies de MS, mais MS répond à la pression du marché, notamment du secteur public. Ils savent s’adapter et dans le bon sens. L’économie de réseau en leur faveur est tellement forte qu’ils peuvent encore lâcher du lest!

Pour ce qui est de la NSA, deux points: l’intégralité du code source de Windows est maintenant auditable par les gouvernements étrangers. Et je crois, des millions de développeurs ont maintenant accès au code via Shared Source. De plus, pour en avoir parlé avec les gens responsables du développement de Windows aux US, cette histoire n’a aucun sens, surtout pour une boite qui 1) fait plus de 65% de son CA hors des USA, 2) a une indépendance par rapport au gouvernement américain (même de Bush) qui parfois peut étonner et 3) reste une boite de développeurs purs et durs dans sa R&D. Les relations de MS avec la NSA sont les mêmes que celles que MS a avec les services de sécurité et de renseignement des grands pays occidentaux. La NSA se “contente” d’intercepter les communications dans les têtes de réseau d’opérateurs américains et au niveau des pays d’Echelon (Australie, Nouvelle Zélande, Royaume Uni, Canada). Elle travaille en mode interception de télécommunications: elle décrypte, elle filtre, elle analyse. Mais elle a plus de facilités à le faire sur les liaisons vocales téléphoniques que sur les liaisons Internet. L’histoire de 9/11 nous le rappelle bien. Je te conseille la lecture de “Body of secrets”, un gros pavé qui raconte le fonctionnement de la NSA si tu veux en savoir plus.

Maintenant, tu vas dire que même si le code source est là, on peut toujours planquer quelque chose dedans que personne ne verra. Alors, c’est aussi possible pour quelqu’un de mal intentionné dans le libre, vu le nombre de contributeurs! Et de toutes manières, prouver que quelque chose n’existe pas sera toujours impossible. C’est plus facile de prouver que quelque chose existe. Pour espionner les PC du monde entier, il y a un truc qui est pourtant bien connu et qui est accessible sans avoir besoin de la NSA: tu prends tous les trous de sécurité identifiés et patchés régulièrement autant sous Windows que sous Linux. Il y a toujours un % des ordinateurs qui ne sont pas mis à jour avec les derniers correctifs. Et cela donne des fenêtres de vulnérabilité que les pirates comme les Etats peuvent exploiter. D’où les efforts et les débats associés pour réduire ces fameuses fenêtres de vulnérabilité. Chez MS, la réactivité est variable et s’améliore. Dans Linux, elle est assez bonne également, mais pas toujours répercutée rapidement par les “packageurs de distros”.

Microsoft en Chine et en Palestine (là, je ne savais pas?) a participé à la lutte contre la liberté d’expression sur internet? Ils ont du faire comme Google et autres Yahoo et se plier à certaines règles locales pour appliquer des filtres sur leurs moteurs de recherche. Cela a bien fait débat, je te l’accorde. Mais quels choix avaient-ils? Quitter la Chine? Pas évident.

Pour les DRM, il faut raisonner un peu stratégiquement. La raison d’être des DRM sur les PC est de faire accepter à l’industrie des contenus – notamment cinéma et TV – une ouverture vers le monde du PC. Ces industries sont paranoiaques, dans une certaine mesure à juste titre, de la numérisation à tout crin des contenus. MS comme Apple ont créé des DRM qui sont un cheval de Troie pour faire entrer ces contenus dans leurs softs/hard. Sinon, ils ne sortiraient jamais en numérique de boitiers propriétaires de la tête au pieds (comme c’est encore le cas pour la télé satellite cryptée). Je vois bien le topo à moyen terme: les DRM sont des usines à gaz, ils limitent trop les droits des utilisateurs “légaux” et seront peut-être à terme rejetés. Ce jour là, le PC aura gagné contre l’industrie du “consumer electronics”. Mais il y aura de la résistance!

Pour ce qui est de VLC, il peut lire “légalement” du WMV (standard VC1). Mais pas celui qui est crypté. Ne généralise pas au format WMV.

Je suis d’accord sur le fait que mon expérience avec Ubuntu était alambiquée. Mais mon PC n’était pas préinstallé avec Vista non plus! Je l’y ai installé moi-même avec une image ISO du DVD téléchargée sur MSDN auquel je suis abonné. Je suis donc passé par toutes les étapes d’une installation à la mano. Installation que j’ai d’ailleurs racontée avec j’espère la même objectivité que pour Ubuntu (cf http://www.oezratty.net/wordpress/2006/buena-vista/) et qui ne fait pas forcément plaisir à MS (comme mon CR sur Office 2007 sur http://www.oezratty.net/wordpress/2007/vista-fiesta/). Mon matos a été mieux détecté effectivement, mais j’ai eu des problèmes avec les drivers nVidia en mode double-écran. Ces drivers sont mal écrits, même pour Vista, et cela a d’ailleurs déclenché une forte réaction des clients, notamment aux USA, poussant nVidia à “se bouger”.

Pour ce qui est de Gnome, sais-tu comment on créé facilement un “shortcut” sur le bureau pointant sur un dossier sans avoir à créer d’abord un shortcut qui apparait dans le dossier en question et que l’on doit alors déplacer sur le bureau?

Répondre à ce commentaire

Commentaire 132 dans A la découverte d’Ubuntu, le 17 mars 2007

Cher Meodulye,

Vous trouverez difficilement la trace d’un tel mépris de ma part pour Linux ou n’importe lequel des concurrents de Microsoft! Et d’ailleurs, de même pour d’autres comme moi chez Microsoft qui pouvaient s’exprimer sur le sujet: Laurent Ellerbach, Stéphane Kimmerlin, ou le font maintenant, comme Marc Gardette ou Bernard Ourghanlian. On pouvait critiquer mais pas mépriser, ni d’ailleurs personnaliser le débat. Tandis que certains dans les forums du libre s’attaquent souvent à l’intégrité des gens qui ne leur plaisent pas.

J’ai toujours fait en sorte de respecter les concurrents et cela étonnait d’ailleurs pas mal de gens qui m’ont vu intervenir au nom de MS dans des conférences. Et pour ce qui était de Linux, je prenais la peine de l’utiliser un tant soi-peu pour m’en faire une opinion personnelle, et pas juste inspirée par les documentations concurrentielles évidemment partiales pondues par Microsoft Corp. J’ai poursuivi ici cette démarche personnelle en y consacrant beaucoup plus de temps et d’autant plus que je pouvais m’exprimer librement. D’ailleurs, le résultat ne doit pas plaire énormément à Microsoft car ils ne se rendent pas forcément compte des progrès de Linux que je présente.

Me traiter de mauvaise foi alors que justement, je mets le point sur la fermeture des specs matérielles de nVidia! Les bras m’en tombent. Cela me rappelle certaines tendances politiques ou religieuses qui considèrent comme des ennemis tous ceux qui n’adoptent pas leur programme ou mode de pensée à 100%! Comme les gardiens du temple d’une orthodoxie et d’une vérité absolue.

Dans son blog, Tristant Nitot trouve que mon post était équilibré. Merci à lui de respecter ainsi le point de vue des autres!

Répondre à ce commentaire

Commentaire 131 dans A la découverte d’Ubuntu, le 16 mars 2007

Cher Animimotus,

– Des procès? Cela ne mêne à rien si l’alternative n’est pas encore au point. Mon billet montrait qu’on n’en était pas loin, mais qu’il y avait encore du taf

– Digikam ? Gwenview ? Picassa ?
Je les ai testés tous les trois.
Les deux premiers ne permettent pas de visualiser les images de sous-répertoires d’un coup.
Le dernier le fait, mais n’affiche pas les images par répertoire, mais par date. Il manque de flexibilité de ce côté là mais est par contre très sympa graphiquement.
Donc, les seuls que je connaissent qui fassent cela bien sont Photo Gallery (dans Vista) et Digital Image Pro (aussi de MS, mais payant). Pour une fois qu’ils ont un point d’avance en ergonomie, je ne vais pas me plaindre!

– Les députés? Ils n’ont pas choisi Ubuntu pour la plupart. Comme dans pas mal de boites, le choix est venu comme cela et quidé par quelques uns. L’équipement concernait à l’origine les assistants parlementaires. Ce sont eux qui font le boulot des députés et il y en a pas mal chez ces derniers qui n’utilisent toujours pas de PC, Windows comme Linux! J’en vois au moins 2 sur les 3 en tête des sondages de l’élection présidentielle!

– La gratuité n’enlève rien au besoin de faire simple. Comme le disait Jamie Zawinski, un ancien développeur de Mozilla en 2000, “Linux is only free if your time has no value” (citation partielle, la totale sur http://www.jwz.org/doc/linux.html). Ses critiques de Linux (vs Unix) ne sont plus forcément valables en 2007, mais cette notion de temps reste importante. Je ne dis pas que l’on ne perd pas de temps sous Windows. Mais parfois, surtout au démarrage, Linux donne l’impression d’en perdre pas mal pour obtenir certains résultats.

Pour tous, il y a un point marrant: personne n’a vraiment noté que je n’avais pas évoqué la question de la sécurité et des virus. Du point de vue du libre, c’est un point fort de Linux. Mais tant que l’on n’a pas été attaqué et que l’on utilise les bonnes règles d’hygiène sous Windows – et Vista est assez bien foutu de ce côté là – on ne voit pas trop la différence avec Linux.

Répondre à ce commentaire

Commentaire 130 dans A la découverte d’Ubuntu, le 16 mars 2007

Pour Laurent :

– Les utilisateurs de Windows ont été lobotomisés ? Avec cela, il ne reste plus beaucoup de cerveaux complets dans le monde parmi ceux qui utilisent un ordinateur! Tu montres par ton argumentation une ambigüité : d’un côté, tu milites pour un Linux simple et encense à juste titre Ubuntu, de l’autre, tu enfonces le clou sur la déformation subie par les utilisateurs de Windows. Désolé, il faut respecter ces gens si tu souhaites qu’ils passent le cap de Linux ! Le fait que j’ai rencontré quelques difficultés alors que je suis plutôt assez « technique » par rapport à la moyenne est un signe qui ne trompe pas. Certes, des non-informaticiens ont adopté Ubuntu. Mais quelle en est véritablement la proportion ? Mais la complexité d’un PC sous Windows est réelle également. C’est d’ailleurs presque un miracle qu’il y ait je crois environ 13 millions de PC dans le grand public en France, l’essentiel sous Windows.

– Concernant la liberté, il ne faudrait pas confondre cette notion avec celle de confort. En effet, un fichier .doc peut être ouvert avec un viewer gratuitement téléchargeable sur le site de Microsoft au même titre qu’un Adobe Acrobat Reader (voir http://www.microsoft.com/downloads/details.aspx?familyid=95E24C87-8732-48D5-8689-AB826E7B8FDF&displaylang=en). Et ceci, depuis de nombreuses années. Sans compter le fait que ces fichiers sont lisibles par OpenOffice depuis également longtemps. Enfin, Microsoft a lancé – certes sous la pression de certains gouvernements et de leurs Cadres Communs d’Interopérabilité – le développement de convertisseurs ODF pour Office. La société française CleverAge a été impliquée là dedans. Et du côté de Microsoft Corp, la personne en charge est Jean Paoli, chez eux depuis 1996 et auteur, il faut le rappeler, de la première spécification de XML du W3C. XML qu’il a contribué à faire adopter par une grande partie des logiciels chez Microsoft. Il est aussi derrière l’initiative des convertisseurs ODF/OpenXML. Même topo avec le WMV qui est lisible avec VLC sous Ubuntu. Et standardisé sous la forme VC1 je crois. Pour ce qui est de ton casier judiciaire sous Windows, trois petits points : 1) Microsoft s’en tape, 2) Microsoft n’a aucun moyen et ni intérêt à le récupérer, 3) Il y a plein de sociétés qui en savent énormément sur toi (notamment ta banque) et c’est plutôt de ce côté-là qu’il vaudrait mieux déplacer ta paranoïa.

– Par contre, ce qui est moins connu, c’est que tout logiciel utilisé dans un pays doit être validé par le gouvernement (précisément pour ce qui est de la France: le DCSSI qui dépend du SGDN et qui sous-traite une grande partie de ses évaluations techniques à la DGSE – vas sur Wikipedia pour voir ce que font ces organismes – et aux USA, cela concerne le FBI et la NSA, et ainsi de suite dans les autres pays). Cette validation a pour objet d’assurer que la Justice pourra obtenir le déchiffrement de tout document sur un ordinateur. Pas à distance, mais lorsqu’un disque dur a été saisi lors d’une perquisition. Cela concerne d’ailleurs aussi bien les formats propriétaires à la Microsoft que les autres. Pour ce qui est de la garantie du non accès à distance, elle est difficile à fournir. Cela nécessiterait un audit sécurité approfondi qui ne concerne pas que Windows, mais également le réseau, les serveurs, les bases de données, les sites Web, les firewalls, etc. Et ton Ministère de la Justice belge n’a peut-être pas envie de rentrer dans ces considérations. Cela pourrait d’ailleurs être embarrassant. Pas à cause de Windows, mais des procédures de sécurité du Ministère en question. Les organisations bien sécurisées sont plutôt rares, c’est bien connu !

– Pour terminer, les DRM m’agacent aussi en tant que consommateur. Mais je les évite : je n’ai pas de DRM sur mes PC. Ma musique ? Ce sont mes CD audio que j’ai rippés moi-même ! Les films ? Des DVD, du Canal+ et de la TNT enregistrée sur Media Center sans DRM. Avec Canal+, tu n’as d’ailleurs pas à te poser la question du DRM car les contenus ne peuvent pas sortir en numérique de leur boiboite on ne peut plus fermée (MediaSat comme Pilotime). Finalement, avec un PC, tu as tout de même beaucoup plus de libertés que sur d’autres matériels ! Mais cela risque de changer si le PC devient le réceptacle généraliste de contenus payants fournis par des tuyaux.

Répondre à ce commentaire

Commentaire 129 dans A la découverte d’Ubuntu, le 16 mars 2007

Monsieur “Eclipse”, quel beau jugement de valeur que celui-ci! Que Ubuntu me monte à la tête! Pourquoi un site devrait-il être une bonne ou une mauvaise chose pour la communauté Linux? Le monde se divise-t-il comme cela en deux?

Je ne suis ni un “transfuge” de Microsoft qui serait passé au libre, ni au contraire un ayatollah défenseur de Microsoft. Je m’exprime librement pour faire partager mes expériences, donner quelques avis et sans arrière pensée. Avis qui pourraient d’ailleurs aider les uns et les autres si pris comme tels.

La pub? Oui, ce site est ma vitrine car je suis indépendant. C’est clair, j’ai annoncé la couleur en créant ce blog. Mais au moins, il n’y a pas de Google Adsense à droite et à gauche tout de même!

Répondre à ce commentaire

Commentaire 128 dans A la découverte d’Ubuntu, le 16 mars 2007

Merci à tous pour vos commentaires. Petites réponses rapides:

– Olivier: bon point sur Synaptic. C’est effectivement une force d’Ubuntu qui n’a pas d’équivalent sous Windows. Windows Update ou “Microsoft Update” n’ont pas encore la même portée. Bon point également pour la difficulté de lire ext3 à partir de Windows! D’ailleurs, je m’apprêtai à faire la recherche du moyen de réaliser cette connexion…

– Agrou: j’ai testé Digikam dans lequel j’ai configuré mon canon G7 et re-erreur: “Failed to connect to camera…”. L’avantage de l’open source que vous évoquez est justement son talon d’Achille (le syndrome du “forking”). Il pourrait être corrigé dans pas mal de cas, et sans renier les principes du libre. Par exemple, une concentration des efforts sur un Digikam ou équivalent permettrait d’avoir un logiciel de gestion de photo plus étendu, un peu comme TheGIMP qui est devenu aussi bon (et extensible) que Photoshop.

– Virtuo: pour la comparaison OpenOffice et Office 2007, je pourrais m’y lancer et cela ferait une autre grosse “tartine” (quelques pages de post). Il subsiste des différences qui me gênent en tout cas, au delà des histoires de fichiers. Mais là aussi, il y a convergence fonctionnelle, c’est vrai. Les plus gros “plus” d’Office 200X concernent d’une part son interface utilisateur “plus léchée” si je puis me permettre, et des liens étroits avec l’offre serveur MS (Exchange, Sharepoint), donc pas ouverts-blablabla… et je ne les utilise pas du tout.

– Yota: je ne suis pas le seul à avoir ces pbs avec les Canon. J’ai trouvé des utilisateurs ayant le même pb que moi sur les forums Ubuntu (US et Fr). La plupart les avaient résolu en ajoutant l’ID de leur appareil dans le fichier de config. Mais pour moi, cela n’a pas marché. Peut-être un pb de hardware en effet. Ou une incompatibilité entre bibliothèques installées.

Répondre à ce commentaire

Commentaire 127 dans A la découverte d’Ubuntu, le 16 mars 2007

Quelques réactions à certains des commentaires ci-dessus:

– Ne mettez pas tout sur le dos de Microsoft et des formats propriétaires! A part quelques exceptions, les formats et protocoles de MS sont maintenant documentés et exploitables dans le monde du libre. C’est le cas des formats d’Office 2007 par exemple. Se plaindre de la complexité des formats d’Office 2007 donne un peu trop dans la théorie du complot. N’est-ce pas un peu plus simplement parce que MS Office a un périmètre fonctionnel plus large que celui d’Open Office? Et peut-être aussi parce que MS fait des choses compliquées. C’est plus un travers d’ingéniering (il y en a chez MS comme ailleurs) qu’un complot contre les logiciels libres. Brandir le spectre de la “trollisation” d’un écrit n’élève pas le débat. En tout cas, ce n’est pas comme cela que je conçois.

– La fragmentation de Linux, notamment pour l’installation d’applications, n’est pas le fait de Microsoft! C’est un problème d’organisation des communautés de développement libres. Elles ont leurs travers, et des travers humains similaires à ceux que l’on trouve dans les entreprises: conflits d’égos, besoin de différentiation des distro commerciales, trop grand nombre de projets qui réinventent la roue au lieu d’améliorer ce qui existe, etc. Cela concerne la gouvernance des développements distribués du libre.

– La communauté Linux doit savoir faire son autocritique si elle souhaite progresser. La discipline nécessaire pour toucher un marché de volume est très contraignante, j’en ai évoqué les contours à plusieurs reprises. Ne pas les accepter , ne pas les traiter suffisamment proactivement fera perdurer un handicap certain à Linux. Le lobbying politique ou juridique (“détaxe Windows” & co) ne changera pas la donne et la réalité du marché. N’oubliez pas que Microsoft sait aussi faire ses méa-culpas et s’améliorer. S’il y a eu des ratés dans le dev et le lancement de Vista, ils les corrigeront!

– Dans ce paysage, Ubuntu est un véritable “game changer” car ils ont résolument pris le parti de l’utilisateur à contre courant de l’approche orientée “geeks” qui prédomine encore trop dans le monde du libre ET dans un modèle non commercial au premier abord. Les évolutions de la version d’Ubuntu qui sortira en avril vont d’ailleurs dans le bon sens et confirment cette démarche.

– Cette réaction sur le mode commande ou sur le fait que maitriser Ubuntu “cela se mérite” est une attitude risquée. Un utilisateur, cela se mérite! Ce n’est pas l’utilisateur qui doit mériter le produit. Même s’il s’agit d’un logiciel gratuit. Il ne faut pas inverser la proposition quand on ambitionne de toucher des millions d’utilisateurs!

– Beryl et Vista: ce dernier est en bêta depuis des lustres (2003)! Donc c’est exagéré de sous-entendre que MS a pompé dans Beryl. Et franchement, le paramétrage de Beryl est tellement “ouvert” qu’il ressemble à un cockpit de 747! C’est vraiment “too much”! MS ne copie d’ailleurs pas assez quant il le devrait: par exemple, il n’y a toujours pas d’accélérateur clavier sous Vista pour créer un répertoire. Alors que cela existe sur MacOS depuis longtemps (Pomme-N) et sous Gnome (Shift-Ctrl-N).

– Certaines galères dans mon expérience sont effectivement liées à l’installation à la mano sur mon laptop, je l’ai bien reconnu. Mais d’autres sont indépendantes (notamment sur les appareils photo).

Répondre à ce commentaire

Commentaire 126 dans A la découverte d’Ubuntu, le 15 mars 2007

Oui, il y a effectivement un trou.

Je voulais écrire: ce n’est pas bien facile à configurer. Et la portée est limitée: relativement peu d’applications ont été testées avec Wine et la liste disponible ne contenait pas les applications qui m’intéressaient.

Répondre à ce commentaire

Commentaire 125 dans A la découverte d’Ubuntu, le 15 mars 2007

Kris, les informaticiens sont tous les jours confrontés à des informations confidentielles: dans la défense, dans le renseignement, dans la RH des entreprises, etc. Et à vrai dire, les députés manipulent moins d’informations confidentielles qu’il n’y parait puisque leur action est très publique. Bien sur, leurs relations avec des groupes de pression doivent rester un tant soi peu confidentielles.

Tristan, oui, j’avais remarqué cette montée en puissance d’Ubuntu depuis quelques mois. Une bête comparaison des distros Linux avec Google Trends montre cette évolution de manière éclatante. Ubuntu est une rupture intéressante pour au moins trois raisons: c’est un projet résolument tourné vers le confort des utilisateurs, et ce n’est pas une initiative commerciale comme peut l’être un RedHat, un Novell Suse ou un Mandriva, et en même temps, elle est bien financée grâce à un riche donateur. Couplé à sa montée en puissance, cela peut créer un nouveau rapport de force et générer un standard de facto. Chose qu’une distro commerciale classique ne serait pas en mesure de réussir. Mais il y a encore du pain sur la planche. Il faut une rupture “philosophique” pour se mettre résolument du côté de l’utilisateur. Aucune action courante, y compris l’installation d’un matériel (en particulier, qui n’est pas “dans la machine” et ne pourrait donc pas être pris en charge par la préinstallation d’Ubuntu par un constructeur) ne devrait requérir l’usage du mode commande à la “sudo gedit /etc/X11/xorg.conf ou sudo apt-get machinbidule etc”.

Rémi, la “communauté” n’a pas d’existence juridique ou contractuelle pour un constructeur. Ce n’est pas une entité “solide”. La boite de Mark Shuttelworth peut éventuellement jouer ce rôle, appuyée par la “communauté”.

Répondre à ce commentaire

Commentaire 124 dans Trop d’Etat, oui mais où ça? (6), le 12 mars 2007

Je suis rentré dans la croissance pour la relier à la marge de déficit budgétaire dans le dernier post. Sans rentrer dans le détail des sources potentielles de cette croissance en effet, pour ne pas déborder du sujet.

Pour ce qui est de la démographie, la France a une particularité européenne: c’est le pays qui a l’un des plus fort taux de natalité (13/1000 vs 12,5/1000 en Floride – sources INSEE 2006 pour la France et http://www.infoplease.com/ipa/A0763849.html pour les USA). Ce qui de bon augure pour dans 20 ans par rapport au reste de l’Europe. Mais aussi, comme tous les pays occidentaux, un pays qui vieilli du fait du baby boom d’après-guerre.

La pression fiscale de la France est supérieure à 49% quand on intègre les charges sociales! Et la dépense publique est de 54% du PIB (le delta provient des recettes non fiscales et du financement du déficit public)! Au delà de 50%, cela a tendance à trop sérieusement alourdir la performance économique du pays.

Répondre à ce commentaire

Commentaire 123 dans Trop d’Etat, oui mais où ça? (5), le 11 mars 2007

Rafael, est-ce que ce contrôle sanitaire a autant d’importance dans l’élevage et dans le reste de l’agriculture (céréales, fruits, légumes)?

Répondre à ce commentaire

Commentaire 122 dans Choisir son lecteur RSS, le 9 mars 2007

Pour info, j’ai découvert ce beau tableau de comparaison de lecteurs RSS sur http://www.aggcompare.com/. Beau, mais qui ne se focalise pas sur les mêmes fonctionnalités que le mien.

Répondre à ce commentaire

Commentaire 121 dans Rêve d’appareil photo numérique idéal, le 6 mars 2007

Effectivement, c’est une fonction recherchée et appréciée. Mais elle est un peu antinomique avec le format “compact”. Canon l’a d’ailleurs abandonné dans la transition du G6 au G7. Bref, aujourd’hui, on ne la trouve plus que sur des bridges, pas sur des compacts.

Répondre à ce commentaire

Commentaire 120 dans Trop d’Etat, oui mais où ça? (2), le 27 février 2007

En fait, les priorités doivent évoluer graduellement en fonction de la richesse d’un pays. Un pays en voie de développement, et en particulier, ceux d’Afrique, qui n’ont pas progressé comme le reste du monde (Asie, Amérique du Sud) doivent continuer à investir sur la santé et l’éducation (dans cet ordre là d’ailleurs).

Quand on est un pays développé, les priorités sont effectivement plus diffuses. La priorité à l’éducation subsiste, mais avec un objectif qui ne doit pas être juste de “préparer des citoyens” comme certains idéologues de l’enseignement le voient, mais de créer un potentiel de création de richesse économique pour le pays. Et à tous les échelons et dans tous les métiers. Avec donc à la fois une régulation entre offre et potentiel d’emplois, qu’il faut anticiper un peu, aspirations des élèves, et leurs capacités. Avec une règle de base bien républicaine: que les meilleurs aillent le plus loin (dans les études longues). Mais sans pour autant que les études soient encore si discriminantes pour l’avenir. La France est encore un peu trop conservatrice de ce point de vue là.

Avec l’espérance de vie que l’on a dans un pays comme la France, la santé a dépassé le stade de la priorité. Faire plus dans ce domaine est presque un “nice to have”. D’où le légitime besoin de contrôler et réguler les dépenses de santé pour éviter les dérives qui peuvent être assimilables à “du luxe” comparé à d’autres pays.

Jeremy, il serait intéressant d’étudier la relation un de causalité entre le différentes composantes que tu cites.

Répondre à ce commentaire

Commentaire 119 dans Trop d’Etat, oui mais où ça? (2), le 27 février 2007

Sur la première piste, il y a surement quelque chose à creuser, mais en fonction des matières. Certaines nécessitent plus de travail hors classe que d’autres. Certaines moins, comme le sport.

Pour la seconde, c’est clair, dans certaines régions, la capilarité des écoles et des classes a un coût qui pèse, et probablement de manière indifférentiée entre privé et public. Le nombre de profs par élèves et la dépense par élèves dans le primaire et le secondaire le montrent clairement, et sans que la qualité de l’enseignement se soit améliorée. Ceci se fait au prix d’un sous-investissement dans le supérieur. Gérer les priorités nécessiterait de revenir en arrière sur certaines largesses dans le primaire et le secondaire.

Répondre à ce commentaire

Commentaire 118 dans Trop d’Etat, oui mais où ça? (1), le 26 février 2007

JM, oui, il y a des abus dans tous les systèmes, mais la majorité des RMIstes ou autres “alloués” sont-ils contents de leur situation? Justement, nous avons un référentiel qui n’est pas le leur. Des gens sans formation, sans réseau, sans grandes attaches familiales n’ont pas le même référentiel de valeur que ceux qui vivent bien d’un travail intéressant.

Le débat politique actuel a effectivement de néfaste qu’il oppose le succès des uns aux échecs des autres. Alors que le succès des uns est à encourager pour entrainer dans son sillon les autres.

Ceci étant, que prône tu précisément? Un impôts moins progressif qui fait contribuer même les plus pauvres? Quitte à baisser la TVA donc? Car 19% du salaire des personnes qui ne payent pas d’impôts repartent tout de même en TVA (certes, dite indolore). Même s’ils la retrouvent parfois sous forme d’allocations diverses.

En fait, la mécanique de redistribution génère un énorme “overhead” pour prendre ici et redonner là, parfois aux mêmes, particuliers comme entreprises. Elle pourrait être beaucoup plus simple. Avec moins de taxes diverses d’un côté, et moins d’allocations champignons de l’autre. On gagnerait le coût de gestion associé qui représente plusieurs % des montants en question (surtout côté allocations car côté recettes, le coût de la collecte est d’environ 1% en moyenne). Exemple: cette stupide “taxe sur les salaires” (qui rapporte 500 millions d’Euros) et évidemment la taxe professionnelle.

Répondre à ce commentaire

Commentaire 117 dans Trop d’Etat, oui mais où ça? (1), le 21 février 2007

Un premier raisonnement consiste déjà à benchmarker la France avec d’autres pays:
– Tous les pays ont un IR, sauf quelques paradis fiscaux. La France n’est pas une bizarerie du point de vue de l’IR.
– Les nombreux pays qui gèrent le prélèvement à la source n’ont pas dévalorisé la contribution à l’effort collectif pour autant. La France est d’ailleurs le seul pays de l’OCDE à ne pas le faire. Est-ce que les allemands, les anglais, les scandinaves, à dominante protestante, dévalorisent culturellement le travail et l’effort collectif? Et c’est une mécanique plus efficace car elle fait gagner du temps au contribuable. Pour moi, gagner du temps et moins de paperasserie, représente beaucoup de valeur dans notre petite ”vie à durée indéterminée” (VDI) …et limitée!
– L’ISF est plutôt rare dans le monde. Il est ”moral” pour certains, et économiquement inefficace pour d’autres. Comment concilier la morale des uns et l’efficacité des autres? Il faudrait beaucoup de courage politique que même la droite n’a pas aujourd’hui pour supprimer l’ISF, quitte à augmenter en compensation la CSG/RDS pour les revenus du capital à partir d’un certain seuil. Petite mise en perspective: l’ISF rapporte 3,8md€, alors que les bénéfices de la Francaise des Jeux qui vont à l’Etat sont de 2md€. Ce qui veut dire que l’ensemble de la population s’auto-taxe de la moitié de l’ISF pour… rêver un peu à devenir riche!

Sinon la redistribution est effectivement déconnante lorsqu’elle aboutit à des situations où il vaut mieux ne pas travailler que travailler lorsque l’on est au bas de l’échelle. Les personnes concernées n’ y sont d\’ailleurs pas pour grand chose. Il y a un bon dossier sur le sujet dans le Marianne de cette semaine (”Les pièges de l’assistanat”), un journal qui par ailleurs me donne souvent de l’urticaire par ses positions extrêmes notamment sur la dictature soit-disante ”poutiniène” des médias.

Ton symbole sur les 50 euros me semble être un réflexe de personne ”aisée”. Les gens qui vivent au SMIC avec deux enfants n’ont même pas de quoi nourrir leur famille. Ils sont bas dans la pyramide de Maslow (l’échelle de la reconnaissance) et en sont à lutter pour pourvoir à des besoins vitaux. Ils ont certainement soif de reconnaissance de la société, soif qui doit se traduire d’abord par un véritable rôle social – notamment par le travail, avant celui du plaisir de payer 50€ d’IR pour la cause commune.

Pour ce qui est des allocations, le moins que l’on puisse dire, c’est qu’il y en a trop. En voici une petite liste partielle:
– Prime de Noël
– Allocation de solidarité spécifique (ASS)
– Allocation d’insertion (AI)
– Allocation équivalent retraite (AER)
– Allocation personnalisée d’autonomie (APA)
– Allocation de parent isolé (API)
– Allocations familiales
– Allocation de jeune enfant
– Allocation parentale d’éducation
– Prestation d’accueil du jeune enfant
– Complément familial
– Allocation d’adoption
– Aide à la famille pour l’emploi d’une assistante maternelle agréée (Afeama)
– Allocation de présence parentale
– Allocation de rentrée scolaire
– Allocation de garde d’enfant à domicile
– Prime de déménagement

Effectivement, cela mériterait un peu de simplification. Un petit exemple: remplacer les 11 dispositifs de cette liste liés à la famille par des allocations familiales modulaires en fonction de la situation. Cela permettrait au moins de faire des économies dans le backoffice et les guichets!

Sinon, j’augmenterai bien un peu la TVA et les taxes à l’importation, mais pas en échange de la baisse de l’IR, mais plutôt des charges sociales. Ainsi, on ferait baisser le coût apparent du travail sans changer les recettes du secteur public, même s’il faudrait alors augmenter les transferts de l’Etat vers la protection sociale.

Répondre à ce commentaire

Commentaire 116 dans Trop d’Etat, oui mais où ça? (1), le 21 février 2007

Oh, oui, il y a à remettre en cause les choses, mais en regardant bien les comptes recettes et débit, et pas un seul côté de l’équation dans ces propositions de baisse des charges sociales.

Pour ce qui est de la justice de l’IR par rapport à la TVA, tout dépend de ce que l’on entend par “juste”. L’IR est plus redistributeur des richesses que la TVA. A ce titre, il est donc considéré comme plus juste par le tenants de la redistribution. L’IR en France n’est pas si élevé que cela maintenant, il est plutôt dans la moyenne des pays développés. Il ne rapporte que 57md€ par rapport à la TVA qui en rapporte plus de 170md€.

Je connais bien le blog de Chamboredon, qui est effectivement excellent et plein de très bonnes propositions de rationnalisation. J’essaye d’apporter une approche “visuelle” complémentaire et sur des domaines moins couverts. Et aussi, de comprendre un peu plus à fond la structure des dépenses publiques. C’est l’objet des posts qui suivent.

Répondre à ce commentaire

Commentaire 115 dans Etat des lieux de Media Center, le 21 février 2007

On peut configurer MCE pour démarrer ses enregistrements systématiquement en avance de quelques minutes. C’est ce que je fais habituellement. Ensuite, il est également bon d’ajouter un “buffer” à la fin dans le cas des émissions qui risquent où bien de déborder où bien de démarrer en retard.

Ceci est aussi lié aux EPG (Electronic Program Guides) pas toujours bien renseignés pas les chaînes.

Mais parfois, cela peut également être lié à un pb sur le PC MCE qui ne se réveille pas correctement. Lié à la mise en veille S3, un truc qu’on ne devrait pas avoir à savoir, au moins si le MCE est arrivé “intégré” chez vous par un grand constructeur.

Le même problème existe avec de nombreux autres systèmes PVR. Ce n’est qu’une affaire de logiciel…

Répondre à ce commentaire

Commentaire 114 dans La bulle des set-top-boxes, le 16 février 2007

JM, en fait on peut très bien faire des solutions “boite noire” avec des systèmes commerciaux. Mais certains inconvénients du libre (au niveau de l’écosystème) peuvent être ainsi masqués dans une solution embarquée.

Il ne faut effectivement pas tout prévoir dans une STB, mais savoir y intégrer ouverture et extensibilité pour suivre les usages qui relèvent plus de l’évolution du logiciel que du matériel.

Répondre à ce commentaire

Commentaire 113 dans La bulle des set-top-boxes, le 16 février 2007

C’est une création personnelle!

Répondre à ce commentaire

Commentaire 112 dans La bulle des set-top-boxes, le 16 février 2007

Tout à fait d’accord!

D’ailleurs, le point 2) me fait préférer un PC qui est ce qu’il y a de plus ouvert et extensible d’un point de vue matériel, mais c’est malheureusement contradictoire avec le 1), dès lors que l’on met dessus un OS généraliste à la Windows. Sous Linux, je demande à voir.

Sinon, Amino n’était pas au CES, tout du moins pas dans le catalogue officiel.

Répondre à ce commentaire

Commentaire 111 dans Conférence LeWeb3 – Les startups, le 15 février 2007

C’est une bonne initiative. Elle mériterait d’être structurée en Wiki plutôt qu’en blog.
Comme ce wiki de startups Web 2.0 http://www.Web2fr.com monté (entre autres) par Raphaël Labbé déjà évoqué dans les commentaires de ce post.

Répondre à ce commentaire

Commentaire 110 dans Vista Fiesta, le 4 février 2007

Ce changement d’interface semble cependant plus fait pour les “lambdas” qui n’ont jamais touché à Office. Ceux qui l’utilisent couramment seront paumés, experts ou pas! Et côté productivité, on y perd parfois car les fonctions d’une même catégorie sont réparties dans plusieurs bandeaux (ou menus). Il faut par exemple plus de clics de souris pour insérer quelques objets dans PPT et les aligner correctement. Et la toolbar perso que l’on peut se créer est trop petite.

Pour le changement de format, n’est-il pas prévu d’avoir un convertisseur qui tournera sous les anciennes versions? Convertisseur qui ne sera évidemement pas installé par défaut, et qui nécessitera une manip utilisateur. Ceci étant, l’étiquette sur Internet veut qu’en envoyant un fichier, on indique bien ce qu’il faut pour le lire et si possible, qu’on utilise un format couramment utilisé.

Pour ce qui est des fameuses 90% de fonctions demandées qui existent déjà, c’est un peu la conséquence de l’absence de formation sur les outils courants de la bureautique. Formations économisées par beaucoup trop d’entreprises!

Répondre à ce commentaire

Commentaire 109 dans Visite à Linux Expo, le 3 février 2007

Florent, il semble qu’aujourd’hui, la part de marché de Linux soit supérieure à 1% sur les postes de travail. Il semble même qu’elle ait atteint voire dépassé – selon les pays – celle du Macintosh (aux alentours de 3%).

Ce qui n’empêche pas que le paradoxe de Linux est que certaines de ses forces tant appréciées de ses fans, comme le choix et la diversité, nuisent à sa diffusion dans le grand public. Le choix d’une interface utilisateur (GNOME, KDE, ou autre) pour commencer. Trop de diversité nuit à la standardisation, notamment pour l’apprentissage de l’utilisation, et aussi pour les éditeurs de logiciels tiers.

Répondre à ce commentaire

Commentaire 108 dans Visite à Linux Expo, le 3 février 2007

Hello Tristan,

Je vois que Linutop est une sorte de Network Computer. A part pour remplacer le Minitel si FT s’y lançait, cela peut-il devenir un produit grand public? Où est-ce plutôt pour les entreprises ou pour les bornes publiques (comme à l’entrée d’un salon…)?

Je me méfie toujours de ces machines limitées, sans capacité de stockage local. Tout comme de ces baladeurs Internet Wifi (Mylo de Sony, ou N800 chez Nokia) à la fois trop gros pour être des mobiles et trop petits pour offrir un écran correct pour surfer sur Internet.

A bientôt,

Olivier

Répondre à ce commentaire

Commentaire 107 dans Rapport CES 2007, le 3 février 2007

Bonjour Thierry,

J’ai bien rigolé pendant le keynote de Gates en pensant à notre discussion juste avant! Quelques prédictions simples se sont réalisées n’est-ce pas? Hardware advances, devices, ecosystem, …

Quel globe trotter en tout cas tu fais! Bon voyage!

Olivier

Répondre à ce commentaire

Commentaire 106 dans Visite à Linux Expo, le 2 février 2007

Nicolas, je n’ai pas eu le temps d’enquêter là-dessus.

Le support de .NET sous Linux est une course à l’échalotte permanente vus les changements permanents que Microsoft apporte à .NET!

Il y a un bon article de Wikipedia qui fait le point sur la question: http://fr.wikipedia.org/wiki/Mono_(informatique).

D’après ce que je vois sur le site de Mono, ils supporteront le framework .NET 2.0 complet pendant le courant 2007. Mais pas d’information sur .NET 3.0.

Répondre à ce commentaire

Commentaire 105 dans Vista Fiesta, le 2 février 2007

Bien je ne sais plus trop. C’est un framework, c’est certain. Le “branding” autour de .NET a tellement évolué chez Microsoft que je ne sais plus où cela en est.

Répondre à ce commentaire

Commentaire 104 dans Rapport CES 2007, le 2 février 2007

Curieux. Cela fonctionne très bien sous FoxIt Reader.

J’ai généré ce PDF à l’aide du convertisseur de Word 2007. Le problème vient peut-être de là.

Avant, j’utilisais PDF Creator, un très bon outil, mais qui ne fonctionne pas sur Windows Vista. J’ai donc dû l’abandonner, j’espère temporairement. Notamment parce que l’approche de Microsoft avec son convertisseur pour Office n’est pas assez générique. PDF Creator s’installe sous la forme d’un driver d’imprimante, et il fonctionne donc avec tout logiciel (comme un navigateur Internet). Alors que le convertisseur de MS ne fonctionne qu’avec Office.

Existe-t-il un équivalent de PDF Creator qui fonctionne sous Vista ?

Répondre à ce commentaire

Commentaire 103 dans Visite à Linux Expo, le 1 février 2007

Oui, m’enfin, Bull n’est pas une marque grand public! Donc s’il y a inspiration, elle est à côté de la plaque.

Répondre à ce commentaire

Commentaire 102 dans Rapport CES 2007, le 30 janvier 2007

Merci de ce retour sur Kaleidascape que vous avez l’air de bien connaitre. Je vais corriger cela d’ici 1 à 2 jours.

Répondre à ce commentaire

Commentaire 101 dans Moteur de recherche de produits sympa, le 29 janvier 2007

Oui, cela fait branché dans le Web 2.0 de n’être jamais en version finale.

Répondre à ce commentaire

Commentaire 100 dans Rapport CES 2007, le 29 janvier 2007

Oui, effectivement, c’est bien 128 Mo.

Pour le son HD, la différence dépend d’au moins 3 paramètres:
– L’oreille
– La qualité des enregistrements et de leur mixage
– La qualité des autres maillons de la chaîne hifi

Dans les démos, on peut l’entendre. Chez soi, cela sera peut-être une autre histoire.

Ceci étant, il y a aussi pas mal de gens qui ne voient pas la différence avec la HD pour des raisons d’ailleurs équivalentes (la vue, la qualité de l’enregistrement et celle de la chaîne vidéo). En particulier entre 720p et 1080p.

Répondre à ce commentaire

Commentaire 99 dans Bundles contestés, et après?, le 29 janvier 2007

Heu, à ceci près que le remboursement ou non de la fameuse licence Windows ne met pas en cause Microsoft mais les revendeurs et les constructeurs. Vous accusez donc un peu rapidement Microsoft d’être liberticide.

Dans la grande distribution, il y a des offres diverses et variées, et on prend on non. Et si on n’est pas content, on peut aller acheter ailleurs. Le problème est peut-être que la grande distribution pèse trop lourd dans les ventes en France par rapport au commerce de détail (les fameux petits assembleurs). Mais c’est un autre débat.

Pour l’instant, je note que vous affirmez à l’envie que ceci et cela est illégal alors que cela n’a jamais été prouvé ni par les tribunaux ni par le législateur. Je vous le répête, pour rendre les bundles OEM/Windows illégaux, il faudrait changer la loi ou tout du moins la rédiger différemment. On peut donc si je vous suis être liberticide tout en étant légal, c’est d’ailleurs malheureusement vrai.

Donc, certes, vous trouvez cela illégal, mais cela ne l’est pas encore. Bien entendu, chacun est libre d’interpréter la loi comme il l’entend car elle est souvent complexe.

La liberté est un bien trop grand bien pour le pervertir ainsi par ces propos. Ne montez pas sur vos grands chevaux comme Roberto Di Cosmo qui écrivait en 1998 que Microsoft était liberticide, que c’était une menace pour la démocratie. C’est leur donner bien trop d’importance et de pouvoir! Les gens de cette boite ne sont pas liberticides comme vous l’entendez!

Dans ce débat, je me préoccupe du sens pratique des choses. Je pose la question: comment assurer pratiquement la concurrence, le choix des consommateurs, sans forcément pénaliser la majorité actuelle. Si une minorité de consommateurs tend à faire changer un système au détriment de la majorité, cela peut aussi être gênant pour cette dernière. Dans les systèmes politiques, qu

Enfin, si je défend quelque point de vue iconoclaste, c’est justement parce que je trouve que le votre n’a jamais eu à en découdre avec la contradiction. Il n’y a pas eu de véritable débat car les protagonistes qui sont des entreprises sont assez discrets. C’est bien dommage, mais c’est comme cela qu’ils gèrent le risque même s’ils pensent être dans leur bon droit.

Par ailleurs, il serait bon de réfléchir sur les moyens de donner sa chance à Linux justement. Il ne suffit pas de blâmer Microsoft. Il faut balayer devant sa porte également. Comme me disait un manager il y a longtemps: “we are not in the excuse business”.

Répondre à ce commentaire

Commentaire 98 dans Bundles contestés, et après?, le 29 janvier 2007

– « Après, on peut comparer avec le prix des pièces détachées si elles sont disponibles séparément. »
Eh bien justement avec les bundles on ne peut pas, c’est ce que réclame l’UFC.

Ce contre argument qui ne tient pas:
– On peut obtenir le prix de la pièce détachée Valéo mais pas celui qu’a payé le constructeur automobile (le prix de gros).
– Avec Windows, c’est pareil: on connait le prix à l’unité, mais pas le prix de gros de l’OEM. Même si on se doute qu’il est bien plus bas.

Mon envolée sur la machine judiciaire est liée à ce que les plaintes visent à se faire rembourser 100€ ce qui est un montant assez faible. Compte tenu de ce que cela coute à la collectivité, oui, c’est un peu du luxe! Mais si effectivement une ou deux décisions peuvent faire jurisprudence et modifier le processus de remboursement des constructeurs, pourquoi pas.

Pascal, Windows ne s’est pas fait en un jour. Il a fallu 3 versions pour qu’il s’impose. Au départ, c’était une couche optionnelle au dessus de MS-DOS. Les constructeurs l’ont acceptée lorsque les applications sont arrivées sur Windows (en 1990). Le point déterminant a été le lancement de Windows 3.0 qui avait été précédé d’un gros effort vers les développeurs à cette époque. Cela a bien fonctionné. A la fin des années 80, le concurrent de Windows 1.0 et 2.0 était GEM de Digital Research. Son interface de développement que j’avais évaluée à l’époque pour la boite pour qui je travaillais (SOGITEC) était moins bien foutue que celle de Windows. Ceci explique donc un peu cela. Après, la machine s’est emballée en faveur de MS. Mais le succès de Windows s’est aussi appuyé sur celui de MS-DOS, lui aussi contesté, je sais.

Enfin, vous vous méprenez sur le sens de mon propos. Je ne suis pas contre le consommateur ou contre la concurrence. Et MS ne me demande rien.

Je cherche à montrer qu’il n’est pas facile de trouver des solutions qui satisfassent la minorité des utilisateurs (qui veulent ces fameux PC nus) sans en pénaliser la majorité (qui se contente de Windows). Je connais bien les forces et faiblesses de Linux. Mais certaines de ses forces lui nuisent pour s’imposer dans le grand public et à grande échelle. En effer, pour y arriver, il faudrait plutôt favoriser des bundles Linux chez les constructeurs que la vente de PC nus.

Il existe une analogie: les mobiles. Certains sont sous Windows Mobile, d’autres sous Symbian, etc. Mais ils ne sont pas “nus”. Et effectivement, le consommateur peut choisir des mobiles avec Windows Mobile et d’autres avec Symbian, etc.

Pour ce qui est des standards, je n’ai rien confondu du tout. J’ai bien précisé “std des facto”, et pas “de jure”. Les américains disent souvent que des produits comme Windows sont des “industry standards”. Je ne les confond pas avec les standards d’interop. Qui d’ailleurs sont parfois des standards privés issus de consorsiums comme celui du MPEG2.

Pour ce qui est de la part de marché de Windows Server, mes sources sont IDC. Ce sont des parts sur les serveurs Intel.

Pour ce qui est de Bill Gates et de sa stratégie, elle a fonctionné sur Windows mais pas sur tous les autres produits de la société. Il y a donc bien une spécificité structurelle à Windows. Un OS n’est pas un logiciel comme les autres. L’effet d’économie de réseau est bien plus fort sur un tel produit que sur une encyclopédie sur CD-ROM par exemple.

Répondre à ce commentaire

Commentaire 97 dans Bundles contestés, et après?, le 28 janvier 2007

Pascal,

Je note qu’il n’est pas possible de laisser un commentaire sur votre blog. Curieux…

Bon, un petit commentaire sur votre amusement à me voir utiliser un logiciel CMS en open source (WordPress).

Oui, je suis un utilisateur de logiciels open sources. Mais j’en ai tiré un certain nombre de conclusions.

Dans le cas de WordPress, je l’utilise car je peux le personnaliser, notamment avec des plug-ins. En fait, je n’utilise jamais le code source de WordPress. Je modifie par contre souvent le code source des plug-ins que j’y installe car ils sont soient buggés soit ne fonctionnent pas toujours bien avec la version de MySQL de mon hébergeur. En juin dernier, j’ai passé de longues journées à mettre mon site au point. Debug de requêtes SQL dans le texte PHP, avec tests à partir de la console MySQL. Une vraie galère. Conclusion: ce que j’ai fait n’est pas adapté à l’utilisateur lambda. Je lui recommanderai d’utiliser une version hébergée de WordPress, ou plus simplement d’aller chez Google Blogger ou un équivalent.

Second exemple: TheGIMP. Je me suis dit qu’il serait intéressant d’utiliser ce logiciel pour faire de la retouche d’images, et notamment créer le bandeau de mon blog. J’ai acheté un bouquin sur TheGIMP, récupéré les tutoriels, puis me suis lancé. Et bien, ce fut une grosse galère. Le logiciel est effectivement puissant, mais son interface est complexe à appréhender. Ceci étant, je ne connais pas celle de Photoshop qui a l’air aussi bien complexe. Mais j’ai perdu beaucoup de temps à apprendre comment faire un certain nombre de choses assez simples avec la gestion des calques. Conclusion: une fois encore, un produit pas très grand public. J’ai pris le temps de l’apprendre, mais peu de gens ont ce temps.

Bref, lorsque l’on utilise un logiciel open source doté de surcroit d’une certaine technicité, ce n’est pas du grand public!

Autre point qui me semble important pour notre débat: mettez le monopole et les profits de Microsoft de côté et essayez de comprendre la force d’un standard sur le marché informatique. Les systèmes d’exploitation sont probablement les produits pour lesquels la notion de standard (de facto, s’entend) est la plus critique. Cela créé une inertie de marché favorable à l’acteur dominant. Le mécanisme de création de position dominante est lié à la notion d’économie de réseau. Beaucoup plus qu’aux pratiques commerciales de Microsoft. C’est dur à admettre car on préfère généralement expliquer un phénomène que l’on n’apprécie pas par des forces maléfiques faciles à identifier. Mais le marché ne fonctionne pas tout à fait comme cela. C’est un animal plus sophistiqué!

Olivier Ezratty

Répondre à ce commentaire

Commentaire 96 dans Bundles contestés, et après?, le 28 janvier 2007

Pascal, voici quelques feedbacks à votre long commentaire sur mon article.

Premier point, je vous trouve très vindicatif sur la forme. Ce n’est pas bon pour avoir un débat serein. Et cela ne donne pas envie de répondre à tous vos points ! C’est une forme malicieuse d’intimidation que j’ai déjà rencontrée à maintes reprises lorsque j’étais chez MS. Vous évoquez ainsi « mensonges, inexactitudes, affirmation fausses, contre-vérités » à l’image « de la propagande captieuse (et capiteuse !) que microsoft nous a habitué depuis de nombreuses années à nous servir ». Voilà une belle introduction qui témoigne d’un respect profond de votre interlocuteur. Ces affirmations desservent votre propos et votre cause, elle sont donc inutiles. Une grande partie de votre argumentation est basée sur de l’interprétation et sur des techniques d’amalgame. En matière de dialectique, vous êtes un expert !

Voici donc cependant quelques éclairages:
– Je fais bien dans mon propos la distinction entre la marché grand public et le marché des entreprises, notamment du secteur public. Or vous utilisez les succès de Linux dans le second pour justifier votre position sur le marché grand public. Ces marchés sont très différents, même si MS a la chance d’être dominant dans l’un comme dans l’autre.
– Votre argumentation passe surtout par la dénonciation du monopole de MS et du manque de qualité de ses produits. Mais vous faites souvent de l’amalgame.
– Vous dites que les bundles sont illégaux. Mais pourtant, Microsoft n’a jamais été condamné pour sa pratique commerciale des bundles OEMs. Autant en Europe qu’aux USA, les décisions (pour l’Europe) et condamnations (pour les USA) portaient sur les bundles de composants logiciels dans Windows (IE pour DOJ, Windows Media Player pour l’Europe). Si les contrats de bundles OEM étaient si illégaux que cela, cela fait longtemps que ces deux justices “puissantes” les auraient interdits. Or, ils n’ont jamais pu le faire. C’est bien qu’ils sont difficiles à contrer juridiquement non? N’est-ce pas parce justement ils présentent des caractéristiques qui pourraient les rendre légaux ? Je peux vous garantir que la DGCCRF (en charge de la concurrence à Bercy) a cherché la faille pour casser ces bundles. Ils ont lancé plein d’enquêtes. L’UFC s’y est mise également en sollicitant la justice. Mais ces contrats n’ont pas été cassés. Les seules décisions de justice ont consisté à faire respecter des clauses de la CLUF qui ne l’étaient pas par où bien MS ou bien les constructeurs. Mais elles n’ont pas rendu ces contrats illégaux. Aujourd’hui, la seule manière de rendre les contrats illégaux serait de changer la loi ! Cela peut donner un sens à l’irruption de députés dans le débat. Mais séparation des pouvoirs, ce ne sont pas les députés qui jouent le rôle de la justice en droit commercial.
– La notion d’évasion fiscale n’a rien à voir avec celle de monopole. Ne mélangez pas les concepts qui n’ont rien à voir ! Ni aucun rapport avec le fait d’être condamné dans des procédures antitrust. Chaque année, des centaines d’entreprises sont condamnées par la Commission Européenne (la liste qui est consultable sur http://ec.europa.eu/comm/competition/antitrust/cases/ est bien longue !).
– Vous présupposez que je parle sans savoir au sujet du prix de Windows comparé à celui des PC. En fait, je sais, mais je ne peux pas l’avancer. Je connais les fourchettes de prix OEM de Windows mais je ne peux pas les dévoiler car c’est une information confidentielle de mon ancien employeur que je me dois de préserver. C’est ça le business! Tout ne peut pas se savoir comme cela.
– Le % des acheteurs de PCs qui ne veulent pas de Windows est faible aujourd’hui, quelle que soit votre argumentation. C’est un facteur déterminant de la réalité commerciale d’aujourd’hui et de l’attitude des constructeurs.
– Microsoft ne dicte pas du tous “ses lois” aux autres éditeurs de logiciels qui bundlent leurs logiciels avec du matériel. Vous surestimez le pouvoir de Microsoft. Partout, vous écrivez – comme d’autres – qu’il impose sa loi, ceci et cela. Qu’il oblige ceci, qu’il interdit cela, etc. Oui, il a un poids commercial certain, mais ce ne sont pas des brigands comme vous le laissez comprendre. Et effectivement, la concurrence de Linux comme d’autres produits les amène à s’améliorer.
– Vous négligez ainsi dans votre réponse la position des constructeurs. Celle-ci est plus conditionnée par leurs contraintes opérationnelles que par quelque pression de Microsoft que ce soit. Avez-vous remarqué que Microsoft n’avait quasiment jamais pris la parole sur cette affaire des bundles ? Ils gardent le silence car s’ils sont partie prenante dans les bundles, ils ne sont pas ceux qui les commercialisent.
– Les assembleurs de “quartier”. Ah, voilà qu’il vous faut trouver un point de dialectique pour me mettre à mal. Mais cette appellation de “quartier” existe depuis plus de 20 ans, bien avant que cette appellation soit associée péjorativement aux banlieues. Moi, j’aimais bien mon “assembleur de quartier”. Je lui ai été fidèle pendant près de 10 ans. Mais il a disparu pour les raisons que j’évoque.

Vous savez, moi aussi, j’utilise des logiciels libres, des freeware, des shareware, en tout genre. Ils me rendent plein de services. J’ai récemment remplacé Adobe Reader par FoxIt Reader, tout aussi gratuit que le premier, mais beaucoup plus rapide. Si je pouvais remplacer Windows par Linux à service égal, je le ferais bien. Ce n’est pas parce que je suis un ancien de Microsoft que cela m’empêcherait de le faire. D’ailleurs, certains l’ont fait, mais plutôt pour des usages pro, et surtout sur des serveurs, que pour un usage « domestique » !

Il se trouve que chaque année, je teste une distro courante de Linux pour voir si elle me conviendrait pour un usage courant. Et à chaque fois, je constate que Linux fait de gros progrès mais que le produit est encore trop compliqué pour moi pour un usage courant. C’est surtout lié au fait que je n’y retrouve pas facilement mes repères. Que souvent, la procédure d’installation de tel ou tel utilitaire ou LIB ou je ne sais quoi doit se faire manuellement, et cela me gonfle. Donc, je laisse tomber. Cependant, je dois reconnaitre que cela fait maintenant plus d’un an et demi que je n’ai pas fait ce test. Je vais donc m’y coller un de ces 4 pour voir.

Pour être constructif, disons que pour contourner Microsoft, il faut que Linux fasse :
1) Encore des progrès en matière de facilité d’usage, pas juste d’utilisation courante, mais pour installation/déinstallation de composants. Il faut que l’essentiel puisse se faire sans passer par le mode commande.
2) En sorte d’homogénéiser au maximum ses interfaces de programmation pour faciliter la vie des éditeurs de logiciels. C’est vrai que cela limiterait un peu le choix, certes. Mais cette homogénéité est nécessaire pour générer un marché d’éditeurs de masse dans le grand public. C’est un mal pour un bien.
3) En sorte d’être bundlé dans les PCs de constructeurs avec une bonne assistance utilisateur. C’est accessible surtout si 1) et 2) sont en progrès. Si Linux est « consumer ready », les constructeurs emboiteront le pas sans problème et aucun contrat avec Microsoft ne les en empêchera !

Et pour terminer, vous évacuez un peu rapidement le sujet des jeux, qui supportent moins Linux que Windows. La proportion des utilisateurs de Windows qui utilisent ces jeux est énorme. Je ne sais pas quel % cela fait, mais c’est probablement supérieur à 60%. N’est-ce pas déjà une partie du marché qui est en l’état actuel inaccessible à Linux ?

Cordialement,

Olivier Ezratty

Répondre à ce commentaire

Commentaire 95 dans Rapport CES 2007, le 26 janvier 2007

Jeremy, pourquoi être ambassadeur au CES? Qu’est-ce que cela apporterait? Il y en a un indirectement, Xavier Dalloz, qui m’a fait découvrir le CES, et qui est bien introduit dans la Consumer Electronics Association.

Par contre, je me demande si je ne vais pas faire ce rapport en anglais la prochaine fois car il n’en existe pas de tel outre-Atlantique. Tout comme ce blog d’ailleurs. Choix cornélien…

Répondre à ce commentaire

Commentaire 94 dans Origine des résolutions d’écrans, le 25 janvier 2007

En fait, il semble que le 1,37 soit lié à la place pour la piste son. Utilisée entre 1927 et 1953, d’après http://www.son-video.com/Conseil/HomeCinema/FormatsCinema.html .

L’image était dans l’autre sens pour le format 70 mm.

Au cinéma, les images sont souvent comprimées pour rentrer dans la pellicule 35 mm. Avec des lentilles anamorphiques.

Répondre à ce commentaire

Commentaire 93 dans Moteur de recherche de produits sympa, le 22 janvier 2007

En effet! Merci de me l’avoir signalé. C’est maintenant corrigé.

Olivier

Répondre à ce commentaire

Commentaire 92 dans Réflexions sur le réflex, le 12 janvier 2007

Non, c’est un DD15 et je vois sur ton blog que je découvre que je ne suis pas seul à être timbré sur les caissons de basse!

Au CES, il n’y avait rien de nouveau sous le soleil côté réflex et c’est effectivement à la PMA en mars prochain qu’il y aura des annonces s’il y en a de ce côté là.

Je crois que le prochain “gros coup” dans la photo numérique, c’est lorsque l’on pourra avoir un capteur APS-C ou même full-frame dans un compact. J’ai fait plus de 1000 photos avec mon G7 au CES et je regrette le 5D, mais bon, j’ai mis la priorité sur le poids. Le sac à dos plein de docs est déjà assez lourd comme cela!

Répondre à ce commentaire

Commentaire 91 dans Un salon dinosaure?, le 11 janvier 2007

Jean-Michel, si tu penses aux Oscars du porno, cela a lieu après mon retour! M’enfin, les allées du Sands où a lieu à la fois une partie du CES et le salon “Adult Entertainment Expo” sont toujours aussi bigarées!

Benjamin, non pas ou très peu de vidéo. Je suis plus “photo” et le résultat sera dans mon rapport du CES à venir sous forme de PDF sur ce blog. Mais je ferais quelques posts avant de le boucler.

Ma besace est bien remplie pour le retour demain, et j’ai encore un hall à finir et quelques stands loupés à repasser voir.

Répondre à ce commentaire

Commentaire 90 dans Origine des résolutions d’écrans, le 8 janvier 2007

Merci beaucoup, cela complète bien l’histoire effectivement, que je mettrais donc à jour dès que possible.

La filiation avec la machine à écrire est donc pas évidente.

Répondre à ce commentaire

Commentaire 89 dans Bundles contestés, et après?, le 5 janvier 2007

Bien sûr que cet article est biaisé, mais pas plus que tous les autres sur le sujet! Mais je rentre dans le détail pratique des mesures proposées pour montrer la difficulté de leur mise en oeuvre. Doubler les références produits de PCs dans la distribution grand public pour satisfaire 3% des clients potentiels aurait un coût qui n’est pas nul et qui à terme se retournerait contre les 97% des clients qui ne sont pas (encore) concernés par Linux, c’est une conséquence industrielle incontournable de ce qui est demandé par l’UFC.

Je n’ai pas dit que ce que proposait Zarex était optimal pour le consommateur. Il vaudrait mieux pour ce genre d’utilisateur d’acheter un PC chez un assembleur. En tout cas pour celui qui n’aura JAMAIS besoin d’utiliser Windows. Et cela peut exister.

Et pour ce qui est du remboursement, je propose effectivement qu’une procédure soit mise en oeuvre et soit plus simple que celle d’aujourd’hui. Même si je doute qu’elle puisse être viable à grande échelle d’un point de vue pratique. Trouvez moi d’autres secteurs de l’industrie où l’on peut se faire rembourser comme cela des éléments d’une solution intégrée? En particulier dans l’immatériel.

Pour les 100€ de logiciels, je n’ai pas le détail en main mais j’en suis quasiment sûr, en particulier pour les PC premier prix. Le prix de Windows peut descendre très bas pour les plus grands constructeurs internationaux mais je ne peux pas le dévoiler. Et les prix payés pour les autres softs est également très très bas, surtout pour les versions d’évaluation où il doit être quasiment à zéro. C’est un modèle économique proche de celui du shareware: faire tester le logiciel par l’utilisateur et lui faire payer après, tout en profitant de la logistique de distribution du constructeur. Par ailleurs, la tendance au bundling tout azimut (avec encyclopédie et tout le toutim) est un peu passée de mode.

Quant aux logiciels “que vous avez déjà”, que deviennent-ils sur l’ordinateur d’origine? Si celui-ci est jetté, OK. Mais souvent, il est refilé à quelqu’un d’autre…

Enfin, on paye tous les jours des bundles dans la vie et cette focalisation sur les PC me semble biaisée elle aussi. Je voudrais bien CanalSatellite sans les chaines sportives et ce n’est pas possible! Ils ont payé 600m€ les droits de diffusion de la ligue 1 et ont 5 millions d’abonnés. Donc, cela fait tout bonnement pas moins de 120€ par abonné (sur 3 ans je crois)! Juste pour ce truc que je ne regarde jamais. C’est déjà bien plus que Windows! J’apprécierai que l’on puisse choisir son bouquet satellite/câble chaine par chaine! On peut le faire chez Free aujourd’hui en ADSL, mais pas chez les opérateurs de contenu en cable/sat. Je botte un peu en touche avec cet exemple qui m’agace, c’est vrai. Mais là, le bundle n’a rien de technique comme Windows dans les PC, et le processus d’abonnement est gérable directement par Canal et en informatique, on peut tout faire. Pourtant je mets ma main à couper que si l’on pouvoir choisir ses chaines à l’unité, au final, cela reviendrait aussi cher qu’un bundle avec des chaines dont on n’a pas besoin. C’est comme cela que le marketing des prix fonctionne! Donc, en chassant un système que l’on croit sous-optimal, on peut récupérer un système qu’il l’est encore moins!

Répondre à ce commentaire

Commentaire 88 dans Windows Live Writer, le 3 janvier 2007

Un simple copier/coller doit fonctionner normalement. A commencer par du JPEG. Ensuite, il faut redimensionner les photos pour les mettre à la bonne taille puis éventuellement affiner la mise en page. La page générée permettra de zoomer sur la photo à la résolution d’origine.

Il est possible que tous les formats d’images ne soient pas supportés.

Répondre à ce commentaire

Commentaire 87 dans Bundles contestés, et après?, le 30 décembre 2006

Oui, bien entendu, l’intégrateur de proximité a des avantages en termes de service. Mais la standardisation et la banalisation des PCs ont diminué inexorablement leurs parts de marché. Est-ce que comme le Député Cazenave l’indique, c’est lié à la maturité grandissante des utilisateurs? Pas évident, même si les jeunes qui arrivent sur le marché du travail depuis au moins une bonne dizaine d’année sont maintenant très familiarisés avec les PC. Je fais partie de ceux qui sont devenus autonomes d’un point de vue PC. Mais bon, je ne suis pas dans la moyenne. Et puis, le prix des configurations que j’achète a énormément baissé en Euros constants. Les PC sont “presque” devenus des consommables.

Le service que n’assurent pas véritablement les grandes marques de PC est réapparu sous d’autres formes. Soit il est proposé par les grands distributeurs (Darty, Fnac, etc) avec des formules d’intérêt variable, soit par des sociétés de support utilisateur spécialisées qui se sont mises à fleurir depuis quelques années en France. Elles proposent des formules sur la base d’un abonnement (sorte d’assurance) ou bien des prestations à la demande aux alentours de 70€ l’intervention. Et puis, il y a aussi l’Internet qui reste un réservoir énorme d’informations pour se débrouiller quand on est un peu technique.

A noter que les constructeurs locaux ont également perdu du terrain, n’ayant pas les reins assez solides par rapport aux grands constructeurs internationaux, dont le nombre est lui-même plutôt à la baisse.

Répondre à ce commentaire

Commentaire 86 dans Bundles contestés, et après?, le 29 décembre 2006

On peut aussi changer de PC! Et pourquoi pas, pour un Mac!

La question du changement est son coût direct et indirect.

En général, quand on change de console de jeu, on achète de nouveaux jeux car ceux de l’ancienne console relèvent plus du “contenu” que du “logiciel”. Au sens où on ne les utilise qu’une seule fois par personne, quand on a passé tous les niveaux.

Pour un player MP3, c’est effectivement un changement sans douleur, comme en général pour un téléphone (surtout si on peut transférer sans trop de difficultés son répertoire d’un téléphone à l’autre).

Changer de PC et de système d’exploitation à la fois est plus lourd et couteux. Mais pas impossible. Certains ont par exemple bien documenté comment on pouvait reconstituer un poste de travail Windows sous Linux et avec uniquement des logiciels libres.

Répondre à ce commentaire

Commentaire 85 dans Bundles contestés, et après?, le 26 décembre 2006

L’argument est massue car il est encore valable. Peut-être plus pour longtemps j’en conviens, car les procédures d’installation de Linux sont de plus en plus sympas et rapides. C’est souvent après que les ennuis commencent.

Pour le choix de la version de Windows, il peut passer par celui du modèle de PC du constructeur. Il se situe aujourd’hui entre une version Home et MCE de XP (peu de PC grand publics sont livrés avec XP Pro). Ce n’est pas bien compliqué. Souvent, plus le prix de la machine est élevé, plus y il a de chances qu’elle soit avec un MCE. On verra les pratiques des constructeurs pour Vista qui est décliné dans le grand public sur 3 versions: Home, Premium et Ultimate.

Dans l’analogie avec la voiture, le choix de l’OS est plus proche de celui du moteur que d’un accessoire quelconque. Il n’est évidemment pas question d’acheter une version boite pour un PC déjà équipé. Ce n’est intéressant que via un assembleur qui fournit un PC nu. On choisit plusieurs niveaux de motorisation et d’accessoires dans la gamme d’un modèle. Les deux sont souvent assez liés. Les constructeurs ont tendance à mettre de plus en plus d’accessoires en standard.

Pour Norton, il faut le leur demander. Mais il me semblait qu’un simple “désinstaller” fonctionnait. Il se trouve que j’ai récemment fait cela sur un PC où il était installé pour y mettre Avast à la place!

Répondre à ce commentaire

Commentaire 84 dans Bundles contestés, et après?, le 24 décembre 2006

Sur le 2), certains utilisateurs ont été dédommagés avec un montant qui selon le cas était le prix en boite de Windows (ce qui n’a aucun sens car ce n’est pas ce que le constructeur avait payé à MS) ou bien un prix arbitraire fixé par le constructeur légèrement supérieur à la royalty de Windows. Dans tous les cas, le constructeur fera son possible pour ne pas dévoiler le prix qu’il a payé à Microsoft pour Windows.

Sur le 5), ce n’est pas une question de CD. Les PC ont un Windows préinstallé sur le disque dur qui se met en route très rapidement. Il n’y a qu’à donner un compte utilisateur et quelques paramètres et hop cela fonctionne. Et avec les drivers spécifiques à la machine. Avec un CD, il faudrait lancer une procédure d’installation d’au moins une heure. Et dans ce cas, près des 3/4 des utilisateurs seraient bloqués à un moment où à un autre. On peut cependant bien imaginer une solution où au premier démarrage, l’utilisateur choisit ce qu’il veut faire: accepter la licence de Windows ou la refuser, et alors, se faire rembourser. Ou bien, mettre une clé qui serait activée uniquement si le PC a été acheté dans sa référence ”avec Windows”.

Mais franchement, que feraient les utilisateurs qui choisiraient un PC sans Windows? Linux est bien entendu le substitut auquel tout le monde pense. Mais seuls quelques % de consommateurs pourraient en passer par là. Autre option que les constructeurs – et MS – souhaitent éviter : le piratage.

6) Cela ralentirait le marché s’il n’y avait plus de bundles. La difficulté est de faire cohabiter dans le catalogue des consutructeurs les mêmes machines avec sans les bundles. Tout cela pour quelques % d’utilisateurs qui aujourd’hui veulent autre chose que Windows.

Il faut vraiment comprendre la logique industrielle des constructeurs. Ils répondent à 95% de la demande avec les bundles pour une logique de marché et de gestion des coûts. La standardisation des machines est la solution pour eux. Les 5% de la demande spécifique peuvent passer par d’autres canaux, notamment les assembleurs, ou lorsque c’est possible, la VPC en built to order.

Répondre à ce commentaire

Commentaire 83 dans Bundles contestés, et après?, le 24 décembre 2006

Bonjour,

Je vais donc jouer en premier le rôle du « quelqu’un »… .

1) Personnalisation de l’environnement applicatif au niveau : navigateur Internet, moteur de recherche, player multimédia, lecteur de DVD et codec MPEG2, anti-virus, lecteur PDF. A la fois pour se différentier et en réponse à différents “settlements” dans le cadre des procès Antitrust contre Microsoft. Personnalisation qui favorise la concurrence dans certaines catégories logicielles. Et qui répond aussi à des besoins fonctionnels réels non pourvus par Windows.

Question: Alors là est-ce que quelqu’un aurait l’aimabilité de m’expliquer le pourquoi des deux dernières phrases svp ?

Réponse : Windows est fourni par défaut avec un navigateur Internet, un lecteur Multimedia et autres logiciels divers qui ont des équivalents chez d’autres éditeurs de logiciels ou dans l’open source. Par exemple, QuickTime ou RealPlayer pour Windows Media Player. Comme la diffusion de logiciels a été considérée comme étant critique tant par le DOJ que par la Commission Européenne, les constructeurs peuvent non seulement diffuser ces logiciels alternatifs dans leur version personnalisée de Windows. Mais ils peuvent également les activer par défaut en lieu et place de leur équivalent Microsoft. De plus, Windows XP SP2 comme Windows Vista ont maintenant une fonctionnalité qui permet de définir les logiciels utilisés pour ces fonctions communes : browing Web, media player, messagerie, etc.

2) Mais, UFC ne veut-il justement pas qu’on affiche le prix de Windows “bundlés” (et des autres logiciels d’ailleurs) lors de l’achat du PC?

Réponse : Oui, c’est ce qu’ils veulent, mais je pense que cela n’a pas de sens pour une version personnalisée de Windows. En effet, elle n’a pas un prix qui peut être fixé comme cela. Le prix est intégré à la solution du constructeur puisque celui-ci non seulement paye des royalties à MS (confidentielles) mais il a intégré sa propre valeur ajoutée qui ne peut pas être chiffrée comme cela.

3) […] Les assembleurs représentent maintenant une part plus faible des ventes de PC – aux alentours de 15%-20%!

Ce n’est pas une critique, mais l’idée qu’il y a derrière c’est la mondialisation non ?

Réponse : oui, mais pas au point d’y attacher toute la connotation négative que l’on réserve généralement à ce vocable en France.

4) On limiterait la capacité de certains éditeurs de logiciels (il n’y a pas que Microsoft) à diffuser à très bas prix des logiciels pour tous. La diffusion de logiciels via les constructeurs est en effet un bon moyen de toucher rapidement une large clientèle et avec un coût des ventes assez faible. Par ailleurs, il permet à certains concurrents de Microsoft d’être traités sur un (vague) pieds d’égalité par rapport à ce dernier. En supprimant cela, on favoriserait finalement Microsoft indirectement.

Je ne comprends pas du tout le deuxième paragraphe, quelqu’un pourrait m’expliquer ?

Réponse : cf la question 1). Si on rend difficile l’intégration d’autres logiciels que Windows dans un PC, on peut limiter l’accès au marché à d’autres solutions alternatives à ce que certains ont appelé le « middleware » de Windows (même si cette appellation n’est pas correcte car il ne faut pas confondre par exemple le Framework .Net qui est vraiment du middleware avec un Windows Media Player qui est une application).

5) L’immense majoritée des logiciels bundlés n’ont de toute facon pas une quelconque licence à activer ? En quoi cela derangerait le vendeur de donner ou non la clé d’activation ? De plus, sans clés d’évaluation et avec une période “d’éssai” pour le-dit logiciel, cela permettrait d’inciter l’utilisateur à acheter le logiciel non ?

Réponse : tout est possible, mais comme déjà indiqué, le constructeur n’a pas forcément vocation à devenir un distributeur spécialisé de logiciels. Le faible coût (pour le constructeur) des logiciels embarqués dans un PC est en partie lié à ce que le coût de la vente est nul.

6) Justement, en limitant la vente forcé de Windows, cela ne limiterait pas la tendance ?

Réponse: On limiterait peut-être la tendance, mais on rendrait plus difficile la vie du consommateur. Et de toutes façons, de deux choses l’une : soit il y a le choix de PC avec sans Windows, et la dominante sera tout de même la vente de PCs avec Windows, soit il n’y a pas le choix et il n’y a que des PC sans Windows, et la vie des consommateurs deviendra tellement difficile que l’on reviendra 10 ans en arrière. Et c’est le taux d’équipement/d’achat de PCs qui diminuera. A moins de vouloir proactivement faire en sorte que la France prenne du retard par rapport aux autres pays, je n’en vois pas la justification.

7) Dans un domaine de la protection des consommateurs qui n’a rien à voir, demander à ce que les constructeurs et Microsoft fournissent une réelle documentation utilisateur pour Windows, même en format électronique. Car la quasi absence de documentation est un véritable scandale qui oblige souvent à acheter un livre genre “Windows pour les nuls” pour s’y retrouver quand on n’y connait rien!

Heuh… quel rapport avec le sujet ?

Réponse : aucun à priori comme précisé. Mais il y en a un en fait : la protection du consommateur. Dans cette histoire, comme dans de nombreux procès qui ont touché MS, il s’agissait plus de démarches de concurrents que de consommateurs. Même si dernièrement, des représentants de consommateurs se sont manifestés (comme dans quelques Class Actions aux USA, qui à mon sens sont tout à fait abusifs – comme il y en a beaucoup et que l’appât du gain attirer les avocats). Or la vraie question qu’il faut se poser, c’est la protection du consommateur. En matière de PC, il y a fort à faire pour l’améliorer comme cette histoire de documentation, tout comme le support technique. Les associations de consommateurs feraient mieux de s’attaquer à cela plutôt qu’aux histoires de bundles qui en l’état actuel du marché et de Linux ne concernent qu’une toute minorité de consommateurs. Alors que les problèmes de qualité, de documentation ou de support concernent la totalité d’entre eux.

Sur ce, que le Père Noêl soit bien généreux avec toi! Et bonnes fêtes de fin d’année!

Olivier Ezratty

Répondre à ce commentaire

Commentaire 82 dans Bundles contestés, et après?, le 23 décembre 2006

Microsoft a effectivement innové en vendant son OS à des constructeurs mais à y regarder de près, c’est le modèle universel depuis longtemps dans l’industrie informatique.

Le PC est probablement d’ailleurs l’un des rares produits avec un microprocesseur et un écran où l’on peut acheter l’OS séparément (même si c’est dur dans le grand public) de la machine.

On n’a pas le choix par contre pour :
– Une console de jeu
– Un téléphone
– Un appareil photo
– Un player MP3 ou… un iPod
– Un Macintosh
– Un assistant personnel
– Une set-top-box satellite/câble

Et pourtant, dans pas mal de cas, l’OS de des engins ne vient pas du constructeur! Par exemple, les décodeurs de Canal+ sont équipés d’un système d’exploitation Media Highway (origine: NDS, filiale de News Corp).

Bref, si Microsoft était un constructeur, personne ne l’enquiquinerait avec ces histoires de bundle. Mais alors, Apple aurait peut-être eu le dessus sur MS et Windows… mais on n’aurait pas plus de choix pour autant de l’OS sur un Mac!

Le modèle du bundle est en fait incontournable pour diffuser une solution “clé en main”, en particulier pour le grand public.

Répondre à ce commentaire

Commentaire 81 dans A la découverte d’Entreprise-Facile, le 22 décembre 2006

Effectivement, il ne s’agit pas des mêmes juridictions. Mais c’est un exemple parmi d’autres d’encombrement de la machine judiciaire. Et final, cela pompe dans les mêmes budgets du Ministère de la Justice.

Je ne sais pas pourquoi, par contre, votre commentaire n’apparait pas dans le bon post…

Répondre à ce commentaire

Commentaire 80 dans Review du Canon Powershot G7, le 21 décembre 2006

Un de ces 4, il faudra effectivement que je mette la main sur un Fuji F31 ou un de ses successeurs éventuels. Cela me tente effectivement de voir la qualité du capteur, parait-il excellent en faible lumière.

Mais bon, il ne pourra jamais faire aussi bien que celui de l’EOS 5D, qui joue évidemement dans une autre cour, et risque de me dégouter de tous les compacts. En scannant toutes les offres d’appareils, j’ai en effet constaté que dans les réflex pro et amateurs, seul Canon proposait un capteur full frame, soit sur un 1Ds Mark II (à 8000€) soit sur le 5D. Et ce sont leurs capteurs, qui ne sont pas utilisés par d’autres marques en OEM.

On peut cependant s’attendre un jour à ce que des appareils compacts intègrent un capteur plus grand, du type des APS intégrés dans les reflex.

Répondre à ce commentaire

Commentaire 79 dans Etat des lieux de Media Center, le 21 décembre 2006

C’est un phénomène qui est plus marqué aux USA qu’en France, j’ai peut-être forcé le trait. Je l’ai identifié surtout chez les fabriquants de boitiers Taiwanais et Chinois qui ont des offres très diversifiées ensuite reprises par des assembleurs.

Côté grandes marques, il y a effectivement Acer, mais aussi Sony (XL200), HP (HP z5xx Digital Entertainment), Samsung (MT50, pas dispo en France). Je passe sur les Niveus et autres Kaleidascape, qui sont des solutions très haut de gamme d’intégrateurs US. Il y a Intel avec son reference design de “micro media center” pour salon en Viiv qui va être progressivement repris par les constructeurs. Tu peux le trouver par exemple chez ZapMeeting avec le z-Nano : http://www.zap-meeting.com/boutique/liste_produits.cfm?type=3&code_lg=lg_fr.

Vois dans mon rapport du CES 2006 quelques exemples entre les pages 20 et 23 (sur http://www.oezratty.net/Files/Publications/Oliviere%20CR%20du%20CES%20Mar2006.pdf). Rapport que je vais mettre à jour dans un mois et quelques après le CES 2007.

Répondre à ce commentaire

Commentaire 78 dans Origine des résolutions d’écrans, le 20 décembre 2006

Merci pour le compliment! Sachant que l’histoire est encore incomplète et que j’aimerai bien récupérer les morceaux qui manquent. Mais l’enquête continue…

Répondre à ce commentaire

Commentaire 77 dans Conférence LeWeb3 – Les startups, le 19 décembre 2006

Merci pour les précisions. A noter qu’il ne me semble pas avoir associé YouVox au journalisme citoyen dans la description de la société. Il est juste écrit: “c’est un portail de webzines collaboratifs créé par ses lecteurs et modéré par des animateurs qui en assurent la cohérence et la ligne éditoriale.”. Le nom est effectivement bien choisi. Et facile à trouver sur Google, donc pas de soucis de ce côté là.

Au passage, comment allez-vous monétiser vos services?

Répondre à ce commentaire

Commentaire 76 dans Prédictions dans la guerre du DVD HD, le 18 décembre 2006

Il y a aussi des chinois et autres asiatiques qui font la promotion de standards “dégradés”. Par exemple, de poursuivre ce que Microsoft a initié il y a quelques années avec le WMV HD qui permet de faire tenir un film sur un DVD classique à 4,7 Go.

Répondre à ce commentaire

Commentaire 75 dans Recherche de brevets sur Google, le 17 décembre 2006

C’est certain, cela ne changera pas les bizareries du système des brevets aux USA. Mais le congrès américain est je crois en train de se pencher sur la question pour justement limiter les méfaits de leur système de brevets.

Répondre à ce commentaire

Commentaire 74 dans Conférence LeWeb3 – Startups en plénière, le 17 décembre 2006

Dont acte, Julien, j’ai retiré la mention relatif au premier point. Côté statistique, oui c’est du Web 2.0. Mais dans un monde où il y a concurrence entre plusieurs modèles de vente.

Il y a probablement de la place pour de la vente sur des niches de marché pour toucher les nombreux segments de la “long tail”. Reste à savoir si cela peut générer une masse critique d’activité pour rentabiliser le modèle. L’approche éditoriale des boutiques sera déterminante. Et aussi le niveau de marchandisation explicite ou pas. La boutique peut jouer le rôle de pur vendeur auquel cas elle entre en conflit avec d’autres canaux. Ou bien, elle joue un véritable rôle d’information et de conseil et c’est là que peut se situer une grande différentiation.

Répondre à ce commentaire

Commentaire 73 dans Conférence LeWeb3 – Les startups, le 16 décembre 2006

Thanks for the heads up David! I have promptly updated the description of Weebly to reflect this.

Répondre à ce commentaire

Commentaire 72 dans Conférence LeWeb3 – Les startups, le 15 décembre 2006

Marc, merci pour la précision. J’ai donc intégré votre commentaire dans la description de KerPass dans le post.

Répondre à ce commentaire

Commentaire 71 dans Conférence LeWeb3 – Les startups, le 15 décembre 2006

Louis, j’ai découvert une initiative intéressante proche de ce dont nous discutions: un Wiki des sites Web 2.0 : http://www.web2fr.com/Accueil créé par Cédric Lamothe. Cf également: http://ulik.typepad.com/leafar/2006/12/les_startups_fr.html.

Répondre à ce commentaire

Commentaire 70 dans Conférence LeWeb3 – Les startups, le 15 décembre 2006

Antoine, j’ai donc du confondre avec une autre boite. En piochant dans mes archives, il semble que cela soit Kiala, créée par Denis Payre. Mais pourtant, Kiala est orienté colis plus que boite postale au sens large du terme comme e-box.

Je suis pourtant sur d’avoir vu à cette période une présentation d’une startup avec un concept similaire à celui de e-box. Ma mémoire défaille…

Répondre à ce commentaire

Commentaire 69 dans Conférence LeWeb3 – Les startups, le 15 décembre 2006

Louis, bien entendu, je pensais à une approche de ce genre, en mode participatif. Mais il faut la lancer! Alors, oui, des volontaires?

Répondre à ce commentaire

Commentaire 68 dans Conférence LeWeb3 – Les startups, le 15 décembre 2006

Stéphane, je suis allé voir Kayuko. Le service fonctionne bien. Les comparaisons de prix intègrent bien les frais d’envoi. Fine. Et on ne peut qu’apprécier la vision éthique du site. Reste à voir si elle n’handicape pas son business model. Bon, mais les différences de prix sont minimes sur les nouveautés (1 à 2 euros environ). Donc, l’intérêt du site est plus fort si l’on achète surtout des produits en after-market (ce qui n’est pas mon cas).

Il y a sinon un besoin de consolidation dans la comparaison de prix et la suggestion de biens culturels. Pour éviter que l’achat de produits nécessite l’installation de 3 widgets, 2 plug-ins firefox (à la iGraal et compagnie) et l’usage d’une demi-douzaine de sites web…

Répondre à ce commentaire

Commentaire 67 dans Conférence LeWeb3 – La connaissance, le 14 décembre 2006

Hé hé, c’est la limite des débats de ce genre! Je trouve aussi que la formule est loin d’être idéale. On ne fait que survoler les sujet, les speakers sont en général frustrés.

Bel exemple des limites de ce modèle: faire intervenir Bernard Liautaud pendant 5 minutes dans une table ronde. Alors qu’il aurait largement mérité un débat avec un seul modérateur et pendant 20 minutes. D’abord parce que c’est probablement l’un des mecs qui s’en est le mieux sorti en France dans la high-tech, et ensuite parce qu’il ne s’expose pas énormément dans les conférences.

Pour le débat sur l’open source, j’apprécierai bien un jour de voir l’aspect macro-économique de la chose traité sérieusement, avec une approche prospective. Vers quel équilibre entre OSS et logiciels commerciaux ou mixtes se dirige-t-on? Qu’est-ce qui est optimal du point de vue client d’un côté, et économique de l’autre dans le cadre de la concurrence internationale? Etc. C’est un sujet très peu abordé. Est-ce qu’il faut encourager le logiciel libre, ou le logiciel tout court (au niveau de l’implication de la puissance publique)? Etc.

Répondre à ce commentaire

Commentaire 66 dans Etude gratuite de notoriété, le 14 décembre 2006

Marc, je suppose que tu faisais allusion à autre post : http://www.oezratty.net/wordpress/2006/confrence-web-30-les-startups/ et que ton click a fourché si je puis me permettre?

Répondre à ce commentaire

Commentaire 65 dans Conférence LeWeb3 – Les startups, le 14 décembre 2006

Louis, en effet, c’est curieux qu’il n’y ait pas d’initiative de ce genre. J’aimerai bien disposer un jour d’une base de données des startups au niveau français (il en existe au niveau européen dont l’accès est payant, souvent produites par des boites anglaises).

Cela pourrait servir aux startups elles-mêmes pour identifier la concurrence dans un domaine donné. Aux investisseurs pour faire de même.

Il manque également une vision statistique des choses: combien de startup par domaine, quelle est l’origine et l’âge des dirigeants, quel est leur financement, leur CA à l’international.

Il n’y aurait pas des étudiants en école de commerce ou d’ingénieurs qui voudraient lancer un tel projet?

Répondre à ce commentaire

Commentaire 64 dans Conférence LeWeb3 – Les startups, le 14 décembre 2006

Jeremy, oui, on peut avoir tendance à facilement assimiler “asie du sud est” avec Chine, même si cette dernière est un gros pourvoyeur de produits du consumer electronics. Par ailleurs, pour se sourcer là bas, il faut avoir des contacts. Et ils sont souvent situés en Chine même s’ils savent ensuite chercher les bons produits aux bons prix aux alentours. En informatique pure, on se source facilement à Taiwan…

Répondre à ce commentaire

Commentaire 63 dans Conférence LeWeb3 – La connaissance, le 14 décembre 2006

Very good points Rafael!

C’est un peu pour cette raison que j’ai d’ailleurs mis cette présentation dans la rubrique “connaissance” car c’est bien de cela qu’il s’agissait. Le propos de Hans Rosling est un peu dans la lignée de Freedman (The World is Flat): il vulgarise le fait que les différences entre pays ont tendance à s’estomper avec le temps. Et le discours s’appuie sur une présentation visuelle des données qui génère l’effet “ahaaa”.

Dans son discours, il a très peu parlé d’éducation. Son site GapMinder présente cependant quelques graphes comparant les niveaux d’éducation de pays en voie de développement, mais sans les explications qui vont avec. Ce penchant pour la santé est un peu normal puisque Rosling est … prof d’ “International Health”.

Je suis tout à fait d’accord: l’éducation conditionne le développement économique, peut-être tout juste après la santé. Tout comme celui de la démocratie. Même si dans certains cas, il n’y a pas forcément de corrélation entre les deux. Et pour ne vexer personne, je ne vais pas citer les pays en question…

Répondre à ce commentaire

Commentaire 62 dans Ex-MS et entrepreneurs, le 13 décembre 2006

Bonne pioche, Jeremy, je mets la liste à jour.

Répondre à ce commentaire

Commentaire 61 dans Décrypter Microsoft – Les grands lancements (2/3), le 5 décembre 2006

Il ne faut évidemment pas confondre les éditeurs d’outils de tests des équipes de tests et des procédures mises en oeuvre chez les éditeurs de logiciels. Chacun son boulot! Les outils ne font pas les méthodes et les processus même s’ils peuvent parfois en influencer la constitution. Et la notion de “test d’usine” n’a pas beaucoup de sens dans l’industrie du logiciel. La séparation entre développement et test est aussi importante que celle qui isole la police de la justice 🙂

Répondre à ce commentaire

Commentaire 60 dans Inside Google Labs, le 5 décembre 2006

Il y a effectivement du sales, mais avec une caractéristique propre au modèle économique de nombreux sites web: la vente ne consiste pas à commercialiser le produit final aux utilisateurs, mais de l’espace publicitaire à des annonceurs. Par contre, le marketing, assez discret et donc certainement efficace, contribue à générer de l’usage chez les internautes.

Répondre à ce commentaire

Commentaire 59 dans Décrypter Microsoft – Les grands lancements (2/3), le 5 décembre 2006

Le ratio entre lignes de code pour les tests et lignes pour le code lui-même est fourni un peu à la louche. Et attention, cela dépend du produit. Ce qui est ici valable pour Windows ne l’est pas pour des logiciels applicatifs, et pour des sites Web. Le ratio chez MS pour ces logiciels est beaucoup plus faible que pour Windows. Donc, chiffre à prendre avec des pincettes pour les startups du logiciel.

Ce qui n’empêche pas que le test des logiciels est un métier à part entière et que la fonction doit être prise très au sérieux pour solidifier les logiciels.

Les raisons qui poussent les grands clients français à être plus conservateurs que leurs homologues anglo-saxons ou scandinaves sont multiples. Faible culture du risque, hiérarchie plus pesante, culture “gagne petit” orientée sur les coûts plus que sur la valeur ajoutée, et aussi faible pénétration des TIC chez les dirigeants. Entre autres…

Répondre à ce commentaire

Commentaire 58 dans Décrypter Microsoft – Les grands lancements (3/3), le 5 décembre 2006

Bureaucratie peut-être. C’est en tout cas un moyen peut-être maladroit d’encourager une concurrence saine dans le marché du logiciel.

En même temps, cela permet aux éditeurs de logiciels “composants” de remplacer ceux de MS, tout en laissant les utilisateurs revenir en arrière et contrôler un minimum la situation. C’est peut-être un peu trop mis en avant dans l’interface de Windows, tant XP que Vista.

Répondre à ce commentaire

Commentaire 57 dans Choisir son lecteur RSS, le 1 décembre 2006

En fait, je reste accro aux readers “client riche” pour leur rapidité. En effet, ayant près d’une centaine de sources RSS, je dois les gérer très rapidement et un lecteur web est trop lent pour cela.

Je viens de tester FeedShow. C’est un bon lecteur en client Web, mais il est loin de répondre à mon cahier des charges pour un usage intensif.

Répondre à ce commentaire

Commentaire 56 dans A la découverte d’Entreprise-Facile, le 1 décembre 2006

Of course!

Répondre à ce commentaire

Commentaire 55 dans Choisir son lecteur RSS, le 30 novembre 2006

Comment se distingue-t-il de Google Reader par exemple? Je n’ai pas bien saisi en consultant leur démo.

Répondre à ce commentaire

Commentaire 54 dans Buena Vista ?, le 29 novembre 2006

Nicolas, j’ai bien fait cela mais sans résultat!

En fait, il fallait installer à la main un driver beta de Windows Mobile Device qui est référencé sur un blog d’un gars de Microsoft, évoqué dans mon document qui liste mes aventures.

Cela dépend peut-être de la version de Windows Mobile (5.0 dans mon cas), ou du matériel (Qtek 9100, assez courant pourtant).

Répondre à ce commentaire

Commentaire 53 dans Candidate 2.0, le 27 novembre 2006

Oui, on entre dans une ère où il est de plus en plus difficile de cacher un écart. Tout s’enregistre, tout se diffuse, tout se partage. Cette forme de transparence créé une pression sur les politiques comme sur les entreprises. Il s’adaptent comme ils peuvent!

Répondre à ce commentaire

Commentaire 52 dans Buena Vista ?, le 27 novembre 2006

Bonjour Yannick,

Je suis d’accord avec toi pour dire que Vista est assez injustement malmené. La richesse des nouveautés est plus qu’abondante. La difficulté est de bien la mettre en valeur tellement il y en a.

Bon, comme je l’explique dans mon post et dans le document attaché, pas mal de désagréments devraient rapidement disparaitre.

A noter que j’ai réussi à faire fonctionner la synchronisation avec mon Pocket PC sous Windows Mobile. Il fallait installer sur Vista un driver qui est encore en beta. C’est expliqué dans le document joint à mon post (http://www.oezratty.net/Files/Publications/Oliviere%20Vista%20Upgrade%20Experience%20Nov2006.pdf) .

Olivier

Répondre à ce commentaire

Commentaire 51 dans Buena Vista ?, le 21 novembre 2006

Oui, j’ai installé la RTM finale US (build 6000) qui est sur le site MSDN depuis vendredi!

Tu as raison d’attendre ton nouveau portable. Il se trouve que je viens de changer mon laptop il y a 3 semaines, il était donc prêt pour Vista côté carte graphique et CPU/mémoire! Sinon, Vista aurait attendu comme dans ton cas!

Pour nVidia, ce qui me surprend, c’est le timing. En effet, sur leur site, le driver téléchargeable est pour la RC2 de Vista. Mais comme les constructeurs sont censés shipper des PC sous Vista dès décembre, comment pourront-ils faire si le driver nVidia n’est pas finalisé pour créer les images de leurs PC, surtout de leurs laptops puisque c’est là que le bas blesse. La conséquence sera à mon sens – avec probablement d’autres considérations – une arrivée tardive de certains modèles de laptop sous Vista. Certains constructeurs risquent même de rater Noël dont on connait le poids en termes de saisonnalité pour les ventes de PC!

Répondre à ce commentaire

Commentaire 50 dans Candidate 2.0, le 19 novembre 2006

Bonjour Yannick,

Ton analogie avec le couple Google/Microsoft est également très intéressante en effet. C’est d’une certaine façon l’approche top-down contre l’approche bottom-up.

Tout du moins dans la perception et dans l’image car les méthode de gouvernement ne sont pas véritablement très différentes entre Sarko (en tant que Ministre) et Royal (en tant que Présidente de Région). Les deux cherchent avant tout à générer un effet de communication dans leur action. Et les deux sont autoritaires dans leur comportement au quotidien avec leurs collaborateurs. Ce que j’en ai lu montre d’ailleurs que Sarko est moins autoritaire qu’il n’y parait en privé, et que Royal l’est par contre énormément et plus qu’il n’y parait avec son sourire permanent de circonstance.

Pour ce qui est des idées et la constitution des plans, l’UMP fonctionne de façon moins consensuelle que le PS. Et curieusement, pas forcément dans la direction que l’on croit. Souvent, c’est pour aller plus à gauche que le souhaitent les militants. Sarkozy est certes un opportunisme qui a intégré le marketing dans la politique, mais il a des idées sur la république et sur l’égalit des chances qui ne font pas l’unanimité chez lui.

Ce qui m’intéresse dans la campagne, c’est qu’elle est en train de devenir une “Campagne 2.0”. On va pouvoir plus facilement comparer les programmes. Voir par exemple http://www.debat2007.fr.

J’imagine bien un jour un tableau comparatif des programmes, notamment économiques. Avec chaque mesure analysée par des experts (éclairés, compétents, neutres… idéalement). Avec des ratings des Internautes, puis une moyenne de notes, etc… 🙂

Répondre à ce commentaire

Commentaire 49 dans Inside Google Labs, le 16 novembre 2006

Il y a quand même des Vice President chez Google! Il ne faut pas croire qu’une boite de cette taille (bientôt 10 milliards de $) puisse s’en passer.

Cf http://www.google.com/corporate/execs.html qui liste leurs VP et Exec VP.

Répondre à ce commentaire

Commentaire 48 dans Inside Google Labs, le 16 novembre 2006

Sur le 1), cela m’étonnerait que Google fonctionne entièrement sur le modèle de l’autogestion. Il est probable que le modèle s’inspire de certains modes de fonctionnement du développement de logiciels libres. Même s’il n’y a pas forcément formellement de project managers, il doit certainement y avoir dans chaque équipe quelqu’un qui par sa séniorité et son charisme joue ce rôle tacitement. Tout groupe de travail autogéré génère sa propre méritocratie, au minimum.

Et oui, le fait que les ingénieurs travaillent sans lien direct avec le client ou approche marketing peut choquer. Ceci étant, ils sont directement reliés aux clients et peuvent tester en temps réel leur approche. Il serait bon de creuser le modèle d’évaluation des collaborateurs de Google pour mieux comprendre cela.

Ce qui me tracasse, et il y a un “pattern” voisin à celui de Microsoft, c’est effectivement la capacité à lancer des projets indépendamment de toute logique économique. L’ensemble étant financé par la ou les vaches à lait de la société. Ce n’est pas forcément une bonne discipline d’un point de vue business. Mais comme le nom de la R&D de Google l’indique (Google Labs), Google est peut-être le premier laboratoire de R&D directement connecté à son marché et largement autofinancé qui existe en informatique!

Sur le 2), le titre de “Sales Engineer” semble aligné sur “Sofware Engineer”, fine. Mais en France, dans les boites d’informatique qui font du btob, on dit bien “Ingénieur d’Affaire” au lieu de “Commercial”. C’est du pareil au même! Et ces commerciaux sont sommes toutes assez classiques :q ils vendent de l’espace au kilo à des annonceurs.

Répondre à ce commentaire

Commentaire 47 dans Novell partenaire de Microsoft ?, le 8 novembre 2006

Mardi 7 novembre 2006, Novell a finalement annoncé le détail de l’aspect financier de cette transaction. Ils reçevront $348m en deux paiements de la part de Microsoft. Pas mal pour une boite qui fait environ $1,2B de chiffre d’affaire!

Info sur http://news.com.com/2100-1014_3-6133361.html?part=rss&tag=2547-1_3-0-20&subj=news , entre autres.

Répondre à ce commentaire

Commentaire 46 dans Choisir son lecteur RSS, le 3 novembre 2006

En effet, je me suis focalisé dans ces évaluations sur les lecteurs “client riche” par biais personnel.

BlogLines est très populaire aux US et chez les afficionados du Web 2.0. Et a l’air effectivement assez riche dans cette catégorie de lecteurs. Avec l’avantage de pouvoir être utilisé sur n’importe quel terminal connecté à Internet.

J’ai donc mis à jour mon tableau de comparaison en y intégrant BlogLines et suis certain que je vais avoir à en ajouter d’autres au gré des avis des utilsateurs de lecteurs divers et variés.

Répondre à ce commentaire

Commentaire 45 dans Choisir son lecteur RSS, le 2 novembre 2006

Cela montre bien la diversité des situations et des besoins pour la consultation de flux RSS!

Pour une solution online, NetVibes est effectivement pas mal. Mais cela ne vaut pas une bonne solution “client riche”.

Répondre à ce commentaire

Commentaire 44 dans Choisir son lecteur RSS, le 2 novembre 2006

En fait, non justement, on ne peut l’installer que comme un add-in de la Windows Live Toolbar ce qui est à la fois trop compliqué, trop contraignant, et bien dommage pour OnFolio qui perd ainsi une part d’audience non négligeable.

C’est aussi peut-être parce que OnFolio est une solution d’attente pour Microsoft. Leur stratégie en matière de RSS est encore bien diffuse, et bien meilleure au niveau APIs (interfaces de programmation qui sont intégrées dans .NET 3.0 et Vista) qu’au niveau applicatif (IE7, OnFolio).

J’ai testé RSS XPress et ait été rapidement déçu. Même s’il ressemble à SharpReader, il en manque une bonne gestion des dossiers ou catégories).

Répondre à ce commentaire

Commentaire 43 dans Choisir son lecteur RSS, le 1 novembre 2006

Je ne le connaissais pas bien. Et viens de le tester à nouveau. Et je suis un peu déçu.

Par au moins trois points:
– La fonction de synchro des feeds est lourde à déclencher (bouton droit sur catégorie).
– Il n’y a pas d’affichage du nombre de posts à lire dans les catégories. Uniquement dans les feeds.
– On ne peut pas “effacer” un post lu.

J’ai mis à jour mon tableau PDF en conséquence.

Olivier

Répondre à ce commentaire

Commentaire 42 dans Choisir son lecteur RSS, le 30 octobre 2006

Jean-Luc, merci pour l’info sur SharpReader.

Ils sont passés en plus d’un an d’une 0.9.6 à une 0.9.7 et ont visiblement corrigé quelques détails mineurs, relatifs notamment à la sécurité, sans plus. Et cela tourne sous le Framework .NET 2.0.

Jluk, est-ce que l’on peut gérer ses articles dans Thunderbird en stockant leur vue HTML offline? Si c’est le cas, c’est très intéressant!

Répondre à ce commentaire

Commentaire 41 dans A la découverte de SoftFluent, le 23 octobre 2006

Il n’y a pas de prérequis spécifique côté serveur pour CodeFluent. Tout dépend du dimensionnement de l’application: taille de la base, volume transactionnel, etc.

Côté outils de dev, avec quoi aviez vous tâté du SQL Server 2000 en 2001? A quoi sont rompus vos développeurs?

Aujourd’hui, en environnement Microsoft, la solution classique consiste à utiliser Visual Studio 2005 avec le Framework .NET 2.0. Et de le compléter éventuellement par un framework ou un générateur de code.

CodeFluent est une surcouche de Visual Studio qui créé des objets métiers et réduit grandement la charge de codage pour les opérations de base, notamment sur la navigation et les opérations classiques dans la base de données.

Il y a aussi la solution Olymars qui est un générateur de code à proprement parler pour l’exploitation de base de donnée SQL Server. Olymars (http://www.olymars.net/Refresh) a été créé par Pascal Belaud de Microsoft France et est en diffusion gratuite.

N’hésitez pas à contacter Daniel Cohen-Zardi (dcz@softfluent.com) pour en savoir plus. Où bien encore l’équipe d’Eric Mittelette chez Microsoft (ericmitt@microsoft.com), qui gère les relations développeurs.

Répondre à ce commentaire

Commentaire 40 dans A la découverte de Looneo, le 22 octobre 2006

Oui, Jeremy, certainement, à défaut d’être un marché différent, c’est un mode de fonctionnement différent.

C’est un même marché si tu t’intègres globalement dans le social shopping avec des gens qui recommandent des produits à d’autres. C’est un marché différent du point de vue du business model (mais dans les deux cas, il y a de l’affiliation) et de l’approche individuelle du social shopping.

Il n’en reste pas moins que de nombreuses approches sont indirectement concurrentes, ne serait-ce qu’en terme de capacité à “pomper” du temps des Internautes et à leur rapporter un bon mix de reconnaissance “morale” et de reconnaissance “financière”. Le temps des Internautes n’est pas infini, et cela devient une matière première rare que nombre de sites Web 2.0 cherchent à ponctionner à leur profit!

U-Lik est voisin dans la volonté de traiter l’hyperchoix qui s’offre aux consommateurs. Mais comme l’approche de la culture est très différente et relève plus de goûts et d’affinités que de caractéristiques techniques et/ou de budget, la recommandation s’appuie sur un rationnel très différent.

Répondre à ce commentaire

Commentaire 39 dans Eléphants ou dinosaures ?, le 20 octobre 2006

Oui, c’est vrai, il y a du culturel. Mais pas seulement du fait des lois et autres règlements. C’est aussi la conséquence d’une culture managériale qui n’évolue pas assez vite. Elle reste trop hiérarchique et pesante dans les boites françaises. Le tout dans une société assez hiérarchisée, ne serait-ce que par le système de caste des grandes écoles (X et ENA en premier).
Comme en plus, le poids des grandes entreprises d’un côté, et des TPE de l’autre, est plus grand que dans les autres pays industrialisés (mais je n’ai pas les derniers chiffres en la matière), ceci accentue cela. Avec d’un côté la hiérarchie et de l’autre le paternalisme.

Sur la ponction sur les pays étrangers, les grandes entreprises qui réalisent plus de profit à l’étranger qu’en France consolident leur profit en France, en optimisant probablement l’aspect fiscal. Il n’empêche que cela enrichi la France : par les impôts sur les sociétés et par les actionnaires, même si les actionnaires du CAC40 ne sont pas que français. Alors que le profit de ces boites sur leur activité en France est généralement moindre au regard du chiffre d’affaire (mais les données ne sont pas toujours publiques).

Dans l’autre sens, avec les boites étrangères, une grande partie remonte dans les comptes consolidés dans le pays d’origine. Surtout pour les produits immatériels comme les logiciels. C’est moins facile à mettre en œuvre quand les coûts de production sont élevés, que ce soit dans l’industrie manufacturière, ou dans les services. Par exemple, l’activité internationale de Cap Gemini n’apporte pas grand-chose en valeur absolue aux comptes consolidés car la marge opérationnelle des services informatiques est très faible. La valeur ajoutée reste donc plus locale, via les salaires payés aux équipes de chacun des pays où la SSII agit.

La balance commerciale industrielle est le produit complexe du mix industriel entre immatériel, services et produits industriels et économies d’échelle. La France (et l’Europe) produisant relativement peu de technologie en volume, ils bénéficient d’un effet de levier économique moindre que les pays comme les USA qui ont la chance d’avoir des Intel, Microsoft et autres Cisco.

Je suis persuadé que l’enjeu industriel clé, c’est de faire de la technologie sur de gros volumes pour générer des économies d’échelle sur la R&D à l’échelle mondiale. Cela nécessite certes de la R&D mais une vision marketing et industrielle qui manque au pays. Les USA d’un côté et l’Asie de l’autre sont mieux armés. Les premiers ont la techno, le marketing et un gros marché intérieur homogène, les seconds ont la techno et les bas salaires. On a la techno mais avec moins de marketing, un marché intérieur fragmenté en Europe, et des coûts de production plus élevés. La solution à haut niveau: faire du volume, concentrer la valeur ajoutée sur la R&D et la vente/marketing en particulier à l’international, et produire en Asie.

Seconde conséquence: il faut donc effectivement améliorer la capacité de R&D, mais également la capacité à la valoriser à grande échelle.

La France ne peut pas se contenter d’Airbus, Ariane, nucléaire et autres TGV. Ce ne sont pas des industries de volume.

Répondre à ce commentaire

Commentaire 38 dans Canon s’approche du rêve, le 17 octobre 2006

Ah, effectivement! Très bien vu!

Seul l’IXUS 850 IS l’est – d’où IS dans le nom -, mais seulement à 7 mpix. Too bad et d’ailleurs incompréhensible incohérence dans la gamme Canon (difficulté de loger à la fois l’IS et un capteur plus grand qui passe de 1/2,5″ à 1/1,8″?)!

D’où l’intérêt du Powershot G7 qui fait 10 mpix et est stabilisé. Même capteur. Même sensibilité que le 900 TI. Mais mode manuel et zoom plus puissant en plus. Un form factor différent et un look moins sympa mais on ne peut pas tout avoir.

Répondre à ce commentaire

Commentaire 37 dans Nominations en circuit fermé, le 2 octobre 2006

OK, dont acte, la création de ce Conseil est bien antérieure au mouvement des chercheurs de 2005.

Mais comment l’un se raccorde-t-il à l’autre?

Pourquoi le “Haut Conseil” fait-il l’impasse sur le monde non universitaire?

Répondre à ce commentaire

Commentaire 36 dans IDC et les DSI passent au Web 2.0 – 2/2, le 28 septembre 2006

Et quel est leur business model au juste?

Répondre à ce commentaire

Commentaire 35 dans Ex-MS et entrepreneurs, le 25 septembre 2006

Comment comparer iGraal avec un site comme Cashstore? Le principe du cash back est le même, l’outil quelque peu différent. Je me demande laquelle de ces deux approches est la plus efficace pour l’utilisateur et offre la meilleure couverture au niveau des sites marchands. Par ailleurs, sans vouloir défendre MS, Firefox est avant tout un outil de “geek” et peu utilisé dans le grand public, sa pénétration étant je crois aux alentours de 15%. Même si sur mon blog, il y a plus d’utilisateurs de Firefox que d’IE!…

Pour ce qui est de MS et des valeurs encourageant à l’entreprenariat, je dirais: le goût du risque et de l’ambition, passion à la fois pour les technos et leurs usages, et capacité de remise en cause. Après, ce sont des histoires personnelles liées au parcours et aspirations des uns et des autres.

Ceci étant, ma liste d’anciens n’a pour l’instant pas de valeur statistique car elle ne recense que quelques dizaines d’individus sur les centaines d’anciens de Microsoft France.

Répondre à ce commentaire

Commentaire 34 dans Ex-MS et entrepreneurs, le 25 septembre 2006

En effet Jeremy, je l’ai donc ajouté à la liste. Même si je demande à comprendre quelle est la valeur ajoutée exacte de ce plug-in et le business model associé!

Répondre à ce commentaire

Commentaire 33 dans No news, good Zune?, le 20 septembre 2006

Indeed, I’ve seen that more and more informations are available on Zune’s specs, including a non-official pricing in the sub-$300 range.

Sorry to write this blog in French… most of my readers are frogs here on this side of the Atlantic!

Olivier

Répondre à ce commentaire

Commentaire 32 dans More news on Zune, le 18 septembre 2006

C’est le travers des outils généralistes que sont les PocketPC. Leur inconvénient est une interface utilisateur plus complexe que pour un usage unique (musique) et un processeur plus consommateur de ressources, donc batterie plus lourde ou moins autonome.

Zune n’est qu’une sorte de Portable Media Center dont l’interface utilisateur est tout de même plus appropriée à l’écoute de musique qu’un Pocket PC!

Au demeurant, j’ai toujours du mal à utiliser la fonction téléphone des Pocket PC Smartphone Editions. Rebelotte!

C’est le grand dilemme de la convergence numérique! Trop de fonctions intégrées nuit à la fonction principale!

Répondre à ce commentaire

Commentaire 31 dans Vérifications sur les amendements GDF, le 13 septembre 2006

Dans cette histoire, il y a surtout une exagération de l’obstruction! Elle a été mise en scène par Jean-Louis Debré et relayée sans broncher par les médias “chauds” (radios, télés).

Et cette obstruction est effectivement injustifiée sur certains amendements. Ainsi, ceux que j’évoque concernant les patrons du CAC 40 n’ont rien à faire là dedans. Autant indiquer une limite de revenu ou de tranche d’impôt pour plafonner le droit d’accès aux aides concernées. La loi se doit d’être équitable et d’appliquer des critères objectifs. Par ailleurs, ce genre d’élément est plus approprié dans un décret d’application que dans une loi. Les députés ont actuellement tendance à mettre trop de détails dans les lois. Par certains côtés, cela leur permet de grignotter du pouvoir sur l’exécutif et sur l’administration. Mais de l’autre, cela fait inscrire dans la loi des composantes qui sont mouvantes et devraient relever de l’exécutif (seuils financiers divers pour les impôts ou autres subventions).

Pour ce qui est de Free, bien sûr, l’analogie a des limites. La principale est que, une fois l’infrastructure mise en place (connectivité avec le réseau FT et serveurs), il n’y a pas de matière première à fournir (comme le gaz). C’est de l’immatériel. Donc, les économies d’échelle pour un concurrent de l’acteur dominant sont plus faciles à obtenir.

FT a certes des devoirs lié à son ancien statut de monopole. Mais ils les compensent par leur part de marché, des économies d’échelle, et des prix plus élevés. Le tout se retrouvant dans un compte d’exploitation qui est plus que profitable (leurs difficultés passées étant surtout liées aux dettes conséquentes à leurs différentes acquisitions comme celle d’Orange).

Répondre à ce commentaire

Commentaire 30 dans Vérifications sur les amendements GDF, le 9 septembre 2006

Lu dans Le Monde d’aujourd’hui samedi:

“Une illustration qui souffrait du défaut de ne pas préciser que les piles exposées sur le bureau de la présidence n’étaient que du papier blanc : 275 ramettes, débarrassées de leur emballage, soit 27 500 feuilles censées représenter l’équivalent en volume des 137 500 amendements qui devraient être distribués à chaque député”.

Une belle mise en scène que Le Monde a donc bien relevé!

Répondre à ce commentaire

Commentaire 29 dans Technologies et Rolling Stones, le 7 septembre 2006

Merci pour la correction! Effectivement, je ne suis pas fan “pur et dur” des Stones. Cela n’empêche pas d’apprécier le spectacle! J’ai été par contre très impressionné par l’enthousiasme des blogs de fans des Stones pour qui ce concert avait l’air d’être l’événement de leur vie!

Répondre à ce commentaire

Commentaire 28 dans Réflexions sur le réflex, le 4 septembre 2006

Olivier,

Voici pour commencer une réponse au premier degré:
– Sauvegarder ses photos sur au moins un second disque dur en plus du disque où elles sont gérées. Au cas où on dispose de plusieurs PC, ou plus simplement, d’un disque dur externe à son PC.
– Sauvegarder régulièrement l’ensemble sur DVD-R pour la longue durée, et sur DVD-RW pour une courte durée. Après, le nombre de DVDs dépend du nombre de photos!
– Eventuellement, sauvegarder ses photos chez un hébergeur Internet de qualité. Intéressant pour un petit nombre de photos et bien comprimées.
– Imprimer les plus belles photos, cela ne coute pas cher sur Internet (16€ les 100 photos en moyenne frais de dossier et de port compris).

La durée de vie d’un DVD-R est encore méconnue, mais semble comprise entre 5 et 10 ans. Il faut donc régulièrement transférer ses données sur des supports plus récents, dont la capacité augmente avec le temps.

Réponse second degré: s’il n’y avait que les photos! Une partie de plus en plus grande de la mémoire des familles et des entreprises est désormais numérique et il faut vivre avec et effectivement s’organiser pour la sauvegarde. Je ne connais pas la proportion des foyers qui ont un PC et aucun outil pour la sauvegarde, mais elle est probablement supérieure à 50%. D’où un véritable besoin d’information à ce sujet!

Répondre à ce commentaire

Commentaire 27 dans Marketing viral et recommandations, le 4 septembre 2006

Effectivement, il n’y a rien de bizarre à évoquer des concurrents dans sa communication! C’est d’ailleurs un signe de hauteur de vue rare dans les marchés hautement concurrentiels. Dans le cas présent, l’origine “concurrentielle” de l’article n’était pas citée, pour les raisons compréhensibles évoquées dans mon post.

Continons d’évangéliser ce sujet encore à défricher!

Répondre à ce commentaire

Commentaire 26 dans Photo numérique et GPS, le 3 septembre 2006

Flickr permet maintenant de tagger ses photos avec les informations géographiques soit manuellement, soit avec un simple glisser et déplacer sur une carte géographique. Ceci ne peut que pousser les constructeurs d’appareils à intégrer un capteur GPS pour automatiser ce tagging…

Voir Engadget sur :http://blog.flickr.com/flickrblog/2006/08/great_shot_wher.html .

Répondre à ce commentaire

Commentaire 25 dans Aider les jeunes entrepreneurs, le 3 août 2006

Etre vendeur ne veut pas nécessairement dire avoir été commercial. C’est plus un tempérament qu’un métier en tant que tel, pour la compétence du créateur d’entreprise. Dans tous les cas de figure, il faut de toutes façons avoir dans son équipe de startup un bon directeur commercial et un “deal maker” si on ne peut pas jouer soi même ce rôle.

Et il est préférable de “se tirer la bourre” avec les concurrents pour gagner les clients que de se “tirer la bourre” avec ses collègues commerciaux pour avoir le prix du meilleur commercial du coin.

Répondre à ce commentaire

Commentaire 24 dans Aider les jeunes entrepreneurs, le 2 août 2006

Il n’y a pas de réponse toute faite à ce genre de question. Il y a des gens qui sont faits pour avoir le “lead” et devenir entrepreneurs et d’autres pour lesquels ce n’est pas évident. Même si tout peut s’apprendre à force de volonté.

Ce qui est clé pour un entrepreneur, c’est de bien s’entourer rapidement. Surtout par des gens bien plus expérimentés que lui (ou elle). La création d’un expertise collective permettra de développer l’entreprise, d’y intégrer maturité et process au moment où c’est nécessaire. C’est ce qui est arrivé à plein d’entrepreneurs bien connus de l’informatique: Scott McNeally chez Sun, Larry Ellison chez Oracle, Steve Jobs chez Apple (qui s’est fait viré en 1985 par le mec expérimenté qu’il avait recruté chez Pepsi : John Sculley), et évidemment Bill Gates. Même si ce dernier avait recruté en 1980, 5 ans après la création de sa boite, un certain Steve Ballmer, pote de Harvard, qui lui avait fait ses classes au product marketing chez Procter et Gamble.

Une expérience dans une grande entreprise apporte certainement une expérience complémentaire à celle de la startup. J’ai croisé récemment pas mal d’entrepreneurs qui avaient fait des aller et retour entre les deux. Soit en commencant par la startup, soit par la grande entreprise. Mais pour qu’elle ait un intérêt pour un futur entrepreneur, cette expérience doit se dérouler dans un contexte favorable où le jeune obtient rapidement des responsabilités, peut prendre des risques, disposer de moyens et avoir un impact sur sa boite. Sinon, il végètera et ne prendra pas la dimension qui lui permettra de devenir créateur d’entreprise.

Répondre à ce commentaire

Commentaire 23 dans Le phénomène mini-Microsoft, le 26 juillet 2006

Mini-Microsoft fait référence dans son dernier post (http://minimsft.blogspot.com/2006/07/we-are-fam-ily-links.html ) à la création du site Mini-Microsoft France sur http://mini-microsoft-fr.blogspot.com/.

Bon, il n’y a rien dedans! Pas glop!

C’est juste un test de Blogger pour voir? Où quelque chose de sérieux?

Répondre à ce commentaire

Commentaire 22 dans Communication schizophrénique, le 24 juillet 2006

On entendait cela dès 1996, à l’époque de la promotion des “Network Computers”. Et plus récemment, avec le PC à manivelle de Negroponte. Depuis, le PC (au sens large du terme qui englobe les Macintosh) a la vie dure.

La raison me semble simple: c’est l’outil le plus polyvalent qui soit. Certes, on pourrait se contenter d’un terminal Internet “à la Minitel”. Mais on a encore besoin de puissance de calcul locale et d’une certaine autonomie, ne serait-ce que pour stocker et manipuler musique, vidéo et photos.

Autre loi qui me semble immuable: la bande passante d’un PC et la vitesse de son bus seront pendant encore très longtemps toujours plus performantes de plusieurs ordres de grandeur que celles des moyens de communication. Cela justifiera encore longtemps d’avoir des traitements, une intelligence et des données locales.

Il n’en reste pas moins vrai que le grand écart de Microsoft avec Windows reste un défi de taille en termes d’engineering. Windows ne s’en sort pas si mal aujourd’hui, en étant avec Linux, la seule plate-forme allant du mobile aux serveurs en passant par les desktops, les portables et les Media Centers. Mais les versions extrèmes n’ont pas grand chose de commun à part le nom et quelques APIs (interfaces de programmation).

Autre domaine assez méconnu du grand public: la grande variété des systèmes embarqués qui intègrent Windows XP Embedded ou Windows CE (voir http://www.windowsembeddeddevices.com/). La polyvalence de Windows est démontrée, et bien au delà de la logique classique desktop/server.

Répondre à ce commentaire

Commentaire 21 dans Innovation ou marketing?, le 24 juillet 2006

De ce point de vue là, Microsoft est une boite assez ouverte avec qui on peu se dire pas mal de choses. Par exemple sur http://blogs.microsoft.fr/.

La comparaison avec Google et MS devrait se faire avec des grandeurs comparables. En tant que consommateur lambda, tu n’as pas de relation “commerciale” avec Google. Tu obtiens un service gratos. Pas de quoi trop se plaindre surtout si le service fonctionne pas trop mal, même si un search balance beaucoup trop de réponses et que la réponse pertinente est à la quatrième page.

Il faudrait comparer la relation commerciale entre une entreprise classique et Microsoft, et celle que Google a avec ses annonceurs. Et le moins que l’on puisse dire, c’est qu’en matière de transparence (algos de placement des résultats de search), de prix (calcul des prix de vente des mots clés) et d’attitude (commerciale), Google a vite rattrapé Microsoft dans le “bof” si ce n’est pour parfois le dépasser. Tout du moins, ce sont des témoignages vécus. Pour ma part, pas en direct.

Répondre à ce commentaire

Commentaire 20 dans Livres d’Ezratty, le 24 juillet 2006

Certainement. C’est transmis à l’intéressée!

Répondre à ce commentaire

Commentaire 19 dans Communication schizophrénique, le 23 juillet 2006

Il y a eu des hauts et des bas effectivement.

La campagne “Realizing Potential” avait bénéficié d’un spot tourné à Paris avec une jeune femme rêvant à la création d’une entreprise de chapeaux. Tournée “à la Amélie Poulain”. Le comble, c’est que le tournage de cette publicité avait été perturbé par une grève d’intermitents du spectacle!

L’actuelle campagne “People Ready” est très standard, donc avec les canons américains habituels.

La chose la plus curieuse qui affecte presque toutes les publicités TV Microsoft côté “business to business”, c’est qu’il est difficile de les reconnaitre, qu’elles sont trop éliptiques et que la marque Microsoft n’apparait que fugacement à la fin. Il n’y a généralement pas de trace d’humour non plus.

Pourtant, plusieurs agences de communication différentes ont été impliquées ces 10 dernières années!

Du côté XBOX ou MSN, la créativité est meilleure. Pour la XBOX, une partie des publicités européennes ont été créées au Royaume Unis. Ceci explique peut-être cela.

Répondre à ce commentaire

Commentaire 18 dans Rêve d’appareil photo numérique idéal, le 19 juillet 2006

Et une fonction de plus pour l’appareil idéal: l’ajustement de la sensibilité ISO automatique en fonction du mouvement des objets/personnes photographiés. Vu chez Panasonic à l’occasion de l’annonce récente des LUMIX DMC-FX50/DMC-FX07 (sur http://www.dpreview.com/news/0607/06071903panasonicfx50.asp).

Voilà l’explication: “To fight against the major cause of blurred images, Panasonic invented the MEGA O.I.S. system taking advantage of its superior lens technology to compensate for handshake – a feature which has long been incorporated into the LUMIX range of cameras. In addition, to also compensate for the other major cause of blurred images – movement of the subject – the FX50/FX07 cameras are also equipped with the world’s first* Intelligent ISO Control (hereafter I.I.C.) and max. ISO 1250 high sensitivity recording at full resolution capabilities within the advanced image processing LSI Venus Engine III. When set to the I.I.C., the Venus Engine III detects the subject’s movement and adjusts the ISO setting and shutter speed to best suit the subject movement and the light condition automatically. Panasonic’s excellent image stabilizing system allows users to take clear, crisp images in any situation, leaving everything to the camera.”.

Intéressant, et à tester à l’usage!

Répondre à ce commentaire

Commentaire 17 dans Rêve d’appareil photo numérique idéal, le 19 juillet 2006

Ils vont d’ailleurs devoir se bouger rapidement car le marché des appareils photos numériques ne croit plus que de 5% par an maintenant après les années “folles” à plus de 50% de croissance. Ce marché s’est saturé bien plus rapidement que celui du PC.

Répondre à ce commentaire

Commentaire 16 dans Rêve d’appareil photo numérique idéal, le 16 juillet 2006

Bien vu! Certains reflex ont également cette caractéristique, mais seulement dans les modèles professionnels.

Répondre à ce commentaire

Commentaire 15 dans Rencontre avec Bernard Liautaud, le 10 juillet 2006

Voir sur http://jdch.blogspot.com/2006/07/interview-dun-entrepreneur.html cette interview de Denis Payre, l’autre fondateur de Business Objects, réalisée par Gilles Fontaine de Challenge, et relayée par JC Chamboredon. J’aime bien cette citation au sujet de l’ISF “Pour l’heure, cet impôt continue à inciter les gens à investir dans le passé, les œuvres d’art.”… au lieu d’investir dans les startups et le futur.

Répondre à ce commentaire

Commentaire 14 dans Rencontre avec Bernard Liautaud, le 7 juillet 2006

Le marché de l’informatique d’entreprise du début des années 1990 a sérieusement changé depuis. Les opportunités ne sont plus les mêmes. Les besoins ont évolué: significatifs dans le domaine de l’infrastructure ‘sécurité, consolidation de serveurs, middleware), l’ERP/CRM/SCM est assez encombré, les marchés verticaux restent intéressants.

Il y a eu aussi un glissement de valeur vers le grand public du fait de l’accroissement du taux d’équipement en PC des foyers (moins de 2% à la création de Business Objects et maintenant situé entre 50% et 75% dans les pays développés) et de la convergence numérique. L’Internet a évidemment changé la donne tout comme les modèles économiques. Un éditeur de logiciel doit de plus en plus se considérer comme un fournisseur de services (en mode hébergé ou non).

Les problèmes à résoudre sont par ailleurs toujours plus complexes. Dans certains domaines, ils demandent une R&D assez lourde accessible plutôt aux labos publics ou aux grands acteurs. Mais le monde de l’Internet montre qu’il reste plein de choses à faire qui sont simples d’un point de vue technologiques mais bien pensées du point de vue du modèle économique. Le monde des mobiles, du RSS, de la télévision sur IP sont quelques domaines florissants en ce moment.

Répondre à ce commentaire

Commentaire 13 dans Faux départ pour Bill Gates, le 1 juillet 2006

Sur http://news.com.com/2061-10805_3-6089195.html?part=rss&tag=6089195&subj=news, on apprend que Rick Rashid, le patron de Microsoft Research, prend un congé sabbatique. La mode chez Microsoft avec David Cole (patron de MSN). Son rattachement à Craig Mundie a du effectivement lui passer difficilement au travers de la gorge comme je l’évoquais dans le post sur le départ de Bill Gates.

Répondre à ce commentaire

Commentaire 12 dans Soirée logicielle à l’IE Club, le 30 juin 2006

Oui effectivement.

La coopétition se développe entre Microsoft et certains acteurs de l’open source. Pour Microsoft, l’intérêt est double : s’assurer que toutes les solutions logicielles du marché tournent bien sur ses plates-formes (Windows, Vista, .NET) et au pire, qu’elles interopèrent bien avec. C’est aussi l’intérêt des clients.

Pour ce qui est des migrations propriétaire vers libre, mon point de vue est quelque peu « Microsoftien ». Ce sont des produits généralement « losers » sur leur marché qui suivent ce chemin. Ingres est marginal dans le monde de la base de données face à Oracle, MS SQL Server et MySQL. Euclid (de Matra Datavision) est passé en open source alors que la bataille était perdue depuis longtemps avec Catia de Dassault Systèmes, UGS et autres PTC. Sun ? On ne peut pas dire qu’ils ont le vent en poupe. Ils ont été à l’origine d’un grand standard du marché, Java, mais n’en ont pas vraiment tiré un retour économique conséquent. Le logiciel représente moins de 5% de leur chiffre d’affaire. Et comme chez Apple, le logiciel est chez Sun un moyen de vendre du matériel. Ce n’est pas le cœur de métier de l’entreprise.

Il y a des bouts de logiciels qui sont passés en open source chez Oracle et IBM, mais ce n’est jamais sur leur cœur de métier ou dans les produits qui représentent une grosse part de leur revenu.

Donc, certes, ce phénomène peut arriver, mais ce n’est pas une tendance lourde du marché. L’autre tendance, par contre, c’est que les logiciels open source ont poussé certains acteurs à être plus « ouverts ». C’est le cas d’OpenOffice par rapport à Microsoft Office. Alors qu’il y a quelques années, il était impensable chez MS d’avoir un format ouvert pour Office, la version courante d’Office a un format documenté, et la prochaine reposera sur des schémas XML qui en plus vont être « déposés » à l’ECMA (comme l’avait été la spécification de la CLR – le run-time – du framework .NET, tout comme le langage de programmation C#).

Répondre à ce commentaire

Commentaire 11 dans Le phénomène mini-Microsoft, le 30 juin 2006

Merci Marie, tu me fais découvrir ce site! C’est un blog très intéressant sur ce sujet. Il traite visiblement plus des bloggers “officiels” d’entreprise que des cas à la Mini-Microsoft. Mais cela peut changer…

Répondre à ce commentaire

Commentaire 10 dans Le phénomène mini-Microsoft, le 27 juin 2006

Je reviens sur le syndrome de l’enfant gâté que tu décris.

Ce syndrome existe mais je ne le généraliserai pas. On le retrouve chez ces gens qui se plaignent sans arrêt du cours de l’action (anémique) de Microsoft. Et regrettent le temps des croissances permanentes de l’action, dans les années 80 et 90. Cette focalisation sur le cours s’est calmée avec le temps, notamment depuis qu’il n’y a plus de plans de stocks options chez MS (depuis 2003) et qu’ils ont été remplacés par des plans d’attribution d’actions gratuites. Ces plans sont moins motivants que les stock options mais s’adaptent à la réalité d’un cours qui évolue peu. Et chaque collaborateur est éligible comme c’était le cas pour les stock options. L’info est publique, cf http://news.com.com/Microsoft+to+award+stock,+nix+options/2100-1014_3-1023840.html.

En règle générale, je trouve par contre que les anciens sont porteurs d’un esprit sympa dans la société qui pourrait avoir tendance à se déliter (goût pour la technologie, sens du risque et de l’initiative, liberté d’esprit et de parole).

Il faut aussi faire la part des choses entre filiale et siège à Corp. Il est possible que les anciens pantoufflent à Corp. Car je n’ai pas l’impression que cela soit le cas chez MS France.

Même s’il est certain que lorsque l’on reste très longtemps dans la même société, les réflexes peuvent s’émousser. En particulier si l’on n’a pas changé régulièrement de fonction pour se renouveler.

Répondre à ce commentaire

Commentaire 9 dans Pourquoi WordPress ?, le 27 juin 2006

Cela m’intéresserait de comprendre comment tu as fait pour les permalinks sur Free. En effet, dans les forums de discussion sur le sujet, personne n’a proposé de solutions, et nombreux sont ceux qui déclaraient que Free n’autorisant pas les redirections, c’était impossible à faire. Un gars seulement disait y être arrivé mais sans expliquer comment. A partir de là, tu as tendance à laisser tomber! Mais c’est en fait les perfs sur Free qui ont été rédhibitoires pour moi.

Répondre à ce commentaire

Commentaire 8 dans Le phénomène mini-Microsoft, le 27 juin 2006

A vrai dire, peu importe car ce qui est intéressant dans Mini-Microsoft, c’est plus les réactions des anonymes de Microsoft qui s’expriment dans les commentaires que les posts de whodapunk en tant que tels. Ses posts sont souvent une compilation des commentaires précédent et une sorte de revue de blogs et de presse sur ce qui se dit sur Microsoft.

Oui, il est clair que le gars semble nostalgique du passé. Mais en faire un enfant gâté pour autant est un peu exagéré. Ce qui me frappe en tout cas, c’est la critique d’un système qui est fait celle de tout système de management basé sur une hiérarchie. Se faire évaluer par un tiers relativement à ses pairs est très difficile à supporter surtout si on trouve que son manager n’est pas légitime. Comme il y a au minimum 20% de managers incompétents dans une boite, à tous les niveaux, cela suffit pour donner une impression générale d’injustice malgré le reste des managers qui font bien leur boulot et son honnêtes dans leur évaluation des collaborateurs.

C’est aussi un fait avéré que certaines équipes ont atteint une taille trop grande chez MS à la R&D et qu’elles deviennent impossibles à gérer. Cela nécessite une remise en cause pas évidente des organisations. Et pas juste en faisant appel à des cadors de McKinsey (qui sont à l’origine d’une réorganisation d’il y a 3 ou 4 ans au niveau mondial). Cela passe aussi par la conception même des logiciels dont les interdépendances sont trop complexes à gérer et créent un plat de spaghettis non seulement au niveau du code, mais également au niveau des organisations. Il me semble que MS a pris conscience de cela et essaye d’y porter remède mais cela ne se fait pas du jour au lendemain.

Répondre à ce commentaire

Commentaire 7 dans Faux départ pour Bill Gates, le 21 juin 2006

Sur Agoravox (http://feeds.feedburner.com/agoravox/gEOF?m=1922), les Internautes commentent un article sur la générosité de Bill Gates. 116 réactions!

Il est intéressant de constater qu’il est difficile de se mettre dans la peau de Bill Gates et comprendre ses facteurs de motivation. Quand on a la vie qu’il a eu, gagner plus d’argent n’a pourtant aucun sens. Ce qui compte, c’est de bien l’employer.

J’avais eu l’occasion d’en discuter avec lui lorsqu’il venait juste de créer sa Fondation Bill&Melinda. Cela date de février 1999 à Paris. Ce jour là, je l’ai questionné sur ce qu’il prévoyait de faire, et pour la première fois, je l’ai vu s’animer et montrer une vraie passion. C’est pour cela qu’il a accroché des gars comme Bono, Geldof, et est intervenu au Live8 l’année dernière. Alors que lorsqu’il parlait de MS, il était “plat” comme à son habitude (et il était encore CEO à l’époque).

L’originalité de l’approche de la fondation de Gates, c’est qu’il a créé une approche bien spécifique de donation en empruntant aux méthodes du business dans ce qu’elles ont de bien. Il évalue les programmes en amont et au niveau des résultats de façon assez rigoureuse. Il finance autant de la recherche fondamentale (par exemple près de 50% de la recherche sur le paludisme, abandonnée par les organismes internationaux malgré les millions de morts chaque année) que les vaccinations à grande échelle.

On peut se demander cependant pourquoi il n’a pas encore légué toute sa fortune à sa fondation. Il reste encore actionnaire de 9,5% de Microsoft Et j’ai l’impression qu’il veut encore rester l’actionnaire principal pour quelque temps. Sa séparation de MS prendra encore beaucoup de temps, surtout qu’il annoncé qu’il ne prévoit pas d’abandonner son poste de Chairman.

Répondre à ce commentaire

Commentaire 6 dans Innovation ou marketing?, le 19 juin 2006

Oui, j’avais oublié ces acquisitions encore plus récentes, qui ne font que confirmer cette tendance d’innovations par des acquisitions.

L’une des forces de Microsoft, c’est de vendre ses produits comme des plate-formes extensibles. Windows est le ”best case”. Microsoft a plus de mal à le faire avec Office, mais ne s’en sort pas trop mal. Office 2007 est présenté sous toutes les coutures : à la fois avec toutes les évolutions pour les utilisateurs, avec ses outils de travail collaboratifs (intégrés avec Sharepoint), et comme plate-forme pour les développeurs (et avec son nouveau format XML). Le grand défi restera de convaincre les entreprises de migrer rapidement et ce n’est pas une paire de manche!

Google est fondamentalement un site ”btoc” dont le financement est assuré en mode btob.

Côté sémantique, j’utilise le terme ”marketing amont” pour ce qui relève de la conception de l’offre (comprenant études de marché, liens avec la R&D, acquisitions, etc) et le ”marketing aval” pour ce qui est de la mise sur le marché (lancement, communication, génération de demande). Google a un marketing amont qui est à mon sens aussi cahotique que celui de Microsoft, à savoir que certaines offres sont lancées sans que le modèle économique soit trop ficelé. Et ensuite, advienne que vaille et ajustements font le nécessaire.

Nous français avons du mal à comprendre cela. La manière de fonctionner des américains est de se lancer sans trop réfléchir et d’ajuster le tir après. Nous français aimons la stratégie, les arrières pensées, les mouvements compliqués. C’est pour cela que l’on a tendance à prêter des vélléités bien tordues aux acteurs de l’industrie alors que la réalité est plus simple et prosaique.

Pour Writely, Google cherche plus à créer de la valeur autour de son offre de search qui est son coeur de métier, quitte à apporter des solutions de travail collaboratif et de communication, qu’à explicitement concurrencer Microsoft frontalement. Il est d’ailleurs plus sain de penser à créer de la valeur qu’à détruire celle de ses concurrents. Cette destruction peut intervenir si la création fonctionne bien. Si l’obsession est la destruction, cela ne fonctionne pas forcément. Cf les tentatives de Network Computers d’Oracle en 1995/1996. Celles de Novell avec le rachat de WordPerfect. Etc.

Répondre à ce commentaire

Commentaire 5 dans Livres d’Ezratty, le 15 juin 2006

Oui m’enfin, ce genre de livre n’est pas pile poil dans le coeur de cible des utilisateurs de U.Lik! Bon, et pour la pub pour U.lik, faudrait être plus discret Raphaêl. Le bon marketing, c’est celui qui ne se voit pas (trop)… :).

Répondre à ce commentaire

Commentaire 4 dans Changement de décor, le 13 juin 2006

Pourquoi pas même si ce n’est pas le premier objectif de ce blog! Un de ces jours, les trucs du moelleux au chocolat!

Répondre à ce commentaire

Commentaire 3 dans Ouverture en facade, le 9 juin 2006

My pleasure Frédéric! Et bravo pour le bel investissement que tu as déclenché chez Vpod!

Répondre à ce commentaire

Commentaire 2 dans Lancement de ZapMeeting, le 8 juin 2006

Et hop, premier retour presse dans Le Progrès de Lyon: http://htdig.leprogres.com/Jeudi/Imprimer/689835.html. Cela ne fait que commencer!

Répondre à ce commentaire

Commentaire 1 dans Lancement de ZapMeeting, le 5 juin 2006

Effectivement, cela a l’air très différent. Winnov propose des solutions de streaming vidéo. Le principe de Didier est d’offrir des solutions très simples à mettre en oeuvre et autour de standards existants quand il y en a. D’où le parti pris d’intégrer simplement SkyPe dans son logiciel. Comme Skype gère maintenant la vidéoconf, c’est tout simple et gratuit pour intégrer un intervenant extérieur à une conférence. Sans outil de visioconf compliqué à monter.

Répondre à ce commentaire

Last posts / derniers articles

Free downloads

Understanding Quantum Technologies 2023, a free 1,366 pages ebook about all quantum technologies (computing, telecommunications, cryptography, sensing) also available in paperback edition on Amazon:

image

Free downloads

Understanding Quantum Technologies 2023 Short version, a 24 pages with key takeaways from the eponymous book.

image

Voir aussi la liste complète des publications de ce blog.

Derniers albums photos

Depuis juillet 2014, mes photos sont maintenant intégrées dans ce site sous la forme d'albums consultables dans le plugin "Photo-Folders". Voici les derniers albums publiés ou mis à jour. Cliquez sur les vignettes pour accéder aux albums.
albth
QFDN
Expo
791 photos
albth
Remise Légion d'Honneur Philippe Herbert Jul2021
2021
15 photos
albth
Vivatech Jun2021
2021
120 photos
albth
Visite C2N Palaiseau Mar2021
2021
17 photos
albth
Annonce Stratégie Quantique C2N Jan2021
2021
137 photos
albth
Maison Bergès Jul2020
2020
54 photos
albth
Grenoble Jul2020
2020
22 photos

image

Avec Marie-Anne Magnac, j'ai lancé #QFDN, l'initiative de valorisation de femmes du numérique par la photo. Elle circule dans différentes manifestations. L'initiative rassemble près de 800 femmes du numérique (en janvier 2022) et elle s'enrichit en continu. Tous les métiers du numérique y sont représentés.

Les photos et les bios de ces femmes du numérique sont présentées au complet sur le site QFDN ! Vous pouvez aussi visualiser les derniers portraits publiés sur mon propre site photo. Et ci-dessous, les 16 derniers par date de prise de vue, les vignettes étant cliquables.
flow
Gaëlle Rannou
Gaëlle est étudiante à 42 Paris et tutrice de l’équipe pédagogique (en 2021).
flow
Jehanne Dussert
Jehanne est étudiante à l'école 42, membre d'AI For Tomorrow et d'Open Law, le Droit ouvert. Elle est aussi fondatrice de "Comprendre l'endométriose", un chatbot informant sur cette maladie qui touche une personne menstruée sur 10, disponible sur Messenger. #entrepreneuse #juridique #santé
flow
Chloé Hermary
Chloé est fondatrice d'Ada Tech School, une école d'informatique alternative et inclusive dont la mission est de former une nouvelle génération de talents diversifié à avoir un impact sur le monde. #entrepreneuse #formation
flow
Anna Minguzzi
Anna est Directrice de Recherche au CNRS au Laboratoire de Physique et Modélisation des Milieux Condensés (LPMMC) à Grenoble. #quantique
flow
Maeliza Seymour
Maeliza est CEO et co-fondatrice de CodistAI, qui permet de créer une documentation du code informatique par une IA.
flow
Candice Thomas
Candice est ingénieure-chercheuse au CEA-Leti, travaillant sur l’intégration 3D de bits quantiques au sein du projet Quantum Silicon Grenoble. #recherche #quantique
flow
Stéphanie Robinet
Stéphanie dirige un laboratoire de conception intégrée de circuits électroniques du CEA-Leti qui travaille sur des systèmes sur puces intégrés, des interfaces de capteurs, des interfaces de contrôle de qubits et de la gestion intégrée de l'énergie. #recherche #quantique
flow
Sabine Keravel
Sabine est responsable du business development pour l’informatique quantique chez Atos. #quantique #IT
flow
Céline Castadot
Céline est HPC, AI and Quantum strategic project manager chez Atos.
flow
Léa Bresque
Léa est doctorante, en thèse à l'institut Néel du CNRS en thermodynamique quantique, sous la direction d'Alexia Auffèves (en 2021). #quantique #recherche
flow
Emeline Parizel
Emeline est chef de projet web et facilitatrice graphique chez Klee Group, co-fondatrice TEDxMontrouge, gribouilleuse à ses heures perdues, joue dans une troupe de comédie musicale, co-animatrice de meetups et est sensible à l’art et à la culture. #création
flow
Elvira Shishenina
Elvira est Quantum Computing lead chez BMW ainsi que présidente de QuantX, l'association des polytechniciens du quantique. #quantique
flow
Marie-Noëlle Semeria
Marie-Noëlle est Chief Technology Officer pour le Groupe Total après avoir dirigé le CEA-Leti à Grenoble. #recherche
flow
Gwendolyn Garan
Gwendolyn est travailleuse indépendante, Game UX Designer, Game UX Researcher (GUR) et 2D Artist pour le jeu vidéo, étudiante en Master 2 Sciences du Jeu, speaker et Formatrice sur l'autisme et la neurodiversité, l'accessibilité et les systèmes de représentation dans les jeux vidéo. #création #jeuvidéo
flow
Alexandra Ferreol
Alexandra est étudiante d'un bachelor Game Design à L'Institut Supérieur des Arts Appliqués (année scolaire 2019/2020) #création #jeuvidéo
flow
Ann-elfig Turpin
Ann-elfig est étudiante en deuxième année à Lisaa Paris Jeux Vidéos (Technical artist, 3D artiste), année scolaire 2019/2020. #création #jeuvidéo

Derniers commentaires

“[…] to Olivier Ezratty, author of Understanding quantum technologies 2023, the challenge for Europe is to position itself outside of where the US and China are likely end up...”
“Désolé, je suis passé à l'anglais en 2021 sans revenir au français. Traduire un tel ouvrage (1366) pages d'une langue à l'autre est un travail herculéen, même avec des outils de traduction automatique. Sachant...”
“Je suis un artiste conceptuel, certes je garde la grande majorité de mon travail dans ma tête par défaut d'un grand mécène. Mon travail de base se situe sur le "mimétisme" qui mène aux itérations et de nombreux...”
“Better than a Harry Potter! Thanks Olivier...”
“J'ai bien aimé le commentaire sur le film Openheiner avec l'interrogation du chercheur sur l'utilisation de ses découvertes. En continuation de ces propos, je propose d'écouter le débat suivant qui m'a semblé...”

Abonnement email

Pour recevoir par email les alertes de parution de nouveaux articles :


 

RRR

 
S
S
S
S
S
S
S
img
img
img