EN DEUX MOTS...

 
SmartWIPclub

CREATEUR DE LIENS POUR LA CONVERGENCE ET LE TRES HAUT DEBIT

Sessions à venir

Site actuellement en cours de refonte.

Réflexions sur l'évolution du Club et nouveau programme en cours de préparation

--------------------------------------------------------------------------------------------------------

Session à venir

SmartWIPclub du jeudi 28 novembre 2013

WebRTC : LA PLUS GRANDE REVOLUTION DU WEB DEPUIS 2004

WebRTC ou le Web version temps réel en mode natif ! Le sujet semble passer inaperçu et pourtant dans quelques mois, le véritable Web 2.0 sera là.

Pour de nombreux spécialistes, WebRTC est la plus grande innovation depuis 2004 quand Google a lancé Gmail et qu’Ajax a été inventé, permettant une mise à jour automatique en push des pages Web sans que l’utilisateur n’ait besoin de les rafraîchir. Du coup, cette possibilité nouvelle a ouvert la voie à de nombreuses interactions.

De quoi s’agit-il ? WebRTC (pour Real-Time Communication) est une nouvelle technologie basée sur le standard HTML5 qui permet d’échanger des communications audio, vidéo et data directement au travers des navigateurs Internet. Sans installation d’aucune sorte, sans plug-in à télécharger, sans serveurs d’infrastructure propriétaires… et le tout en mode Peer-to-Peer (...) à suivre ci-dessous


Table ronde débat avec  :

- Grégoire BOUTONNET, Directeur-fondateur, ANDREXEN

- Antony MARTIN, Director of open source engineering, DIALOGIC

- Jean-Baptiste PIACENTINO, Managing Director THUNDERBIRD,

Director of Browser Communications and WebRTC developments, MOZILLA

- Dominique HAZAEL-MASSIEUX, Responsable de l'activité HTML5 mobile,  W3C (World Wide Web Consortium)


Suivie d’une présentation :

-    par ANDREXEN de la 1ère solution RCS 5.x intégrant totalement WebRTC et HTML5.0 pour lesréseaux fixes et mobiles.  Voix, Video HD, présence, messagerie instantanée, webconferencing, les fonctions clés du monde « Skype » à la portée des opérateurs dans un environnement compatible avec les grands standards.


-     et par DIALOGIC d’une présentation de cas concrets et des meilleures pratiques pour implémenter Web RTC et également les enjeux de la sécurité dans l’environnement opérateur

Ces présentations seront l’occasion pour Andrexen et Dialogic de démontrer leur complémentarité : l’intégration des services Andrexen RCS /WebRTC (offre Uniquity) avec d’une part les SBC Dialogic pour la sécurité et d’autre part le MRF Dialogic pour assurer une conversion de qualité entre le monde WebRTC et l’environnement existant chez l’opérateur.

De quoi rassurer les opérateurs à la fois sur les risques sécuritaires mais aussi sur la compatibilité avec les systèmes déjà déployés dans leur cœur de réseau. Il s’agit d’offrir une alternative crédible à une solution purement RCS en offrant en plus la flexibilité et l’ergonomie d’une solution OTT.

Une démonstration de la solution pour mobile et poste fixe sera réalisée en première Européenne.


suite (...) Aujourd’hui ce n’est pas le cas. Les services de chat ou de vidéo qui semblent intégrés au navigateur comme ceux de Google, de Facebook, de Skype, de Microsoft ou de Mozilla requièrent en réalité des plug-in dédiés et propriétaires. D’où des communications en silos : impossible de faire du chat vidéo entre, par exemple, Skype et Google, aucune interopérabilité entre carnets d’adresses, préférences et états de communication, limitation des outils pour transmettre tel ou tel flux ou communiquer à plusieurs sur la même session de communication… bref, le Web aujourd’hui reste somme toute encore très perfectible en matière de communication sans couture…

Or WebRTC élimine tous ces inconvénients. Il inaugure une nouvelle vague d’innovations et d’applications centrées sur l’interaction d’individu à individu qui sont de nature à changer la manière dont nous travaillons, jouons, échangeons.

Par exemple, tout site Web pourra dialoguer en vidéo avec ses visiteurs avec le simple ajout d’une ligne de code. Parce que les navigateurs mobiles intégreront des apps vidéo, n’importe qui pourra diffuser des images directement depuis son mobile sur un site de news où qu’il se trouve (on imagine les effets d’une telle puissance de communication dans des événements du type Printemps arabes…).

A innovation de rupture, risque de rupture marché. Car WebRTC remet en question toute la chaîne de valeur sur laquelle sont bâtis les gigantesques marchés de la téléphonie sur Internet et de la visioconférence.

Si la communication devient native sans aucun recours à un plug-in ou à un serveur dédié, et avec une diffusion en peer-to-peer, quel intérêt de garder des solutions propriétaires comme Skype ou, sur le plan professionnel, comme Webex de Cisco ou Microsoft Lync ? Idem d’ailleurs pour des solutions de diffusion média sur le Web. En quelques mois, le Web RTC aurait la capacité de rendre la moitié de l’économie de la communication sur le Web… obsolète !

A condition bien sûr que le WebRTC soit adopté par les navigateurs, et que les développeurs suivent. Or la grande majorité des navigateurs devraient le supporter d’ici au début de l’année prochaine. Et ceci pour deux raisons majeures :

-         WebRTC repose sur une technologie OpenSource, ouverte et libre, développée par Google et adoptée par le W3C (World Wide Web Consortium). En clair, Google ne demande pas de royalties à ceux qui implémentent sa technologie. Et le W3C apporte son aval pour en faire un standard au cœur d’Internet, à l’instar de TCP/IP, HTML ou HTTP. Ce n'est pas rien...


-         Ce framework intègre une solution prête à l’emploi pour les développeurs qui peuvent créer de nouveaux services et des applications Web sans se soucier du navigateur ou de la plateforme de l’utilisateur. Le W3C travaille à ce que les API soient les plus simples possibles à implémenter... même pour celui qui n'a une connaissance basique des technologies peer-to-peer

Qui va adopter WebRTC ? Google tout d’abord, qui devrait en doter son navigateur Chrome et ses cercles Google +. Mais aussi Mozilla qui supporte le projet et a déjà présenté à Paris une première ébauche de visiophonie en HTML5 avec WebRTC sur son navigateur Firefox. Même Microsoft et Apple semblent monter dans le train. A preuve, Microsoft vient de proposer ses propres améliorations au W3C pour rendre WebRTC plus personnalisable et plus flexible, par exemple dans l’interopérabilité avec les mobiles et les téléphones VoIP.

Il reste néanmoins beaucoup de points à éclaircir :

- WebRTC garantit-il des communications de qualité ?

- Si le peer-to-peer fonctionne bien en one-to-one, ne sera-t-il pas nécessaire de recourir à des serveurs pour diffuser en one-to-many, par exemple pour broadcaster des sessions média ou faire de la vidéo en live à plusieurs ?

- WebRTC et l'interopérabilité ? Avec les réseaux télécoms existants non-IP (fixe et mobile), avec les mobiles et les téléphones VoIP actuels, avec des systèmes de pare-feux et des routeurs et même entre domaines WebRTC.

- Le risque n’est-il pas que WebRTC devienne un nouveau SIP avec de nombreuses variantes et fonctions propriétaires apportées par chaque acteur qui l’empêcheront d’être un standard de fait ?

- WebRTC s’inscrit dans une tendance où les navigateurs Web deviennent de plus en plus lourds et gourmands en mémoire, se transformant en véritables systèmes d’exploitation. Est-ce souhaitable ?

- Qu’en est-il du support mobile et de la position des équipementiers et des opérateurs de réseaux ?

- Si les acteurs de la VoIP ont grignoté le marché des opérateurs télécoms depuis des années, l’arrivée de WebRTC comme nouveau standard ne va-t-il pas se retourner contre eux, et en même temps redonner la main aux opérateurs ?

- Parce que les flux en peer-to-peer sont très difficiles à repérer et à contrôler, WebRTC ne va-t-il pas provoquer un immense chaos où tout un chacun pourra diffuser ce qu’il veut, au grand dam des gouvernements, des ayants droits d’œuvres protégées, des individus… ?

- ...

Comprendre la révolution WebRTC, c’est l’objet de notre débat du 4 octobre 2012 à 18 h 30 à l’Hôtel Raphaël de Paris.

--------------------------------------------------------------------------------------------------------

Précédente session

SmartWIPclub du jeudi 14 juin 2012

SMART GRIDS, MULTI-SERVICE... L'AUTRE REVOLUTION  D'USAGE DE LA FIBRE

Table ronde débat avec :

- Eric JAMMARON, Vice-Président, AXIONE : opérateur de l'aménagement numérique des territoires, activateur de réseaux et hébergeur de services tels que la supervision des réseaux d'éclairage des villes de Boulogne et de Sèvres

- Said ABBOUDI, Directeur Business Développement et Marketing EMEA, BPL GLOBAL : un des leaders et pionniers des smart grids aux Etats-Unis, impliqué dans les expérimentations d'Angoulème et de Poitiers et dans le projet  Millener d'énergies nouvelles réparties (EnR) avec EDF

- Jean-Luc SALLABERRY, Directeur Adjoint du programme Economie Numérique, FEDERATION NATIONALE DES COLLECTIVITES CONCEDANTES ET REGIES (FNCCR) : sur les initiatives du multi-service en France et sur la nécessité de disposer d'un réseau de fibre neutre activé pour le déploiement de services innovants

- Yves CORON, Directeur général des services, SYNDICAT INTERCOMMUNAL DE GESTION DES ENERGIES DE LA REGION LYONNAISE (SIGERLY) : pour un point sur les expérimentations pilotes et de futurs smart grids testées sur la région lyonnaise, Greenlys, Smart Lyon, SPA Lyon Confluence


Contrairement à ce que l’on entend trop souvent, la promesse de la fibre ne se limite pas à un gain de confort et de débit pour toutes les applications que nous utilisons déjà sur le réseau de cuivre en ADSL. Quant à l’image boostée aux hormones par le très haut débit (TV et vidéo 3D, téléprésence vidéo à domicile, multiréception en haute définition simultanée sur plusieurs écrans…), elle n’est sans doute pas la killer application attendue par les usagers. Sinon cela se traduirait dans les faits. Et les clients aujourd’hui raccordés à la fibre seraient légion à switcher leur abonnement ADSL pour un forfait FTTH, ce qui n’est pas le cas.      

Le Très Haut Débit sur la fibre, c’est surtout la perspective pour l’utilisateur, l’entreprise et la collectivité d’accéder à de nouveaux services totalement absents du bouquet ADSL. Et pour cause car ce ne sont pas des services de communication ou de média mais des services qui touchent à tous les autres aspects de leur vie : leur santé, leur bien-être, leur consommation énergétique, la gestion de leurs déchets, leurs modes de déplacement, la surveillance et le contrôle en temps réel de leurs biens… en clair une maîtrise plus durable et économiquement plus saine des services et commodités qu’ils utilisent au quotidien.

A l’horizon 2020, un usager pourrait être en mesure de recevoir une dizaine de ces nouveaux services. Or tous ces services vont exiger une bande passante cumulée bien supérieure à celle que l’ADSL peut délivrer aujourd’hui à la plupart de la population. Et parce qu’ils requièrent une voie de retour aussi musclée pour remonter les informations aux différents serveurs, l’asymétrie de l’ADSL est un handicap rédhibitoire. Seule la fibre associée à une puissante infrastructure de centres de données dans le nuage est capable de répondre à ce challenge de la décennie.

A condition aussi que le déploiement de la fibre sur un territoire soit pensé comme une infrastructure neutre, activée par un opérateur d’opérateurs, et ouverte ainsi à des acteurs de tous secteurs pour proposer ces bouquets de services à l’usager. Et pas seulement aux Fournisseurs d’Accès à Internet tels qu’ils existent aujourd’hui au plan national ou local. Ce n’est en effet pas votre FAI triple play qui pourra mieux que votre syndicat de gestion de l’eau vous aider via le réseau à optimiser votre consommation en temps réel et à détecter une fuite ou une surconsommation sur un de vos appareils.

A telle enseigne, la Communauté de Communes Reims Métropole fait figure de pionnier. Elle construit et exploite en régie un réseau de fibre interne qui est multiservices, c’est-à-dire qu’il est conçu pour transporter l’informatique et la téléphonie des deux collectivités, mais aussi la vidéo surveillance, la gestion du chauffage urbain, des châteaux d’eau, des feux de circulation, des parkings.

A la clé, un projet, une feuille de route et des coûts maîtrisés. Pas de démultiplication des réseaux, donc pas de coûts supplémentaires et de doublon, et une infrastructure neutre ouverte à tous prestataire de services et opérateurs. Pour la collectivité, l’optimisation des équipements en télégestion qui limitent singulièrement le déplacement des agents de terrain, est génératrice d’économie, rend le travail des agents plus gratifiant, le tout s’intégrant complètement dans une démarche de développement durable.

En somme le Très Haut Débit est une infrastructure centrale de convergence pour permettre la transformation de notre économie vers un fonctionnement plus dématérialisé, plus efficient, plus durable, avec des services sur lesquels le citoyen mais aussi l’entreprise ou le gestionnaire public ont un contrôle et une action plus fines et plus corrélées aux choix individuels qu’ils veulent en faire.

Les smart grids qui annoncent une révolution dans l’énergie en sont un bon exemple comme d’autres services publics qui vont tous tendre à devenir des « services d’information et d’interaction en réseaux ». Et ils commencent à prendre forme sous l’initiative combinée de collectivités, de régies et d’acteurs privés.

Les smart grids désignent les réseaux de distribution d'électricité « intelligents » qui se servent des technologies Internet et informatiques pour optimiser la production, la distribution et la consommation d’électricité. Non seulement l’apport d’Internet et de plates-formes logicielles vise à économiser l'énergie, sécuriser le réseau et en réduire les coûts, mais aussi à contribuer à la diminution des émissions de gaz à effets de serre, et à réduire la facture de l’utilisateur et du gestionnaire.

Des solutions comme celles de BPL Global qui est un leader des smart grids aux Etats-Unis, affichent dès leur mise en œuvre des économies de consommation à deux chiffres. C’est le cas pour de grandes villes américaines mais aussi pour de l’habitat collectif comme à Angoulème et Poitiers où sont menées des expérimentations. Quand on sait que plus de 40% de la consommation d’énergie dans l’Union Européenne provient des immeubles, on mesure l’importance des gisements d’économie d’énergie possibles.

Autre illustration, le projet nommé Millener qui sous l’égide d’EDF avec les ressources de la plateforme Power SG de BPLG, est l'un des premiers en Europe à intégrer la gestion de plus d’un millier de ressources d’énergies nouvelles réparties (EnR) sur le réseau électrique.

En période post-électorale où le chantier de la transition énergétique mais aussi celui d’une meilleure efficience en matière de santé, d’éducation, de formation et de services public pourrait éclairer la nouvelle mission de l’Europe, l’utilisation accrue des technologies de l’information, du cloud computing et de l’Internet en THD sera bien au cœur du débat.

--------------------------------------------------------------------------------------------------------

Session passée

SmartWIPclub du jeudi 26 avril 2012

SESSION PRIVEE

--------------------------------------------------------------------------------------------------------

Session passée

SmartWIPclub du jeudi 8 mars 2012

PILOTES ET DEPLOIEMENTS FTTH, PUBLIC/PRIVE

Table ronde débat avec :

- Laurent ROJEY, Directeur adjoint du programme Economie numérique, COMMISSARIAT GENERAL A L'INVESTISSEMENT (CGI) : partage d'enseignements sur le bilan des 7 projets pilotes FTTH

- Bertrand CAPARROY, Premier Vice-Président chargé des réseaux numériques, CONSEIL GENERAL DE SEINE ET MARNE (CG 77) : projet ambitieux sur des territoires tage d'enseignements sur le bilan des 7 projets pilotes FTTH

- Roland COURTEILLE, Directeur Général, MANCHE NUMERIQUE : l'un des deux premiers territoires ayant bénéficié de l'accord de principe de l'Etat pour un soutien dans le cadre des investissements d'avenir

- Laurent DEPOMMIER-COTTON, Associé Gérant, PERFORMANCE MANAGER PARTNER (cabinet PMP) : Corédacteur du rapport "Evaluation des projets pilotes FTTH". Synthèse et bonnes pratiques

- Patrick CHAIZE, Directeur, SYNDICAT INTERCOMMUNAL D'ENERGIE ET DE E-COMMUNICATION DE L'AIN (SIEA) : la collectivité française la plus avancée (en nombre de lignes) dans le déploiement d’un réseau FTTH public avec le réseau Li@in 

Prise de parole opérateur privé :

- Bruno JANET, Directeur des Relations avec les Collectivités Locales Groupe et Conseiller spécial du Président, FRANCE TELECOM ORANGE : articulations, moyens et actions de complémentarité et de mutualisation dans les déploiements FTTH publics privés, initiatives avec les autres opérateurs privés


L’année 2011 s’est achevée en demi-teinte sur le front du Très Haut Débit dans les territoires, laissant certaines collectivités perplexes quant à leur rôle et moyens définis dans le Programme National du THD, et des opérateurs privés contraints par un contexte économique morose et une actualité fortement perturbatrice.

Mais l’heure est maintenant à l’action et aux projets qui font corps.

Avec un recul de plus de six mois, que nous enseignent de vraiment structurant les projets pilotes FTTH ? Comment les collectivités ont-elles décidé d’innover pour articuler leurs déploiements de FTTH et d’autres technologies éligibles au Très Haut Débit. Mutualisation des réseaux hors zones très denses, complémentarité des investissements des opérateurs privés avec les projets de Réseau d’Initiative Publics FTTH, réactualisation des intentions d’investissement des opérateurs privés… autant de points visant ce qui a été fait, ce qui est en train de se faire et ce qui pourrait bientôt être fait... On croyait la France paralysée dans des débats. On constate qu’elle a des ressources inattendues pour passer à l’action.

Pour autant, la carte du tendre du THD dans les régions est loin d’être simple à décrypter. Ce « work in progress » s’illustre bien dans deux actualités récentes : d’un côté la signature de la convention régionale signée entre l’Auvergne et FT Orange qui constitue une première en France ; de l’autre l’adoption par le Sénat de la proposition de loi sur l’aménagement numérique du territoire déposée par Hervé Maurey et Philippe Leroy qui  fixe à 2 Mbit/s le débit minimal dont pourra se prévaloir au 31 décembre 2013 tout abonné français au haut débit. Et, plus ambitieux encore, ce seuil fixé de  8 Mbit/s au 31 décembre 2015, alors que le Plan France Numérique 2012-2020 ne faisait état que d’une obligation de 5 Mbit/s sur tout le territoire.

Avec donc cette question en arrière plan : cette obligation portée sur le Haut débit va-t-elle entraîner une modification des actions et projets sur le Très Haut débit dans les conventions de partenariat public privé puisqu’elle impose des obligations nouvelles et plus fortes aux opérateurs privés ? Une question qui se pose à l’heure où certains se demandent si la bagarre sur les parts de marchés du mobile ne va pas encourager certains opérateurs à accélérer leurs investissements sur la 4G aux dépens du FTTH.



--------------------------------------------------------------------------------------------------------

Session passée

SmartWIPclub du mardi 7 février 2012

2012, ANNEE DU LTE : UNE MISE EN PERSPECTIVE S'IMPOSE

Table ronde débat avec :

- André MECHIALY, Vice-Président Marketing & Stratégie, ALCATEL-LUCENT, (perspectives du LTE, nouveaux services testés par l'équipementier leader dans le monde sur LTE)

- Michel CORRIOU, Responsable du développement IMAGINLAB, IMAGES & RESEAUX, (réalité, performances, challenges et 1ère mondiale du LTE à travers le déploiement expérimental et indépendant de Brest)

- Jean-Pierre BIENAIME,  Président, UMTS FORUM (état sur les déploiements LTE dans le monde, les services et les modèles d'affaires)

Notre premier débat de l’année au SmartWIPclub portera sur LTE, la première génération de la 4G, 4ème génération mobile, dont la première mise sur orbite en France est prévue en fin d'année.  Seulement en 2012, ironiseront certains, car si l’Europe du Nord puis l’Asie ont été pionniers, tout se passe maintenant aux Etats-Unis qui ont plusieurs longueurs d’avance dans les déploiements LTE sur des pays comme la France.

Ainsi Verizon US mène une stratégie de déploiement très agressive, avec déjà 50% du marché de LTE, et une ambition affichée de supplanter le plus vite possible la 2G et la 3G, avec 110 millions d’abonnés et 38 villes couvertes aux USA. Son concurrent Sprint a décidé d’embrayer à son tour, et pour accélérer ses déploiements, il s’est même associé à LightSquared, une entreprise qui déploie des réseaux LTE dans le seul but de revendre de la capacité en gros au coût de 10 $ le gigabit ! Un modèle économique inédit pour un opérateur… et qui pourrait en inspirer certains en Europe.

Il est vrai que, contrairement à l’Europe, les terminaux LTE, tablettes smartphones inclus, sont déjà légion aux Etats-Unis. Il est également vrai que la croissance vertigineuse de la data mobile sature les réseaux actuels. Un chiffre est révélateur : Verizon affirme qu’en 2010, il a déployé 15 fois plus de bande passante aux US que dans les 10 années qui ont précédé. A cause de l’essor de la vidéo et de la data mobile, notamment. 

Dans ce contexte, LTE est une aubaine car c’est la première infrastructure mobile nativement IP, capable d’offrir 10 fois plus de débit que la 3G (pour absorber le trafic) et une latence très faible (idéale pour accompagner les nouveaux usages temps réel comme le vidéochat mobile).

Mais l’intérêt de LTE n’est pas seulement dans sa perspective d’absorber le trafic mobile. Il s’inscrit surtout dans la perspective pour les opérateurs de créer de nouveaux modèles d’affaires (forfait Premium iTunes ou Facebook illimité, coût évolutif en fonction de l’utilisation en heures creuses ou pleines, tarif proportionnel au niveau de QoS ou de temps de latence sur tel ou tel service, etc.), d’augmenter singulièrement l’ARPU (celui de Verizon sur LTE est déjà le double de celui d’un opérateur mobile français sur la 3G) et de changer d’époque : vendre des services et non plus essentiellement de la voix, cette dernière constituant encore 80% de leurs revenus. 

Pourquoi ? Parce que la voix sur mobile tend à suivre le chemin de la voix sur le fixe… c’est-à-dire que les appels vers les mobiles vont devenir gratuits comme un service de commodité proposé de fait dans tout package au forfait. Pour certains observateurs, si les opérateurs occidentaux ne s’adaptent pas au marché (concurrence des services gratuits des acteurs du Web comme la VoIP mobile, marché arrivé à saturation), à la demande des utilisateurs (plus de réseaux sociaux et de flux vidéos, gros consommateurs de bande passante que l’opérateur doit fournir) et ne changent pas de business models, un grand nombre d’entre eux devraient commencer à perdre de l’argent en 2014.

Un exemple : quand un usager streame 3 mn de vidéo YouTube sur son smartphone, le flux transitant sur les réseaux mobiles équivaut à 500 000 SMS ou encore à 100 fois le volume data que requiert un appel en voix sur mobile de la même durée. De la charge sur le réseau, certes, mais aucun revenu marginal pour l’opérateur. 

Et si l’usager peine à se connecter sur YouTube, ce n’est pas à ce dernier qu’il en veut, mais à son opérateur. Avec les perspectives de résiliation de contrats de clients insatisfaits du service – une tendance que les experts voient prendre des proportions inquiétantes à compter de 2013. L’opérateur est aujourd’hui coincé entre le marteau et l’enclume. Et ce n’est pas la net neutralité qui va le sortir du mauvais pas où il se trouve acculé.

LTE = WWW... comme Web Without Wired

Or LTE pourrait offrir un bol d’air frais aux opérateurs. Non seulement, ce nouveau réseau réduit les coûts opérationnels, d’énergie et de maintenance par rapport à un réseau 3G+ (le coût du Mb pourrait baisser de 30 à 44 % en 2015 !) mais il est aussi plus intelligent pour combiner les flux, optimiser les pics et temps creux en temps réel en allumant et éteignant automatiquement des cellules, et mixer plusieurs services entre eux pour proposer une expérience nouvelle, personnalisée et plus riche à l’usager. 

Un exemple, un usager pourrait à partir de son carnet d’adresses mobile, passer d’un profil Facebook à un vidéochat à son application géolocalisée dans une même session de communication. A titre de comparaison, aujourd’hui, il est impossible à un usager Skype de communiquer en vidéo avec un usager Google ou Apple, car les plateformes des acteurs Over The Top sont totalement non interopérables. D’où l’énorme avantage que la 4G pourrait conférer aux opérateurs mobiles pour reprendre la main face aux acteurs du Web… à travers des services innovants, différents de ceux de la concurrence (c’est ce que Verizon tente aujourd’hui vis-à-vis d’AT&T), segmentés (quelle réelle différence y a-t-il aujourd’hui dans les forfaits pour ados et pour cols blancs ?).

Le tout s’appuyant sur du WiFi tous azimuts pour la collecte, les small cells en zone dense pour absorber les pics de trafic, les femtocells à l’intérieur des bâtiments et sur le cloud computing pour réaliser les calculs et fournir les services personnalisés dans un mode plus distribué et moins centralisé qu’aujourd’hui. 

Pour arriver à une telle personnalisation à outrance du terminal mobile en organisant l’univers de l’individu autour de son terminal, les opérateurs doivent changer de backhaul, de cœur de réseau et de procédure d’accès. Tout en même temps. Et continuer malgré tout à supporter leur réseau 3G. C’est une énorme pression en terme de d’investissement et de gestion de projet pour un opérateur.  

De surcroît, avec LTE, il y a une complexité supplémentaire liée aux OS, aux spectres - tous différents d’un pays à l’autre – et aux terminaux. Car l’un des défis est précisément la connectivité multimode qu’on annonce pour demain : 2G, 3G, LTE, LTE Advanced, WiFi, NFC… si on ajoute bluetooth, le GPS, le support de Galileo la vidéo HD… sur le même appareil, il faut augmenter de manière drastique la puissance et l’intégration de toujours plus de chips sur les terminaux sans pénaliser la durée de vie des batteries. Et aujourd’hui, aucun  fabricant n’est arrivé à résoudre parfaitement cette quadrature du cercle.

Bien d'autres challenges restent encore à relever. A commencer par la Voix sur LTE (VoLTE). Parce qu’il est data only et ne sait pas différencier les flux voix ou multimédia contrairement au GSM, LTE ne supporte pas la voix sur mobile. Donc pas de roaming possible entre réseaux 3G et LTE, ni même entre deux réseaux LTE. Exemple concret aux Etats-Unis : aujourd’hui, un abonné LTE de Verizon ne peut communiquer en VoLTE avec un abonné LTE d’AT&T. Certains ironisent déjà sur cette « régression » peu mise en avant de la 4G.

Cela dit, le problème a sa solution. La voix sur LTE renvoie à la VoIP qui elle, dépend d’IMS qui sera long et complexe à implémenter côté réseaux pour faire fonctionner ensemble tous ces mécanismes qui vont permettre de nouveaux services IP mobiles. Un opérateur comme AT&T prévoit d’avoir résolu cette question de la VoLTE d’ici à 2014.

Un fait est sûr, la 4G est lancée mais le chemin du LTE est long et complexe tant les défis techniques et les challenges business s’avèrent immenses pour les opérateurs. Certains – aux US - ont décidé de tout miser tout de suite sur la 4G, d’autres – en Europe -, font montre de plus de prudence face à une technologie encore immature.

Entre la fable du lièvre et de la tortue, et le « first mover advantage », les paris sont ouverts.

--------------------------------------------------------------------------------------------------------

Session passée

SmartWIPclub du mercredi 9 novembre 2011

ANDROID : ET AUSSI DANS VOTRE VOITURE, VOS LUNETTES OU VOTRE LAVE LINGE

Table ronde débat avec :

- Cédric RAVALEC,  Président-Directeur général, GENYMOBILE (groupe de technophiles experts en problématiques liées aux objets tactiles et communicants)

- Marc MERLINI, Directeur des applications grand public, JCDECAUX, (numéro un mondial du mobilier urbain)

- Eyal LEZMY, Co-fondateur du PAUG, PARIS ANDROID USER GROUP (communauté des développeurs, bloggeurs, opérateurs et passionnés d'Android)

- Henri SEYDOUX,  Président-Directeur général, PARROT (leader mondial des périphériques sans fil pour téléphones mobiles)

Notre prochain sujet traite de l’arrivée d’Android dans des environnements contraints autres que le mobile et la télévision, en particulier dans l’industrie et dans toutes sortes d'objets usuels de notre quotidien.

Anticipation ? Pas du tout. L'écosystème Android s'y prépare, les prototypes s'élaborent, des projets sont prêts et la demande des industriels est pressante. 

A preuve les projets étonnants sur lesquels travaillent les communautés de développeurs et de technophiles comme Genymobile et le Paug.

Et côté industrie, les développements en cours chez Parrot et JCDecaux.

Célébré pour son AD Drone, un quadricoptère équipé d’une caméra vidéo qui se pilote à partir d’un smartphone, Parrot est aussi le premier constructeur à avoir développé un système stéréo pour voiture fonctionnant sous Android. Est-ce là un premier pas vers une « androïsation » des véhicules… ? Et pourquoi ?

Initiateur du velib à Paris, JCDecaux porte le concept de mobilier urbain interactif de demain (tel cet abribus installé Place de la bastille et doté d’un téléphone Android d’un écran de 42 pouces tactile multipoints). Avec à la clé, l’idée de se transformer en fournisseur de plateformes de services s’appuyant sur un écosystème riche, celui des développeurs Android.  

Le Machine to Machine n'est pas nouveau, mais My Machine, c'est un concept totalement novateur qui est en train de naître. Avec pour seule limite, celle de l'imagination des développeurs et des industriels.

Ou comment apporter par les services connectés et personnalisés une nouvelle valeur d'usage aux objets. Même - et peut-être surtout - pour madame Michu.

Ce débat vise à comprendre et à illustrer :

- pourquoi l’arrivée de l’écosystème Android dans le secteur industriel peut faire naître une nouvelle génération d’objets communicants et de services qui vont profondément élargir le spectre d’usage de ces mêmes objets et créer une valeur à caractère différentiant ?


- est-ce l’avènement d’un premier internet des objets centré sur l’utilisateur et d’un nouveau paradigme du nomadisme des machines usuelles pour tous ?


- quels en sont les prémisses, et comment s’opère ce mouvement ?

- quels en sont les enjeux (Transformation structurante pour un industriel en fournisseur de plateformes de services du 21ème siècle ? Transfert de la valeur du hard au soft puis du service à l'expérience en communauté, etc.) ?

-
que pourrait permettre l’interface tactile greffée sur des objets, la connectivité enrichie et la dimension « over the top » de toute une gamme de biens et d’équipements, de l’électroménager à l’automobile, du mobilier urbain au vêtement ?


-
quelles perspectives promet Android comme contrôleur de processus et support de fonctions et de services enrichis, et pas seulement comme interface ?

- quid des challenges que présente le portage d’Android dans des environnements contraints (un habitacle fermé comme celui d’un véhicule, nécessitant des écrans non tactiles et des connexions avec des terminaux externes comme les smartphones, les tablettes, etc.) et sur des produits autres que des terminaux non naturellement communicants et avec des capacités matérielles limitées tels qu'un lave linge ?

- quels défis en matière d’industrialisation, de sécurité des accès et des données, par exemple en domotique si un système comme Android devient le « majordome » omniscient de tout ce qui se passe à l’intérieur d’un domicile privé ?

- en quoi l’écosystème ouvert d’Android et sa communauté de professionnels et de développeurs peuvent s’avérer être un formidable accélérateur et stabilisateur de marché ?

-
comment se dessinent la structuration des acteurs et la création de nouvelles chaînes de valeur pour accompagner la transformation de ces industries ?
Quels seront les modèles économiques associés ?

- nombreux exemples de produits en cours de développement, de projets et de pilotes…

- etc.

--------------------------------------------------------------------------------------------------------

Précédente session

SmartWIPclub du mercredi 5 octobre 2011

Y A-T-IL UN AVENIR POUR LES OUTILS D'INTERVENTION PUBLIQUE DANS LA FIBRE ?

Table ronde débat avec :

- Katia DUHAMEL,  Avocat et Senior european consultant, BIRD & BIRD

- Robert STAKOWSKI, Directeur de projets senior à la Mission d'Appui à la réalisation des contrats de Partenariat Public Privé, DIRECTION GENERALE DU TRESOR - MINISTERE DE L'ECONOMIE ET DES FINANCES (en attente de confirmation)

- Roland COURTEILLE, Directeur général,  MANCHE NUMERIQUE 

- Christophe MICHELET, Directeur général, PARTENAIRE FINANCES LOCALES


Nous voilà à un moment charnière où de nombreuses voix s’élèvent tantôt pour dénoncer la stratégie française qui prévaut en matière d’aménagement numérique du territoire et de très haut débit, tantôt pour s’interroger sur le bienfondé des montages et des outils d’intervention publique pour le déploiement de la fibre optique.

C’est ce deuxième aspect de la question dont nous allons débattre le mercredi 5 octobre au SmartWIPclub. Le premier aspect sera, quant à lui, abordé lors d’une toute prochaine session.

Déjà, des acteurs proches du terrain soulignent la fragilité de certaines délégations de service public (DSP) qui ont cours actuellement, avec des délégataires pris à la gorge et des collectivités qui s’attendent au pire dans les prochains mois (en l’occurrence, le pire est toujours un surcoût exorbitant pour la puissance publique…) 

Pour d’autres, les partenariats publics privés (PPP) sont trop lourds à élaborer dans le cadre de l’aménagement numérique du territoire et ne trouveraient leur justification que dans des projets de très grande envergure qui dépassent le niveau départemental tels que ceux de l’Auvergne et de la Bretagne.

Or, avec les déploiements en très haut débit, nous changeons d’échelle. Il ne s’agit pas, comme dans le département de la Manche, par exemple, de déployer sur dix ans un réseau de collecte de 1 000 kms en fibre optique pour supporter la desserte en ADSL, mais de construire un réseau de 15 000 kms de fibre en quinze ans pour apporter les services de très haut débit aux usagers. Autant dire que les projets de très haut débit doivent être autrement plus sécurisés, financés, et optimisés tant sur le plan économique que sur celui de la maîtrise d’ouvrage.

Voilà sans doute pourquoi, qu’on soit opérateur ou collectivité, on semble brûler aujourd’hui des modèles qu’on adorait hier : n’est-ce pas le cas du modèle de délégation de service public avec concession ?

Par ailleurs, il n’aura échappé à personne que les temps qui courent sont singulièrement peu propices aux plans d’investissement à long terme. Les banques sont aux abois, la relance est en berne, les financements se font rares, et notamment ceux venant de la sphère publique.

Si donc les outils et les montages de financement existent, ils semblent dispersés, mal coordonnés, peu adaptés à la nouvelle donne entre opérateurs et collectivités ainsi qu’aux économies d’échelle requises, et surtout limités sur fond de crise financière aigüe.

Mais c’est aussi dans la tourmente et face aux impasses que des idées neuves jaillissent, que des initiatives émergent, que des outils s’effacent quand d’autres apparaissent ou s’adaptent en devenant plus flexibles.

Et si, au terme de sa réflexion actuelle, la Commission européenne décidait d'émettre des obligations pour financer les projets en PPP, en substituant ainsi la dette bancaire par une dette obligataire ? En mettant en quelque sorte « les banquiers hors du coup », - c’est-à-dire dehors !- et en garantissant le PPP entre un opérateur privé et une collectivité par un fonds alimenté par l'émission d'obligations européennes ? 

Iconoclaste ? Pas si sûr !

C’est à cette photographie commentée, en négatif et en positif, que nous vous convions le 5 octobre. 

Cette mise en bouche appelle de nombreuses questions auxquelles sera consacrée une grande partie de notre débat : 

- quel est le bilan actuel des outils d’intervention pour l’aménagement numérique des territoires : DSP, PPP, Régie… affermage, concession, gérance…

- quid de l’impact du contexte économique qui prévaut, mais aussi des décisions politiques et réglementaires en cours sur la mise en œuvre de ces outils sur le terrain et sur leur gestion à moyen et long terme

- la DSP, le meilleur modèle ? Hier peut-être mais aujourd’hui ? La régie comme outil offrant le plus de compétitivité ? Au départ, sans doute, mais à moyen et long terme ? Les contrats de partenariats publics privés à la française (PPP) sont-ils appropriés au regard de la culture française et de l'économie des réseaux FTTH ?


- les DSP et PPP qui ont fonctionné sur le marché du Haut Débit sont-ils réplicables au marché du Très Haut Débit dans les territoires au regard du clivage zones denses zones blanches ?

- DSP versus PPP : comment évaluer la place du curseur du risque entre opérateurs privés et collectivités en fonction des aléas du déploiement, de la commercialisation des services, des objectifs et des marges de manœuvre de chacun ?

- Est-ce qu’en l’état, un équilibre économique satisfaisant toutes les parties est possible pour l’aménagement du territoire ? A quelles conditions ?


- Exemples en France et à l’étranger de DSP et de PPP. Pourquoi ça marche, pourquoi ça ne marche pas ? Les types d’intervention originaux qui fonctionnent bien à l’étranger sont-ils reproductibles en France ?

- Peut-on envisager le montage de super DSP ou de PPP à l’échelon régional ?

- etc.

--------------------------------------------------------------------------------------------------------

Session passée

SmartWIPclub du jeudi 8 septembre 2011

MONTEE EN DEBIT et VDSL2 : COMPLEMENTARITE ou CONCURRENCE avec la FIBRE ?

Table ronde débat avec :

- Antoine DARODES,  Directeur des Marchés Haut et Très Haut Débit et des relations avec les Collectivités, ARCEP

- Sophie ROGNON, Directrice du Pôle mobilité durable et numérique, CONSEIL  REGIONAL D’AUVERGNE – AUVERGNE NUMERIQUE

- Jean-Luc SALLABERRY, Chargé de mission Montée en Débit, AVICCA

- Xavier MAURICE, Directeur du Business Développement RIP, ORANGE OPERATEURS FRANCE 

- Cyril LUNEAU, Directeur, SFR COLLECTIVITES


Le dispositif de Montée en Débit (MeD) validé le 14 juin dernier par l’ARCEP et la probable arrivée de la technologie VDSL2 dans les prochains mois en France rendent-ils caduques les projets de déploiements de FTTH dans les zones rurales ou peu denses ?

Ou s’agit-il au contraire d’une approche pragmatique de la situation ? Une approche qui vise à répondre rapidement aux attentes des usagers qui pâtissent de débits de connexion insuffisants quand, par ailleurs, les perspectives de déploiement de FTTH en zones rurales restent très incertaines, faute de financement disponible et de montage juridique adéquat, faute de lisibilité économique.

N’est-ce pas aussi une solution de bon sens et de transition, considérant que les opérateurs sont occupés à équiper les zones denses qui offrent une équation bien plus rentable ? Et que leurs capacités opérationnelles ne sont de toutes façons pas illimitées.

Complémentarité ou concurrence ? Aménagement intelligent ou enterrement de la Fibre ? C’est bien le cœur du débat qu’alimentent la Montée en Débit et, dans son sillage, le VDSL2. Et cette session du Club n’en fera pas l’économie. Partisans et opposants sont nombreux, y compris au sein des collectivités dont certaines prônaient cette augmentation de débit à l’usager depuis des années, ou des opérateurs FAI qui ne portent pas tous le même jugement sur les conséquences que ces évolutions pourraient avoir sur l’équilibre concurrentiel actuel du marché du haut débit.

En préambule, et parce que la lecture du dossier Montée en Débit s’avère bien plus complexe qu’il n’y parait à prime abord, il s’agit de savoir de quoi il en retourne précisément. La MeD consiste en une solution filaire via l’accès à la sous boucle locale de cuivre de France Telecom pour rapprocher des utilisateurs le site où se trouvent les équipements actifs des opérateurs FAI d'où partent les signaux DSL. Concrètement, ces équipements (DSLAM) pourront être installés près du sous répartiteur alors qu’ils ne sont aujourd’hui installés que dans les répartiteurs (NRA). 

Fait d’importance, la liaison de raccordement entre le sous répartiteur et le NRA sera réalisée en fibre optique (elle était en cuivre dans certains dispositifs précédemment déployés et connus sous le nom de NRA-ZO). Cette liaison 100% fibre couplée au fait de rapprocher physiquement les DSLAM des foyers des utilisateurs se traduisent pour ces derniers par une augmentation de débit sensible. Selon les études effectuées, 3 millions de foyers sont concernés par la MeD. A terme, c’est un débit de 10 mégas minimum dont pourrait dès lors profiter plus de 90 % de la population, étant entendu que seuls 20 000 des 126 000 sous répartiteurs que compte notre pays sont concernés par cette évolution technologique. Ce n’est pas encore du Très Haut Débit pour tous mais c’est du Bon Débit pour beaucoup !

Un nouveau volet dégroupage…

Autre pont connexe, l’accès à la sous boucle locale de France Telecom permettant la Montée en Débit s’accompagne d’une nouvelle obligation imposée par l’ARCEP à l’opérateur historique via un Point de Raccordement Mutualisé (PRM). L’offre PRM de France Telecom pourra ainsi être utilisée dans le cadre d’un Réseau d’Initiative Publique, notamment par un opérateur aménageur déployant pour le compte d’une collectivité.

Et côté coût ? Selon les experts proches du dossier, l’aménagement d'un site NRA en MeD devrait s’établir entre 30.000 et 50.000 € dans 80 % des cas. Auquel s’ajoute le coût d’infrastructure en fibre optique qui est, lui, fonction de chaque cas. Mais pour la plupart des sous répartiteurs concernés, le coût total moyen d’une solution de Montée en Débit (infras + PRM) devrait se chiffrer aux alentours de 100.000 euros.

Quant au VDSL2, voilà une autre technologie qui se pose en candidate pour la Montée en Débit. Certes, l’ARCEP ne l’a pas encore validée, certes la France n’en a jamais voulu au contraire de ses homologues allemand, belge et finlandais serait le VDSL2. Mais les performances élevées du VDSL2 dans le contexte actuel de blocage des dossiers du THD pour les zones blanches font que, dans les coulisses des réunions d’experts, on parle de son arrivée pour le début 2012.

Ces quelques point amènent de nombreuses questions auxquelles sera consacrée une grande partie de notre débat :

-         Que peut-on attendre de la Montée en Débit ?

-         Quid de la mise en œuvre sur le terrain de la MeD ? Qui va porter la demande ? Combien de temps cela prendra-t-il, notamment en fonction des limites opérationnelles de France Telecom ?

-         Quels sont les sous répartiteurs éligibles et ceux qui ne le sont pas ? Quels recours pourraient avoir les « oubliés de la MeD » ?

-         Quels sont en détails les coûts de la MeD pour un sous répartiteur. Et si l’enveloppe moyenne est de 100 K€ pour 80 % des cas, quid des autres 20% ?

-         Pourquoi une régulation spécifique de l’ARCEP ? En quoi diffère-t-elle de celle qui a encadré le dégroupage de la boucle locale ?

-         Qui devrait supporter les coûts de la mise en œuvre de la MeD ? L’opérateur historique, les opérateurs FAI, les usagers, la collectivité à l’origine du déploiement ? Et dans ce dernier cas, la collectivité conservera-t-elle la propriété des installations ?

-         Quelles solutions techniques ont été retenues pour l'accès à la sous boucle ? Et quelles en sont les conséquences, notamment du point de vue des collectivités ?

-         En quoi consiste l'offre PRM (Point de Raccordement Mutualisé) de France Telecom permettant la montée en débit via l'accès à la sous-boucle ? Quelle analyse peut-on en faire ?

-         La MeD ne va-t-elle pas retarder voire rendre obsolète pour longtemps le déploiement de la Fibre dans de nombreuses régions ? Et priver ainsi une partie de la population de services innovants que seuls une infrastructure de fibre optique permet de développer ?

-         Quel impact la MeD peut-elle avoir sur l’équilibre des forces en présence sur le marché du haut débit ? Qu’en pensent les opérateurs alternatifs ?

-         Les solutions filaires sont-elles le seul moyen de parvenir à une augmentation de débit dans les zones rurales ? Ou compte tenu des coûts estimés et de l’état du réseau en cuivre dans certaines régions, cela ne donne-t-il pas un nouveau crédit à des solutions radios moins onéreuses à déployer et tout aussi prometteuses en termes de débits à l’usager ?

-         Le VDSL2 introduit-il des perturbations ? Quels opérateurs et FAI poussent-ils l’utilisation du VDSL2 sur la boucle locale de France Telecom, et pourquoi ?

-         Et compte tenu des performances élevées du VDSL2 (débit d’environ 50 Mbit/s), comment s’inscrit sa commercialisation potentielle en 2012 dans le cadre du programme de très haut débit ?

-         etc.

--------------------------------------------------------------------------------------------------------

Session passée

SmartWIPclub du jeudi 9 juin 2011

DSK, PRINTEMPS ARABES, MARIAGE PRINCIER... COMMENT TWITTER FACONNE L'OPINION ET SOCIALISE LA TV

Table ronde débat avec :

- Dominique CARDON, chercheur associé au Centre d’étude des mouvements sociaux, ÉCOLE DES HAUTES ETUDES EN SCIENCES SOCIALES (CEMS/EHESS)

- Jean-Yves STERVINOU, Fondateur, DEVANTLATELE.COM – SOCIAL TV

- Myriam L’AOUFFIR, Communication online & Social Media Manager, FRANCE TELEVISIONS

- Nicolas BRY, Directeur, ORANGE VALLEE


Notre débat du jeudi 9 juin au soir s’arrête sur un phénomène de société aussi curieux qu’inattendu : le rôle que Twitter, Facebook et autres réseaux sociaux jouent désormais dans notre rapport à l’événement et à la politique.

Parce qu’il révèle l’événement avant tous les autres médias, mais aussi parce qu’il joue un rôle croissant de caisse de résonance dans l’opinion, l’outil social de communication électronique est en train de nous changer, en même temps qu’il transforme les autres médias, à commencer par la télévision.

De la mort de Ben Laden à l’affaire DSK, des soulèvements arabes au mariage princier d’Angleterre, les exemples ne manquent pas pour décrypter ce qui s’est réellement passé sur les réseaux sociaux et comment se façonnent non pas l’opinion mais les opinions.

La deuxième partie de notre débat portera sur l’impact des réseaux sociaux aussi bien sur les niveaux d’audience que sur la programmation et les stratégies de diffusion des grands médias audiovisuels qui voient désormais le média social comme un formidable levier de changement et non plus comme une menace.


--------------------------------------------------------------------------------------------------------

Session passée

SmartWIPclub du jeudi 19 mai 2011

BIENVENUE A LA STREET MOBILE LIFE... SANS CONTACT

Table ronde débat avec :

- François LECOMTE, Délégué général, FORUM DES SERVICES MOBILES SANS CONTACT

(analyse du décollage des services mobiles sans contact, illustrations et synthèse des expérimentations, les projets en lancement, le rôle moteur des territoires et l’évolution des écosystèmes)

- Edouard DUFFAU, Directeur Ad Hoc Stratégiques, MV2 GROUP

(quels services plébiscités, quand, où, contexte ? quelles attentes prospectives des utilisateurs – présentation des résultats de l’étude Perception et intérêt pour les « services mobiles sans contact »)

- Roberto MAURO, Directeur Stratégie et Développement, SAMSUNG ELECTRONICS

(des mobiles NFC en 2011, est-ce tard ?... ou trop tôt ? Parallèle entre les écosystèmes des médias et celui des paiements : écosystèmes ouverts et fermés, avantages et inconvénients ? Des usagers prêts à changer en masse leur téléphone mobile pour bénéficier du NFC ?) 

- Didier DURAND, Directeur du Projet Sans Contact Mobile, ORANGE FRANCE

(retour d’expérience sur Citizy dans le cadre de Nice; 2011 année du déploiement national du sans contact sur mobile en France) 


La France serait-elle aux avant-postes du marché des services mobiles sans contact ? Oui si l’on en juge les observateurs et acteurs de terrain qui ont disséqué les différents pilotes en France et notamment l’expérimentation de Nice, véritable laboratoire en grandeur réelle du sans contact mobile.

Oui mais… si l’on regarde les effets de seuils de ce marché et les masses critiques qu’il doit encore atteindre. Oui pour le moment… car l’entrée en fanfare de Google sur le NFC aux Etats-Unis tout comme les initiatives britanniques et anglaises montrent que l’ère de la mobile street life a bel et bien sonné au plan mondial. Tant chez les Facebook prepubères que chez les générations moins geeks mais non moins mobiles qui ne s’attardent qu’au bénéfice pratique que leur apporte une technologie. Et à cet effet, il semble que le NFC ait conquis des adeptes depuis un an.

La bonne nouvelle, c’est en effet le fort plébiscite des usagers pour ces technologies dès lors qu’ils peuvent expérimenter des services au quotidien. Faciliter leurs déplacements, simplifier leurs démarches administratives, se localiser, butiner l’information à la volée et à la demande dès et quand ils en ont besoin dans la rue ou chez un commerçant. L’addiction aurait même son étalon mesure : environ trois utilisateurs sur quatre seraient prêts à changer leur mobile pour un modèle leur ouvrant les portes de ces nouveaux services.

Du coup, la perspective qu’un million de téléphones sans contact pourraient avoir été vendus en France fin 2011 paraît possible. Car partout, des lancements de mobiles NFC, presque un « must have » désormais pour les smartphones. Et dire qu’il y a un an, c’est cette même pénurie d’appareils NFC qui semblait être le principal frein au décollage de ce marché. Le dilemme de la poule et de l’œuf aurait donc trouvé sa solution.

Une autre interrogation portait sur la réalité du paiement mobile sans contact. Là encore, l’expérimentation de Nice apporte des pistes avec 200 000 habitants ayant reçu une Carte Bleue Visa dotée de la fonctionnalité sans contact en remplacement de leur carte bancaire classique ou un téléphone portable intégrant la technologie sans contact.

Au-delà des services, des pratiques des utilisateurs mais aussi des freins qui restent à lever ou des expériences clients qui doivent être améliorées, c’est la complémentarité des actions des différents acteurs qui est intéressante à étudier et comment l’écosystème a évolué en un an (notamment sur le rôle de chacun pour garantir l’intégrité et la sécurité d’un acte de paiement). Place de la carte SIM ? Prédominance ou complémentarité d’un opérateur plutôt qu’un autre : mobile ou bancaire ? Poids du fabricant du terminal NFC (au moment où un acteur comme Apple tend à diriger le parcours client jusqu’au paiement au sein de sa plateforme de services en ligne et, peut-être, à contourner les opérateurs) ?

Et enfin, l’expérience de Nice démontre la place des collectivités au centre de cette mécanique de nouveauté marché tant parce qu’elles ont la clé d’un des facteurs de succès : le multi-services de proximité, que parce qu’elles gèrent les transports publics de la ville. Nul doute que la mobile street attitude semble pour l’heure très corrélée aux modes de déplacement des usagers des technologies sans contact (billettique, horaires, information touristique, orientation…).

Cette session sera aussi l’occasion de parler de l’après Nice, et notamment des huit autres territoires français qui viennent de s’engager dans un développement rapide des services NFC chez eux.


--------------------------------------------------------------------------------------------------------

Session passée

SmartWIPclub du jeudi 28 avril 2011

WIFI DE DELESTAGE ET MEGASPOTS POUR DES RESEAUX MOBILES QUI SATURENT

Table ronde débat avec :

- Philippe LE GRAND, Vice-Président, NOMOTECH

- Arnaud LEHUNG, EMEA Marketing Director, RUCKUS WIRELESS

- Cédric GONIN, Co-Chair, WIRELESS BROADBAND ALLIANCE

Même s’il fait moins parler de lui que les réseaux cellulaires, le WiFi évolue et devient une technologie de réseau incontournable. En outre, l’essor des tablettes et des smartphones lui confère un nouveau rôle, celui de palier la saturation des réseaux mobiles. Le nouveau WiFi, plus puissant, plus souple, bourgeonne partout dans le monde, tant sous la forme de hotspots lowcost que sous celle de megaspots capables de supporter des milliers de connexion simultanées.

Les chiffres donnent le vertige. En 2014, on devrait compter deux milliards d’utilisateurs d’Internet mobile, soit une croissance à… trois chiffres. Déjà actuellement, l’explosion du trafic de data mobile qui épouse celle des smartphones entraîne une sévère congestion des réseaux, notamment dans les zones urbaines denses. A certaines heures dans les centres villes, mais aussi dans des hôpitaux, sur des campus ou dans des lieux de vacances, il devient impossible de pouvoir surfer sur Internet depuis son mobile ou accéder à ses services avec une qualité suffisante. Tant la demande excède la capacité.

Désengorger ces « bouchons », c’est certes le premier enjeu de l’entrée en lice des réseaux mobiles de 4ème génération, dits 4G ou LTE pour Long Terme Evolution. Offrant un débit descendant théorique de 100 Mbit/s et davantage de connexions simultanées par cellule, ces réseaux sont aujourd’hui en tests en France avant l’ouverture commerciale prévue pour 2012. Mais il devient évident qu’il faudra des années avant que ces réseaux ne couvrent une partie substantielle des zones urbaines et que même complètement déployés, ils ne suffiront pas à absorber un trafic toujours plus conséquent.

L’urgence conduit donc à d’autres solutions. Et l’usage du WiFi pour délester une partie du trafic data des réseaux 3G en est une. C’est déjà le cas aujourd’hui dans de nombreux exemples en France, en centres villes mais aussi dans les ports ou dans les zones fréquentées l’été, à l’instar de ce que fait Nomotech dans les Landes avec 120 bornes WiFi qui absorbent le trafic d’Internet mobile des touristes.

Mais le WiFi voit aussi plus grand pour palier les limites des réseaux mobiles à l’instar de ce que Ruckus Wireless a réalisé dans le centre HongKong depuis deux ans ou des partenariats qu’il vient de conclure avec les grands opérateurs mobiles américains. Autre exemple, les megaspots sur des campus, des lieux d’événementiels – le récent Winter X Game en France - ou dans les grands stades comme celui de Hambourg, où moins d’une vingtaine de points d’accès WiFi suffit pour gérer jusqu’à 1 500 connections simultanées. Pour un coût et une rapidité de déploiement sans commune mesure avec une infrastructure de macrocellules de type 3G. Cela dit, l'usage "industriel" du WiFi auquel on assigne des objectifs de performance fait toujours débat !

Les collectivités sont évidemment sensibles à ces possibilités qu’offre le WiFi urbain – tout comme le Wimax d’ailleurs - comme maillage supplémentaire à l’Internet mobile et pour offrir à leurs administrés des services supplémentaires. De nombreuses initiatives sont à l’étude actuellement, par exemple celle qui consiste à déployer des hotspots bon marché chez tous les commerçants d’un centre ville pour offrir de l'accès Internet partout sur le territoire français. Ou la réinterprétation du WiFi communautaire tel que prônée par Fon et Ozone il y a quelques années. A cet égard, les déploiements d’Ozone ont repris depuis que Nomotech en a racheté les actifs à SFR l’année dernière.

Les opérateurs mobiles ont toujours été circonspects face au WiFi. En raison de l’absence de licence attachée aux bandes de fréquences de cette technologie radio et des difficultés à garantir un bon niveau de qualité de service et de handover. Mais si on utilise des bornes WiFi pour délester du trafic data et non pas délivrer des services vocaux, la qualité de service n’est plus réellement un enjeu.

Ont-ils d’ailleurs d’autres choix que de se tourner vers cette technologie ? La capacité des réseaux 3G atteint ses limites alors que la croissance dans les revenus data s’avère insuffisante pour contrebalancer le déclin des revenus liés à la voix. Les limitations d’accès et les plafonds de trafic qu’imposent les opérateurs au sein des forfaits qui n’ont d’illimités que le nom rendent l’expérience utilisateur de plus en plus inconfortable. Il existe donc un risque élevé et un coût certain à ne rien faire.

Enfin, deux points plaident en faveur du WiFi. Les smartphones - un terminal mobile sur deux vendus à ce jour – et les tablettes tactiles supportent tous nativement le WiFi. Et l’usage de ce réseau, en complément ou en substitution de la 3G, notamment à l’intérieur d’un bâtiment ou du domicile, est aussi répandu que simple à activer – ce qui n’a pas toujours été le cas par le passé. Ensuite, le WiFi a bénéficié d’innovations continues depuis dix ans. Des déploiements à large échelle ont prouvé que des réseaux WiFi de plusieurs milliers de bornes pouvaient être opérés de manière efficace et centralisée, et que ces megaspots permettaient  de gérer la mobilité et l’authentification de manière fine : on est loin de la situation des années 2005 où le WiFi était associé à un champ de nénuphars sur un étang comme autant de hotspots disparates et isolés que seules « des grenouilles pouvaient utiliser en sautant de l’un à l’autre ».

On imagine d’ailleurs mal comment le nouvel opérateur mobile Free pourrait se passer des possibilités qu’offre le WiFi comme réseau de délestage du trafic data au moment où il va commencer à déployer son infrastructure de réseau mobile 3G.

--------------------------------------------------------------------------------------------------------

Session passée

SmartWIPclub du jeudi 17 mars 2011

SOIREE PRIVEE

--------------------------------------------------------------------------------------------------------

Session passée

SmartWIPclub du jeudi 10 février 2011

"LES MEDIAS SOCIAUX EXPLIQUES A MON BOSS"

Table ronde débat avec :

- Yann GOURVENNEC, Co-fondateur de MEDIA ACES et Head of Digital de ORANGE BUSINESS SERVICES
Ex-Innovation Principal chez OBS

- Hervé KABLA, Co-fondateur de MEDIA ACES et CEO  de BLOGANGELS Ex-Directeur du SI commercial chez DASSAULT SYSTEMES FRANCE

Tous deux rédacteurs de l'ouvrage collectif  "Les médias sociaux expliqués à mon boss" et acteurs de la pratique et de la mise en oeuvre de ces outils au sein de grandes entreprises.

Media Aces est une association qui regroupe les entreprises françaises et européennes qui ont mis en oeuvre une démarche de médias sociaux, pour un usage professionnel (http://france.media-aces.org) : blog d'entreprise, compte Twitter corporate, page de fans produit ou marque sur Facebook, communautés, etc.

Hérité des pratiques du grand public, l’usage des réseaux sociaux commence à diffuser dans les entreprises. Mais avec des succès mitigés. Car si chacun réalise que publier une page Facebook ou tenir un blog à titre personnel n’est pas d’une grande difficulté, transposer les médias sociaux dans l’entreprise s’avère en revanche beaucoup plus complexe : il faut savoir aligner le fond et la forme sur la stratégie et la culture de l’entreprise, pouvoir argumenter face aux réticences et aux « incroyants », et convaincre en premier lieu son boss du réel bien-fondé de ces outils. Et ce n’est qu’une première étape !

En fait la difficulté pour une entreprise n’est pas tant d’autoriser voire d’inciter ses collaborateurs à utiliser les médias sociaux que de savoir comment les manager. Tout le reste ne serait que vacuum et promesse de normand pour quiconque aurait l’ambition de transformer les pratiques collaboratives de l’entreprise.

Or manager des médias sociaux ne s’improvise pas. Tous ceux qui ont plongé leurs mains dans le cambouis de ces outils du Web 2.0 ont davantage de « plantages » à partager que de succès. Et c’est heureux ! Donc s’il n’y avait qu’un seul message à faire passer, ce serait bien de se lancer pour apprendre en marchant.

En la matière, l’homme qu’a vu l’homme qu’a vu les médias sociaux ne vous sera d’aucune utilité, bien au contraire. C’est en forgeant qu’on devient forgeron et il existe peut-être autant d’approches de ces outils qu’il existe de cas d’entreprises. Mais pour initier un projet qui ne coupe pas court après quelques mois, il faut d’abord comprendre de quoi l’on parle. Et notamment à travers ce qu’on en fait les autres.

C’est fort de ce constat que l’ouvrage collectif de MEDIA ACES, « Les médias sociaux expliqués à mon boss » dirigé par Hervé Kabla et Yann Gourvennec, prend tout son intérêt. Car il est écrit par ceux qui les ont mis en œuvre dans leur entreprise et qui les font vivre au quotidien sur le terrain.

Abondamment nourri d’exemples, de méthodologies, de schémas, de paroles d’experts, de témoignages de grandes (et petites) entreprises, il s'agit d'un ouvrage tourné vers la pratique, l’exemplarité et la réflexion.

Unique à ce jour, ce corpus de retour d’expériences et de témoignages s’articule autour de trois temps forts :

1/ le déclenchement. Pourquoi les médias sociaux en entreprise ? Que sont-ils ? En quoi sont-ils pertinents pour les entreprises ? Quels sont les ingrédients qui permettent de déclencher des initiatives de médias sociaux en entreprise, etc. ?

2/ le développement. Comment concrètement peut-on mettre en œuvre et développer l'initiative médias sociaux à l'intérieur de l'entreprise ? Et où le « comment » l’emporte sur le « pourquoi ». Principales méthodes de conduite du changement qui portent leurs fruits, et  analyse des moyens pour faire avancer le projet. Comment démarrer : seul ou avec un prestataire ?

3/ la structuration. De l’art de pérenniser la démarche de médias sociaux, l'encadrer, la réglementer. Conseils pratiques et fiches concrètes permettant de préparer son community management, ses guidelines, sa charte de la transparence. Et avec des slides libres d’usage pour appuyer son argumentation devant son boss…

 

Notre soirée du 10 février est donc dédiée aux médias sociaux par la pratique en entreprise, pour en expliquer la nature et la portée sur un plan concret, mais aussi pour débattre avec les auteurs de l’ouvrage des meilleures et des plus mauvaises pratiques du Web social en entreprise.

 

Chaque participant recevra un exemplaire du livre dédicacé par ses auteurs.

--------------------------------------------------------------------------------------------------------

Session passée

SmartWIPclub du mardi 18 janvier 2011

DES "MEGAS" SATELLITES pour l'Internet des zones blanches

Table ronde débat avec :

- Yves BLANC, Directeur des Affaires Institutionnelles et Internationales, EUTELSAT, Président, FRANSAT

- Romain BUCELLE, Directeur de l'Innovation et Responsable Ile de France, ALSATIS

- Jean-Christophe BABINET, Directeur FAI, VIVEOLE

- Philippe BOISSAT, Président Fondateur, 3I3S - INTERNATIONAL INDEPENDENT INSTITUTE FOR SPACE AND SATELLITE SOLUTIONS


L’Internet décolle dans le satellite ! Et c’est précisément l’accès des zones blanches et des foyers isolés privés à court ou long terme de réseaux de fibre optique qui constitue le nouveau moteur du satellite. Avec à la clé, des innovations technologiques majeures.

Jugeons-en. Après Google et son projet « Other 3 billions » visant à mettre sur orbite un chapelet de 8 satellites de nouvelle génération, après Vivéole qui vient d’annoncer en France la première offre dual play par satellite (Internet et téléphonie illimités), jusque là rendue uniquement possible par l’ADSL, l’innovation aujourd’hui se nomme Ka-SAT.

Ka-SAT, c’est le nom du nouveau satellite de plus de 6 tonnes qu’a lancé EUTELSAT le 26 décembre dernier. Premier d’une nouvelle génération de satellites multifaisceaux, Ka-SAT est d’abord entièrement dédié au haut débit. Ensuite, il est d’une puissance sans équivalent avec ce qui existait jusque-là au service de l’Internet. A lui seul, Ka-SAT représente une  puissance supérieure à l’ensemble de la flotte des 26 satellites déjà exploités par EUTELSAT.

Ka-SAT offre en effet offre une capacité de 70 Gbit/s sur toute l’Europe. Il est aussi le premier satellite exploitant 82 faisceaux associés à un réseaux de 10 stations au sol. En quelque sorte, il inaugure une nouvelle infrastructure satellitaire basée sur un réseau terrestre en épine dorsale, sorte de « backhaul » pour la connexion entre stations de bases, un concept similaire à celui qu’a retenu Google pour son offre satellitaire.

Grâce à cela, Ka-SAT a l’objectif de connecter 1 million d’Européens situés en zones blanches, dont 300 000 en France. Un chiffre à comparer aux 50 000 clients Internet français actuellement servis par satellite... et aux 500.000 foyers français non éligible à l’ADSL

Et si on considère que la force du satellite est de « s’affranchir du terrain » et de la notion de zone non-couverte, c’est-à-dire de pouvoir desservir tout individu où qu’il soit et immédiatement, on se plait à croire que cette technologie vient à point nommé dans le débat qui agite le déploiement de la fibre optique sur le territoire et le plan très haut débit pour tous.

Evidemment, quand on parle Internet par satellite, on pense immédiatement aux limites imposées par la technologie : débits réduits (pas plus de 2Mbit/s et bien moins dès lors qu’un certain volume mensuel de données a été consommé), voix montante étranglée, temps de latence important, coût élevé du forfait à l’abonné.

Certes, si les nouveaux satellites comme Ka-SAT ne concurrencent par la technologie reine qu’est la fibre optique en matière de Très haut débit, ils apportent néanmoins des progrès majeurs sur le plan des performances.

Ka-SAT va en effet fournir des débits de 10 Mbit/s à l’abonné en réception, contre 2Mbit/s usuellement aujourd’hui, et jusqu’à 4 Mbit/s en réception, ainsi que des seuils de volume mensuel de données significativement plus élevés, ce qui va rendre possible l’un des usages les plus plébiscités sur Internet : la video.

En outre, EUTELSAT précise"Ka-SAT permet de diviser par 8 le coût de production du mégabit et de réduire les prix des offres par satellite à des niveaux comparables à ceux de l'ADSL". En clair, le forfait de base à l’abonné devrait être inférieur à 30 € par mois, au moment où les offres FAI tendent à flirter avec la barre des 35 € du fait de la répercussion de la hausse de la TVA.

Une bonne nouvelle ne venant jamais seule, l’accès Internet par satellite est devenu depuis peu le seul service labellisé « Haut débit pour tous » par le gouvernement. Alors, bientôt labellisé Très haut débit ? Quoi qu’il en soit, il apparaît que le satellite revient au premier plan aujourd’hui dans le contexte du chantier du THD.

Cette session est donc l’occasion de faire le point sur le développement de l’Internet par satellite en France et en Europe, de l’illustrer par la position de responsables de territoires, les drivers, les facteurs clés, les freins (technologiques, économiques, juridiques,…) au déploiement de l’Internet par satellite, d’éclairer les innovations technologiques, notamment en ce qui concerne les performances des nouveaux satellites qui viennent d’être et vont être lancés (puisqu’on parle déjà de futurs satellites capables de délivrer 50 voire 100 Mbit/s).

Mais c’est aussi l’occasion de débattre du rôle du satellite et du soutien du gouvernement dans le cadre du volet C du programme national « très haut débit » pour les collectivités territoriales qui subventionnent l’achat de paraboles au bénéfice des foyers isolés, du projet MegaSat attendu vers 2015, pour lequel il est prévu un financement public. Et enfin des nouvelles offres de détails qui pourraient être commercialisées et selon quels modèles économiques.

--------------------------------------------------------------------------------------------------------

Session passée

SmartWIPclub du jeudi 16 décembre 2010

GOOGLE GOD : Google nous veut-il du bien ?

Présentation débat avec :

Ariel KYROU, auteur du livre Google God aux Editions INCULTE

Auteur, enseignant, rédacteur en chef du site Culture Mobile, ancien rédacteur en chef d’Actuel et directeur associé de la société Modernes Multimédias, Ariel Kyrou s’est longuement posé la question du rôle grandissant et omniprésent de Google dans notre vie dès lors que Google est Internet, et qu’Internet devient chaque jour davantage notre « cerveau » et celui de la planète.

Sa réflexion et son analyse paraissent dans un livre Google God  où il décrypte avec minutie et humour, sans manichéisme, les attributs et les actes de Google, sa toute puissance dans « le meilleur des mondes », et les implications de ce caractère si singulier de Google qui « n’oblige personne et qui n’est l’obligé de personne ». Entre pamphlet et essai philosophico-métaphysique.

C’est donc à une occasion exceptionnelle que nous vous convions pour écouter Ariel Kyrou sur la sphère Google et pour réfléchir avec ce fin connaisseur des milieux Internet et télécoms aux implications et devenir de notre société connectée. Et finalement, est-ce que les ambiguïtés de Google ne seraient-elles pas aussi les nôtres ?

Lors de cette soirée, nous aurons le plaisir de remettre à chaque participant un exemplaire dédicacé par Ariel Kyrou de son livre Google God.


Big Brother n’existe pas, mais Google est partout.

Au-delà de l’hégémonie croissante du géant de Mountain View dans des secteurs de plus en plus nombreux de l’Internet, du mobile, du livre, de la TV, demain, de l’énergie, des nano-puces bioniques, du génome et de l’espace, bref de tout ce qui préfigure l’osmose de l’être humain avec le champ numérique dans ses moindres gestes, désirs et relations à l’autre et à son environnement, quelle finalité s’est donnée Google ? Quelle est la vision d’une société qui se donne comme leitmotiv d’organiser toute l’information de l’univers, fut-elle demain dans votre caddie ou dans la rétine artificielle de votre grand-père ?

Nous nous posons trop peu cette question essentielle, alors que nous ne vivons que les débuts d’une transformation de notre civilisation, de nos êtres, dont Google est assurément le premier « symbole d’un nouvel âge du capitalisme, basé sur l’information et la connaissance.

Que veut Google ? Quelle sorte de nouveau dieu est-il ou veut-il devenir ? Jusqu’où sommes-nous disposés à permettre à Google de « penser » à notre place ? Une question qui renvoie à une récente déclaration du PDG de Google, Eric Schmidt, qui expliquait que Google essayait de construire une « humanité augmentée ».  Dont acte ! Mais de quoi parle-t-on au fait ?

Il est indéniable que Google a une vision et une démarche qui sont sans nul autre pareil. D’abord dans sa rapport à la « possession ».

Si, en effet, Facebook, Microsoft, Twitter, Apple, autres titans de l’ économie numérique, transforment aussi notre univers quotidien en levant des armées d’utilisateurs fans de leurs services, aucun d’eux ne transgresse l’ordre moral – ou plutôt « amoral » -, social et économique comme le fait Google.

Là où Facebook, Microsoft ou Apple s’acharnent à revendiquer des droits de propriété « sur la moindre crotte virtuelle de leurs abonnés » ou sur de beaux gadgets brandés et censurent tout usage qu’ils jugent déviant par rapport à leur modèle ou à leurs codes, Google, lui, ne censure rien (au point de s’opposer à un état aussi puissant que la Chine), ne punit personne (faites le test en tapant « Google sucks » dans le moteur de recherche de Google et sur un mur de Facebook en écrivant « Facebook sucks ») et clame haut et fort que sa technologie est neutre, démocratique, et ne vise qu’au bien-être d’une humanité pour son confort et de son plein gré.

Sait-on d’ailleurs que le fameux logiciel Page Rank, la technologie fondatrice de Google que ses fondateurs décrivent comme le champion absolu de la démocratie, ne lui appartient même pas. C’est l’université de Stanford, où ont étudié Larry Page et Serguei Brin, qui en est propriétaire et qui en concède l’usage exclusif à Google jusqu’en 2011 !

Quand certains réagissent comme des dieux vengeurs et définissent ce qui est bien ou mal, Google, lui, se veut un dieu « bienveillant » qui orchestre sans contrôler les désirs de millions d’individus pour le bienfait de l’écosystème : recherche, maps, docs, agenda, photos, street view, groupes, vidéos, sites, blogs, traduction, talk, livres… Une sorte d’apiculteur, que les abeilles ne craignent ni ne payent ni ne prient – auquel elles ne pensent d’ailleurs même pas -, mais un apiculteur qui prélève sa juste dîme du travail de ces armées d’ouvrières, à travers les liens publicitaires. Paradoxe étonnant, car c’est en dénonçant « l’entubage publicitaire des bannières » sur les sites Web que Google est devenu le nouveau dieu de la publicité et place ses liens jusqu’au cœur des mots que l’on tape dans ses mails et des lieux que l’on fréquente dans le monde réel. Humanité « augmentée » avez-vous dit ?

Ainsi donc, les dizaines de millions de livres que Google numérise à grands frais, les kilomètres de fibre qu’il déploie et le million de serveurs qu’il entretient dans des fermes tenues aussi secrètes que les centres d’interception du Pentagone, ne viseraient qu’à construire une civilisation où l’information serait le carburant de notre destinée « post-matérielle ». Une civilisation où, selon Ray Kursweil, fondateur de la Sinularity University, chaque forme de connaissance, chaque manifestation humaine, jusqu’aux processus hormonaux et neuronaux, pourraient être stimulés en mode binaire par des algorithmes tel PageRank. De quoi justifier que Google investisse toute parcelle de la vie humaine.

Car Google croit en une tout autre société dont l’essence tient moins au carbone qu’à l’information et où l’intelligence elle-même ne serait que du calcul opéré dans son merveilleux « nuage » où réside aujourd’hui la plus hallucinante puissance de traitement jamais déployée sur terre.

L’information comme essence même de la vie. Tout simplement. Et Google dans le rôle d’un dieu spinozien dont le slogan, placé depuis juillet 2001 au cœur de  sa culture d’entreprise, relève tantôt d’un moralisme compassé pour les uns, tantôt d’un mantra de boy scout pour les autres: « Don’t be evil ». Mais où se placent le diable et le dieu dans la nouvelle Tour de Babel du savoir de l’humanité ?

Comment continuer de jouir de Google – peut-on s’en passer ? – mais en toute lucidité sur un terrain où libre-arbitre, anonymat, imprévisibilité et surprise sont en question ? Comment organiser sa propre résistance face à son double informationnel, face à ce monde prédictif et pervasif qui annonce davantage Minority Report de Spielberg - pour le meilleur ? - que Big Brother d’Orwell - pour le pire ! - ?

--------------------------------------------------------------------------------------------------------

Session passée

SmartWIPclub du mardi 9 novembre 2010

TABLETTES TACTILES : après la "PHILOSOPHIE", les STRATEGIES

Table ronde débat avec :

- François MOISE, Responsable de l’activité Communications unifiées et Collaboration, CISCO FRANCE

- Erick CUVELIER, VP Group Design and User Experience, ORANGE

- Julien BILLOT, Directeur Général Adjoint en charge du pôle Internet, PAGESJAUNES

- Florent LAFARGE, Directeur Marketing, TOSHIBA FRANCE


Nul n’ignore aujourd’hui le phénoménal engouement que connaissent les tablettes tactiles – ou plutôt celui de l’iPad d’Apple, car si le produit tablette n’est pas nouveau en soi, la méthode Apple a réinventé le modèle et installé un buzz bien plus « philosophique » que technologique autour de l’iPad qui n’est pas sans rappeler celui qui a prévalu au lancement de l’iPhone.

Parler de philosophie autour d’un produit high-tech n’a jamais été aussi justifié. Tant il est difficile de répondre aux questions essentielles que pose tout nouveau lancement de produit : quels en sont les usages, les modèles économiques et l’écosystème qui se met en place pour faire d’un concept un marché ?

Certes, la philosophie d’Apple n’échappe plus à personne : Derrière un design « magique » et un produit fermé, Apple tente une nouvelle fois de contrôler la chaine de valeur et le parcours client : après avoir pris la main sur le marché de la musique en ligne avec iTunes, des applications mobiles sur son App store, Apple tente de s’approprier la distribution des médias à travers sa tablette iPad. Et par là même de fédérer une très large population de développeurs qui, à travers sa plateforme, vont pouvoir espérer monétiser leur travail.

Mais qu’en est-il des autres acteurs qui s’engouffrent sur cette terre inconnue mais riche de promesse qu’est le marché de la tablette tactile connectée ? 

De CISCO avec CIUS qui prône une nouvelle dimension au collaboratif en entreprise,  d’ORANGE avec TABBEE dont la roadmap ne manque pas d’ambition, ou de TOSHIBA avec FOLIO qui milite pour le premier terminal de consommation multimédia à partager en famille, les positionnements des uns et des autres font le grand écart.  

Terminal vidéo 3G pour les uns,  appareil domestique connecté en WiFi pour d'autres, outil professionnel merveilleusement armé pour la Webconférence et le partage collaboratif en entreprise… Subventionné ou non par les opérateurs, dédié au surf sur le Web ou à la consultation de médias, archétype de la "TV personnelle et personnalisable" ou chaînon manquant de la maquette de services multi-écrans centrée sur le grand écran... Nu ou avec son portail d'applications, de services Web et "de conciergerie", ses catalogues de "flux vidéo", son boîtier d'interactivité... la tablette ouvre un champ d’usages plus vaste encore que les smartphones ou les PC portables. Autant dire qu’il est non seulement prématuré mais sans doute inexact de parler de marché de substitution.   

Car un fait est sûr : il n’y aura pas un archétype de tablette comme il n’y a pas un seul type de mobile, voire un seul type de smartphone. Les acteurs qui lancent aujourd’hui leurs tablettes, témoignent de ces divergences stratégiques et des usages multiples qu’un utilisateur ou qu’un collectif d’utilisateurs peut faire de cet outil. De la même manière, comment mettre en regard l’approche ouverte que porte Google avec Androïd de celle de RIM dont la future tablette Blackberry a pour vocation de consulter tout ce qui existe sur le Web et non des contenus spécifiquement adaptés à ces nouveaux "récepteurs".

Que font les usagers des tablettes aujourd’hui ? Et que ne font-ils pas ? Quel est l’impact du « form factor » : une tablette de 7 pouces (prônée par CISCO mais réfutée par APPLE) dont on se sert debout dans le métro versus un modèle de 12 pouces que l’on manipule avec ses deux mains, assis à une table ou dans un fauteuil ?

En quoi le choix de l’OS est-il structurant, de Windows Mobile 7 à Androïd, d’Apple à RIM et à Symbian ? A cet égard, les  tablettes semblent totalement rebattre les cartes, d’autant que MICROSOFT a, pour l’heure, décidé de ne pas investir le créneau.

Et si la tablette rencontrait un succès inattendu chez les professionnels et les entreprises, à l’instar des smartphones ?

Autant de questions auxquelles nous essaierons de répondre lors de notre débat du 9 novembre. Autant de points de vue qui caractérisent les mouvements des uns et des autres.

--------------------------------------------------------------------------------------------------------


Session passée

SmartWIPclub du jeudi 16 septembre 2010

Très Haut Débit en régions : DE NOUVEAUX MOYENS D'ACTION POUR LES COLLECTIVITES

Table ronde débat avec :

- Jérôme COUTANT, Conseiller chargé des services publics et de l'économie numérique, MINISTERE DE L'ESPACE RURAL ET DE L'AMENAGEMENT DU TERRITOIRE

- Clément VERHILLE, Directeur des Collectivités, COVAGE

- Alain GUILLOTIN, Directeur des activités Telecom, REG.I.E.S.

- Sylvain FRITSCH, Directeur, REGIE D'EXPLOITATION DE LA FIBRE OPTIQUE DE SAINT-QUENTIN-EN-YVELINES


L’été 2010 a peut-être marqué un tournant dans la genèse du Très Haut Débit en France.

Le lancement officiel du programme national « très haut débit » financé à hauteur de 2 milliards par l’Etat et la fixation des modalités de ce lancement s’est accompagné d’annonces du Gouvernement qui militent en faveur d’un rôle plus fort des collectivités pour prendre en main le déploiement d’infrastructures de très haut débit dans leurs territoires. A telle enseigne, le lancement d’un appel à projets qui leur sont ouvert.

Parallèlement, le Gouvernement a appelé les opérateurs à déclarer leurs intentions d’investissement « en matière de déploiements de réseaux de boucle locale à très haut débit à horizon de 5 ans en dehors des zones très denses.»

Quelle est la substance profonde de ces annonces, quelles orientations politiques sous-tendent-elles, entre la vision libérale du « laisser faire le marché » prônée jusqu’alors et la vision keynésienne d’un équilibre public-privé pour parvenir à un optimum économique que défendent certains ?

Quel rôle de facilitateur l'Etat entend-il désormais dans la genèse du THD en régions dans les zones moins denses, et avec quels moyens ? Sont-ils à la hauteur des enjeux et de l’importance du Très Haut Débit comme vecteur structurant pour l’avenir de l’économie France ?

Le débat du 16 septembre vise donc à expliciter la position du Gouvernement sur ces récentes orientations mais aussi à mettre en exergue le ressenti de quelques acteurs clés de l’écosystème.

Explication (stratégies et calendrier de mises en oeuvre), clarification et points de vue, ainsi que perspectives à court terme sur les nouveaux moyens d'action et de financement pour accélérer le déploiement des nouvelles infrastructures numériques sur tout le territoire.


--------------------------------------------------------------------------------------------------------

Session passée

SmartWIPclub du jeudi 10 juin 2010

LE FUTUR DE L'INTERFACE MOBILE ? Une carte de navigation...

Table ronde débat avec :

- Cédric THOMAS, Ovi Services Manager, NOKIA

- Frédéric BRUNETEAU, Directeur, PTOLEMUS

- Bruno GOULLIN, Responsable Europe Stratégie et Veille concurrentielle Geolocalisation, TOMTOM

Les services cartographiques sur mobiles explosent.

La combinaison d’une carte géographique avec la geolocalisation est en train de transformer les usages et l’industrie des services mobiles, depuis les camions de produits frais qui adaptent leur itinéraire en temps réel via Twitter aux services de réalité augmentée qui via la caméra du smartphone guident visuellement l’usager jusqu’à la station de taxi la plus proche.

Premier constat : les technologies sont là. L’internet mobile explose, les puces GPS apparaissent dans un nombre croissant de terminaux, la localisation par le réseau Wi-Fi et Cell-ID s’ouvre et promet un ras de marée d’applications (surtout si les opérateurs ouvrent le business model !).

Deuxième constat : la carte de navigation devient un langage universel sur mobile, une sorte de dénominateur commun pour des services innovants qui vont bien au-delà du calcul d’itinéraires pour lequel ils ont été conçus… Le carnet d’adresses se « cartographie » et cela change radicalement l’expérience utilisateur. Les réseaux sociaux « phagocytent » les usages mobiles (50% des usages aux Etats-Unis !). Un nouveau média est en train de naître sous l’impulsion de l’information de proximité contextuelle et geolocalisée (et avec lui, le geomarketing mobile testé par Google fait ses premiers pas).

Troisième constat : en même temps que la carte de navigation s’impose comme un point central du parcours client des usagers mobiles, elle devient… une commodité.

La preuve ? Devant le succès de l’offre gratuite Maps de Google, Nokia a décidé en début d’année de rendre gratuits l’accès à Ovi Cartes et l’ensemble de sa solution de navigation « Turn by Turn » pour la route et pour les piétons avec guidage vocal, y compris les cartes embarquées accessibles sans connexion. Et le succès dépasse les prévisions les plus optimistes de Nokia, avec un téléchargement de sa solution chaque seconde, 24 heures sur 24.

Qui, demain, pourra continuer à faire payer la navigation GPS ? Ceux capables de fournir des services à forte valeur ajoutée venant s’interfacer avec les cartes. Et dans l’écosystème du mobile où l’innovation est plurielle, cette stratégie passe par l’ouverture. C’est ainsi que TomTom vient de procéder à une annonce majeure visant à ouvrir sa plateforme aux développeurs extérieurs, de doter ses appareils de cartes SIM (Go Live 1000) et de réinventer les services les plus plébiscités de ses clients, en commençant par l’info trafic et les radars.

Débat sur les nouveaux services – actuels et à venir - que permet le couplage d’une carte de navigation et d’une technologie de localisation qui a un sérieux goût de killer application. 


-----------------------------------------------------------------------------------------

Session passée

SmartWIPclub du jeudi 06 mai 2010

FINANCER LA FIBRE EN FRANCE au-delà des 5 premiers millions de foyers 

Table ronde débat avec :

- Gabrielle GAUTHEY, Senior vice-présidente d'ALCATEL-LUCENT en charge des relations institutionnelles; Présidente de la fédération des industries de télécommunications et d’informatique ALLIANCE-TICS

- Yves LE MOUEL, Directeur général de la FEDERATION FRANCAISE DES TELECOMS

- Stéphane LELUX, Président du Groupe de Travail "Haut Débit" de RENAISSANCE NUMERIQUE; Président du cabinet spécialisé TACTIS


Après une période de turbulences qui a accompagné la naissance des projets de déploiements de fibre optique en France, l’année 2010 semble s’ouvrir sous des auspices plus favorables pour un décollage rapide des projets : les opérateurs ont enterré la hache de guerre sur les choix techniques de mono et de multifibre, le principe de mutualisation s’est imposé – dans les zones denses, il s’entend – et le Grand Emprunt a doté le Très Haut Débit d’une enveloppe de 2 milliards d’euros, ce que d’aucuns jugent très insuffisante mais qui est clairement une amorce et une prise de position politique qu’il faut saluer.

Les déploiements peuvent dès lors s’accélérer et de nombreux français et entreprises vont pouvoir apprécier la réalité commerciale de la Fibre dans les douze prochains mois. Mais après tant de retards, qu’en est-il de la situation française au printemps 2010 ? Quelles sont les directions les plus prometteuses du Très Haut débit qui sont aujourd’hui testées et validées ?

Ce faisant, au-delà des projets dans les grandes villes et métropoles françaises, un réel problème demeure dont il est urgent de prendre la mesure : comment éviter dans les zones moyennement denses et peu denses non pas une nouvelle fracture mais une béance numérique qui laisse sur la touche d’importants pans du territoire. Et, notamment, comment financer la fibre au-delà du 5 millionième foyer français ?

Quelles sont les approches de financement des réseaux dans les régions et quels en sont les corollaires sur la notion de détention et de partage des infrastructures, entre l’opérateur historique, les collectivités, les acteurs publics et privés ? Quelles sont les opérations de soutien qui font défaut et celles qui émergent ?

Comment de tout ce maelstrom  peuvent émerger des modèles efficaces qui solutionnent les nombreux points de blocage ? Comment aborder les questions de gouvernance politique et stratégique au niveau de l’Etat comme au niveau de l’opérateur historique ? Comment les régulateurs nationaux et internationaux tentent de préserver la concurrence à tous les niveaux de la nouvelle chaîne de valeur de la FTTH tout en encourageant l’investissement, de concilier les droits des consommateurs et ceux des opérateurs en place ?

Et plus spécifiquement, si l’enjeu central est de doter les territoires d’une offre de Très Haut Débit dans les meilleures conditions d’accès, de concurrence et de délais, la Fibre comme « pensée unique » n’est-elle pas une erreur, une utopie, au plan économique en premier lieu ? Ne faut-il pas arbitrer et se donner aussi les moyens d’élargir les déploiements à d’autres technologies capables de supporter des offres de THD ?

 Nos intervenants ont des idées et leurs expériences des marchés de la fibre en Australie, au Mexique, en Inde ou aux Etats-Unis apportent autant de suggestions et d’idées fortes à verser sans délais dans le débat public français.


-----------------------------------------------------------------------------------------

Session passée

SmartWIPclub du jeudi 08 avril 2010

TV 2.0 : COLLABORATIVE, CONNECTEE... BREF MOINS "CATHODIQUE"

Table ronde débat avec :

- Eric BIBOLLET, Co-fondateur de WIZTIVI, société innovante de services d’IPTV, spécialisée dans l’adaptation des contenus Web à l'ergonomie du téléviseur et à l'usage de la télécommande (prix « Rupture par les technologies » décerné par le Deloitte Technology Fast 50), créateur du portail multi-device de Toshiba

- Olivier HECKMANN, Co-fondateur de KEWEGO, leader européen des solutions de diffusion et de monétisation de vidéos sur écrans Web, mobile, TV et réseaux d’écrans, et seule entreprise rentable dans ce secteur d’activité en Europe

- Philippe PESTANES, Associé de INEUM CONSULTING FRANCE, Cabinet de conseil en Stratégie, Organisation et Système d'information, pour la présentation de son étude « TV 2.0 : ou comment passer de l’ère du Téléspectateur à l’ère du Télén@ute » 


L’explosion de la vidéo sur Internet et sur mobile annonce une profonde transformation de l’expérience télévisuelle et de la nature des « contenus » regardés sur le petit écran. D’un côté le monde numérique, la mobilité, l’interactivité, la flexibilité… de l’autre, deux milliards de récepteurs analogiques, le sédentaire, le monodirectionnel mais aussi le pouvoir du direct, la puissance de la production de qualité… Deux mondes étrangers qui sont en train de fusionner.  

Au moment où des acteurs comme Google et Intel annoncent le développement de la plate-forme Google TV pour apporter des services Web sur l’écran de télévision, et où est annoncée une nouvelle génération  de décodeurs et de téléviseurs connectés, un fait est sûr : l’IPTV annonce une rupture d’usages sans précédent.

Non pas la disparition de la TV mais sa renaissance. Imaginons une télévision multi-source qui partitionne sa lucarne en autant d’espaces : consommation « passive » traditionnelle de programmes mais avec des flux enrichis, habillés, complétés de services interactifs, échange et partage d’informations avec les autres médias du foyer et membres de ses réseaux, personnalisation de services au télén@ute qu’ils soient ludiques ou professionnels...

Imaginons une télévision non plus seulement à la demande mais comme un service de majordome à domicile. Une télévision qui suive vos mouvements et interprète vos paroles, une télévision qui vous reconnaisse devant un autre poste à des kilomètres de votre domicile, une télévision qui interrompt votre film pour votre consultation de télémédecine ou votre conf call en visioconférence, une télévision de la fusion, celle des espaces de vie ludiques et professionnels.

Le futur est déjà en marche et les prémisses de la TV 2.0 sont tangibles dès aujourd’hui : connectée, interactive, délinéarisée… bref moins « cathodique ». Des sociétés innovantes comme Kewego et WizTiVi, déjà propulsées à la tête de leurs secteurs, en sont la preuve vivante.

Adieu programmes, place aux contenus ?

 Mais pour l’heure, faut-il encore comprendre les nouveaux usages qui se font jour sur le nouvel écran. Adieu programmes, place aux contenus ? Fragmentation et délinéarisation de la consommation ? Favoris contre grilles de programmes ? Interface hybride ou télésouris ? Viralité ou audience ? Et l’inévitable question centrale de la production car la TV 2.0 ne vivra pas longtemps sur les seules rediffusions de séries américaines et sur les services Web tels qu’ils existent aujourd’hui sur Internet. La société Ineum Consulting qui vient de réaliser une analyse sur les ruptures induites par l’avènement de la télé 2.0, apporte à cet égard un témoignage probant.

Enfin, encore faut-il encore apprécier le formidable défi technologique et marketing qui sous-tend l’adaptation de contenus Web à la TV collaborative, et de la TV connectée au mobile ou à la tablette PC, et la prise en compte d’un univers multi-opérateurs, du câble à l’ADSL, de la chaîne audiovisuelle au consommateur producteur des ses propres séquences.

Evidemment, derrière les paillettes de la révolution technologique à venir, se profile une redéfinition du rôle des acteurs et de l’écosystème de la télévision et du divertissement telle que celle déjà engagée dans le secteur des télécoms. En particulier, l’association de la TV connectée et de la fibre constitue une opportunité pour de nombreux médias – traditionnels et nouveaux - de s’affranchir des opérateurs et des fournisseurs d’accès pour renouer un lien direct avec le téléspectateur. Pour autant que de nouveaux modèles de tarification et de publicité assurent la pérennité économique de cet autre ordre télévisuel.

Quel est l’état de l’art des usages et services d’IPTV en France et ailleurs ? Comment cette transformation affecte-t-elle aussi –et est accentuée par - le terminal mobile ? Qu’est-ce qui se profile à l’horizon des douze prochains mois ? Entre tendance de fonds et « 3ème révolution audiovisuelle », c’est l’objet de notre débat sur la TV 2.0 du jeudi 8 avril au SmartWIPclub.


-------------------------------------------------------------------------------------------

Session passée

SmartWIPclub du jeudi 04 mars 2010

UMTS (IMB) ET SATELLITE (DVB-SH) S'INVITENT DANS LE DOSSIER DE LA TELEVISION MOBILE PERSONNELLE

Après un pas en avant et deux pas en arrière, le tango du dossier de la Télévision Mobile Personnelle en France joue désormais une nouvelle partition…

Etat des lieux de la TMP avec Janine Langlois-Glandier du Forum TV Mobile. Présentation par Philippe Lucas d’Orange d’IMB (Integrated Mobile Broadcast), l’approche alternative au DVB-H défendue par les opérateurs mobiles. L’entrée en lice imminente d'une autre voie avec la diffusion de la TMP par satellite via la norme cousine DVB-SH. Les retours d’expérience sur les marchés ayant lancé la TMP avec la position de Serge Ferré de Nokia, qui vient de concevoir son  premier « TV featurephone », le 5330 Mobile TV Edition, au standard DVB-H.


Table ronde débat avec :

- Janine LANGLOIS-GLANDIER, Présidente du Forum TV MOBILE, en charge du dossier de la TMP. Grande figure du monde de l'audiovisuel et de la communication et ancien membre du CSA, elle a notamment dirigé la SFP, FR3, l’INA, le groupe Pathé

- Philippe LUCAS, Vice Président International Standards and Industry Relationships du Groupe ORANGE, opérateur supportant et testant la technologie de diffusion broadcast alternative Integrated Mobile Broadcast (IMB)

- Serge FERRE, Vice-Président de NOKIA EUROPE, leader mondial du marché des téléphones portables et ardent promoteur de la télévision mobile personnelle et du standard DVB-H


- Antonio ARCIDIACONO, Directeur de l'innovation d’EUTELSAT, pour l’expérimentation en cours à Paris de diffusion de la TMP par satellite avec la norme DVB-SH, ainsi que les dispositions prises en vue d’un lancement commercial



Le SmartWIPclub, organisateur des conférences des salons :

Réseaux & Télécoms by IP Convergence 2013
Assises du Big Data 2013
Mobile IT Expo 2013
Cloud and IT Expo 2013

Les 16 et 17 octobre 2013
Paris Porte de Versailles

Le programme 2013 en détails


Sessions à venir
en 2012

Sessions passées :
en 2011
en 2010
en 2009
en 2008
en 2007
en 2006
en 2005
en 2004

Sociétés participantes

Ce qu'ils disent du SmartWIPClub