16déc/140

Mobile Communication : Compte-rendu du DigiWorld Summit 2014

digiworldsummit-2014-Mobility-reloaded

Par Yves Gassot, Directeur général, IDATE  
& Didier Pouillot, Directeur de la Business Unit Stratégies Télécoms, IDATE

Une certaine sérénité pour ne pas parler d’optimisme ressortait des sessions télécoms du DigiWorld Summit 2014. Etait-ce à cause des big numbers que chacun alignait pour faire état de la croissance du nombre d’usagers mobiles (plus de 9 milliards à la fin de la décennie), de l’explosion des objets connectés (80 milliards en 2020 selon l’IDATE), de la croissance du trafic (trois fois plus rapide que celle du fixe), des débits attendus avec l’Advanced LTE (jusqu’à 100 fois ceux de la 3G)...

 

La 5G doit être l’occasion du retour de L’Europe

Dans ce contexte, le mot d’ordre partagé par tous les conférenciers était d’effacer la décennie passée marquée pour beaucoup d’opérateurs européens par un recul des revenus et des marges depuis 2008 à l’échelle des 5 principaux marchés, comme l’a souligné Didier Pouillot, Directeur de la Business Unit Stratégies Télécoms de l’IDATE, d’investissements très en deçà de ceux observés aux Etats-Unis, et finalement d’un déploiement tardif de la 4G malgré une couverture en net progrès. Rendez-vous est fixé : l’Europe doit être revenue parmi les leaders de l’industrie et des services de télécommunications à l’horizon attendu pour la 5G, soit vers 2020, même si les sud-Coréens aux jeux Olympiques de 2018 et les japonais à ceux de 2020, auront à cœur d’exposer leurs compétences.
Sur le plan technique, la course au très haut débit mobile paraissait déjà bien balisée. Frédéric Pujol, directeur de la Business unit Wireless de l’IDATE, soulignait les atouts du LTE, un standard partagé au plan mondial, et les différentes contributions que l’on retrouvera dans l’Advanced LTE avec l’agrégation de fréquences, les HetNets (Heterogeneous Networks) qui permettront de mieux gérer les small cells, l’optimisation des protocoles multicast (la vidéo devant représenter plus de 50% du trafic) eMBMS. La 5G, qui est encore loin d’être normalisée,  ira encore plus loin dans les débits en offrant des vitesses de l’ordre du Gigabit/s. Mais, comme plusieurs intervenants l’ont signalé, il s’agira aussi d’un accès multi-réseaux, tenant compte par exemple des contraintes particulières de déploiement de l’Internet des Objets, ces derniers n’étant pas tous connectés à travers des réseaux cellulaires (mais plutôt en NFC ou à travers des réseaux radio basse fréquence comme celui déployé par Sigfox).

L’enjeu des technologies Wireless alternatives… en attendant la 5G

On a aussi beaucoup parlé du Wi-Fi à Montpellier. Il y avait notamment Silano Lo, CEO de Ruckus Wireless, un des principaux fournisseurs d’équipements installé dans la Silicon Valley. Elle a, en particulier, souligné les progrès des nouvelles générations de Wi-Fi qui seront complètement intégrées aux infrastructures des opérateurs et qui éviteront aux abonnés de devoir se déclarer en entrant un mot de passe. Elle a rappelé que le Wi-Fi était au cœur de la stratégie de Comcast et d’autres câblo-opérateurs aux Etats-Unis pour fidéliser leurs abonnés mais aussi pour entrer sur le marché du wireless.
Dans ces stratégies, dont on trouve aussi l’expression en Europe avec des sociétés telles Liberty Global ou encore BT, le Wi-Fi permet aux opérateurs fixes, en combinant home spots et hot spots, de fonctionner comme des MVNO mais en minimisant le trafic supporté par l’infrastructure cellulaire.

A la question de savoir si les accès mobiles à haut et très haut débit avaient vocation à se substituer aux accès fixes, les participants aux différents panels ont apporté quelques nuances. Tous s’accordent pour souligner que, dans les économies émergentes, le broadband mobile allait être le principal vecteur de croissance de l’internet même si Christophe Wilhelm, Senior VP Strategy & Innovation de Tales Alenia Space, a souligné la place des solutions satellitaires (géostationnaires mais aussi sur des orbites défilantes MEO/LEO) ou non conventionnelles, telles les ballons voir les drones.

La révolution du très haut débit passe par la mise à niveau du cœur réseaux

Pour Michel Combes, CEO d’Alcatel-Lucent, on en n’est plus au débat de savoir qui du fixe ou du mobile va gagner : les infrastructures convergentes et le haut débit mobile ne pourra pas éviter des architectures small cells publiques et privées, poussant la fibre optique de plus en plus loin en direction des usagers. Mais la révolution, pour Michel Combes, ne se limite pas au très haut débit, elle passe plus fondamentalement par l’intégration des concepts de SDN (Software Defined Network) et de virtualisation avec le NFV (Network Function Virtualisation) qui permettront de disposer des fonctionnalités de commande et de contrôle assurant fiabilité et sécurité aux réseaux. Si le smartphone est devenu, pour le consommateur, le ‘marqueur’ des innovations, et si la révolution du Cloud a démarré, celle du réseau qui relie l’un à l’autre reste largement devant nous.

Les opérateurs télécoms à l’offensive pour faire évoluer le cadre réglementaire et leur business models

Naturellement, les opérateurs télécoms ont aussi abordé les conditions de leur rétablissement. En accord avec Michel Combes, les deux dirigeants de Telefónica, Carlos Lopez-Blanco, Global Head Strategies Public and Regulatory affairs, et d’Orange, Pierre Louette, Deputy CEO, ont souhaité que l’Europe présente rapidement un plan stratégique. Plus précisément, Carlos Lopez-Blanco a énuméré les dispositions qu’il souhaitait voir adopter par la nouvelle Commission :
•    une régulation plus légère laissant plus de place à la négociation commerciale,
•    une plus grande harmonisation dans l’application du cadre réglementaire et l’émergence d’un régulateur européen,
•    un « level playing field » qui mette fin à l’asymétrie entre la régulation des telcos et le laisser faire qui caractériserait les positions dominantes des acteurs OTT.

Mais cette dernière exigence va au-delà de la régulation sectorielle ; de la même façon, la poursuite du mouvement de consolidation engagé en Europe repose principalement sur les autorités antitrust. Enfin les deux représentants de Telefónica et d’Orange ne se sont pas contentés de regretter les contraintes réglementaires. Ils ont aussi esquissé les évolutions de leurs modèles d’affaires en soulignant les promesses qu’ils voyaient dans le développement de la 4G et du trafic data mobile, dans le cloud et le M2M, ainsi que dans le potentiel de partenariat avec les acteurs des contenus ou des « verticaux », sans renoncer pour autant à offrir des « exclusivités » ou à proposer leurs propres services OTT. L’occasion pour eux de préciser que leur position en faveur de l’ « open Internet » ne doit pas les enfermer dans un statut de « dumb pipe ».

Pour aller plus loin…

Nos vidéos :

> L’interview de Pierre Louette, Deputy CEO d’Orange  (anglais)
> La présentation vidéo de Michel de Rosen (Eutelsat) - Disruptive Innovations 
(anglais)
> L’interview de Frédéric Pujol, directeur de la Business unit Wireless de l’IDATE
 (anglais)

Les présentations à découvrir :

> Didier Pouillot  « rethinking the telcos business model »
> Jaehyun YEO, Senior Researcher, KISDI
> Ambroise Popper, VP/GM M2M BU, Sequans Communications " Closing Keynote" 
> Carlos LOPEZ, Telefónica 
"Rethinking the Telcos business models in the age of 5G "
> Soline Olszanski, VP Strategy & Innovation, Hub One "4g critical and Professional"
Nos études à découvrir :

> World Network Optimisation Technologies
> World LTE Market
> World FTTx Markets

12déc/140

L’édito d’Yves Gassot : Vers une nouvelle donne en Europe

GASSOT Yves

Yves Gassot
CEO, IDATE

La situation du secteur des services de télécommunications en Europe est particulièrement mouvante sous l’effet d’une actualité multiforme partagée entre Bruxelles et l’accélération des opérations de consolidation.

On peut ainsi énumérer plusieurs faits :

La mise en place de la nouvelle Commission à Bruxelles : elle se fait sous l’égide du plan d’investissement Junker, dont une part pourrait être consacrée aux infrastructures télécoms sans que l’on connaisse aujourd’hui son montant et ses modalités d’attribution.

L’organisation particulière de cette Commission dans le secteur du numérique autour d’un Vice-Président et d’un Commissaire. Beaucoup ont noté le caractère assez peu convergent des déclarations faites par MM. Andrus Ansip et Günther Oettinger.

Les interrogations sur le devenir du "leg" de Mme Kroes et du Parlement sortant. Le récent Conseil des ministres des télécoms a montré qu’il sera très difficile de rester sur les dispositions qui se concentraient sur trois points : a) la neutralité de l'Internet, b) le roaming intra-européen 
c) la coordination des politiques en matière de gestion du spectre. Les adaptations pourtant très substantielles du texte initial (rejeté par les opérateurs et la plupart des membres) proposées par la présidence italienne n’ont pas réussi à faire l’unanimité.

Le lancement d’une nouvelle "review". La Commission va devoir également proposer un calendrier pour amorcer la révision des directives, comme cela est prévu. L’exercice consistera à revenir sur la définition des marchés pertinents ; une liste plus resserrée des marchés donnant lieu à une analyse ex ante des positions dominantes sera probablement proposée.

En substituant au projet de "the European single telecom market" le projet "the European digital single market", la Commission veut également mettre l’accent sur les dispositions législatives connexes des télécoms, qui concernent en particulier les dispositions relatives à la privacy et à la propriété intellectuelle. Dans un autre registre, il lui faut relayer l’OCDE pour mettre fin aux abus des pratiques d’optimisation fiscale des OTT tandis que son pouvoir antitrust va devoir se prononcer sur les éventuels abus de position dominante de Google. Enfin, viendront assez vite dans les négociations commerciales transatlantiques (TTIP) de nouveaux dossiers numériques…

Mais pendant ce temps, on serait tenté de dire que la vraie vie continue, voire s’accélère

Le marché des services de télécommunications reste en repli globalement en Europe, mais a tendance à se stabiliser dans de nombreux pays. Et surtout, la fièvre des opérations de fusions et acquisitions monte : après la finalisation des opérations majeures en Allemagne (O2-Eplus) et en France (Altice/Numericable-SFR), on apprend que BT – qui avait depuis plusieurs trimestres manifesté ses nouvelles ambitions (accélération du plan fibre combiné avec le lancement de BT Sports, acquisition de fréquences 4G) – chercherait à acquérir O2 UK ou EE. Hutchison ("3"), le plus petit des quatre opérateurs mobiles, se déclare prêt, dans ce nouveau contexte, à acquérir celui qui ne serait pas retenu par BT.

Vodafone, convaincu depuis longtemps des vertus de la convergence fixe-mobile à l’heure du très haut débit (et qui à ce titre a déjà intégré Cable & Wireless au Royaume-Uni, Kabel Deutschland en Allemagne et le câblo-opérateur Ono en Espagne), se dit intéressé par Liberty Global Présent sur une douzaine de pays en Europe, cette dernière opération permettrait notamment à Vodafone de contrôler Virgin Media au Royaume-Uni (dont le câble dessert 40% des foyers britanniques), l’ensemble UPC-Ziggo (qui dessert 75% des foyers aux Pays-Bas), et d’additionner en Allemagne, son premier marché, les deux principaux câblo-opérateurs.

Naturellement, l’antitrust devra regarder ces opérations et éventuellement imposer des "remèdes". Ajoutons que d’autres propositions (publiques) sont en cours, telles que celle d’Orange qui conforterait ses actifs en Espagne en prenant le contrôle de Jazztel et celle d’Altice/Numericable qui viendrait acquérir Portugal Telecom (limité aux actifs portugais) tandis que le Brésilien Oi (avec lequel l'opérateur historique portugais avait convolé) pourrait… fusionner avec Telecom Italia (ou sa filiale brésilienne TIM) ! Si ces opérations – ou du moins les plus importantes d’entre elles – aboutissent, des déséquilibres apparaîtront, qui pousseront de nouveaux candidats à de nouvelles opérations.

Les offres de crédit ne semblent pas faire défaut, les marchés financiers ne paraissent plus effarouchés par des ratios de dette/EBITDA qui dépassent 4 ou 5 : il reste à surveiller les multiples retenues pour les acquisitions et à concrétiser les synergies ou les bénéfices des effets d’échelle avancés dans les prochains EBITDA des futurs ensembles.

Remplis sous: Telecom Aucun commentaire
9déc/140

Séminaire TV Everywhere : compte-rendu du DigiWorld Summit 2014

digiworldsummit-2014-Mobility-reloaded

Par Antoine Klifa, Consultant à l'IDATE & Florence Le Borgne, Responsable de la practice Next Gen TV, IDATE

 

Dans le cadre du 36e DigiWorld Summit, le séminaire "TV Everywhere" a permis d’apporter un éclairage sur les nouveaux comportements d’usage, les possibilités offertes par l’hybridation, les technologies de cloud et leurs conséquences sur le futur de la consommation vidéo, à l’extérieur comme au sein du foyer.

 

Poursuite du développement des usages ATAWADAC

• Anytime
Le principe de visionnage "à la demande" constitue un des nouveaux usages les mieux adoptés par les consommateurs, que ce soit via les services de catch-up, TVoD ou SVoD. L’IDATE souligne néanmoins que l’accès au contenu à la demande peut être limité par des contraintes réglementaires ou contractuelles, notamment en ce qui concerne les films de cinéma.

• Anywhere
La consommation de contenus indépendamment du lieu de localisation n’est pas encore un usage adopté massivement, notamment en situation de mobilité. Cela s’explique en partie par des contraintes technologiques et par une mise à disposition partielle des contenus vidéo – notamment live – par les distributeurs de services de télévision.

• Any device
Malgré la prolifération de nouveaux écrans et la progression rapide de la consommation de contenus sur smartphones ou tablettes, le visionnage de contenus reste dominé par le téléviseur, même dans les marchés les plus matures. Afin de parvenir à une expérience "Any device" convaincante, les distributeurs de services doivent également réussir à adresser la problématique de continuité entre les terminaux.
François ABBE (Founder & CEO, Mesclado) rappelle que Disney a conclu un accord avec Google et Apple grâce auquel une vidéo achetée sur un des deux stores peut être lue par un lecteur de l’autre store, ouvrant ainsi la voie à une expérience seamless pour le consommateur.

Le téléviseur peut représenter un enjeu différent selon les éditeurs de chaînes et leurs problématiques spécifiques de distribution. Vincent FLEURY (Directeur du développement et Adjoint au Directeur Nouveaux Médias, France Médias Monde), pour lequel l’enjeu principal est d’adresser l’ensemble de ses utilisateurs, estime que la télévision n’est "qu’un écran parmi d’autres", alors que pour Laurent FRISCH (Vice-Président Digital, France Télévisions) et Valéry GERFAUD (General Manager, M6 Web) le téléviseur reste l’écran incontournable pour regarder la télévision en live, voire en rattrapage ou différé.

• Any Content
Face à la fragmentation des moyens d’accès aux offres vidéo et à la surabondance de contenus, les consommateurs semblent désormais disposés à payer pour des services capables d’adresser leurs besoins de repères et de personnalisation.

Pour l’IDATE, un des enjeux pour les services est de parvenir à proposer des contenus personnalisés qui dépendent également du terminal utilisé et du contexte de consommation. À cet égard, les problématiques de big data et les moteurs de recommandations revêtent une importance particulière (La présentation de Florence Leborgne sur le sujet).

Didier LEBRAT (CTO, Sky) souligne par ailleurs les investissements importants consentis par le groupe Sky dans les contenus et dans l’amélioration de leur qualité pour créer de la valeur pour les abonnés, et constate que le contenu de la pay-TV est désormais davantage demandé par les utilisateurs de Sky+ On Demand que celui de la télévision gratuite.

Capture d’écran 2014-12-05 à 11.02.32

 

L’hybridation et les nouvelles configurations de distribution vidéo

Vincent GRIVET (Group Head of Broadcast Development, TDF) rappelle que le tout-IP pour la vidéo n’est pas encore possible, alors que par ailleurs la consommation à la demande se développe. Les deux phénomènes imposent donc le déploiement de solutions hybrides. Si HbbTV devait apporter une réponse à ce besoin, il semble qu’il n’y ait finalement pas autant d’hybride actuellement que ce que l’on promettait il y a trois ans. Vincent FLEURY estime pour sa part que l’industrie attendait beaucoup plus de la TV connectée, et que la connectivité marche mieux pour le moment sur les décodeurs des opérateurs et les outils mobiles. Sa préoccupation est d’apporter la connectivité là où elle n’existe pas.
Darko RATKAJ (Senior Project Manager Technology & Innovation, EBU) met l’accent sur les besoins des utilisateurs et fait un parallèle entre la consommation de télévision traditionnelle – qui reste une expérience partagée – et la consommation à la demande, qui est pour le moment une consommation "additionnelle". Selon lui, la question est de savoir si une plateforme vidéo correspond aux besoins des utilisateurs à la fois en terme de qualité mais aussi de couverture, cette dernière n’étant pas seulement géographique mais aussi démographique. Pour lui, l’hybride existe, mais pas au sens où un réseau ou une technologie permettrait de résoudre les problèmes. Ce qui importe est d’apporter le bon service dans de bonnes conditions, ce n’est pas de savoir si c’est du broadcast ou du broadband.

Yves BOUDREAU (VP Mediacom Technology Strategy, Ericsson) voit se développer le concept de prosumer : si les vendeurs de solutions ne développent pas les solutions adaptées aux usages, les prosumers vont se fabriquer eux-mêmes leur "Frankenstein vidéo". Les diffuseurs, programmeurs et fournisseurs de technologies doivent ainsi s’allier pour créer des produits qui répondent aux nouveaux besoins des consommateurs, au risque de voir s’imposer les solutions des géants du monde Internet comme Google, Amazon ou Apple…

On constate notamment un développement de l’hybridation autour des réseaux broadcast, qui ne disposent pas d’une voie de retour native. La dynamique est différente selon le modèle économique du service de télévision :
• les distributeurs de services de télévision payante comme Sky ou DirecTV sont capables de définir l’expérience client grâce à leurs décodeurs et donc de répondre à leurs nouveaux besoins de manière efficace ;
• pour le monde de la télévision gratuite, les problématiques de standards semblent pour l’instant constituer un frein au développement et à l’adoption de services hybrides réellement performants. Par exemple, les chaînes sont confrontées à des coûts importants de développement pour leurs applications, conséquence directe de la fragmentation technologique importante des écosystèmes applicatifs. Laurent FRISCH souligne que, parmi la multitude de technologies existantes, toutes ne sont pas équivalentes. Les chaînes ne prennent pas forcément de position, mais attendent de voir quelle solution va s’imposer. Faute de solution unique ou unifiée, il n’y aura pas d’explosion des usages de la Smart TV.

Jean-Hubert LENOTTE (Director of Strategy, Eutelsat) constate que les opérateurs de réseaux prennent également des initiatives sur les sujets d’hybridation, poussés par le fait que si le linéaire est toujours important dans la consommation vidéo, l’usage est stable, et que la croissance vient du non-linéaire. Il est donc important pour ces acteurs de pouvoir proposer de l’interactivité en live afin d’augmenter l’intérêt pour le consommateur. Si des clients comme Sky ou Canal+ préfèrent garder la maîtrise de l’utilisateur et développent eux-mêmes leur box et les services qui gravitent autour, pour d’autres clients, Eutelsat développe une solution "smartLNB", c’est-à-dire des têtes de réception bidirectionnelles qui permettent d’intégrer la voie de retour directement dans la parabole et donc de supprimer la contrainte de connecter le décodeur à Internet. Il rappelle par ailleurs que le satellite permet aussi de fournir du contenu à la demande en HD voire en UHD là où le broadband n’existe pas.

Pour les chaînes de télévision, l’hybridation est également caractérisée par le développement de nouveaux modèles économiques et de nouveaux partenariats.
• Pour Didier LEBRAT, la commercialisation de l’offre OTT Now TV permet ainsi de s’adresser à des consommateurs qui souhaitent une très grande flexibilité et qui n’envisageaient pas forcément l’abonnement à son offre de télévision par satellite.
• Vincent FLEURY estime que l’hybridation n’est pas seulement une question de réseaux techniques mais constitue un moyen d’accéder à de nouveaux consommateurs : il souligne l’importance de la syndication et recommande l’utilisation des moyens mis à disposition par les nouvelles plateformes vidéo comme YouTube ou Facebook.
• Selon Laurent FRISCH, les éditeurs audiovisuels et les nouveaux entrants ont pour vocation de créer des nouvelles chaînes de télévision "hybrides", combinant linéaire et non-linéaire, pour réinventer leur proposition de valeur.

• Valéry GERFAUD indique que la part des revenus publicitaires générés par la catch-up TV dans les revenus publicitaires du groupe M6 est proportionnelle à celle du temps passé sur les services de rattrapage par rapport au temps passé sur les chaînes linéaires du groupe, grâce à une bonne monétisation de la catch-up TV.

Enfin, Marc LE DAIN (Associate Partner, IBM Consulting Services) souligne que l’hybridation concerne aussi les clients : leurs comportements diffèrent en fonction des catégories de programmes (La présentation de Marc Le Dain : http://fr.slideshare.net/DigiWorldIDATE/tv-everywhere-41808106).

Des incertitudes sur le basculement vers un modèle "tout-unicast"

Les réseaux des opérateurs télécoms et de câble disposent d’une voie de retour qui facilite le développement de services vidéo avancés pour les abonnés aux offres de télévision payante. De plus, leurs réseaux point-à-point permettent l’utilisation de technologies logicielles de sécurité moins coûteuses que les systèmes d’accès conditionnel du monde broadcast.
Yves BOUDREAU rappelle que le réseau Internet n’a pas été initialement développé pour la distribution de la télévision et n’est pas à même, à l’heure actuelle, de prendre le relais de la TV en clair et de la TV payante si le broadcast devait être arrêté à court terme. Des questions persistent sur les investissements nécessaires par les opérateurs télécoms pour parvenir à satisfaire les besoin des consommateurs dans un modèle "tout-unicast". Pour Jean-Hubert LENOTTE, la combinaison du broadcast et du broadband reste pour le moment le plus efficace, notamment d’un point de vue économique.

Le "LTE broadcast"

La distribution de services de télévision en LTE broadcast, grâce à la technologie eMBMS, constitue également une nouvelle alternative possible pour la distribution vidéo. Pierre-François DUBOIS (VP of Product Development, Orange Technocentre) rappelle que la plupart des smartphones LTE sont déjà équipés d’un chipset eMBMS capable de recevoir un flux broadcast.
La technologie est déjà déployée commercialement en Corée du Sud et devrait prochainement se développer dans de nouveaux territoires, bien que des questions de modèle économique persistent, notamment sur le mobile. Pour Yves BOUDREAU, la combinaison entre broadcast et LTE permet d’apporter un service pour lequel le consommateur pourrait être prêt à payer.

Vers un rôle majeur des technologies de cloud dans la distribution vidéo

Le développement du cloud dans le domaine de la distribution de la télévision et de la vidéo bouscule l’approche traditionnelle de l’ensemble des acteurs de l’audiovisuel. Les technologies dites de cloud TV permettent de basculer progressivement vers un modèle plus flexible, qui autorise un déploiement rapide de nouveaux services et qui modifie la structure des investissements vers un modèle "à la demande".

Par exemple, les technologies de nPVR permettent de déplacer l’intelligence dans le réseau des opérateurs et donc d’éviter d’intégrer un disque dur dans chaque décodeur. Cependant,

Valéry GERFAUD souligne que si de telles solutions se développaient, cela risquerait de se faire au détriment des revenus de la catch-up TV.

Les technologies de cloud permettent également de répondre à de nouvelles problématiques éditoriales liées à la Social TV, comme Rising Star, centrée sur l’interactivité avec les spectateurs. Pour Valéry GERFAUD, cette intégration de l’interactivité au cœur même d’une émission peut être très populaire auprès des téléspectateurs, mais elle entraîne des problématiques techniques inédites à gérer. Seul le cloud permet d’encaisser des pics de charge aussi importants, d’un point de vue de flexibilité et de coûts. Selon lui, la qualité de service reste un vrai problème, les utilisateurs interrompant rapidement le visionnage d’un contenu de mauvaise qualité, faisant ainsi perdre de l’argent à l’éditeur du service.

Pour Xavier POUYAT (Senior Program Manager, Azure Media Services), le cloud permet également de faire vivre les contenus au-delà de leur diffusion : dans le cadre d’un épisode interactif de la série "Bref", plus d’un million de vidéos personnalisées ont ainsi été générées en trois jours grâce au cloud.

Capture d’écran 2014-12-05 à 11.02.47

 

Ces technologies devraient également être déterminantes dans les prochaines années pour acheminer des services de télévision en THD, qui représente un défi technologique et économique, comme le rappelle Jérôme RENOUX (Regional Sales Director, Digital Media, Southern Europe, Akamaï Technologies). L’introduction de nouveaux formats de compression, comme l’HEVC, devrait également avoir des conséquences importantes, pour la THD comme la HD. Pierre-François DUBOIS espère ainsi que, grâce à l’HEVC, 85% des clients IPTV Orange seront éligibles en HD.
De plus, elles devraient jouer un rôle majeur dans la fusion et la simplification des workflows des acteurs de la chaîne audiovisuelle, afin d’adresser efficacement la consommation en live comme à la demande sur l’ensemble des terminaux.

Une problématique pas seulement technique, mais éminemment juridique

La question de la TV Everywhere et du cloud pose nécessairement la problématique de l’identification de l’utilisateur et donc de la protection de ses données personnelles.
Alors que la tendance dans le monde entier est de monétiser les données personnelles des utilisateurs d’Internet, Alain BENSOUSSAN (avocat, cabinet Alain Bensoussan) rappelle que la notion de propriété des données n’a pas de statut juridique : Facebook accorde ainsi à son milliard d’utilisateurs un droit qui juridiquement n’existe pas, aucun état régalien ne reconnaissant la propriété de ses données personnelles.
Par ailleurs, alors qu’une centaine de pays dans le monde ont adopté une réglementation "informatique et liberté", il apparaît que dans le big data, l’individu ne maîtrise pas les données qui le concernent, voire il ne sait pas que des données le concernent. L’important dans le big data n’est pas de savoir le nom de la personne derrière son écran mais de pouvoir prédire à plus de 90% qui est là et ce que cette personne va vouloir. On va vers une personnalisation anonyme.
Enfin, Alain BENSOUSSAN introduit le concept de "privacy by design", consistant à concevoir des produits et des services qui sont "privacy inside", afin de réduire le côté "anxiogène" pour l’utilisateur ; c’est ce qui fait notamment le point fort de Facebook.

Pour revivre le DigiWorldSummit :
> Découvrez l'interview de Gilles Fontaine sur le contenu.
> Découvrez l'interview de Gilles Fontaine sur le thème TV and Video facing mobility :

Découvrez les présentations de nos invités et consultants :
> La présentation de Florence Leborgne : http://fr.slideshare.net/DigiWorldIDATE/tv-everywhere-41807282
> La présentation de Marc Le Dain : http://fr.slideshare.net/DigiWorldIDATE/tv-everywhere-41808106
> "TV + Digital", une présentation de Laurent Frish : http://fr.slideshare.net/DigiWorldIDATE/tv-everywhere-digiworld-summit-2014

Pour aller plus loin, notre étude sur le thème TV Everywhere.
> Un article sur le futur de la télévision.
> L'étude en rapport avec le sujet sur le future de la télévision en 2025 à commander dans notre boutique

 

5déc/140

[ITW] Jean-Louis MISSIKA, Deputy Mayor of Paris in charge of urban planning

Published in COMMUNICATIONS & STRATEGIES No. 96

jean-louis-missika

 

Interview with Jean-Louis MISSIKA, Deputy Mayor of Paris in charge of urban planning

Conducted by Yves Gassot, CEO, IDATE-DigiWorld Institute

C&S: The Smart City concept is often criticized for seeking new markets for digital technology rather than tackling the phenomena that make the management of our cities increasingly complex. What is your view?
Jean-Louis MISSIKA:  I do not think it is a fair criticism. Digital technologies have undeniably created the conditions for important changes in our ways of living, inhabiting and consuming. They are now part of our everyday lives and, surely, their impact will increasingly spread throughout the multiple ways we, as humans, interact.
Beyond what they create as opportunities for individuals, digital technologies are fundamental for cities – and among them the city of Paris. Urban systems are confronted with major challenges on the economic, social and environmental fronts. Energy transition, and more generally the management of scarce resources, climate change and the biodiversity challenges drive us to analyze all the solutions available now and in the future to build a more sustainable city - the city of tomorrow. Digital technologies and, in particular, their potential in terms of coordination and rational use of scarce resources, are high on the policy agenda. This is not simply to create a market for them; this is about using all the possibilities offered by technology.
I definitely think it can be a win – win development for both the city and the companies if these firms are working with those involved in the challenges of the city like urban planners and system operators.
Additionally, we are witnessing a boom of young, innovative companies and startups, but also the citizens themselves – both from Paris and outside – who develop digital solutions for the city. This is clear evidence of what is at stake here: it is for local authorities to allow the digital revolution to spread in the society so that innovation does not only occur through large companies but also thanks to citizens' initiatives.

C&S: How would you rate the strategy of Paris, using a broad comparison between the very holistic, top-down approach of projects emerging in the context of new towns and in Asia, and the more bottom-up approach that seems to be primarily based on using multiple data repositories ('open data') associated with urban systems?
J.-L. M:
We are definitely leaning towards the "bottom up" approach to building Paris as a smart city.
Collective intelligence is an effective way to source the best ideas. And it does work well in Paris in part because we provide people with the appropriate means to implement projects: workspaces, coaching, financing, public spaces to experiment… and data.
This is one of the pillars of a smart and sustainable city: a place where the technology is used for people, by people, to include them in the life of the city and in the process of public decisions.
Let me refer to a recent project. We have worked over the last 6 months since the election to reach a greater transparency and citizen involvement in the City operations, by creating a platform for the development, discussion and adoption of community projects. These are chosen by the Parisians and are financed through a participatory budget. 5% of the total investment program, which represents 426 million euros, has been flagged for programs chosen directly, through vote, by the Parisians.
Within the next months, Parisians will even be able to share the benefit of their expertise and creativity by suggesting investment ideas directly.
Another way to involve people is crowdsourcing. We have developed the "DansMaRue" mobile application which Parisians use to signal local problems and even identify spots for "urban greening" (buildings, walls, squares, abandoned urban places). It is this type of exchanges with Parisians we want to implement to make our City better.
This is a genuine urban revolution in the making: the role of local governments of world-cities is to understand, support and leverage the benefits of this revolution. European cities, I believe, have a major role to play in leading this transformation. Their governance is well geared towards citizen involvement and this should alleviate the risks of the "systemic city" or the "cybernetic city".

C&S: Do you have any models or at least references to guide your project for Paris?
J.-L. M: Many interesting models exist throughout the world and we are discussing extensively with many cities facing the same challenges.
That being said, from our discussions we retain one key conclusion: each of these cities has developed its own good practices with its own cultural frame. I think there is no single model of smart city and it would be ineffective to copy-and-paste alien models or ready-to-use solutions in a fast-changing environment.
We have our own model based on an iterative approach that uses successful experiments in Paris. We have been working for several years to make Paris a strong city in the digital sector and a breeding ground for innovation. I would say that over the last 10 years or so we have created the conditions for the emergence and development of a strong ecosystem. Thanks to all these efforts, Paris has experienced a lot in recent years and is now a world leader in innovation and most certainly the top European city.
There are well-known examples of successes such as Velib ', Autolib', Paris Wifi, among other experiments such as heating a residential building thanks to the energy produced by data centers, data vizualisations of the Paris transport system, smart street furniture, … Many of those locally-grown success stories are helping to build our own project of smart city and to deploy these experiments on a larger scale as standards for the city of tomorrow.
Paris is actually creating international benchmarks for smart city, though it is not as recognized as it should be. Through calls for innovative projects led by the Paris Region Lab at the initiative of the City, we facilitate the emergence of intelligent solutions on subjects as diverse as intelligent street furniture, energy efficiency or assistance home support for seniors. Paris provides entrepreneurs and businesses of all sizes with a single territory and open trials. It also runs a network – an open innovation club – that organizes meetings between the largest companies and startups. We are even deploying this initiative in other French cities, at their own request.

C&S: What priority initiatives have been selected for the Smart City project in Paris?
J.-L. M: One billion euros will be invested by 2020 in order to make Paris the international benchmark in innovation related to land use, the participatory democracy, sustainable development, the digital economy and energy transition.
Our smart city approach is threefold: open city (open data), digital city (potential of digital technologies and their application to improve the quality of life of Parisians) and the inventive city (which is built by transversal networks and innovation).
Each of these pillars shall contribute to our 4 main targets.
One of the most important is the food supply because no city in the world is capable of ensuring its food self-sufficiency in the present state of our know-how and our food is responsible for almost 40% of our ecological footprint. We have recently launched a call for projects titled: "Innovative Urban Greening" which consists, among other objectives, in experimenting with the urban agriculture of the future.
Another challenge is the energy of the city. 90% of the energy of the Paris metropolis is provided by fossil fuel or nuclear energy. From a territorial point of view, it is an imported energy. In addition to the on-going effort on renewable energies (with a certain success for geothermal energy), the focus is increasingly on energy recovery. We must go ahead and draw from their hidden resources. These resources are at the core of the circular economy: a waste produced by someone is a resource for someone else.
An example in Paris is the Qarnot Computing start-up which has invented a radiator-computer: by dissipating all the energy consumed  by data processors in the form of heat, the Q-rads make it possible to heat free of charge and ecologically any type of building (housing, professional premises, collective buildings) according to the needs of their users. A low rent housing building has been fitted out with these Q.rads radiators: the inhabitants do not have to pay for their heating anymore and their ecological footprint is zero.
The third challenge is urban mobility. This can no longer be dealt with through the option of car versus collective transport. New systems of mobility are emerging: they concern the technology of vehicles (electric cars, rubber-tired tram), but above all the technology of services (rental among individuals, sharing, car-pooling, multi modal applications, etc.), and they often open the way for the emergence of new chains of values and new players.
In Paris, the massive adoption of Autolib' and Velib' shows the power of attraction of sharing and self-service.
Last challenge is planning for the future of urban spaces and architecture. In order to take into account new ways of working, living or trading we need to be able to test multifunction buildings that combine housing, offices, community spaces, show-rooms and services to people. This mixed use on the scale of a building implies more flexible Local Urban Plans and an adaptation of safety rules. The new way of working implies home-office, mobile office, co working and remote working centers. The new way of living requires community spaces in the building, a greater use of roofs, community gardens, shared utility rooms, services to the person, sorting and recycling. New trading methods integrate ephemeral shops, shared showrooms and fablabs.

C&S: Paris as a city, and you in particular, have worked hard to ensure that digital is also an opportunity to redevelop business in Paris, which is threatened to become a purely residential city. What connection do you see between support for start-ups, incubators and nurseries, and a policy of the Smart City type?
J.-L. M: The City of Paris is an innovative city at the forefront of digital technology, as evidenced by the ranking of PricewaterhouseCoopers. The emergence of Silicon Sentier in the heart of Paris in recent years, or important events such as Futur en Seine and the Open World Forum illustrate the growing dynamism of our city in terms of digital innovation.
Notably, in our incubators, many innovations are related to digital technologies. They create value in all areas of the city and aim to serve people in a better way.
As an example, the Moov'in city competition launched in June 2013 by the City of Paris in partnership with the RATP, SNCF, JC Decaux and Autolib' aimed at bringing out new web-based and mobile services focused on mobility in Paris and the Ile de France region. One hundred ideas were generated through this process; seven of them were awarded a prize. Among them, the Paris Moov' solution is a route calculation application that integrates all public transport modes available in the Ile de France region and suggestions of activities once arrived at destination.
Some incubators and clusters that we support are directed specifically to the city and urban services (energy, transport, water, logistics, etc.).
This is for example the case of the Paris Innovation Massena incubator where we work with large corporations like SNCF or Renault. We help them and they accompany us to build our Smart City project.
In addition, the creation of incubators or Fab Lab continues with determination and ambition displayed, particularly with the MacDonald converted warehouse or the Halle Freyssinet, the future world's largest incubator (1000 start-up companies). New places at the forefront of innovation combining incubators, coworking spaces will continue to be created and its ecosystem of innovation will be internationalized. This is the only way for Paris to be in the top attractive and competitive cities in the world.

C&S: How do you pilot a 'Smart City' project? (Is it through a task force outside the main city services? Or through a cross-functional structure involving all the services?) How did you structure management of the Paris project?
J.-L. M: The smart city is a cross-cutting subject, which means we have no other way to do it than keeping good interaction among the administrative units.
All large cities are confronted with the issue of finding the appropriate scale of governance and new governance tools. The model of organization of local administrations is outdated. The large vertically-organised departments (urban planning, roadways, housing, architecture, green spaces) are facing the challenges of intelligent networks, project management, citizen participation that require a much more cross-cutting and horizontal coordination.
Paris has historically been organized in large vertical services to deal, for example with roads, architecture, urban planning and so on. For this reason, we have chosen to address the question of the Smart City within the City of Paris through a steering committee composed of elected officials and a cross-cutting taskforce driven at the General Secretariat - the body that oversees all directions.
This "smart city" mission is a project accelerator. Its aim is to raise awareness on this subject within and throughout the services but also to manage the relationship with our key partners of major urban infrastructure. It supports the deputy mayors on each of their missions and brings global thinking to structure a coherent overall strategy in the multiplicity of initiatives and concrete actions led by all the services.

C&S: On a more mundane level, the deployment of digital applications in the city is also organized on the basis of a telecommunications infrastructure (fiber access, 4G, WiFi, ...). Are you satisfied with the existing equipment and deployments underway at the initiative of private operators? How do you cooperate with them particularly in light of concerns over radio transmitters?
J.-L. M: While the City of Paris has no formal jurisdiction over this subject, we consider it is our role to ensure that all Parisians can access clear and transparent information on the deployment of base stations, and to take their concerns into account while ensuring the development of new technologies. This led us to sign a mobile telephony charter in 2003 with the telecom operators. His latest release in 2012 has set maximum exposure levels to radiofrequency fields and clear procedures for consultation with residents.

Jean-Louis MISSIKA is deputy mayor of Paris in charge of urbanism, architecture, projects of Greater Paris,  economic development and attractiveness. From 2008 to 2014, he was deputy mayor of Paris in charge of innovation, research and universities. Prior to his local mandates, his professional career included various managerial positions in the public and private sectors.

 

 

2déc/140

La révolution du mobile ne fait que commencer… et on a encore rien vu!

François Barrault


François Barrault,
President de l'IDATE
Analyse parue initialement dans Les Echos du 28 novembre 2014


Tous les européens ou presque sont équipés d’un ou plusieurs téléphones mobiles. La majorité dispose d’un smartphone. Et pour autant, la révolution de la mobilité est largement devant nous.

D’ici la fin de la décennie on comptera quelques 9 milliards d’usagers mobiles. Le trafic mobile aura été multiplié par 10, soit une croissance trois fois plus rapide que sur les réseaux fixes. Les accès mobiles et sans fil (Wi-Fi) vont devenir dans nos pays le premier client des réseaux en fibre optique. La vidéo représentera plus de 50% du trafic mobile. En Afrique, les réseaux cellulaires et les smartphones à 50 euros vont ajouter des centaines de millions d’internautes…

On peut y voir plusieurs challenges pour l’Europe. Le premier est relatif à notre industrie des télécommunications qui n’a pas été épargnée par les transformations. Au moins y avait-il une perspective : la 4G. Soit une nouvelle génération plus performante de réseaux mobiles à même d’offrir des accès de qualité aux applications de l’Internet. Des investissements lourds, mais une occasion de se différencier et de sortir d’un modèle de concurrence un peu frustre qui avait tendance à se réduire au seul paramètre prix. En fait, dans la plupart des marchés européens et malgré la 4G, la chute des revenus se poursuit et les marges ont du mal à se stabiliser continuant à fragiliser les capacités d’investissement. Pour sortir de la guerre des prix, il faut aussi compter sur les effets d’une consolidation raisonnable sur les marchés nationaux en attendant que se matérialise un marché européen avec des acteurs un peu plus pan-européens. Soyons optimiste, les premières opérations de consolidation sont en passe d’être autorisées et une nouvelle Commission européenne se met en place. L’aventure ne fait que commencer. On ajoutera que la 4G est une norme universelle, pour la première fois dans cette industrie, et qu’elle s’accompagne d’ors et déjà de perspectives concrètes d’amélioration (« advanced LTE »), offrant des débits encore plus rapides, tandis qu’à la fin de la décennie on devrait bénéficier des paramètres spectaculaires de la 5G.

L’Europe des télécommunications, qui a eu longtemps un leadership mondial sur les mobiles, n’a pas été au rendez-vous de la 4G, et le retard est loin d’être résorbé si l’on se compare à la place prise par la 4G en Corée du Sud ou aux Etats-Unis. Le renouvellement de cette situation quand viendra l’heure de la 5G serait une catastrophe. Pour nos opérateurs et les consommateurs d’abord. Mais aussi pour l’industrie des télécommunications qui y est associée et qui continue de représenter avec des sociétés telles Ericsson, Alcatel-Lucent, Gemalto et Oberthur, un des trop rares atouts européens dans le numérique.

Il y a cependant un second challenge. Ces réseaux 4G et 4G+ sont les premiers à fonctionner en mode tout IP. Ils vont accélérer le basculement qui s’est amorcé avec la 3G et le Wi-Fi de l’Internet fixe vers l’Internet mobile. C’est vrai dans les économies émergentes comme sur nos marchés. Les acteurs dominants de l’Internet l’ont compris. Google y a vu très tôt la nécessité d’investir dans Android. Facebook communique depuis deux ans devant les analystes avant tout sur l’essor de la part de ses usagers mobiles. Amazon n’hésite pas à investir dans ses propres tablettes pour protéger l’accès à son eCommerce. Netflix et YouTube ont aussi vu que la vidéo allait constituer sur le haut débit mobile la majeure partie du trafic. Même Microsoft a adopté le slogan « mobility first!».

En même temps, nous voulons croire que le jeu n’est pas totalement fermé. Avec le mobile, une transformation très profonde de l’Internet s’est amorcée : l’intégration de la géolocalisation, l’intimité d’un terminal qui prend la forme de lunettes, d’une montre, de vêtements et qui inclut les fonctions d’un portefeuille et d’un monitoring en temps réel de sa santé  et de son environnement (maison, voiture, ville connectée). On a vu ces derniers trimestres croître le « Machine to Machine » qui représente déjà des millions de connexions. On commence à imaginer l’Internet des Objets. Toutes ces vagues, encore en devenir de l’internet mobile, vont se combiner avec la puissance des architectures cloud pour constituer une part sans doute prépondérante de l’économie de la data.

Ces deux challenges sont intimement liés, même si chacun doit occuper sa place. Il serait dangereux pour les européens de se complaire dans les postures, ou de se résigner à une opposition entre l’économie des réseaux, qui serait la victime d’une régulation sectorielle impitoyable et celles des applications Over The Top qui ne doit pas bénéficier de l’impunité d’un fonctionnement hors sol. Enfin, au-delà des prouesses de la technologie, Il faut aussi reconnaître l’importance considérable d’un troisième challenge : l’établissement d’une relation de confiance entre les acteurs industriels et les régulateurs, et entre ceux-ci et le consommateur.

François Barrault
Président de l’IDATE

Ces thèmes ont été largement débattus dans le cadre du dernier DigiWorld Summit, 36ème édition de la conférence internationale de l’IDATE, dont les vidéos des interventions sont accessibles en ligne sur : www.digiworldsummit.com

2déc/140

Les scénarios de l’Internet 2025 : la guerre des plateformes pour un marché multiplié par quatre

BONNEAU_Vincent-84x126Vincent BONNEAU
Directeur de la Business Unit Internet, IDATE

L’IDATE a dévoilé à l’occasion de son DigiWorld Summit 2014, son tout dernier rapport consacré à l’évolution de l’Internet pour les dix prochaines années.

Alors que l’Internet se transforme radicalement sous la pression de la généralisation de la mobilité et de la verticalisation des usages, l’IDATE publie son étude consacrée à l’avenir de l’Internet, à travers une analyse des tendances des technologies, des usages, des business models et de la réglementation. Elle propose, à partir d’une approche par scénario, une vision du rôle des différents acteurs à long terme appuyée sur un chiffrage du marché mondial des services Internet à l'horizon 2025.

Pour Vincent Bonneau, Directeur de la Business Unit Internet de l’IDATE en charge de cette étude : « Internet est une rupture fondamentale pour l’ensemble des secteurs TIC mais également pour tous les autres domaines d’activité, obligeant les nouveaux et les anciens acteurs à vivre avec des revenus et des coûts par unité à la baisse. Les effets de l’Internet sont déjà très impressionnants, en totalisant un chiffre d’affaires au niveau mondial de 229 milliards d’Euro en 2013, tout en détruisant de la valeur dans les secteurs de l’IT, des contenus et des services de télécommunications. Mais il faut bien voir que la diffusion de l’Internet de nouvelle génération est loin d’avoir encore donnée toute sa puissance ! ».

La rupture originelle de l’Internet tient à son environnement technique ouvert, qui a permis une diffusion rapide de technologies clés standardisées. Nous assistons à une nouvelle transition, semblable à celle que nous avons connue à travers la numérisation des activités, mais qui s’apparente aujourd’hui à une softwarisation généralisée. Elle a d’abord commencé avec l’information mais s’attaque désormais aux équipements et aux secteurs dits verticaux (énergie, transports, santé, éducation,…). Des activités qui adaptent leurs modèles économiques pour tirer parti des atouts de l’informatique et des données, coûteuses à produire mais très bon marché à reproduire.

Pour analyser les évolutions de l’Internet à l’horizon 2025, il est nécessaire de prendre en compte les principales incertitudes qui se concentrent sur deux questions essentielles, qui permettent de dessiner les lignes de forces de quatre scénarios très différents :
La disponibilité et l’ouverture des données : les données personnelles sont au cœur des modèles économiques de nombreux fournisseurs de services, alors que dans le même temps elles sont au centre des préoccupations d’une majorité d’utilisateurs. Ces derniers, comme les gouvernements, doivent arbitrer entre un accès (peu onéreux) à des services innovants et le contrôle et le partage de leurs données dans un environnement où la confiance reste limitée.
Les écosystèmes : Dans le même temps, le développement des grandes plateformes, proposant leur technologie propriétaire, remet en cause l’ouverture originelle de l’écosystème de l’Internet. Les réglementations locales et des standards ouverts pourraient être en mesure de contenir l’influence des plateformes, ainsi que des modèles économiques recentrés sur les équipements et la vente de produits physiques.

Parmi les quatre scénarios qui en découlent, le plus probable, est celui qui prolonge la « Guerre des plateformes, « Platform Wars », pour lequel les leaders de l’Internet comme Google et Amazon et les grands groupes de distribution type Wal-Mart concentrent de plus en plus de données. Grâce à leurs propres infrastructures et une réglementation compréhensive, ils seront en mesure de proposer des services innovants à partir d’un mix de publicité et de ventes d’équipements. Ils seraient alors en mesure de capter une grande part de la valeur d’un marché se montant à 875 milliards d’Euros en 2025 (pour un taux de croissance annuel moyen de 12% entre 2013 et 2025).

Les autres scénarios présentent des positions plus contrastées. Entre le scénario « Open Innovation » d’encore plus forte croissance par combinaison des innovations, le scénario « Low-cost Islands » conduisant à une croissance ralentie concentrée sur les services les plus disruptifs en matière économique, ainsi que le scénario intermédiaire « Pay per trust », se dessinent des avenirs possibles où le développement de l’Internet sera, selon les cas, un écosystème n’étant plus soumis à la loi de quelques acteurs hyper-dominants (grâce par exemple à HMTL5 ou à l’open data), un comportement dominant d’utilisateurs rejetant les services qui limitent l’accès aux données privées pour les tiers (type Netflix, DuckDuckGo ou Ello), ou bien un Internet dominé par quelques acteurs en mesure de garantir la confiance grâce à des systèmes de sécurité sophistiqués et des modèles centrés sur les services et terminaux payants, à l’instar d’Apple ou de spécialistes du paiement comme Amex.

Les scénarios de l'Internet en 2025 : marché mondial des services Internet (Milliards d'euros)
scenarios-de-linternet-en-2025-marche-mondial-services-internet-en-milliard

 

 

 

 

 

 


Source : IDATE, in the Future internet in 2025, November 2014

Cette étude vous intéresse ? Rendez-vous dans notre boutique en ligne.

28oct/140

The future of patents in communication technologies : interview with Ruud PETER, Philips

Published in COMMUNICATIONS & STRATEGIES No.95

Ruud Peters

 

Conducted by Yann MÉNIÈRE
Professor of economics at MINES ParisTech,
head of the Mines-Telecom Chair on "IP and Markets for Technology", France

 

 

C&S:  Could you please introduce yourself and the organisation you are working for/have been working for?
Ruud PETERS: I first joined the Philips Intellectual Property & Standards (IP&S) organisation in 1977, with a background in physics. After taking various positions in the technology and consumer electronics sectors, I was appointed CEO of Philips IP&S in 1999. There I have been responsible for managing Philips' worldwide IP portfolio creation and value capturing activities, and responsible for technical and formal standardization activities in the fields of consumer lifestyle, healthcare, lighting and technology until my retirement at the end of 2013.
I remain affiliated to Philips as a Strategy & IP adviser reporting to the board member responsible for Strategy and Innovation. I also represent Philips in the board of various companies, which I created or in which I took a share as Philips in the past. Beside my Philips affiliation, I devote about half of my time to other governing and consultancy roles as board member of a number of international companies and organisations related to IP.

C&S:  What is your/your organisation's approach to IP and patents from a business perspective?
R.P.: Philips has an integrated approach to IP asset management. This includes trademark, domain names and designs, while they are often treated separately in other companies. Philips also has a proactive view of the role of IP as a creator of value. In this view, building an IP portfolio should not be a goal per se, but a lever to support growth and profitability. Accordingly, Philips IP&S is closely involved in the business decisions being made around IP rights. It is responsible for the creation and management of these rights, but also anti-counterfeiting strategy, financial aspects of licensing agreements and formal standards-setting issues.

C&S:  What is your opinion about the role of the patent system in the economy, and the benefits it can bring to the society?
R.P.: Today more than ever, the economy needs people who are prepared to take the financial risk to invest in new ideas and innovative activities that contribute to welfare. Those people need a reward for the risk they take, and it is the role of the patent system to provide such incentives.
This incentive function of patents should be understood in a broad meaning. Patents are highly flexible instruments that open a broad set of strategic choices. Recouping investments by securing an exclusive use of inventions is certainly one of these options, but patents can also be used more proactively. They can be opened up for use by others though licensing programmes or the creation of joint ventures, creating valuable economic activity in the process. In other words, they are the necessary currency for the exchange of ideas and for collaboration.

C&S:  Recent years have seen frequent patent battles and controversy in the digital area. Is there something specific to this technology field with respect to patents and IP?
R.P.: Yes and no. On one hand, the digital area has indeed some specific features with respect to patents and IP. It is first subject to a continuous trend towards higher IP density, with many devices each embodying a growing number of patented technologies. It is moreover organized around a limited number of platform products – such as operating systems– that enable devices to interoperate. These platforms are subject to strong network effects: they become more attractive the more users and the more available compatible products (such as apps in the case of smart phones). They can also generate strong economies of scale in manufacturing. As a result, the competition between platforms is “tippy”: only a few companies that manage to quickly capture enough market shares can eventually establish a profitable business. Against this background it is not surprising that companies compete fiercely to promote their platforms. This includes inter alia a heavy use of patents in the first step. One can yet expect patent battles to recede once market positions will be stabilized.
On the other hand, similar evolutions may take place in other sectors – such as the automotive, healthcare or pharmaceutical industries – where digital technologies are becoming pervasive. In the future, I expect products in these sectors to reach substantially higher and in some sectors, like automotive, similar levels of patent density as in the IT industry. Patents may then become a battleground of the competitive process in these areas too. Patent battles are indeed an inevitable consequence of translating innovative merit into a competitive advantage or, conversely, a disadvantage for the company that pays royalties for borrowing a competitor's technology. They are one part of the market forces that eventually shape industries.

C&S:  What are the key challenges or trends that the patent system is currently facing?
R.P.: The key challenge for the patent system is to raise the bar for the quality of patents. The last decades have seen a sharp increase of patent filings around the world, inducing backlogs in patent offices and a drop in patent quality. Based on results of recent court decisions and inter parties reviews in the USA, it is estimated by some experts that about 50% of all patents can be assumed to be invalid. As a result, one cannot assume nowadays anymore that a granted patent is a valid right.
This legal uncertainty fuels lawsuits, but also criticism of the patent system. I think that both can be avoided with enhanced patent quality. To raise the bar, better searches for prior art should be a priority. While various other regulations are currently being discussed, this is the most obvious and effective way to improve the patent system.
Innovative, market-based means can help patent offices to fight the abuse of low-quality patents. I am thinking, for example, of crowd sourcing based searches for prior art to help defendants against assertion of low-quality patents. Article One Partners is a good example of a company providing exactly this service.

C&S:  Where are the main differences in the patents/IPR thinking and practice between both sides of the Atlantic, and between the Western world and Asia?
R.P.: The basics of the system – that is, patent law – are the same everywhere. Hence there are no significant differences in the way companies obtain IP rights. However, important differences remain at the level of the judicial system, in the way national systems are operated.
The U.S. patent system is more judiciary. It has a very complex judicial system, with high costs of using patents. By contrast, the European system is more balanced. It is less costly for its users despite the persistence of national patent systems. I am confident that this system will further improve in future years with the creation of the unitary patent and patent court.
Asian countries are modernising their patent systems, although not all of them are at the same stage. This is a very important evolution, especially as regards China. As of today, legal uses of IP remain less developed in this country than in the Western world. Local companies and IP institutions are less experienced, but they are catching up rapidly. I expect China to be at the same level as Europe in about five to ten years.

C&S:  What will be the most important developments regarding patents for the coming 5-10 years?
R.P.: The evolution of accounting rules towards a better financial valuation of IP should be a major development in future years. Currently, these rules tend to focus on the cash benefits of licensing income while there are many other ways in which IP assets create value in the knowledge economy. IP makes it possible to protect products and markets from competition, enter new markets, facilitate deal making or create freedom to operate and thus enable higher and more profits or less cost. Because such uses of IP rights do not appear explicitly on the P&L account and the value of the IP portfolio is not on the balance sheet, companies ignore the real value of their intangibles. In practice, this means that IP assets are dealt with at the IP department only, while they should be considered as strategic assets at the board level.
Financial valuation is necessary to convince corporate executives of the real value of intellectual assets, just as for other important assets on a company's balance sheet. This requires new international accounting frameworks that better reflect the true economic importance of intangibles. This is a challenging task for the next ten to fifteen years. Eventually, better accounting rules will facilitate IP recognition within companies, but also in society. The way IP works in the knowledge economy is still not well understood. We still apply the rules of the traditional hardware based economy to the knowledge economy. As an example, courts still calculate royalties as a percentage of the cost price of products, while they should consider the value that IP brings to the product. A new framework will be needed for financial, legal, tax and competition rules in the global, knowledge economy.
I also expect the maturation of markets for IP to be an important development for future years. The current system of bilateral negotiations of licensing deals is quite primitive. It is especially opaque and inefficient when the same patent needs to be licensed to multiple companies, with replicated costs of due diligence, negotiation and monitoring for each deal. A transition towards a more transparent and efficient organization of IP markets is possible, just as happened for stock markets in the past. With market-based pricing of unit licence rights, based on centralised due diligence, the creation of international IP exchange IPXI in Chicago is for instance an important step in this direction.

  • Ruud PETERS was appointed Chief Intellectual Property Officer (CIPO) of Royal Philips in 1999, in which position he was responsible for managing the worldwide IP portfolio, and the technical and formal standardisation activities of Philips. In this role, he turned the company's IP department from a cost centre into a successful revenue-generating operation, while at the same time integrating all the different IP activities within various parts of the company into one IP centralised organisation. He further developed and introduced a new concept for intellectual asset management, in which all the different forms of IP are handled together in an integrated manner, and advanced methods and systems used for determining the total return on IP investment by measuring direct and indirect profits. Ruud joined Philips in 1977. He retired from his role as CIPO at the end of 2013, but continues to work for the company as a part-time adviser on strategy and IP matters. He is also a board member of a number of technology /IP licensing /trading companies. Ruud has a background in physics (Technical University Delft, The Netherlands). He was inducted into the IP Hall of Fame in 2010 and in 2014 he received an Outstanding Achievement Award for his lifetime contributions to the field of IP from MIP magazine. He frequently speaks at major international IP conferences and also writes articles regularly for leading IP and business magazines.

 

  • Yann MÉNIÈRE is professor of economics at MINES ParisTech (France) and head of the Mines-Telecom Chair on "IP and Markets for Technology". His research and expertise relate to the economics of innovation, competition and intellectual property. In recent years, he has been focusing more specifically on IP and standards, markets for technology and IP issues in climate negotiations. Besides his academic publications, he produced various policy reports for the European Commission, French government, and other private and public organisations. Outside MINES ParisTech, he teaches the economics of ICT Standards at the Imperial College Business School. He is associated as an economic expert with Microeconomix and Ecorys, two consulting firms specialised respectively in economics applied to law, and public policies.

If you want to buy Communications & Strategies n°95 "The future of patents in communication technologies", this way, please.

16oct/140

Audiovisuel : Les nord-américains vont-ils contrôler le segment de la vidéo à la demande ?

Florence Le Borgne-Bachschmidt

Florence Le Borgne

Responsable de la Practice TV & Contenus numériques

Vers une domination globale des marques nord-américains 
sur les segments de la vidéo à la demande ?

L’IDATE publie la nouvelle édition de son étude et de sa base de données sur l’évolution du « Marché mondial de l’audiovisuel ». L’occasion de revenir sur les données clés d’un marché en pleine mutation à travers l’analyse de la consommation, de l’accès aux services TV (terrestre, satellite, câble, IPTV), des revenus (TV, Pay-TV, DVD, Blu-ray, Vidéo à la demande), pour plus de 40 pays.

Pour Florence Le Borgne, chef de projet de cette étude : « la consommation de vidéo n’a jamais été aussi forte qu’aujourd’hui, pourtant la croissance des recettes du marché global de la vidéo est ralentie par la chute inéluctable des revenus de la distribution de vidéo physique, et par les pressions exercées sur les business models de la TV traditionnelle par la diffusion de vidéo Over-the-top (OTT).»

Selon l'IDATE, les revenus mondiaux de la télévision vont passer de 368.9 milliards EUR en 2014 à 424.7 milliards EUR en 2018, soit une progression annuelle moyenne de 3.6%, alors que ce taux était de 5.0% entre 2010 et 2013 :

• Les revenus de la télévision à péage devraient connaître un fort ralentissement dans les prochaines années, avec un taux de croissance annuel moyen de 2.8% entre 2014 et 2018, contre 6.1% entre 2010 et 2013. Ils devraient néanmoins demeurer la première source de revenus de la télévision à horizon 2018 avec un montant total de 195.9 milliards EUR en 2018.

• Les recettes publicitaires devraient connaître une croissance globale plus dynamique, dans la lignée de ces dernières années (4.8% par an d’ici 2018, contre 4.6%/an ces quatre dernières années), pour atteindre 193.0 milliards EUR en 2018.

• Le montant des fonds publics alloués à la télévision continuera de progresser sensiblement (+1.5% de croissance annuelle moyenne), pour atteindre près de 36 milliards EUR en 2018.

Les recettes de la vidéo à la demande atteindront 34.4 milliards d'euros en 2018, en progression soutenue (+131.5% par rapport à 2013), et représenteront à cette échéance plus du double des recettes de la vidéo physique (15.5 milliards d'euros en 2018).

• La vidéo OTT devrait conforter sa place sur le marché de la vidéo à la demande, concentrant plus de 80% du total des revenus générés.

• La VOD locative reste le modèle dominant sur réseaux managés. Elle génèrera 4.7 milliards EUR de revenus en 2018 contre 3.3 milliards en 2014.

• Le marché mondial de la vidéo physique continue son repli en perdant près du quart de sa valeur de 2014, malgré la croissance du format Blu-ray.

Prévisions d'évolution des revenus de l’audiovisuel par marché, 2014-2018 (milliards EUR)

prevision-evolutions-revenus-audiovisuels-marché-2014-2018

Source : IDATE, Le marché mondial de l’audiovisuel, juillet 2014

 

Répartition des recettes TV par source de revenus, 2014-2018 (milliards EUR)

repartition-recette-TV-par-sources-revenus-2014-2018

Focus Video on Demand : Vers une domination globale des marques nord-américaines sur les segments de la vidéo à la demande ?

 

Malgré une bonne résistance des chaînes de TV premium, Netflix rivalise désormais avec la plus emblématique d’entre elles, HBO. Bien que les bases d’abonnés des principales chaînes Premium aux États-Unis (HBO, Showtime, Starz) demeurent relativement stables voire continuent de progresser (respectivement +13.3% et +14.2% pour Showtime et Starz entre 2010 et 2013), la dynamique de recrutement vient maintenant clairement des services OTT, et en particulier de Netflix, dont le nombre d’abonnés a progressé de 71.4% entre 2010 et 2013. A fin juin 2014, Netflix comptabilisait 36.2 millions d’abonnés domestiques, dont 35.1 millions d’abonnés payants, contre 28.6 millions d’abonnés pour HBO aux Etats-Unis.

• Vers une extension de la domination des marques nord-américaines de vidéo à la demande dans le reste du monde? Hors marché US, Netflix est désormais présent dans 46 pays en octobre 2014, pour 13.8 millions d’abonnés à l’international. À lui seul, ce service concentre les deux tiers des abonnés à une offre de télévision à la demande par abonnement dans le monde. A titre de comparaison, HBO est présent dans 61 pays répartis entre l’Amérique latine, l’Asie et l’Europe rassemblant plus de 35 millions d’abonnés, dont une part croissante accède au service HBO Go. De son côté, iTunes domine le segment de la vidéo à la demande à l’acte avec respectivement 65 % et 67 % des recettes de la vente en ligne (EST) de films de cinéma et de programmes TV en 2012. La quasi-totalité des pays européens peuvent accéder au service de VOD locative, tandis que les résidents de 8 pays (Allemagne, Autriche, Espagne, France, Italie, Irlande, Royaume-Uni et Suisse) peuvent effectuer des achats définitifs à partir de la plateforme d'Apple. Face à eux, ces géants mondiaux ne rencontrent que des offres nationales. Si certaines connaissent néanmoins un certain succès (520 000 abonnés revendiqués en France par CanalPlay), on ne peut que s’interroger sur leur capacité à résister face à des offres globales.

• Signalons enfin que, pour la première fois au 2ème trimestre 2014, les recettes totales d’abonnement aux services Netflix dépassent celles générées par HBO et s’élèvent à 1.146 milliard USD vs 1.141 milliard USD.

 

Part de marché de Netflix sur le segment de la SVOD dans le monde au 31 décembre 2013 (%)

part-marche-netflix-segment-SVOD-ds-monde-31 décembre 2013

 

 

 

 

 

 

 

Source : IDATE, Le marché mondial de l’audiovisuel,juillet 2014

L’implantation des services de vidéo OTT nord-américains en Europe, Octobre 2014

implantation-services-video-ott-nors-americain-en-europe-oct-2014

 

 

 

 

 

 

 

 

 

 

 

 

Vous souhaitez découvrir notre étude sur le sujet ?Rendez-vous dans notre store.

14oct/140

De retour des États-Unis

GASSOT Yves

Yves Gassot Directeur Général, IDATE

Plusieurs membres du DigiWorld Institute de l'IDATE ont été associés à une Mission USA qui s’est déroulée les 18 & 19 septembre, à l’occasion de l’édition 2014 à New York de notre "Transatlantic Telecom Dialog", rencontre que nous organisons chaque année avec notre partenaire, le CITI du Professeur Eli Noam de Columbia University (New York).

Ce déplacement a été également l’occasion de préparer le lancement d'un Programme de Recherche Collaborative réalisé avec le concours de nos Membres. Ce travail collectif se déroulera à Bruxelles sur le thème "US telecom: role-model or counter-model?". Nous avons pu rencontrer au préalable à Washington plusieurs responsables de la FCC ainsi que les équipes "Public Affairs" et Régulation d'AT&T, d'Alcatel-Lucent et de Verizon.

De retour à l’IDATE, je vous livre quelques réflexions spontanées sur trois points chauds du débat outre-Atlantique qui animent le secteur des télécommunications :

• Quelle forme de concurrence pour le très haut débit ?
• Enchères et concurrence dans les mobiles ?
• Sortir du feuilleton sur la Neutralité du Net ?

1. Comment éviter sur de nombreux territoires un monopole du câble d'ici quelques années pour la fourniture d'accès très haut débit ?

On rappellera que les Républicains ont infléchi très clairement au début des années 2000 le "Telecom Act" en misant essentiellement sur la concurrence intermodale, entre les telcos et les câblos, pour construire les infrastructures d'accès à très haut débit. Ils ont pour cela abandonné la perspective d'imposer les règles de dégroupage que nous connaissons en Europe. Dès lors, les grands opérateurs ont, autour de 2005, engagé des investissements significatifs pour équiper en réseaux en fibre ou avec des architectures hybrides. Dans le même temps, les câblos – qui desservent 90% des foyers – ont équipé (Docsis3) leurs réseaux pour offrir des débits de plus en plus élevés. Mais le câble est allé vite, tandis que les telcos ont rapidement accordé la priorité au déploiement des réseaux mobiles, surtout depuis trois ans avec la bataille autour du LTE. L'empreinte des réseaux "upgradés" des grands opérateurs a peu évolué. Et le câble voit sa part du marché Broadband, 60% aujourd'hui, augmenter très régulièrement. Dans une récente intervention, le président de la FCC a présenté et commenté le tableau ci-après, qui souligne que 79% des foyers avaient accès à un débit supérieur à 50 Mbits, mais que seuls 17.6% d'entre eux avaient le choix entre plusieurs opérateurs.

At-faster-speeds--fewer-competitor

De quelles cartes dispose la FCC pour inciter les telcos à étendre plus rapidement l'offre d'accès à très haut débit ?

Google ? Celui-ci ne souhaite évidemment pas se retrouver face à un seul opérateur d'accès. Il a donc lancé à Kansas City, puis dans quelques autres villes, la construction (sous la condition notable que dans les quartiers concernés, les habitants expriment explicitement leur intérêt) de réseaux à 1Gbits. Personne ne pense que Google a l'intention d'entreprendre le fibrage du pays. Mais son action a d'une certaine façon réveillé l'intérêt des municipalités. Elle a d'autre part contribué à fixer "la nouvelle frontière" du haut débit à 1Gbits…

• Les Municipalités ? Il y a bien eu quelques initiatives de réseaux municipaux dans le passé, mais certains exemples n'ont pas été probants. Et surtout plusieurs Etats ont considéré qu'il y avait là une concurrence déloyale avec le secteur privé et ont donc quasiment interdit ces initiatives. Le nouveau Président de la FCC veut aujourd'hui revenir sur ces interdictions.

• Les négociations "donnant-donnant" pour "fermer" le bon vieux téléphone ("PSTN" en TDM) pour ne fonctionner qu'en mode IP. C'est là un point sensible et légitime des stratégies d'évolution des telcos mais il est regardé de façon très attentive et plutôt méfiante par les Etats. AT&T a obtenu de la FCC l'autorisation de mener deux expériences de fermeture de la téléphonie en mode TDM, l'une en milieu rural en Alabama, l'autre en milieu suburbaine en Floride. Comme en Europe, où l'on parle plus directement de la disparition du cuivre (au profit des accès en fibre), il s'agit de tester les problèmes encourus par les lignes qui équipent les ascenseurs, les systèmes de sécurité, etc.

• Les conditions qui peuvent être mises par les autorités aux autorisations de plusieurs opérations de fusion annoncées : Comcast/Time Warner Cable, AT&T/DirecTV…

• La FCC peut aussi mettre en avant le facteur de concurrence que constitue le haut débit mobile avec la 4G et la 4G + (agrégation de fréquences, antennes MIMO, smal cells). Elle peut aussi s'émerveiller des annonces qui se sont multipliées ces derniers temps dans le sillage des projets de Google, de réseaux à 1 Gbits proposés ici ou là (mais notamment dans les zones intéressant Google) par AT&T, Century Link ou Cox Cable. Le précédent président de la FCC, Julius Genachowski, avait appelé au déploiement d'ici la fin de 2015 d'un réseau Gigabits minimum par Etat. Mais ces opérations ne paraissent pas encore devoir se traduire par des inflexions chiffrées des Capex wireline, de telle sorte qu'un analyste a proposé de qualifier ces opérations de FTPR ("Fiber To The Press Releases")…

• Pour terminer sur ce point, on soulignera aussi que le gap (1) en termes de dynamique de marché qui existe aujourd'hui de part et d'autre de l'Atlantique, jusqu'alors essentiellement concentré sur le marché mobile, paraît s'élargir au marché "wireline" résidentiel. Les deux plus importants opérateurs fixes (AT&T et Verizon) sont sur le point de mettre fin à la baisse continue depuis plus de 10 ans de leurs revenus. C'est lié très directement à la croissance de leurs abonnés "triple play" au sein de leurs territoires "upgradés" (U-Verse et FiOS) et aux ARPUs >$150 qui y sont observés. Sous réserve de la profitabilité des services vidéo qui sont à la base de ces ARPUs, il pourrait y avoir un intérêt direct des telcos à renforcer leur capex dans les réseaux fixes et à étendre leurs réseaux à très haut débit sur de nouvelles portions de leur "footprint". La fusion projetée entre AT&T et DirecTV, comme celle de Comcast-Time Warner Cable, a précisément pour objectif (2) d'améliorer leurs conditions de négociation avec les studios de production pour accéder aux programmes.

2. Comment mieux valoriser le spectre tout en évitant d'en faire un vecteur de concentration ?

Le 13 novembre vont démarrer les plus importantes enchères (AWS-3) depuis celles de 2008 (700MHz) en mettant en jeu 65MHz dans trois bandes de fréquences : 1695-1710MHz ("unpaired uplink"), 1755-1780Mhz, et 2155MHz-2180MHz (ces deux dernières bandes étant prévues pour des offrir des "paires" uplink/downlink). Le prix de réserve fixé par la FCC est de $10.587 milliards. Il prend en compte le fait que l'essentiel des deux premières bandes de fréquences sont occupées aujourd'hui par des services fédéraux, y compris pour les services de la défense, et qu'il faudra plusieurs années pour gérer leur migration ou coordonner des usages partagés (LSA) (3). AT&T, Verizon, T-Mobile et Dish Networks, et des opérateurs locaux ou ruraux, ont fait part de leur intérêt pour participer. Ce n'est pas le cas de Sprint qui, n'ayant pas contrairement à ses concurrents de fréquences adjacentes aux bandes AWS-3, n'y participera pas.

Mais le débat de ces derniers mois a surtout porté sur le renforcement des politiques de concurrence que peut mener la FCC à l'occasion des enchères ou des opérations de revente sur le marché secondaire. Ces dispositions sont regroupées dans ce qui est appelé le "spectrum screen". La FCC dans son "Order" de juin dernier a fait évoluer ses dispositions en mettant surtout l'accent sur les enjeux dans les bandes des fréquences basses (<1GHz) après avoir rappelé que les deux plus importants opérateurs contrôlent aujourd'hui plus de 70% du spectre qui y est attribué. Pour les prochaines enchères (AWS-3) qui ne sont pas dans ces fréquences et qui correspondent à des bandes partagées entre de nombreux acteurs, aucunes dispositions spécifiques n'ont été définies pour restreindre l'accès de tel ou tel acteur (4). En revanche, pour les "incentives auctions" dans la bande des 600Mhz et prévues en 2015, une "réserve" de fréquence d'au maximum 30MHz sur chaque marché mis aux enchères sera définie. La taille finale de cette "réserve" dépendra cependant de l'atteinte par les enchères du prix de réserve fixé par la FCC pour le marché. Les opérateurs nationaux (distingués ici des opérateurs locaux ou régionaux) qui détiennent plus de 1/3 des fréquences

Il est intéressant de souligner que tandis que la FCC se soucie de l'avenir des opérateurs cellulaires locaux ou ruraux qui gèrent probablement moins de 5% des usagers mobiles aujourd'hui mais peuvent représenter une part beaucoup plus significative de couverture du territoire, on assiste à la multiplication des accords de roaming entre les 4 opérateurs nationaux et ces acteurs régionaux. En fait les grands opérateurs nationaux dans la compétition qu'ils se livrent pour couvrir le territoire n'hésitent pas à louer leur spectre auprès de petits opérateurs ruraux pour qu'ils couvrent leur territoire en LTE. Il y a donc simultanément un accord sur les conditions de location du spectre et sur le prix du roaming qui permettent aux millions d'abonnés des opérateurs nationaux d'avoir une couverture dans les zones rurales tandis que les quelques dizaines de milliers de clients de l'opérateur local peuvent accéder à l'infrastructure des opérateurs nationaux. Nous avons compris que ces accords ne sont pas à l'heure actuelle régulés par la FCC (5). Verizon et Sprint ont pris semble-t-il une longueur d'avance en faisant état respectivement de 21 accords pour 2.3 millions de POP (dont 18 pour le LTE dans les bandes 700MHz et AWS-1) et d'une trentaine d'accords pour 4 millions de POP (dans la bande des 2.5MHz).

Enfin, on terminera ce point sur l'actualité du marché mobile aux USA en signalant quelques autres sujets de débats :
• l'investissement continu des câblo-opérateurs dans des hot/home spots WiFi avc des accords de roaming entre eux et la perspective d'entrer sur le marché cellulaire en complétant leurs infrastructures par un positionnement de MVNO,
• le débat introduit par Qualcomm sur l'usage du LTE (vs. le WiFI) dans les bandes de fréquences sans licences;
• la confirmation de l'engagement si ce n'est d'une guerre des prix, d'une concurrence de plus en plus vive sur le marché mobile depuis l'abandon de l'opération Sprint/T-Mobile. Notre séjour correspondait en particulier à l'offensive de Sprint avec un forfait illimité voix-SMS-data à $50 par mois;
• les queues impressionnantes observées devant les magasins Apple de Manhattan, et le coup de fouet que pourrait représenter pour la VoLTE la diffusion de l'iPhone6.

3. Comment sortir du feuilleton sur la Net Neutralité?

Là aussi, il faut remonter à la décision de 2002 qui a classé le cable-modem dans les "information services" (et non dans les services du ressort du Titre II du Telecom Act susceptibles de se voir appliquer les règles du "common carriage"), positionnement entériné en 2005 pour tous les services d'accès (y compris l'ADSL des telcos). Ce choix a conduit la FCC à voir ses principes successifs de Net Neutralité (2004, "Powell's four freedoms" ; 2005, "Internet Policy statement" et 2010, "Open internet Order") remis en cause par les tribunaux suite aux recours de Comcast et de Verizon.

Aujourd'hui, et après la décision du tribunal fédéral intervenu au début de l'année, il n'y a plus de dispositions réglementaires qui empêchent un fournisseur d'accès de se comporter en Gatekeeper.
Dans ces conditions, la FCC a engagé une consultation de deux mois cet été pour identifier des pistes. Plus de 3 millions de contributions ont été réunies. Le débat tel qu'il résulte des blogs ou conférences se situe à plusieurs niveaux.

Il faut d'abord trouver une solution juridique qui évite la disqualification des principes de la FCC. Deux options existent : accepter de revenir sur les décisions prises et reclasser l'accès à l'Internet dans les services du Titre II du Telecom Act; ou bien, utiliser de façon un peu extensive la Section 706 du Telecom Act qui donne mandat à la FCC de promouvoir les accès Broadband et d'écarter les barrières qui nuisent au développement et à la concurrence sur ce marché.

En sus de ces interprétations du Telecom Act, là aussi l'autorisation des projets de fusion Comcast-Time Warner Cable et AT&T-DirecTV peut s'accompagner d'obligations cas par cas visant à préserver l'Open Internet. On rappellera que la FCC utilisa cette opportunité comme condition pour autoriser la fusion Comcast-NBC.

A côté de ces questions un peu techniques, la chronique du sujet s'est portée ces dernières semaines sur les points suivants :

Faut-il réintégrer l'accès mobile dans les principes de la Net Neutralité, ce qui avait toujours té évité jusqu'alors?
Faut-il intégrer, après les polémiques de cet été sur les accords de paid peering entre Netflix et les principaux ISP, les interco entre les fournisseurs et les ISP dans la régulation de la Net Neutralité?

On notera aussi le débat qui a suivi la proposition d'AT&T de faire sponsoriser par les fournisseurs de services/contenus le trafic data engendré pour les consommateurs ("sponsored data API"), idée plus ou moins reprise par T-Mobile.
On soulignera pour finir que toutes ces hésitations nourrissent une certaine curiosité pour la situation européenne.
Au total, le nouveau Président de la FCC, peut-être parce qu'il fut successivement le patron du lobby du câble puis des opérateurs mobiles et que cela a été amplement souligné lors de sa nomination, donne l'impression dans ces très nombreuses allocutions qu'il veut renforcer les politiques de concurrence. Il aborde assez explicitement tous les points du débat. En prenant toutefois le risque de décevoir certains espoirs qu'il a fait naître, dans un contexte politique et institutionnel compliqué et où il lui est rappelé régulièrement que la FCC est responsable devant le Congrès.

Yves GASSOT

1.Il existe un autre gap en termes de structure de marché. Aux Etats-Unis s'il y a bien 4 opérateurs mobiles nationaux, AT&T et Verizon ne sont que de très gros acteurs régionaux filaires sur le marché résidentiel. Ainsi les notions de convergence fixe-mobile, illustrées par les opérations de fusion ou d'acquisition SFR/Numéricable ou Vodafone/Deutsche Kabel-Ono, ne paraissent pas à l'ordre du jour. Ne le sont pas nous semble-t-il non plus les offres de "quadruple-Play".
2. Ce n'est pas le seul. L'opération permettrait des synergies immédiates dans la gestion des bundles incluant les services DBS pour les abonnés qui ne sont pas sur des territoires U-Verse. Elle a d'autre part une composante de diversification internationale compte tenu de la présence très significative de DirecTV sur les marchés sud-américains qui intéressent particulièrement AT&T.
3. Licensed Shared Access. A noter que le débat reste ouvert sur les formes que prendrait le LSA dans la bande 3.6GHz.
4. S'il n'y a pas de fréquences mises en réserve dans la procédure AWS-3, certaines dispositions telles qu'un niveau de fragmentation en 2X5Mhz des bandes de fréquences visent à répondre aux attentes des petits opérateurs régionaux.
5. Tom Wheeler a été nommé par le président Obama et confirmé par le sénat en novembre 2013

10oct/140

Publicité en ligne : 33 % du marché en 2018

NAKAJIMA_Soichi

Soichi NAKAJIMA, Senior Consultant

La publicité en ligne dépassera 
les 30% du marché publicitaire média dès 2018

L'IDATE vient de publier son rapport et sa base de données dédiés au suivi du marché mondial de la publicité en ligne. Cette étude propose une analyse des tendances et des technologies clés : enjeux de la protection de la vie privée, retargeting, VRM (vendor relationship management), nouvelles techniques de mesure des données… Il présente une analyse des leaders mondiaux et de leurs indicateurs clés pour Amazon, Apple, Facebook, Google, Microsoft, Twitter and Yahoo!. Il évalue également les différents segments de marché de la publicité numérique - search, display, mobile, RTB (real time bidding) , social networking et vidéo - pour 15 pays dont l’Afrique du Sud, l’Allemagne, le Brésil, la Chine, l’Espagne, les Etats-Unis, la France, l’Italie, le Japon, l’Inde, la Corée du Sud, le Royaume-Uni, la Russie, la Suisse et la Turquie.

Le marché mondial de la publicité en ligne dépassera les 160 milliards d’euros en 2018. Après une croissance soutenue pour la période 2010-2014 de 11.4%, l’IDATE prévoit que le marché continuera de se développer au rythme annuel moyen de 9.7% d’ici 2018.

Soichi Nakajima, chef de projet de cette étude et consultant à l’IDATE précise que “nous nous attendons à ce que la répartition entre les différents formats de publicité en ligne restera stable pour les 5 prochaines années. Tandis que le marché du Search est d’ores et déjà mature, sous la domination globale de Google, nous prévoyons une croissance régulière des revenus du marché du Display sur la période, accompagnée d’une concurrence accrue pour la conquête de parts de marché. “

Marché mondial de la publicité en ligne (milliards EUR) 
et part (en %) sur le total des revenus publicitaires média, 2010-2018

Marche-publicite-en-ligne-et part-sur-le total-revenus-pub-2010-2018-500px

 

Les grandes tendances du marché de la publicité en ligne :

• Mobile advertising : Ce segment devrait représenter 20% du total de la publicité en ligne d’ici 2018, soutenu par une forte croissance annuelle moyenne de +50.1% entre 2014 et 2018.
• Social advertising : La publicité sur les réseaux sociaux représentera 14% du total de la publicité en ligne d’ici 2018 grâce à une forte croissance annuelle moyenne de +39.8% de 2014 à 2018.
• OTT video advertising : Plus récent, ce segment représentera 9% du total de la publicité en ligne d’ici 2018 pour un taux de croissance annuel moyen de +21.8%.entre 2014 et 2018:
• RTB advertising : Le segment du RTB comptera pour 30% du marché de la publicité Display en 2018 pour un taux de croissance annuel moyen de +32.7%.de 2014 à 2018:

Focus France : Un potentiel encore largement sous-exploité
Le marché français de la publicité en ligne se montera à 2014 à 2,6 milliards d’euros, correspondant à une croissance de plus de 7% bien meilleure que la contreperformance de 3,8% enregistrée en 2013. Malgré tout, cela classe le marché national loin derrière le Royaume-Uni avec 6 milliards et l’Allemagne avec 4,6 milliards attendus en 2014.
Les nouvelles formes de publicité représentent déjà 34% du marché français de la publicité en ligne, avec une part prépondérante de la publicité sur les réseaux sociaux et sur mobile.

repartition-nvelles-formes-pub-en-ligne-500px

 

 

Source: IDATE, State of online advertising worldwide, July 2014

Focus sur la publicité mobile : un marché qui est d’abord une extension de la publicité sur l’Internet fixe
Les outils et les technologies utilisés pour la publicité sur l’Internet fixe sont majoritairement réutilisés pour la publicité mobile. Google est donc en mesure d’adapter progressivement sa domination du fixe vers le mobile. Cependant, les outils In-app et les technologies associées ont été créés ex-nihilo pour le mobile. La publicité In-app, issue du monde mobile, représente 20% du marché total. De même, de nombreuses apps viennent des jeux vidéo qui font la promotion de leurs services payants plutôt que d’utiliser des publicités display.

Répartition du marché de la publicité fixe et mobile en ligne entre Search et Display – Monde, 2014

reparttion-marche-pub-fixe-et-mobile-en-ligne-entre-serach-display-500px

-  Vous souhaitez vous procurer l'étude en français ? Rendez-vous dans notre magazin.

- Vous souhaitez approfondir le sujet et vous rendre au Séminaire « TV Everywhere » le mercredi 18 novembre à Montpellier, rendez-vous sur le site du Digiworld Summit.