nov'image blog / actualité du monde informatique

2015_trends_min

Comme chaque année, la rédaction du Monde Informatique dresse les tendances technologiques qui marqueront l’année 2015. Du machine learning à la révolution des objets connectés, l’intelligence se généralise dans l’IT. Les fournisseurs placent ainsi, de plus en plus, l’individu au coeur de leur savoir-faire pour mettre au point de nouveaux services. Les exemples se multiplient d’ailleurs autour de la santé ou du retail avec des applications intelligentes d’analyse des données qui permettent aux commerçants de mieux vendre et de fidéliser davantage les consommateurs. D’autre part, toujours dans un souci de simplification pour les utilisateurs, les fournisseurs ajoutent de plus en plus d’automatisation et d’orchestration dans leurs solutions. On peut par exemple citer le SDN qui a pour but de rendre les réseaux plus faciles à gérer ou les MBaaS (Mobile Backend as a Service) dont l’objectif est de fournir aux développeurs tout le package Backend (hébergement, stockage, authentification, scalabilité, API, connecteurs, etc.) nécessaire au cycle de vie de l’application mobile. Mais l’innovation sert aussi à la cybercriminalité à l’instar des réseaux anonymes (les darknets) où pullulent les criminels. Voici un tour d’horizon complet de notre sélection des tendances technologiques pour 2015.

Machine learning : l’apprentissage machine pour de multiples applications

L’un des meilleurs exemples du machine learning, une technique d’intelligence artificielle, est donné par IBM et son supercalculateur Watson. En effet, au sein de l’université de l’Ontario, grâce à Watson, les chercheurs développent un service fondé sur le cloud utilisant l’analytique en continu qui permettra de prévoir l’état de santé des gens, particulièrement des enfants prématurés, de 24 à 72 heures avant l’apparition des symptômes concernant les maladies nosocomiales. Ce cas montre parfaitement bien les possibilités offertes par le machine learning dont l’objectif, rappelons-le, est d’apprendre aux machines à produire des algorithmes pour comprendre la corrélation des données et  de développer des processus d’apprentissage. Prévision des virus, détection de fraude, spéculation financière, analyse des comportements d’achat, les applications issues du machine learning ne manquent pas.

D’ailleurs, tous les grands acteurs, de Facebook à Google en passant par Microsoft, disposent d’une entité ou d’une structure dédiée au machine learning. Prenons l’exemple de Microsoft qui compte près de 700 personnes travaillant dans ce domaine dont une cinquantaine de chercheurs dans le laboratoire commun créé avec l’Inria. Déjà, on retrouve des fonctions de machine learning dans l’assistant vocal Cortana, dans le moteur de recherche Bing ou dans la Xbox, sans oublier l’offre cloud Azure ML, un outil qui permet aux entreprises de réaliser des analyses prédictives. Un article intéressant publié par Romain Casteres, consultant décisionnel de la société Dcube, décrit d’ailleurs comment on peut prédire la qualité du vin en exploitant Azure ML.

Autre exemple, celui de la société  Darktrace qui s’est récemment implantée en France. En effet, l’éditeur anglais a créé un logiciel intelligent (développé en collaboration avec des équipes de l’Université de Cambridge) capable de scruter tout ce qui se passe sur le système d’information, via une analyse des comportements des utilisateurs couplée à une analyse fine des réseaux et des équipements. L’objectif étant d’anticiper, de manière proactive, les attaques à venir.

La révolution des « wearables »

Dans la vaste galaxie des objets connectés se trouvent les « wearables », des vêtements et accessoires équipés de capteurs intelligents qui se portent, comme les vêtements, les chaussures, les bracelets et d’autres accessoires. Selon une étude récente publiée par le cabinet FutureSource Consulting, les ventes d’objets connectés à porter ont progressé de 40 % au troisième trimestre 2014, ce qui représente déjà 12,7 millions d’unités commercialisées. Bien sûr, l’objet catalyseur de ce vaste marché concerne surtout les montres connectées comme l’Apple Watch ou encore la Galaxy Gear de Samsung. Hormis les montres dont la presse s’est largement fait écho, les innovations vont bon train autour des wearables à l’instar de Nike et de ses baskets intelligentes qui sont capables de mesurer la hauteur du saut, la vitesse de déplacement ou la résistance et l’endurance, puis d’envoyer toutes les données collectées vers un smartphone.

Très en pointe dans ce domaine, l’industrie française a une réelle carte à jouer pour devenir l’un des pays leaders dans la conception des wearables. Prenons l’exemple de l’entreprise Cityzen Sciences qui travaille sur le D-Shirt doté de capteurs intelligents souples intégrés au tissu pour récolter des données sur la charge de travail du sportif et de son état de fatigue. Autre exemple : l’entreprise Brochier Technologies située à Lyon qui fabrique, entre autres, des tissus lumineux (basés sur des fibres optiques) pour le domaine de la santé, ce qui a permis de mettre au point, par exemple, une couverture luminescente pour traiter la jaunisse du nourrisson. Tous ces objets intelligents à porter vont littéralement bouleverser les modes de fonctionnement dans les entreprises, surtout pour les services IT, car il est fort probable que les demandes des utilisateurs vont se multiplier dans les années à venir pour que ces objets soient reliés au système d’information de l’entreprise à l’instar du Byod en quelque sorte. De nouveaux défis seront aussi à surmonter pour les fournisseurs de l’industrie IT dans l’implémentation de ces objets au coeur de l’infrastructure, mais aussi dans la collecte et l’analyse des données issues de ces objets…

Les conteneurs, des alternatives à la virtualisation traditionnelle

Avec l’arrivée de Docker, la guerre dans la virtualisation des serveurs est relancée. Rappelons que Docker est un outil Open Source très léger basé sur le conteneur Linux standard LXC qui permet d’automatiser le déploiement d’applications dans des conteneurs logiciels virtuels. En effet, contrairement à une machine virtuelle classique, le conteneur Docker n’a pas besoin d’intégrer un système d’exploitation complet pour fonctionner puisqu’il peut utiliser les ressources de son système hôte. Cela signifie que, par rapport à un hyperviseur, les conteneurs sont plus rapides à créer et à démarrer. De plus, comparé aux classiques hyperviseurs de VMware ou de Microsoft par exemple, avec Docker, les développeurs peuvent plus facilement comparer les conteneurs, les déboguer et même les déployer sur Amazon Web Services, MS Azure et IBM Bluemix par exemple.

Enfin, Docker va également permettre aux administrateurs IT d’accélérer le déploiement des applications sur tout type de plateforme, aussi bien pour la phase de développement que de production, sans oublier une circulation plus rapide entre serveurs sur site et machines virtuelles dans le cloud. Charlie Dai, analyste chez Forrester Research, conseille d’ailleurs aux administrateurs de datacenters de s’intéresser à la version 1.0 de Docker sortie en juin dernier, même si la technologie n’est pas encore tout à fait mature. Selon lui, les conteneurs Docker vont empiéter sur le marché de la virtualisation traditionnelle. Même IBM l’affirme, Docker obtient des performances équivalentes voir meilleures que les machines virtuelles sous l’hyperviseur KVM, suite à une série de tests effectués entre les deux solutions par Big Blue dont les résultats ont été publiés cet été dans un livre blanc.

Red Hat, Google, Microsoft et IBM figurent parmi les acteurs qui soutiennent Docker. Après Azure, Microsoft va ainsi prendre en charge Docker dans la prochaine version de Windows Server. Google, de son côté, a créé la solution Kubernetes, un gestionnaire open source de conteneurs Docker. Le géant du web a également intégré la technologie des conteneurs dans ses propres datacenters. Quant à Red Hat, il a annoncé que la dernière version de son système d’exploitation RHEL supporterait les outils de Docker. De même pour Open SVC qui utilise Docker pour sa solution de gestion et d’inventaire du système d’information. Si Docker a pris une certaine avance, des concurrents arrivent à l’instar de Manta, un projet porté par Joyent, le fournisseur de services cloud, et LXD développé par Canonical, l’éditeur de la distribution Linux Ubuntu. Ainsi, la technologie de Joyent est destinée à des tâches à grande échelle et à des traitements analytiques big data. Quant au conteneur de Canonical, il ajoute des niveaux de sécurité aux charges de travail stratégiques en s’adaptant aux besoins de chaque entreprise.

Internet des objets : vers un standard de communication

12 milliards d’objets connectés en 2015, 80 milliards en 2020 selon le cabinet Idate, cette folie de l’Internet des objets ne fait que commencer. Aujourd’hui, il est difficile de mesurer l’impact des objets connectés sur la sécurité des réseaux étant donné le manque de maturité de ce marché. HP avait néanmoins dévoilé les résultats d’une enquête portant sur la sécurité des objets connectés en mettant en garde leur usage. Même s’ils paraissent anodins, ils peuvent facilement être utilisés à des fins malveillantes. Ces objets sont d’autant plus vulnérables que les possibilités techniques en termes de connectivité pour tous ces objets intelligents sont nombreuses (NFC, WiFi, Bluetooth, réseau 2G, 3G, 4G, satellite, etc.) suivant la distance de lecture, la fréquence et la taille des données échangées et le type d’application.

Aujourd’hui, il n’existe pas vraiment de réseaux dédiés aux objets connectés, mais l’entreprise française Sigfox semble clairement se distinguer en fournissant une solution de connectivité cellulaire capable d’établir des communications bidirectionnelles avec les périphériques et simple à intégrer aux applications logicielles. La technologie conçue par Sigfox exploite des bandes de fréquences (868 MHz en Europe et 902 MHz aux USA) libres et gratuites pour transmettre sur un spectre très étroit les données destinées ou en provenance des objets connectés. Conçue pour la transmission bas-débit (typiquement de 10b/s à 1kb/s), la technologie sans-fil UNB bénéficie d’un très haut niveau de sensibilité qui permet de transporter les données sur une longue distance. Selon SigFox, comparé à un réseau cellulaire de type GSM pour le même niveau de couverture, l’UNB nécessite environ 1000 fois moins d’antennes et des stations de base 100 fois moins chères à construire et à exploiter.

De plus, tous les éléments radio utilisés dans le réseau (émetteurs et récepteurs) sont nettement moins consommateurs d’énergie que des dispositifs utilisant une technologie concurrente (GSM ou radio large bande). Cette technologie permet donc à l’entreprise d’offrir des tarifs très compétitifs pour les communications M2M et Internet des objets bas-débit. Preuve des performances de sa technologie, Sigfox a signé en novembre dernier avec la société Atmel spécialisée dans la fabrication de microcontrôleurs et de solutions tactiles. Ainsi, Atmel vient de certifier « Sigfox Ready », sa puce SoC ATA8520 qui couvre diverses applications autour de l’énergie, l’éclairage public ou encore la maison connectée.

 

admin

One Comment

  1. Avec l’analyse des pics de Gartner pour les trois dernieres annees et ses choix pour 2015, on remarque que tous les services de Cloud computing jouent un role accru dans les tendances qui sont selectionnes. En fait, une hypothese pourrait etre que les 10 tendances de 2015 s’appuient sur un certain type d’interaction avec les services Cloud. Voici le top 10 des tendances technologiques strategiques de Gartner pour 2015.

    Répondre

So, what do you think ?