Télégrammes : Portalis porté par Sopra Steria , LinkedIn exclu des stores en Russie, Nokia brevète son assistant Viki, Semtech séduit par Avanquest.

La Justice confie Portalis à Sopra-Steria. Dans un avis notifié le 28 décembre dernier, le ministère de la Justice confie à la SSII Sopra-Steria la réalisation de Portalis, un programme applicatif visant à remplacer les applications actuellement en place pour gérer les contentieux civils des tribunaux de grande instance, tribunaux ’instance, cours d’appel et conseils des prud’hommes. Conclu pour une durée de 7 ans, cet accord-cadre est estimé à environ 13,6 millions d’euros. Décomposé en 6 étapes et devant aboutir à une dématérialisation de bout-en-bout de la justice civile, le programme Portalis complète les autres projets de refonte applicative de la Justice comme Astrea (casier judiciaire), Cassiopée (chaîne pénale), Comedec (dématérialisation des actes d’état civil) ou Genesis (gestion des personnes écrouées).

LinkedIn bouté de Google et Apple en Russie. Le Kremlin monte encore d’un cran son courroux contre le réseau social professionnel, maintenant propriété de Microsoft. Après l’avoir bloqué pour non-respect de la loi nationale sur l’obligation d’héberger les données sur le territoire Russe, Moscou demande à Google et à Apple de retirer l’application de leur magasin applicatif (Google Play et App Store). Une demande confirmée par les deux sociétés américaines, a indiqué le New York Times en fin de semaine dernière. Par contre, les deux firmes n’ont pas indiqué si elles allaient se plier aux exigences de la Russie. Pour mémoire, Apple a retiré l’application duNew York Times à la demande des autorités chinoises.

L’IA de Nokia Viki brevetée. Nokia a déposé un brevet au niveau européen sur le service nommé Viki, selon GSNinfo. Selon le document, Viki se définit comme « un logiciel pour la création et le monitoring des assistants web et mobiles […] combinant toutes les sources de données dans une unique interface de chat et vocal ».Nokia compte donc se plonger dans la même lignée que Siri (Apple), Cortana (Microsoft), Alexa (Amazon) ou Google Assistant. Il faudra néanmoins encore attendre avant de la voir en action sur un terminal. En matière d’assistant intelligent, Samsung devrait être le prochain à dégainer avec Bixby intégré au prochain Galaxy S8.

Le français Avanquet séduit l’américain Semtech. Semtech investit dans Avanquest. Et plus particulièrement dans myDevices, l’activité Internet des objets (IoT) de l’éditeur français de solutions Internet et mobiles. L’Américain Semtech fournit des semi-conducteurs et détient la technologie bas débit basse consommation Lora pour les objets connectés. Une technologie soutenue au sein de la Lora Alliance qui réunit plus de 300 membres parmi des opérateurs (Orange, Bouygues Telecom…), équipementiers (Cisco, ZTE…), éditeurs (IBM…), intégrateurs, et autres start-up dans le monde. L’investissement se fait sous forme d’une entrée au capital de myDevices avec une prise de participation minoritaire pouvant monter à 10 millions de dollars. MyDevices propose notamment Cayenne, un outil de développement « drag & drop » d’applications dédiées à l’IoT. Lancé début 2016, Cayenne réunit 120 000 développeurs aujourd’hui. Une offre dont le potentiel pour faire de la solution un outil de développement de référence de l’IoT séduit aujourd’hui Semtech.

Le projet Neon éclaire la prochaine interface de Windows 10

Microsoft travaille sur une nouvelle interface qui viendra habiller une prochaine version de Windows 10. MSpoweruser a eu vent du Project NEON qui vise à retoucher certains aspect graphiques de l’OS de Redmond. Rien de transcendantal, tempèrent nos confrères. Selon eux, « ’est une mise à jour assez mineure qui s’appuie sur l’interface utilisateur Windows 10 actuelle ». Le changement ne sautera donc pas aux yeux, comme c’est parfois le cas entre deux versions d’OS. Ce qui n’est probablement pas plus mal pour ne pas trop perturber l’expérience utilisateur.

Le projet Neon se focaliserait sur les animations, la simplicité et la cohérence à travers un mélange d’Aero Glass de Windows 7 pour la transparence et d’animations inspirées de Windows Phone 8. Mais, surtout, la nouvelle interface introduirait Acrylic. Ce nouveau composant propose un mode de flou graphique en arrière plan, au niveau de l’en-tête ou de menu latéral des applications. Ce mode Acrylic fonctionnerait particulièrement bien avec ce que Microsoft appelle Conscious UI et Connected Animations et s’activerait en interaction avec les mouvements du pointeur de la souris.

Apporter une cohérence graphique

Un aperçu de ce nouveau mode graphique est visible à travers l’application Groove Music de Microsoft fournie dans la dernière version de test Build Insider disponible (la 14986 a priori). Selon la capture d’écran animée que présente MSpoweruser, on y voit l’entête de l’application se réduire vectoriellement dès qu’on fait défiler la liste des titres musicaux. Et la zone, qui reprend de manière agrandie dans un flou artistique l’image de la vignette, laisse la place, par transparence, au contenu de la page en arrière plan. Autre exemple avec Outlook Mail (ci-dessus) et Agenda dont l’arrière plan de la barre latérale s’affiche de manière floutée également. Ces innovations graphiques pourraient également trouver des débouchés interactifs dans HoloLens, le casque de réalité augmentée de Redmond.

Au-delà du renouvellement des aspects visuels et des animations, le projet Neon devrait permettre à Microsoft d’apporter une cohérence graphique à Windows 10. Héritier de Windows 8.1, les premières versions de Windows 10 supportent encore aujourd’hui plusieurs univers graphiques à travers des interfaces utilisateurs et menus contextuels différents selon les applications et services de l’OS. Ce qui peut apparaître comme perturbant. Neon serait ainsi pour Microsoft l’occasion d’unifier le système et ses applications pour les différents environnements et formats d’affichage (PC, smartphone…) en permettant aux développeurs d’implémenter les nouveaux composants visuels dans leurs produits à travers la plate-forme Windows universelle (UWP).

Pas avant Redstone 3

Mais ce ne sera pas pour tout de suite. SelonMSpoweruser , les développeurs ne seront pas en mesure d’implémenter les premiers éléments de Neon avant la version (de code) Redstone 3 de Windows 10. Laquelle n’est pas attendue avant l’automne prochain. Entre temps, ces derniers pourront toujours se mettre Windows 10 Creators Update (Redstone 2) sous la dent. Les dernières rumeurs en date pointent sa sortie pour avril prochain.

Lire également En 2016, Windows 10 occupe 25% du marché des OS desktop Windows 10 Insider Preview adopte le « Green Screen of Death » Une version de test de Windows 10 Creators Update en fuite sur la Toile

La RATP met ses données temps réel à disposition des développeurs

La Régie autonome des transports parisiens (RATP) ouvre enfin ses données temps réel de circulation du métro, de bus, de tramways et de la section du RER à Paris dont elle a la charge. Ces données sont disponibles surdata.ratp.fr . Une opération Open Data très attendue par les développeurs.

L’initiative s’inscrit dans le cadre de laloi Macron du 6 août 2015, qui prévoit l’ouverture des données de transport public et de services de mobilité par leurs exploitants. C’est également une réponse à la grogne de développeurs d’applications de transports et gestion de trajets quotidiens, dont Citymapper. Au printemps dernier, cette entreprise accusait la RATP de rétention d’informations…

Partager les coûts

La RATP a expliqué jeudi dans les colonnes du Monde avoir travaillé pendant six mois et investi un million d’euros pour dupliquer ses serveurs et préparer cette ouverture des données temps réel« dans de bonnes conditions ». Pour couvrir les coûts de mise à disposition, la loi prévoit que les bénéficiaires de la donnée soient mis à contribution. La régie publique a toutefois précisé que le service est gratuit « jusqu’à un seuil de 30 millions de requêtes par mois ». Au-delà, la RATP est donc autorisée à faire payer les bénéficiaires du service (toute enteprise ou tout particulier qui accède à l’API de la RATP pour réutiliser ces données) afin de couvrir les coûts de mise à disposition. L’an dernier, Groupe RATP précisait sur Medium avoir « fait le choix, à l’instar de la Ville de Paris, d’une ouverture sous licence ODbL, afin de garantir que les réutiliser jouent bien le jeu de l’Open Data ».

Lire aussi :

Patrick Ung, Paris ci la sortie : « la RATP ne m’a pas répondu, j’ai récolté les données à la main » L’ouverture des données de transport un casse-tête français La RATP démocratise les services NFC pour les bus et les trams crédit photo © Bikeworldtravel – Shutterstock.com

Avec Grumpy, Google transforme le code Python en programme Go

Google a présenté Grumpy, un projet Open Source, capable de traduire du code Python en programme Go. Cette idée est née pour résoudre un problème sur YouTube. En effet le serveur front-end du site de vidéo et ses API sont principalement écrits en Python et fonctionne sur CPython 2.7.

Avec cet environnement, Google est néanmoins confronté à un problème de performance. Ce n’est pas faute pourtant d’avoir fait des efforts pour améliorer cela, comme l’indique Dylan Trotter dans un billet de blog. Avec son équipe, il a cherché d’autres runtime Python comme Jython, PyPy ou IronPython, mais aucun n’a résolu le problème de performance.

Après avoir testé la concurrence, l’équipe s’est résolue à travailler sur leur propre runtime capable de gérer le temps réel. Les développeurs se sont vite penchés sur Go, un langage de programmation compilé et concurrent de C et de Pascal créé par la maison mère Google. Et c’est ainsi qu’est né le projet Grumpy.

Grumpy : un runtime et un transcompilateur

Il se définit comme étant un runtime expérimental Python pour Go. Il traduit le code Python en programmes Go et ceux-ci s’exécutent de manière transparente dans le runtime Go. Grumpy est donc à la fois un transcompilateur et un runtime. Dylan Trotter explique :« Nous avions besoin de prendre en charge une grande base de code Python existant, il était donc important d’avoir un haut degré d’interopérabilité avec CPython. » Et d’ajouter que « l’objectif de Grumpy est de faciliter le remplacement à terme des projets en Python ». Et les performances sont au rendez-vous comme le montre le graphique ci-dessous. Une méthode que Google a choisi de partager avec la communauté en plaçant le code de Grumpy sur GitHub. Sollicité par un développeur sur la plateforme de repository sur le support de Python 3, Dylan Trotter a expliqué que « nous avons une grande base de code en Python 2.7 et nous allons nous concentrer là-dessus. Je voudrais supporter Python, mais c’est un travail énorme ». Nos confrères de The Register suggèrent une autre raison : la fin de vie pour Python 2.7 prévue en 2020. Plutôt qu’une migration vers Python 3 lente et fastidieuse, Google a préféré planifier au cours des prochaines années la conversion de son code Python en Go.

A lire aussi :

Salaire des développeurs : Ruby, Python et iOS rapportent

Dropbox améliore Pyston, son offre Python de hautes performances

Autolib : un système d’information qui dépasse de 450 % son budget

Comme le révèle Le Canard Enchaîné du 4 janvier, le projet Autolib, lancé fin 2011 à l’initiative de la mairie de Paris, va se solder par un déficit coquet : près de 180 millions d’ici la fin du contrat en 2023. Dont les deux tiers seront à la charge du contribuable, le groupe Bolloré – qui avait remporté la délégation de service public – ayant une clause limitant ses pertes à 60 millions d’euros sur les 10 ans du contrat.

Dans ce trou que va créer le système d’autopartage, l’informatique joue un rôle non négligeable puisque, comme l’explique l’hebdomadaire satirique, le coût de construction du système d’information d’Autolib (gestion des véhicules, des bornes de recharge et emplacements de parking, gestion des abonnés) a explosé par rapport aux prévisions budgétaires, passant de 11 à plus de 60 millions d’euros. Soit un dépassement de près de 450 %. « 10 mois de sprint »

Comme pour la partie communications et bornes de recharges (confiée à IER), le développement de ce système d’information s’est appuyé sur une filiale du groupe Bolloré, Polyconseil. Une société ayant réalisé environ 24 millions d’euros en 2015, pour près de 7 millions de bénéfices. C’est cette société de services qui, en 2011, a pris en charge le développement d’un SI entièrement nouveau, destiné à couvrir un service lui aussi inédit à l’époque. Dans unbillet paru dans la Paris Tech Review en mars 2016, Sylvain Géron, ancien dirigeant de Polyconseil, raconte cette expérience qui a vu une petite équipe projet de 5 personnes mettre sur pied un premier proof of concept en 4 mois et demi. Pour une inauguration officielle environ 10 mois seulement après le lancement du projet au sein de Polyconseil.

Un calendrier que Sylvain Géron décrit comme« dix mois de sprint très éprouvant » et qui peut expliquer certaines dérives de coûts, des pans de l’application ayant probablement dû être repris pour passer à l’échelle industrielle. Autrement dit pour assurer la transition entre un prototype à vocation très politique, impliquant 250 véhicules seulement, à un déploiement à l’échelle de l’agglomération parisienne, avec désormais 4 000 voitures électriques, 1 100 stations et 6 300 bornes de recharge.

150 à 200 années/homme de développement

« Avec Autolib, un nouveau métier est né et il nous a fallu développer ex nihilo un système capable de le gérer. Lorsque nous avons lancé ce service, fin 2011, une quinzaine de développeurs y avaient travaillé pendant dix mois. Aujourd’hui, le système est environ vingt fois plus gros parce que nous avons changé d’échelle entre ce qui était indispensable pour démarrer le service et ce qui est aujourd’hui nécessaire pour l’opérer, avec toute sa maintenance, la gestion de ses équipes, l’équilibrage de sa flotte et la modélisation de ses offres, comparables dans leur diversité à celles d’un opérateur de télécommunication », écrivait, en mars 2016, Sylvain Géron. Et d’estimer que le développement d’un tel logiciel capable de gérer un système d’autopartage comme Autolib demanderait, en repartant de zéro, entre 150 et 200 années/homme de travail. Une simple multiplication suffit pour retrouver les ordres de grandeur donnés parle Canard.

Au passage, notons que le développement de ce système d’information a servi les ambitions de Bolloré, puisque que le principe d’Autolib s’est exporté à Lyon (Bluely), à Bordeaux (Bluecub), mais aussi à l’international avec Indianapolis (Etats-Unis), Turin (Italie) et, dernièrement, Singapour. Autolib jamais rentable ?

Si on en croit unenote du bureau d’études 6t, au-delà de ces dérapages budgétaires, le problème de la rentabilité d’Autolib pourrait bien être structurel. Comme en témoignent les annonces successives de Vincent Bolloré sur le nombre d’abonnés à atteindre pour parvenir à l’équilibre financier (l’homme d’affaires annonçait un objectif de 50 000 en 2013 ; fin 2016, le service en comptait plus de 130 000 et restait déficitaire). Car, si les abonnements progressent, le nombre de trajets effectués, lui, recule. De 8 % entre 2015 et 2016. Or, les trajets génèrent environ les trois-quarts des recettes d’Autolib. « A deux ans d’écart et à période comparable (entre 2014 et 2016, NDLR), les usagers ont en moyenne quasiment divisé par deux leur fréquence d’usage du service », écrit 6t dans son enquête. Et d’ajouter : «si le modèle économique d’Autolib est problématique à Paris, ses déclinaisons dans des villes moins denses le sont encore plus». A l’heure où le service d’autopartage ne semble avoir pour issue que d’augmenter ses tarifs – ce qu’il a commencé à faire -, sa pertinence économique vis-à-vis de services de VTC comme Uber est plus que jamais posée.

A lire aussi :

3 000 véhicules autonomes remplaceraient tous les taxis de New York

Et les voyageurs des TGV Paris-Lyon eurent enfin du WiFi

La FTC organise un concours pour prévenir les attaques IoT

Les conséquences des piratages d’objets connectés prennent une telle ampleur que les autorités gouvernementales sont prêtes à mettre la main à la poche pour tenter de les freiner (à défaut d’espérer les éradiquer). C’est du moins la vision de la Federal Trade Commission (FTC). Le gendarme américain des télécoms organise un concours, le « IoT Home Inspector Challenge », pour développer des outils visant à renforcer la sécurité de l’Internet des objets (IoT) résidentiels. Concours qui sera doté d’un prix de 25 000 dollars pour le gagnant avec des primes de 3 000 dollars pour les projets également remarqués. Selon le règlement du concours, l’outil en question devra« au minimum, aider à protéger les consommateurs des failles de sécurité dues à des logiciels périmés ». Autrement dit, des logiciels qui ne sont plus maintenus à jour et dont les failles offrent autant d’opportunités de se voire exploiter par les cybercriminels.

Un dispositif, une application, un service Cloud

Ce sont des vulnérabilités de ce type qui, ces dernier temps, ont permis au botnet Mirai d’exploiter des centaines de milliers de caméras publiques et enregistreurs numériques résidentiels pour lancer des attaques DDoS de fortes ampleurs. Le malware profitait des mots de passe conservés par défaut sur ces appareils pour s’introduire dans leur interface d’administration et les enrôler dans une armée à la solde des pirates. Le blocage des serveurs du fournisseur de service DNS Dyn en octobre dernier constitue l’exemple le plus flagrant de la capacité de nuisance des attaques issues des objets corrompus.

Par son initiative, la FTC espère donc inciter les développeurs à trouver des solutions qui puissent palier le défaut de support des appareils connectés. Obliger les éditeurs et constructeurs à assurer la maintenance de leurs produits serait probablement trop long à mettre en oeuvre et pas nécessairement efficace, doit considérer l’instance fédérale. Elle préfère donc « encourage[r] le public à créer un outil que les consommateurs peuvent déployer pour se préserver des vulnérabilités de sécurité dans les logiciel de leurs appareils IoT résidentiels .» Outil qui pourra se concrétiser sous la forme d’un dispositif physique, d’une application ou d’un service Cloud, propose la FTC. Les noms des gagnants seront dévoilés le 27 juillet prochain. Les participants peuvent s’inscrire jusqu’au 22 mai pour concourir.

Lire également Leet : un botnet IoT plus effrayant que Mirai arrive DDoS : la menace de moins en moins fantôme Backdoor et Zero Days pour plusieurs milliers de caméras IP crédit photo @semistach-Shutterstock

Télégrammes : Intel chez Here, Samsung vise 10 millions de S8, Xerox imite HP, Vente-privee : 80 M€ dans la tech

Intel s’investit dans la cartographie de Here. Les investisseurs se massent à la table de Here. Quelques jours après la prise de participation d’acteurs asiatiques dans le capital du fournisseur de solutions de géolocalisation (lire ce télégramme), c’est au tour d’Intel de jouer des coudes. Le fondeur américain entre à hauteur de 15% du capital de l’entreprise codétenue par Audi, BMW et Daimler. Ce qui lui permettra de placer un représentant au conseil de surveillance dès la finalisation de la transaction d’ici la fin du premier trimestre 2017. Les deux entreprises entendent développer conjointement une architecture de test de mises à jour en temps réel des cartes de navigation pour les véhicules autonomes. Parallèlement à cet investissement, Intel renforce son partenariat avec BMW et Mobileye (spécialisé dans la « vision » informatique et l’apprentissage machine) signé en juillet dernier. Le fournisseur dupremier modem 5G du marché vient d’annoncer au CES 2017 qu’une quarantaine de véhicules autonomes de tests prendront la route dans le courant du second semestre dans le but de mettre au point une architecture pour la conduite autonome destinée à l’ensemble de l’industrie automobile.

Samsung veut vendre 10 millions de Galaxy S8. Après la catastrophe du Note7 (parti en fumée au sens propre), Samsung reste très optimiste sur son futur projet, le Galaxy S8, qui pourrait être commercialisé en avril prochain. Le constructeur coréen prévoirait une production de 10 millions d’unités, selon les dernières rumeurs en date. Il est vrai qu’entre nouveau design plein( écran et disparition du jack), quantités phénoménales de RAM (6 ou 8 Go) et de stockage (jusqu’à 256 Go), sécurité blindée et potentielle interface pour s’en servir comme une unité centrale derrière écran et clavier, le S8 a de quoi séduire. A condition que ces caractéristiques soient confirmées… Si le volume de production semble ambitieux, il reste néanmoins dans la norme. Les Galaxy S7 et S7 Edge avaient déjà séduit 10 millions de clients un mois après leur lancement. Et, au-delà du symbole, la barre des 10 millions d’unités s’inscrit comme une stratégie pour maintenir la pression sur la concurrence. A commencer par celle de Huawei qui a récemment annoncé avoir lui aussi vendu 10 millions de P9.

Xerox se sépare en deux. La séparation du groupe Xerox en deux entités – sur le modèle HP – a été bien accueilli par les marchés financiers, le titre s’appréciant hier d’environ 16 % après la séparation d’avec Conduent. Née le 3 janvier, cette seconde entreprise, elle aussi cotée, regroupe les activités de services du groupe, en grande partie construites sur le rachat par Xerox d’Affiliated Computer Services en 2010 (pour 6,4 Md$). Mais le relais de croissance espéré n’a pas fonctionné, le chiffre d’affaires du groupe s’affichant en recul année après année depuis 2011. Au cours des 9 premiers mois de 2016, ce qui est devenu Conduent a généré 4,9 Md$ de chiffre d’affaires (stable sur un an). Lors de sa première journée de cotation, le titre de cette société de services, dirigée par Ashok Vemuri, a perdu près de 8%. Le split de Xerox se traduit aussi par une transition à la tête du géant des photocopieurs, Ursula Burns passant les rênes du constructeur à Jeff Jacobson.

Vente-privee.com investit 80 M€ en R&D. Pour faire face aux géants du e-commerce comme Amazon ou Zalando, le Français Vente-privee va investir 80 millions dans la technologie en 2017. Dans les colonnes des Echos, Jacques-Antoine Granjon, le PDG et fondateur, égraine les enjeux : personnalisation de l’offre, expérience client, optimisation de la logistique… Le dirigeant dit vouloir « mettre la technologie au centre de la société » avec, notamment, le recrutement de 250 personnes sur ce segment, venant renforcer une équipe actuellement forte de 400 ingénieurs et développeurs. La société de e-commerce, qui réalisera ces investissements sur fonds propres, va aussi ouvrir un accélérateur dédié à la mode et à la vente au sein de la Station F, le campus de start-up créé par Xavier Niel à la halle Freyssinet, et deux labos au sein de l’école 42 et de l’Epitech.

Dotdot, le langage universel de la Zigbee Alliance pour l’IoT

Faire se parler entre eux tous les objets connectés est un rêve que les industriels ne cessent de promettre mais qui tarde à se concrétiser aujourd’hui tant les couches applicatives se différencient les unes des autres, y compris sur les mêmes technologies réseau. Un problème partiellement résolu à travers l’usage du Cloud au sein duquel sont installés des « traducteurs » pour assurer l’interopérabilité entre différentes classes d’applications des objets connectés. Une solution qui implique néanmoins la maintenance de l’ensemble des interfaces des constructeurs par les développeurs et fournisseurs de plates-formes, ainsi que la connexion des objets au réseau mondial. Ce qui n’est pas toujours nécessaire ni souhaitable, ne serait-ce qu’en regard des risques de sécurité induits.

C’est dans l’intention de voir se réaliser l’interopérabilité universelle sans passer par le Cloud que, dans un élan de vouloir unifier l’Internet des objets (IoT), la Zigbee Alliance annonce dotdot à l’occasion du CES 2017 de Las Vegas. Présenté comme« le langage universel pour l’IoT », dotdot promet de permettre à n’importe quel objet de fonctionner avec n’importe quel autre depuis n’importe quel réseau, indique l’Alliance dédiée aux objets embarquant la norme de communication IEEE 802.15.4. Sur le papier, dotdot propose donc une couche applicative commune pour relier les objets connectés Zigbee comme IP ou d’autres protocoles (Wifi, Bluetooth…) entre eux, qu’ils soient résidentiels ou installés entre les murs des entreprises.

100 millions d’objets zigbee

Un langage commun que les développeurs doivent néanmoins adopter pour faire communiquer le toaster avec la machine à café, l’ampoule électrique avec les volets de la maison ou un capteur de température avec un système de refroidissement ou chauffage, etc. Pour les encourager, dotdot sera proposé de manière ouverte. Et la Zigbee Alliance met en avant ses plus de 400 membres qui peuvent désormais rendre interopérables leurs solutions connectées.« Dotdot ouvre le prochain chapitre de l’engagement continu de la Zigbee Alliance à créer et à développer des standards ouverts pour les réseaux intelligents dans nos foyers, nos entreprises et nos villes, souligne Tobin Richardson, dirigeant de l’alliance. En reconnaissant la valeur de la couche applicative qui a été le langage de base des dispositifs zigbee depuis plus d’une décennie, les leaders du marché au sein de l’alliance se sont réunis pour la transformer en un langage universel pour l’IoT. »

[Lire aussi notre dossier : La stratégie IoT des grands acteurs IT]

Pour l’heure, les spécifications de dotdot ne sont pas encore publiques. Pour en profiter de manière optimale quand elles le seront, l’Alliance invite les développeurs à d’ores et déjà adopter la couche applicative maison (zigbee 3.0 aujourd’hui). Une offre développée depuis 2007. Plus de 100 millions d’appareils distribués dans le monde la supportent aujourd’hui. L’organisation s’est notamment rapprochée de Thread Group, une autre initiative visant à simplifier l’interopérabilité des objets résidentiels sur réseau IP, pour accélérer l’interopérabilité des appareils connectés. MMB Networks, OSRAM, Nortek, NXP, P&G, Resolution Products, Schneider Electric, Silicon Labs, Somfy ou ZEN Thermostat devraient faire les premières démonstrations de communication entre objets connectés à l’occasion du CES. Les premiers produits certifiés dotdot sont attendus avant la fin de l’année.

Lire également Sigfox, Lora, Ingenu, Sensu et Telensa, les dieux de l’IoT en 2021 IoT : 2016, l’année du décollage Avec HaLow, le WiFi veut épouser l’Internet des objets

Crédit Photo : Andrea Danti-Shutterstock

Avec TessMaster, Ebay optimise Kubernetes dans OpenStack

Dans une volonté d’être à la pointe de l’innovation et à l’écoute de ses développeurs, Ebay s’est résolument orienté vers le Cloud. Le spécialiste du commerce électronique a pour cela travaillé sur ses propres outils d’intégration. Parmi ceux-là, il y a TessMaster, un framework de gestion de Kubernetes dans OpenStack.

Suneet Nandwani, directeur senior des plateformes et de l’infrastructure Cloud chez Ebay, souligne à nos confrères de ZDnet que « avec l’émergence de Docker, il est devenu clair que les conteneurs sont devenus une technologie que les développeurs apprécient ». Fort de cette tendance, il a regardé les gestionnaires de clusters de conteneurs pour automatiser les opérations de mise à l’échelle. « Nous avons estimé que notre capacité à gérer et à rendre plus opérationnelle notre infrastructure, amélioreraient la gestion des clusters », indique le responsable. Parmi ces évolutions, il cite en premier le service de planification avancée pour optimiser l’usage de l’infrastructure et in fine réduire les coûts. Kubernetes a un problème de taille

Après des tests, le choix de la société s’est porté sur Kubernetes. Mais petit hic, l’intégration du gestionnaire de cluster dans la plateforme Open Source de Cloud, OpenStack, n’est pas des plus simples. Après avoir créé son propre Cloud (Stratus), Ebay a décidé en 2013 de basculer sur OpenStack. Il dispose actuellement de 9 plateformes Cloud qui forment un Cloud unique nommé C3. On ne connaît pas exactement la taille de C3, mais Suneet Nandwani évoque «des dizaines de milliers de serveurs physiques et des centaines de milliers de machines virtuelles. Je pense qu’il s’agit d’un des Cloud OpenStack les plus matures. Je n’en ai pas rencontré d’autres de cette taille ».

Et c’est cette question de taille qui pose problème avec Kubernetes. «La plupart des entreprises utilisant Kubernetes en interne le font sur une petite échelle », assure l’expert. Et de détailler, « avoir un cluster avec une dizaine de nœuds c’est une chose, mais quand vous en avez 7 ou 8 clusters avec des centaines de milliers de nœuds, c’est complétement différent ».

Ebay se tourne alors sur la brique Magnum en charge de la gestion des clusters de conteneurs d’OpenStack. Une expérience décevante. « Nous n’avons rien vu dans la communauté qui pourrait nous aider, nous avons alors décidé d’écrire notre propre plateforme d’administration pour Kubernetes sur OpenStack. » Cette plateforme se nomme TessMaster et la version personnalisée de Kubernetes par Ebay s’appelle Tess.IO.

TessMaster, une administration de Kubernetes sur OpenStack

TessMaster est « capable de monter à l’échelle rapidement en ayant la flexibilité de pouvoir baisser ou augmenter le nombre de conteneurs », précise le spécialiste. L’interface permet de gérer en direct les problèmes opérationnels des clusters. Toutes les modifications sur les conteneurs sont tracées et enregistrées dans une base de données. TessMaster peut ensuite diffuser ces changements à d’autres parties de l’infrastructure de l’entreprise.

TessMaster fonctionne aujourd’hui sur 7 clusters sous Kubernetes comprenant 100 serveurs physiques chacun et font tourner 2000 conteneurs. Au début, les conteneurs étaient utilisés dans le cadre du développement et des tests, mais Ebay a sauté le pas pour placer des applications conteneurisées en production. Chaque application nécessite plusieurs conteneurs pour l’ensemble de ses composants et ses dépendances. « Nous avons lancé 4 applications sur Kubernetes en 2016, ce qui nous a permis de constater l’efficience des applications et l’agilité des développeurs ,» indique Suneet Nandwani. Ces applications sont dans plusieurs domaines : la recherche approfondie, le deep learning et le big data via Hadoop. Le site d’enchères prévoit de lancer plus d’applications en clusters dans les mois qui viennent. De même, il pourrait ouvrir à terme le code de TessMaster à la communauté.

A lire aussi :

Conteneurs : pourquoi VMware adopte Kubernetes Pokémon Go peut remercier Google Cloud, Kubernetes et Docker

Crédit Photo : Donvitorio-Shutterstock

Wikipédia : Java plus consulté que Steve Jobs ou Google

Andrew West dévoile la liste des 5000 pages les plus visitées en 2016 sur la partie anglaise de l’encyclopédie en ligne Wikipedia. Ces 5000 pages cumulent 21,6 milliards de vues, dont 42 % depuis des terminaux mobiles.

Donald Trump et les élections présidentielles US dominent les débats… devant la page dédiée au site pornographique xHamster. Les fiches de Prince et David Bowie ont également été prises d’assaut suite à la mort de ces deux artistes. Le top50 des pages les plus visitées fait pour le reste la part belle aux films et à la culture. Où quand le temple du savoir Wikipédia se transforme en palais de la consommation.

Le web scraping devant Facebook

Certaines pages liées au monde IT apparaissent en bonne position dans le classement. C’est ainsi le cas de celle liée au web scraping, relative aux méthodes d’extraction du contenu des pages web. Une fiche consultée 37,2 millions de fois, qui se place ainsi en 8e place du top5000. Loin derrière xHamster et ses 70,9 millions de pages vues (5e place), mais aussi loin devant l’article dédié à Facebook, qui pointe en 36e position avec 13,8 millions de pages vues.

Le langage de programmation Java se positionne en 42e place du classement. Ce qui en fait le champion du secteur, avec un total de 12,6 millions de pages vues. C’est mieux queGoogle (11,7 millions), YouTube (10,3 millions) ou le phénomène Pokémon Go (10,3 millions)… ou même Steve Jobs, qui n’arrive qu’en 74e place du classement, avec tout de même 9,4 millions de consultations.

À lire aussi : Programmation : le C perd du terrain, mais reste le numéro 2 du secteur Apple organise des ateliers de programmation dans ses stores américains Google intègre une solution de programmation low-code dans sa G Suite Le chiffrement, seconde source de failles de sécurité dans le code

Pour l’édition 2016 de son rapport (State of Software Security), Veracode a analysé le code source de plus de 337 000 applications 18 mois durant, d’octobre 2014 à mars 2016. Moins de 4 applications sur 10 répondent à des exigences sécurité (référentiel OWASP, Open Web Application Security Project) lors de l’évaluation initiale, selon le fournisseur américain spécialisé.

« Cette proportion ne change pas vraiment année après année. Cela montre que de nombreux logiciels en circulation ne passent toujours pas par un processus formel d’amélioration de sécurité — soit le code hérité n’a pas été corrigé, soit le code nouveau n’a pas été développé dans le cadre d’un cycle de vie du développement logiciel (SDLC) rigoureux et sécurisé », déclarent les auteurs du rapport.

10 sources de vulnérabilités

Les développeurs accélèrent le recours au chiffrement dans leurs applications. Mais la rigueur de l’implémentation n’est pas toujours au rendez-vous. Résultat, la cryptographie reste la deuxième source de failles de sécurité dans le code des applications étudiées par Veracode.

Devant les problèmes de chiffrement, la fuite d’informations (sur la configuration ou le fonctionnement interne des applications, par exemple) arrive en tête des dix sources de vulnérabilités les plus fréquemment trouvées dans les applications scannées par Veracode. Suivent : la qualité du code, la faille CRLF (Carriage Return Line Feed), la faille XSS (ou Cross-site scripting), la vulnérabilité de type « traversée de répertoires », la validation d’entrée insuffisante, la violation de gestion d’authentifications, la faille d’injection SQL et, enfin, les problèmes d’encapsulation.

Lire aussi :

Sécurité : Linux attaquable sans une seule ligne de code DDoS : le code du botnet IoT Mirai mis en libre-service Le chiffrement source de multiples failles de sécurité crédit photo © Morrowind

Une faille dans PHPMailer fragilise des CMS et des millions de sites web

Un chercheur polonais en sécurité, Dawid Golunski, a trouvé une faille critique dans PHPMailer. Ce script PHP donne aux développeurs la capacité d’automatiser l’envoi de mail. Cette librairie est très connue et des millions de sites web l’utilisent, ainsi que les CMS les plus populaires comme WordPress, Joomla, Drupal, SugarCRM, vTiger CRM, Mantis, XOOPS, Zikula, etc.

Concrètement, cette faille ouvre la voie à des attaques capables de « cibler des composants classiques d’un site web tels que les formulaires de contact ou d’inscription, la réinitialisation d’un mot de passe et d’autres qui envoient des e-mails à l’aide d’une version vulnérable de la classe PHPMailer », indique le spécialiste.

La vulnérabilité a été référencée sous le code CVE-2016-10033 et vise les versions antérieures à la 5.2.18. Cette dernière corrige la faille et a été publiée le jour de Noël. Étant donné la période, la mise à jour sur l’ensemble des sites va prendre du temps et parfois elle ne sera jamais appliquée. Pour les éditeurs de CMS, WordPress et Drupal préparent des correctifs de sécurité mettant à jour la librairie.

Les cybercriminels plus rapides

Sur une page, le chercheur donne quelques indications sur le modus operandi de la vulnérabilité. Il précise avoir élaboré un prototype fonctionnel d’une attaque pour démontrer la véracité de sa découverte. Il reste cependant volontairement laconique dans ses explications pour donner du temps aux webmasters et aux éditeurs de corriger leurs versions de PHPMailer embarqué dans leur code.

Mais malgré sa prudence, des pirates ont analysé les différences entre le code source de la version non corrigée et celui de la version corrigée. Les cybercriminels ont mené des travaux de rétro- ingénierie sur la mise à jour de sécurité afin d’identifier la faille. Pourin fine, diffuser leur propre code d’attaque disponible sur GitHub et ExploitDB.

A lire aussi :

PHP au top des langages à la source de failles

Salaires : des disparités entre développeurs PHP en 2016 crédit photo © ra2studio – shutterstock Bridgewater prêt à remplacer ses managers par une IA ?

Bridgewater Associates, l’un des fonds spéculatifs les plus puissants au monde, travaille au développement d’applications d’intelligence artificielle (IA) qui lui permettent d’automatiser sa gestion et d’améliorer la prise de décision au quotidien, rapporte le Wall Street Journal.

Pour mener à bien son projet, Bridgewater (Etats-Unis) a recruté des développeurs, ingénieurs et mathématiciens. L’unité constituée en 2015 (le Systematized Intelligence Lab) est dirigé par David Ferrucci. L’homme a rejoint le fonds en 2012, après avoir dirigé les développements de Watson, le système d’IA conçu par IBM. Bridgewater, de son côté, a un but dans ce domaine : concevoir une intelligence artificielle capable de piloter le fonds en l’abscence de son président, et évaluer la capacité de chacun à atteindre les objectifs fixés. Le Lab a déjà conçu les premiers outils du projet.

Machine learning

L’équipe encadrée par Ferrucci analyse les données recueillies auprès des employés du fonds. Elle utilise les règles énoncées dans le manifeste de son fondateur et président Ray Dalio (« Principles ») pour proposer un algorithme de gestion de l’entreprise nommé« Principles Operating System » (ou PriOS). « Chaque entité fonctionne comme une machine pour atteindre ses objectifs », écrivait-il dans son manifeste. Depuis son retour aux commandes, début 2016, l’effectif de Bridgewater a été réduit de 10%. Ray Dalio souhaite que l’intelligence artificielle prenne« les trois quarts» des décisions qui s’appliquent au groupe dans les 5 ans, selon le Journal de Wall Street.

Lire aussi :

IA : on ne joue plus… ou alors à se faire peur Les leçons d’intelligence rtificielle de Facebook Le projet Intu d’IBM invite Watson sur les smartphones et l’IoT

Credit Photo : College of Journalism Press Releases via Visual Hunt / CC BY-NC

Audits de Java SE : 6 ans après le rachat de Sun, Oracle présente la facture

Six ans après avoir racheté Sun, Oracle dégaine la boîte à audits autour de Java, la technologie que lui a amenée l’ex-point du .com. Selon nos confrères de The Register, l’éditeur de Redwood Shores a en effet lancé une vague d’audits auprès de ses clients et partenaires autour de Java, ciblant les problèmes de conformité spécifiques aux règles de licensing de Java SE, l’édition phare de la plate- forme Java destinée en particulier aux postes de travail.

Selon nos confrères, la firme de Larry Ellison a même embauché quelque 20 experts dans le monde afin de vérifier la conformité du licensing Java des clients. Les spécialistes s’attendent à un accroissement de l’activité de LMS (License Management Services, le bras armé d’Oracle sur les audits) en 2017 autour de Java. En jeu, des redressements pouvant se chiffrer en dizaines ou centaines de milliers de dollars.

Java SE, des modules payants

Sur Java, très souvent, les DSI se sentent protégés par leur perception d’avoir affaire à une technologie gratuite, un sentiment qui avait été propagé par Sun. Or, depuis l’acquisition du constructeur, Oracle a enrichi Java SE de modules complémentaires placés, eux, sous licences payantes. Comme Advanced Desktop (introduit en 2014), Advanced et Suite (2011). Par exemple, Java SE Suite coûte 300 dollars par utilisateur nommé (avec un support à 66 dollars), auxquels s’ajoutent 15 000 dollars de licence par processeur (3 300 dollars de support).

Dans le licensing d’Oracle, Java SE reste théoriquement gratuit pour ce que le second éditeur mondial appelle le «General Purpose Computing », autrement dit les applications sur PC ou terminaux mobiles. Sauf que les entreprises qui se placent dans ce schéma ont en réalité accès à un package d’installation, qui ne permet pas d’exclure à priori les modules payants. Sur un déploiement important, une entreprise a ainsi de bonnes chances de se servir de Microsoft Windows Installer Enterprise JRE Installer… qui ne fait pas partie des modules gratuits de Java SE.

Les limites du « General Purpose »

C’est ce type de découvertes qui risque d’alimenter les audits de LMS, les entreprises – y compris les partenaires d’Oracle – n’ayant souvent tout bonnement pas conscience que certains modules de Java SE sont soumis à licences. Dans les colonnes de The Register, un expert en conformité logicielle conseille aux DSI de veiller à n’employer que les éléments pour lesquels ils disposent d’une licence après téléchargement de Java SE (par défaut les modules gratuits donc). Faute de quoi l’entreprise tombera dans ce que l’éditeur appelle un usage commercial. D’autant plus facilement que le « General Purpose Computing » est, lui, bien mal défini.

Le même expert, qui reste anonyme, précise également que si une organisation distribue une application embarquant Java SE pour proposer des produits ou services à ses clients finaux, elle ne peut, aux yeux d’Oracle, tomber dans la catégorie General Purpose.

A lire aussi :

Audits de licences : c’est Microsoft le grand méchant loup

P. Lejeune, Insight : « Pas d’audit dans le Saas, mais toujours des dépenses inutiles »

Oracle est déloyal et de mauvaise foi selon la justice Crédit photo : Katherine Welles / Shutterstock.com

Télégrammes : Marco fait parler l’IA, Big Data régulé ?, Fleur Pellerin conseille Talan, ARM investit les serveurs

Marco apprend aux machines à parler. Microsoft place en Open Data un jeu de données d’environ 100 000 questions et réponses en anglais afin d’aider les IA à comprendre le langage humain. Baptisé Marco (Machine Reading Comprehension), ce jeu de données est basé sur des questions anonymisées soumises au moteur de recherche Bing et à l’assistant virtuel Cortana et sur des réponses écrites par des humains et vérifiées par Microsoft. Marco doit venir nourrir les modèles de Deep Learning. Via la mise à disposition de ce jeu de données – dont l’accès est gratuit pour des usages non commerciaux -, Microsoft espère ainsi collaborer avec d’autres sociétés sur la compréhension du langage humain par les IA. Signalons que Redmond en avait déjà fait de même dans le domaine de la reconnaissance d’images, avec la publication d’ImageNet, une base de données d’images taguées.

Bruxelles s’inquiète des conséquences du Big Data. Plusieurs régulateurs européens s’interrogent sur les potentiels effets des approches Big Data sur les consommateurs, dont certains pourraient être vus comme indésirables suite aux données collectées par les entreprises. Les régulateurs de l’Union en charge des secteurs bancaires, des marchés financiers et de l’assurance ont donc lancé une consultation publique afin d’évaluer si des mesures réglementaires ou de supervision supplémentaires sont nécessaires. Pour l’heure, aucune règle spécifique n’existe en la matière, les Big Data tombant sous la coupe des législations sur la protection des données et des règles relatives à la concurrence et à la protection des consommateurs.

Fleur Pellerin rejoint Talan. Fleur Pellerin entre au comité d’orientation stratégique (COS) de Talan. L’ancienne ministre, notamment déléguée à l’Economie numérique, y rejoint Michel Combes, David Hoppenot et Jean-Louis Beffa, et succède à Arnaud Montebourg, qui a quitté son siège pour s’investir dans la campagne présidentielle. Une équipe d’experts dans leur domaine qui conseillera Talan dans son développement. La SSII affiche de fortes ambitions et vise le milliard d’euros de chiffre d’affaires pour 2022, contre 200 millions attendus en 2016. Talan, qui accompagne les entreprises dans leur transformation numérique dans les domaines de l’Internet des objets (IoT), le Big Data, la blockchain et l’intelligence artificielle, espère passer du statut de PME à celui d’ETI dans les prochaines années. En début d’année, Fleur Pellerin a quitté le gouvernement de Manuel Valls et la fonction publique, pour créer un fonds franco-coréen dédié à l’IoT, la blockchain et le Big Data. Pile poil les sujets de prédilection de Talan.

ARM veut multiplier les applications serveur. Si les processeurs sous architectures ARM alimentent largement le marché des smartphones et autres appareils mobiles, ils peinent à pénétrer le marché des serveurs, fautes d’applications compatibles. Et les défections récentes de AMD ou Broadcom sur ce terrain n’incitent guère à l’optimisme, malgré les ambitions de Microsoft et Qualcomm. ARM n’entend pas baisser les bras, au contraire. La compagnie britannique désormais détenue par Softbank a annoncé l’acquisition d’Allinea Software la semaine dernière. Cette entreprise fournit des solutions de développement, de débogage et d’outils de portage logiciel. Une offre avec laquelle ARM espère inciter les développeurs à porter leurs applications pour serveurs sur l’environnement ARM. Sans remettre en cause la roadmap d’Allinea. Le montant de l’opération n’a pas été dévoilé.

Twitter n’aidera plus le gouvernement US à surveiller ses utilisateurs

Depuis cette semaine, Twitter ne permet plus au gouvernement américain de surveiller ses concitoyens, et ceux du reste du monde, à travers le réseau social. Ou, plus exactement, à travers Dataminr. Cette société en partie détenue par Twitter (à hauteur de 5% du capital) fournit des outils d’alerte basés sur l’analyse des tweets. Une solution de veille en temps réel agrémentée de service de géolocalisation, utilisée par les médias, les investisseurs et… les gouvernements.

Si ces derniers utilisent les services de Dataminr à des fins de lutte contre le terrorisme, ils s’en servent aussi pour repérer les activistes et autres opposants, affirme l’Aclu (America civil liberties union). Or, Twitter stipule clairement dans sa charte que l’utilisation du réseau social a des fins de surveillance est « strictement interdite ». En conséquence, Twitter avait demandé en mai dernier à Dataminr de se conformer, comme pour tous les développeurs, à sa politique d’utilisation du réseau social. Ce qu’a fait l’entreprise de veille. « A compter de cette semaine, Twitter a fait en sorte que les centres d’agrégation (« fusion centers ») financés par le gouvernement fédéral ne puissent plus utiliser un puissant outil de surveillance des médias sociaux pour espionner les utilisateurs », rapporte l’Aclu.

Twitter confirme par lettre

L’association de défense des libertés civiles s’appuie sur unelettre signée de Colin Crowell, vice- président chargé de la politique publique mondiale de Twitter, qui lui confirme cet abandon. Le réseau social y affirme que « Dataminr a affiné son produit pour le secteur public afin de l’adapter à son offre principale de fournir des alertes d’information [et…] qu’il n’autorise plus des accès directs des ‘fusion centers’ ».

Twitter y rapporte aussi les propos de Dataminr. Qui déclare« ne plus fournir aux clients gouvernementaux leur propre accès direct ou des fonctionnalités pour exporter des données; la capacité de rechercher des données historiques brutes; l’analyse géospatiale; ou toute forme de surveillance ». Le réseau social avait précédemment opéré la même démarche avec Geofeedia et Snaptrends. Si le gouvernement américain se voit privé d’un outil qui facilitait son travail, il n’en a toujours pas moins accès aux données publiques postées sur Twitter pour poursuivre ses missions de surveillance des citoyens. A l’instar de l’affaire de l’iPhone 5c de la tuerie de San Bernardino, cette histoire illustre surtout les tensions qui règnent entre les gouvernements et les entreprises high tech qui ont (ou peuvent) avoir accès aux données personnelles de leurs utilisateurs.

Lire également Windows 10 aspire vos données personnelles toutes les 5 minutes OVH : Octave Klaba espionné par le GCHQ britannique Une backdoor chinoise planquée dans des smartphones Android

Crédit Photo : Andrey_Popov-Shutterstock

Avec OpenStack Platform 10, Red Hat simplifie l’orchestration du Cloud

Red Hat vient d’annoncer une nouvelle version de son plate-forme OpenStack. Cette dixième version de l’offre Cloud IaaS (Infrastructure as a service) de la société de Raleigh s’appuie sur les développements apportés par larelease Newton. OpenStack Platform 10 entend améliorer l’évolutivité du système, faciliter la gestion de l’infrastructure et améliorer l’orchestration tout en optimisant les performances du réseau et la sécurité de l’ensemble.

Concrètement, cela se traduit par de nouvelles fonctions intégré à l’orchestrateur nommé Director comme l’automatisation des mises à niveau et à jour (y compris Ceph), une configuration réseau avancée, une haute disponibilité et la possibilité de déployer des fichiers avec le service Manila. Désormais, les services OpenStack s’exécutent et évoluent de manière autonome, ce qui offre une gestion plus granulaire de l’environnement. L’offre s’enrichit également de chiffrement du stockage objet et du système de jetons pour accéder aux données.

Des performances réseau bare-metal

Côté réseau, le nouveau kit de développement des plans de donnée pour les Open vSwitch et la virtualisation des routes améliore les performances jusqu’à les rendre aussi performante qu’en systèmes nus (bare metal), selon l’éditeur open source. Et les utilisateurs peuvent désormais choisir entre du routage centralisé ou distribué. Enfin, un nouveau programme de certification hardware est proposé sur OpenStack Ironic. « Le nouveau programme est conçu pour étendre l’écosystème des options matérielles pour la configuration automatisée bare-metal », explique Red Hat. Dell-EMC est le premier partenaire de ce nouveau programme. D’autres suivront. OpenStack Platform 10 introduit parallèlement un nouveau modèle de support sur 5 ans. De fait, l’éditeur propose en option deux années supplémentaires (ELS pour extended life cycle) en plus des 3 ans standards. De quoi s’assurer une version « longue durée » de la plate-forme Iaas.

Lire également Christian Ligier, Red Hat : « Le marché des télécoms est primordial pour nous » Les 25 ans de Linux vus par Red Hat 10 questions sur Red Hat (quiz)

IBM veut faire de Watson un super copilote pour BMW

Watson continue de tracer sa route sur le chemin de l’industrie automobile. AprèsOlli , le minibus autonome de la start-up Local Motors piloté par les capacités cognitives du programme d’intelligence artificielle (IA), IBM accélère en passant un nouveau partenariat avec BMW. Objectif : « Explorer le rôle de l’informatique cognitive dans la personnalisation de la conduite [automobile] et créer des assistants plus intuitifs pour les voitures du futur », selon Big Blue.

Pour ce faire, une équipe de chercheurs du constructeur automobile s’installera au siège d’IBM à Munich (Allemagne) dans la division Watson Internet of Things (IoT). Pour l’heure, les deux partenaires ne précisent pas combien de personnes seront dédiés à ces travaux visant à développer de nouvelles interfaces audio de conduites. Le centre allemand est aujourd’hui animé par un millier de chercheurs, développeurs, ingénieurs et autres experts. En revanche, les tests seront effectués sur 4 modèles hybrides BMW i8. Les prototypes d’applications seront exécutés sur le Cloud Bluemix.

Converser avec sa voiture

« Grâce à cet accord, nos sociétés travailleront ensemble afin que les conducteurs puissent bénéficier des capacités de conversation et d’apprentissage machine de Watson, déclare Harriet Green, responsable mondial de l’activité Watson IoT d’IBM.Notre perspicacité montre que, alors que la voiture restera incontournable dans le domaine du transport personnel, l’expérience de conduite changera plus au cours de la prochaine décennie qu’elle ne l’a fait depuis l’existence de l’automobile. »

Concrètement, nourri du manuel d’utilisation du véhicule, Watson permettra à la voiture d’apprendre les préférences, besoins et habitudes de conduite de son (ou ses) conducteur(s). Ce qui, supposément, personnalisera l’expérience de conduite et améliorera son confort et son niveau de sécurité. Le conducteur pourra ainsi poser des questions en langage naturel sur l’état du véhicule tout en restant concentré sur sa conduite. Si l’idée n’est pas aujourd’hui de converser avec sa berline comme avec un passager, il sera néanmoins possible de lui parler météo. Les prévisions de la filiale d’IBM Weather Company seront en effet intégrées au véhicule fournissant ainsi des informations en temps réel sur les conditions climatiques du parcours, mais aussi de trafic et de l’état de la route, afin de proposer des recommandations en conséquence. Bref, Watson s’inscrit comme une machine à former des copilotes surdoués.

200 millions de dollars d’investissements

IBM compte investir 200 millions de dollars dans le centre de recherches munichois consacré à l’usage de l’informatique cognitive dans les véhicules sur les 3 milliards de dollars dédiés au développement de Watson IoT. Le partenariat signé avec BMW est le premier du genre pour voir ce que Watson peut apporter en matière d’interface machine aux voitures. Ce qui laisse entendre qu’il y en aura d’autres dans l’industrie automobile. Aujourd’hui, Big Blue revendique 6000 clients qui exploitent dans le monde les solutions et services IoT de Watson.

Lire également Watson d’IBM, prochain Sherlock Holmes de la cybersécurité Le projet Intu d’IBM invite Watson sur les smartphones et l’IoT IA : comment IBM Watson aide les conseillers clientèle du Crédit Mutuel

Hopwork, la plateforme de freelance, lève 5 millions d’euros

Changement d’échelle chez Hopwork ? Au printemps 2015, à l’heure d’annoncer une levée de fonds de 1,5 million d’euros* emmenée par ISAI, la start-up parisienne avait exprimé une ambition : « internationaliser », au cours de l’année 2016, son modèle qui consiste à mettre en relation des entreprises et des professionnels freelances par l’intermédiaire d’une place de marché en ligne.

Le discours a évolué depuis lors ; tout du moins dans la forme. Il se concentre en l’occurrence sur l’Europe… avec le soutien renouvelé d’ISAI.

Le fonds d’entrepreneurs du Web monté à l’initiative de Pierre Kosciusko-Morizet, Geoffroy Roux de Bézieux, Stéphane Treppoz et Ouriel Ohayon remet au pot dans le cadre d’un tour de table de5 millions d’euros emmené par Serena Capital.

Un matelas appréciable pour Hopwork, dont les comptes 2014 font, d’après lesdonnées de Société.com, état d’une perte de 209 300 euros sur un chiffre d’affaires de 110 000 euros. 40% dans les métiers de l’IT

Vouée à simplifier la prise de contact tout en sécurisant les aspects administratifs et le paiement, la plate-forme que la jeune pousse avait lancée à l’été 2013 fédère aujourd’hui 35 000 membres, pour 18 000 entreprises clientes, avec des références comme Allianz, Eurosport et Publicis Groupe.

Les métiers de l’IT représentent 40 % du vivier de freelances inscrits. Le reste est réparti de manière égale entre les professions de l’image et le secteur communication/marketing.

Fondé par Vincent Huguet (DG ; à l’origine d’Ooprint.com et de Dromadaire.com), Hugo Lassiège et Jean-Baptiste Lemée (ingénieurs développeurs), Hopwork n’est pas seul sur son marché.

En France, on soulignera la présence du poids lourdFreelancer.com , venu d’Australie, coté en Bourse et qui multiplie les opérations de croissance externe pour se développer dans le monde (vWorker aux États-Unis, Scriptlance au Canada, Zlecenia en Pologne, Nubelo en Espagne…). Son réseau a dépassé le 20 millions d’utilisateurs cet été.

* Un financement apporté par le véhicule ISAI Venture II, alors fraîchement constitué pour accompagner les start-up en post-amorçage. Une première impulsion avait été donnée en 2014 par Olivier Occelli et Antoine Freysz, rappelle ITespresso Le créateur de la marketplace Naturabuy et le cofondateur d’Otium Capital – aujourd’hui associés chez Kerala Capital – avaient injecté 550 000 euros.

A lire aussi :

Baromètre freelance Hopwork : les développeurs Scala sont les mieux payés 50% des freelances sur Hopwork sont des développeurs

DevOps, un quart des DSI françaises pleinement matures

Avec DevOps, les DSI tiennent un levier puissant pour répondre aux exigences de la transformation numérique. Mot-valise, DevOps vise à casser l’habituelle dichotomie entre études et production en amenant à travailler ensemble les « dev » et les « ops ». Sur le principe « you build it, you run it », une équipe unique va suivre un produit applicatif, depuis sa spécification jusqu’à son exploitation.

Embarqués sur le même bateau, les développeurs et leurs collègues de la « prod » ne peuvent plus se rejeter mutuellement la faute en cas de dépassement des délais ou d’une dérive sur la qualité du livrable. Avec cette approche qui remonte à 2009, il s’agit de livrer plus vite et plus fréquemment des produits qui répondent davantage aux attentes du business.

Pour connaître le niveau de maturité des entreprises françaises en matière de DevOps, le cabinet de conseil TNP a mené l’enquête ces deux derniers mois auprès de 50 DSI, de taille et de secteur d’activité divers. Il en tire trois profils.

Prolongement naturel des méthodes agiles

Les « best in class », 27 % des sondés, sont des pratiquants aguerris. Plus de 70 % des projets qu’ils prévoient de mener en 2017 devraient être conformes à l’esprit DevOps. Ces DSI matures ont déjà engrangé les premiers gains – réduction du time to market, augmentation de la productivité des équipes IT – et travaillent désormais sur l’amélioration de la qualité et de la pertinence des services livrés.

Pour elles, DevOps est perçu comme le prolongement naturel des méthodes agiles avec, comme pour Scrum ou Kanban, une implication accrue des métiers. Sur le principe de la « pizza team », l’équipe est volontairement réduite et rassemblée sur un même plateau. Et comme le font depuis toujours leurs amis de l’exploitation, les développeurs sont soumis à des astreintes (soir, week-end) aux moments clés du projet.

Pour ces DSI pionnières, il n’y a pas de DevOps réussi sans recours aux ressources du cloud pour provisionner et déprovisionner à la volée des environnements de développement ou de tests.

La sécurité, la grande absente

Si Cédric Coignard, directeur chez TNP, juge que « DevOps c’est à 70 % du changement culturel et 30 % d’outillage », les DSI les plus avancées se distinguent également dans le choix des solutions parmi une offre pléthorique.

Dans cette nouvelle version du tableau périodique des éléments, XebiaLabs a recensé les différents outils de repository management, de provisionning ou de tests. Certaines DSI font aussi appel à des bots pour automatiser certains process, dans ce que l’on appelle la Robotic process automation (RPA). Au-delà de l’industrialisation des tests unitaires, certaines DSI sont passées en mode « Test driven development » où les développeurs écrivent eux même les cas de test.

Derrière ces leaders, TNP distingue les « intermédiaires » (33 % du panel) au milieu du gué sur toutes ces questions et les « débutants » (40 %) qui maitrisent les concepts du déploiement en continu sans réellement le mettre en œuvre.

Quel que soit le niveau de maturité des DSI interrogées, TNP déplore que la sécurité soit trop souvent absente ou insuffisamment intégrée dans les projets DevOps.

En participant dès les phases initiales du projet, les spécialistes de la sécurité pourraient assurer une meilleure sécurisation des applications (SecDevOps). Il ne faudrait pas qu’en augmentant le nombre de releases, on augmente le nombre de failles de sécurité.

A lire aussi :

Voyages-SNCF livre son carnet de route de l’aventure DevOps

Comment la Société Générale digère la culture Devops devops apps © sergey nivens shutterstock

Télégrammes : Zone Telechargement is back, Waymo la voiture autonome de Google, Microsoft censure son chatbot Zo, GBoard sur Android

Zone Téléchargement ré-ouvre. Après un jeu du chat et de la souris, le site « d’échange et de partage » renaît de ses cendres. Sur un message Facebook, on peut lire que le site a désormais une nouvelle adresse. L’extension utilisée pointe sur les îles Samoa et le site ainsi ré-ouvert reprend les canons de l’ancien : même charte graphique, anonymisation des liens, moteur de recherche, etc. Cette renaissance officielle intervient quelques semaines après une opération de la gendarmerie de Toulouse qui a fait fermer la plateforme de téléchargement. Des serveurs ont été saisis en Allemagne et Islande, 7 personnes ont été interpellées en France et Andorre. Les autorités estiment que le manque à gagner généré par ce site s’élève à 75 millions d’euros. Dans les heures qui ont suivi cette affaire, un premier site avec une autre adresse et utilisant des sites miroirs avait été mis en ligne, mais les liens n’étaient pas fonctionnels.

Waymo : la voiture autonome selon Google. Le projet de voiture autonome de Google est hébergé dans une nouvelle entreprise de la galaxie Alphabet, une entité baptisée Waymo. Une dénomination censée représenter « A new way forward in mobility », selon Google. La société se basera sur les technologies développées depuis 2009 au sein des laboratoires de Mountain View, un arsenal qui a permis de mettre sur pied le premier trajet 100 % autonome sur des voies publiques en octobre 2015, à Austin (Texas). Le passager était une personne aveugle, Steve Mahan. Waymo assure qu’elle travaillera sur des technologies visant à une autonomie totale (par opposition aux techniques d’assistance à la conduite) pour des applications de partage, des véhicules privés et des camions. Le projet, qui ne s’avance toujours pas sur une éventuelle date de commercialisation de premiers produits ou services, est toujours dirigé par John Krafcik, un dirigeant expérimenté de l’industrie automobile. Ce dernier a confirmé que sa société n’envisageait pas de produire des véhicules en propre.

Zo, le chatbot censuré de Microsoft. Plus d’une semaine après les premiers démarrages de Zo.ai, Microsoft a officiellement lancé son nouveau chatbot à l’occasion de sa conférence AI Day donnée à San Francisco mardi 13 décembre. Le nouvel assistant numérique construit autour de technologies d’intelligence artificielle (IA) succède à Tay.ai qui, pris en flagrant délit de racisme, avait dû être fermé rapidement en mars dernier. Si Zo « utilise le vaste contenu social de l’Internet [et] apprend à partir des interactions humaines à répondre émotionnellement et intelligemment, aux dires de Microsoft, elle a également des contrôles et des équilibres solides en place pour la protéger des détournements. » Autrement dit, Zo ne « fait pas de politique ». Une version censurée de Tay, inspiré de Xiaoice, le chatbot chinois de l’éditeur lancé en 2014. Pour l’heure utilisable sur Kik, Zo devrait se déployer sur Twitter, Facebook Messenger et Snapchat dans les mois à venir.

Le clavier GBoard arrive sur Android. La guerre des claviers virtuels se poursuit. En mai, Google partait à l’abordage d’iOS avec le clavier Gboard. Une déclinaison pour le marché français était arrivée dans la foulée en août. Logiquement, Gboard débarque maintenant sur Android. Au gré de la version 6.0, il est en cours de déploiement et supplante le clavier Google Keyboard d’Android. Il est également possible d’en télécharger l’apk pour l’essayer avant son arrivée officielle sur la marketplace Google Play. On ne change pas une formule qui marche : l’application de clavier combine saisie gestuelle, recherche, composante prédictive et personnalisation, à l’instar de son alter ego sur iOS, précise ITespresso. La firme Internet de Mountain View en profite pour enrichir l’application, en particulier le support multi-langues (avec de surcroît la possibilité d’en sélectionner plusieurs simultanément).

Face au risque de fork, Docker met en Open Source son runtime

Docker a entendu les critiques et y répond. La société vient d’annoncer la mise en Open Source du runtime de son Docker Engine nommé Containerd. Nous nous étions fait l’écho en septembre dernier d’une grogne au sein de la communauté, grogne portant sur la façon dont la start-up fondée par des anciens de l’Epitech gère le Docker Engine, le runtime maison permettant de construire et faire tourner des conteneurs. D’où l’idée d’un fork, un dérivé du code Open Source appelé à vivre sa propre vie indépendamment de Docker. Celui-ci viserait aussi à régler différents problèmes relatifs aux déploiements en entreprise. Notamment les questions de stabilité, un prérequis pour espérer supporter des déploiements massifs au sein de grandes entreprises.

Containerd est un composant de Docker qui fournit une base à des éditeurs pour l’élaboration de solutions de conteneurs et de services non-Docker. Plusieurs sociétés se sont engagées à travailler sur cette technologie comme Alibaba, AWS, IBM et Microsoft. Pour l’instant, Docker n’a pas annoncé la fondation qui accueillera ce projet Open Source, mais il devrait être hébergé dans une structure neutre au cours du premier trimestre 2017.

Mettre la « plomberie » au service de la communauté

Solomon Hykes, fondateur de Docker et CTO, explique que l’objectif initial de l’entreprise était de mettre en priorité l’accent sur le client final et de laisser au second plan la« plomberie ». « Aujourd’hui, nous portons une pièce importante de cette plomberie en Open Source. Nous rendons Containerd accessible à tous », précise le dirigeant. Ce qui signifie, «un repository nouveau pour Containerd, distinct de Docker, avec des détails sur les besoins de contribution et une feuille de route explicite », poursuit Solomon Hykes.

Le cœur de Docker va pouvoir vivre à un rythme plus maîtrisé pour les développeurs et la communauté. Une communauté un peu lassée des évolutions permanentes impulsées par Docker et qui revendiquait récemment sur Twitter : « nous avons besoin d’une technologie cœur ennuyeuse ! ». En ligne de mire, le cycle très court des mises à jour chez Docker, rapidité qui casse fréquemment les compatibilités que ces fournisseurs garantissent à leur client. La goutte d’eau de tropa été l’intégration de Swarm (service d’orchestration maison) au sein de Docker Engine. L’écosystème de Kubernetes (concurrent de Swarm porté par Google), Red Hat ou CoreOS ont été les premiers à orchestrer la levée de boucliers et à brandir la menace d’un fork.

Docker sur Azure en bêta publique

Dans le même temps, Docker poursuit son expansion et son histoire d’amour avec Microsoft. Les deux sociétés viennent d’annoncer le lancement en version bêta de l’offre Docker pour Azure. Une bêta privée avait été annoncée à la DockerCon en juin dernier. Depuis ces tests, la start-up et l’éditeur de Redmond ont intégré les logs des conteneurs au sein d’un compte de stockage Azure pour une analyse ultérieure. De même, un outil d’analyse capable de gérer les diagnostics de Swarm au sein du Cloud de Microsoft a été ajouté.

A lire aussi :

Conteneurs : un format unique pour réconcilier Docker et CoreOS

Après avoir séduit les devs, Docker cajole les admins

Clusters Swarm, réseaux virtuels… : Docker s’attaque à la production crédit photo © Dabarti CGI – shutterstock

IoT : Google met Android au service des objets connectés

Google fait un nouveau pas dans l’Internet des objets (IoT). La firme vient d’annoncer deux initiatives en ce sens. La première vise à permettre aux développeurs de s’appuyer sur Android pour piloter des objets connectés. Mountain View vient de fournir une pré-version Androidd’ Things, la plate-forme de développement.« Désormais, tout développeur Android peut construire rapidement un périphérique intelligent à l’aide des API d’Android et des services Google, tout en restant hautement sécurisé avec les mises à jour directement assurées par Google ,» indique Wayne Perkaski, Developer Advocate pour l’IoT de l’entreprise californienne.

L’héritage de Brillo

Android Things hérite notamment des développements réalisés dans le cadre duprojet Brillo, un OS IoT présenté en mai 2015. La plate-forme intégrera ainsi des outils comme Android Studio, le SDK, les services Google Play, ou encore Google Cloud Platform. Le projet s’enrichira dans les mois qui viennent de l’infrastructure nécessaire pour pousser des correctifs de l’OS et ceux des développeurs vers les objets.

Plusieurs d’entre eux sont déjà prêts à accueillir Android Things pour construire des solutions connectées opérationnelles. Il s’agit des pico ordinateurs Intel Edisson, NXP Pico et l’incontournable Raspberry Pi, troisième du nom en l’occurrence.

L’interopérabilité dans Weave

La seconde initiative est une mise à jour de la plate-forme Weave. Elle vise à permettre aux objets de communiquer entre eux et avec les services de Google à travers le Cloud. Une interopérabilité opérée dans le nuage qui évite de développer des protocoles d’échanges spécifiques entre chaque objet et des architectures de réseau relativement lourdes. La plate-forme intègre également un Device SDK dédié aux microcontrôleurs, et une console de gestion. Le kit de développement supporte déjà plusieurs schémas d’usages d’objets connectés autour des ampoules, de prises électriques, de commutateurs et de thermostats. La solution s’enrichira de nouveaux supports au fil des mois. Une API pour application mobile Android et iOS est programmée. [Lire aussi notre dossier : La stratégie IoT des grands acteurs IT]

A terme, Google envisage de fusionner Weave et Nest Weave pour autoriser tous types de classes de terminaux à s’interconnecter de manière fiable et sécurisée. Les développeurs de Nest retrouveront donc leurs travaux dans une offre unifiée. Weave compte déjà plusieurs références. Philips Hue et Samsung SmartThings sont déjà utilisateurs. Belkin WeMo, LiFX, Honeywell, Wink, TP- Link, et First Alert l’implémentent. « Ce n’est que le début de l’écosystème IoT que nous voulons construire avec vous », conclut l’avocat de l’IoT de Mountain View.

Lire également Google drague les assureurs avec sa casquette IoT Google Home ou la fin de la vie privée ? IoT : les objets connectés, futur cauchemar pour les réseaux d’entreprise ? crédit photo : Robpegoraro via Attribution Engine. Licensed under CC BY-NC-SA.

Télégrammes : Google rachète Cronologics, ESCloud label franco-allemand, Cartel des batteries condamné, Orange et Objenious challenge sur LoRa

Google renforce Android Wear avec Cronologics. Start-up créée en 2014, Cronologics se donnait pour mission de développer un OS dédié aux montres connectées. Depuis, Apple est passé par là avec sa Watch et Android Wear est adopté par de nombreux constructeurs de renom (Samsung, LG, Huawei, Tag Heuer, Sony, Moto, Fossil…). De quoi compromettre l’avenir de Cronologics (malgré le récent lancement de sa CoWatch). Mais pas celui de ses salariés. La start-up vient d’annoncer que ses membres allaient rejoindre les équipes de Mountain View. « Nous voyons un fort alignement avec la mission d’Android Wear et nous sommes impatients de travailler avec nos nouveaux collègues chez Google pour continuer à pousser la frontière de la technologie portative et des smartwatches avec Android Wear 2.0 et au-delà », peut-on lire sur le site. Une bonne occasion pour Google de récupérer des compétences appelées à travailler au développement du marché de la montre connectée aujourd’hui en déclin. Pour la petite histoire, la plupart des fondateurs de Cronologics sont d’anciens de Google. Retour à la case départ, donc. ESCloud, un label franco-allemand. A peine son référentiel SecNumCloud publié, l’ANSSI se rapproche de son homologue allemand, le BSI (Bundesamt für Sicherheit in der Informationstechnikle). Ensemble, ils viennent de lever le voile sur un label commun nommé ESCloud, pour European Secure Cloud. Ce dernier s’appuie sur quinze règles techniques et organisationnelles (issues du référentiel SecNumCloud pour la France et le catalogue C5 pour l’Allemagne) qui visent à garantir le sérieux des initiatives nationales partenaires, le niveau de sécurité des solutions labellisées ainsi que le traitement et le stockage des données sur le territoire européen. Concrètement, les prestataires de services Cloud pourront être reconnus dans les deux pays à condition d’être labellisés ESCloud.

Le cartel des batteries condamné par Bruxelles. La commission européenne inflige une amende de 166 millions d’euros à Sony, Panasonic et Sanyo pour entente sur les prix du marché des batteries Lithium-ion, qui équipent nos PC portables, smartphones et autres tablettes. Egalement concerné par ces échanges d’informations sur les tarifs, les stocks et les prévisions de vente, Samsung SDI n’a pas été condamné par Bruxelles, car c’est lui qui a dénoncé ce cartel à la Commission. C’est Sanyo qui est le plus lourdement sanctionné avec 97 millions d’amende à lui seul. Sony devra payer environ 30 millions et Panasonic écope de 39 millions. Les trois entreprises ont reconnu les faits qui couvrent la période allant de 2004 à 2007. En particulier une entente sur les prix en 2004 et 2007 à un moment où les prix d’une des matières premières intervenant dans la fabrication des batteries – le cobalt – flambaient. Pour la commissaire à la concurrence, Margrethe Vestager, il s’agit là d’un signal clair envoyé aux entreprises : «Si les consommateurs européens sont affectés par les manœuvres d’un cartel, la Commission enquêtera même si les contacts visant à fausser la concurrence ont été pris hors d’Europe. » Dans le cas présent, une large part des échanges entre les quatre entreprises concernées ont eu lieu en Asie.

Orange et Objenious se bougent pour Lora. L’union fait la force. Concurrents dans le civil, Orange et Objenious (filiale de Bouygues Telecom) ont décidé de s’associer pour accélérer le développement d’applications pour l’Internet des objets (IoT) sur le protocole Lora. En association avec des partenaires technologiques (Microchip Technology et Sagemcom) et sectoriels (Groupama, Schneider Electric et Colas), les deux opérateurs lance le Lora IoT Challenge. Ce hackathon invite les développeurs à construire des services, applications, prototypes d’objets connectés ou même de connecter un objet existant pour répondre aux cas d’usages des partenaires. Agriculture, smart- cities et voiture connectée sont les principaux domaines d’application du concours. Les participants auront accès aux kits de développement Lora, à des machines de fabrication (imprimantes 3D, découpes laser…) du Fab-lab Usine IO, et à des capteurs. Les gagnants bénéficieront d’un soutien financier et d’accompagnement pour développer leur projet. Officiellement lancé demain, mercredi 14 décembre, les épreuves se dérouleront les 17 et 18 janvier prochains après un suivi qui commencera le 15 décembre. Au-delà de l’opportunité donnée à des développeurs de faire connaître leur projet, l’initiative permet aussi aux acteurs de Lora en France de promouvoir le réseau IoT bas débit basse consommation concurrent de Sigfox. L’utilisation malveillante de Windows PowerShell augmente

L’interpréteur de ligne de commande Windows PowerShell de Microsoft est largement utilisé par les administrateurs système. Il l’est aussi par les attaquants, Symantec en témoigne dans unlivre blanc. Les échantillons étudiés représentent un total de 111 familles de programmes malveillants utilisant PowerShell. Et, 95,4 % des scripts Windows PowerShell analysés sont malveillants, selon Symantec.

« Au cours des trois derniers mois, nous avons bloqué une moyenne de 466 028 emails avec des fichiers JavaScript malveillants par jour. Et 211 235 macros Word corrompues (W97M.Downloader) par jour sur les terminaux », indique l’éditeur de sécurité. Dans ce domaine, les malwares W97M.Downloader (9,4 % des échantillons analysés), Trojan.Kotver (4,5 %) et JS.Downloader (4 %) sont les plus répandus. Par ailleurs, outre le téléchargement de charges utiles, des scripts PowerShell malveillants sont utilisés pour effectuer d’autres tâches, dont la désinstallation de produits de sécurité, la détection d’environnements de test « sandboxed » ou encore la recherche de mots de passe sur un réseau.

Symantec rappelle que plusieurs cyberattaques d’ampleur récentes ont utilisé des scripts PowerShell. C’est le cas, par exemple, d’attaques contre des organisations financières et des utilisateurs du réseau interbancaire SWIFT. Ces attaques auraient été menées par un groupe de pirates à l’origine du cheval de Troie Odinaff, présentant des similitudes avec le programme Carbanak. D’autres attaquants encore s’appuient sur Trojan.Kotver. Ce programme utilise le langage de script pour créer une infection sans fichier intégrée dans le registre…

Outil d’attaque privilégié

« Si de nombreux administrateurs système utilisent les scripts PowerShell pour la gestion de tâches quotidiennes, nous constatons également que des attaquants les utilisent de plus en plus dans le cadre de leurs campagnes », explique dans un billet de blog Candid Wueest, chercheur chez Symantec.

« PowerShell est installé par défaut sur la plupart des ordinateurs Windows, et la plupart des organisations n’ont pas la journalisation étendue activée pour le framework, ajoute-t-il. Ces deux facteurs font de PowerShell un outil d’attaque privilégié. De plus, les scripts peuvent facilement être occultés et permettre aux charges utiles d’être exécutées directement depuis la mémoire ». PowerShell permet aussi un accès distant par défaut et laisse peu de traces exploitables. Ce sont autant d’avantages pour les pirates.

Dans ce contexte, Symantec recommande aux sysdamins d’opter pour la version la plus récente de PowerShell, de ne pas omettre les mises à jour et d’activer la journalisation étendue. Dans un bulletin publié en début d’année, le CERT-FR recommandait lui-même de « journaliser l’exécution de commandes ou scripts PowerShell ». Une action qui « permettra l’analyse détaillée des scripts exécutés en cas de compromission, mais pourra aussi se révéler précieuse dans l’analyse de dysfonctionnements ».

Lire aussi :

Windows 10 : Microsoft remplace cmd.exe par PowerShell L’histoire de Microsoft PowerShell en 10 questions (quiz) Microsoft libère le code de PowerShell et le porte sous Linux !

Voyages-SNCF livre son carnet de route de l’aventure DevOps

Voyages-sncf.com Technologies (VSCT) gère le développement et l’exploitation des sites et des applications mobiles de Voyages-sncf.com, le premier site d’e-tourisme français. VSCT est aussi la digital factory pour le groupe SNCF. « Avec une répartition de l’activité à 50/50 »,selon Jean-Philippe Hervé, directeur du delivery qui venait témoigner, lors d’une conférence du cabinet TNP consacrée à DevOps.

Après avoir généralisé le recours aux méthodes agiles, VSCT, et ses 700 employés, a pris le tournant DevOps il y a trois ans. Une transformation qui s’est faite sur la durée. Au-delà de l’outillage, DevOps est avant tout une transformation organisationnelle qui doit dépasser l’inévitable résistance au changement.

Misant sur la valeur par l’exemple, Jean-Philippe Hervé s’est appuyé sur des collaborateurs motivés pour expérimenter et témoigner. « Dans un premier temps, J’avais compté sur l’esprit communautaire mais cela ne marche pas seul. »

Il faut aussi, selon lui, « des managers pour pousser la machine ». « Ce sont eux qui vont poser le cadre et les règles du jeu en rappelant notamment le droit à l’échec. » Ces mêmes managers qui ont à vivre le plus grand changement, DevOps redistribuant les rôles et les responsabilités.

Multisites, VSTC doit aussi gérer l’éparpillement de ses troupes avec des développeurs basés à Nantes et Paris et un centre de production à Lille alors que DevOps préconise de rapprocher les membres d’une « feature team » dans un même espace physique.

Augmenter les déploiements pour contenir la concurrence

Pour autant, les résultats sont au rendez-vous. Avec des déploiements plus rapides et plus fréquents. « Des bouts de notre SI partent en production tous les jours, d’autres tous les mois. On est loin des 3 ou 4 releases par an d’avant. Cela concourt à notre objectif d’aller vite face à une concurrence de plus en plus prégnante. » VSCT a poussé assez loin l’automatisation des déploiements en utilisant un grand nombre solutions Open Source, dont l’outil d’intégration continue Jenkins.

Si DevOps augmente la productivité des équipes et donc la capacité à livrer, le vrai gain porte, à ses yeux, sur la qualité des applicatifs. « Il y a beaucoup moins de gâchis. A l’époque où je faisais des projets en cycle en V, j’assume le fait d’avoir fait des fonctionnalités qui n’ont servi à rien. » Jean-Philippe Hervé ne d’ailleurs parle plus qualité de service mais de qualité expérience utilisateur.

DevOps, un levier de fidélisation des collaborateurs

Alors que la sécurité est présentée comme le maillon faible des projets DevOpsselon l’enquête menée par TNP auprès de 50 DSI, elle est prise très au sérieux chez VSCT compte tenu notamment de l’exposition de Voyages-sncf.com. Quatre personnes sont en charge de ce volet. « Ils prennent le pas sur toutes les autres priorités. »

Jean-Philippe Hervé qui, avant de rejoindre Voyages-sncf.com Technologies, a travaillé chez Bouygues Telecom et vente-privee.com a acquis la conviction que pour ce type d’approche, « il faut tracer son propre chemin et ne pas tenter de calquer ce qui se fait ailleurs. »

Il note aussi, qu’une fois embarqués dans l’aventure DevOps, les informaticiens sont plus heureux. « En cas de problème, les gens ne se regardent plus en chien de faïence en se renvoyant la responsabilité. L’équipe assume tout. » Un bon moyen de fidélisation des talents selon lui.

A lire aussi :

Voyages-SNCF passe au débordement dans le Cloud public et lorgne vers OpenStack

Chez Voyages-SNCF, la chasse aux bots est ouverte

Photo credit: chnrdu via Visualhunt / CC BY-NC-SA

Télégrammes : Twitter flingue le @, La DGA se clusterise, Google Home s’ouvre, Soitec enfin positif

Twitter élimine par accident le @. Le site de micro-blogging a testé une nouvelle fonctionnalité sur l’application iOS supprimant le nom des utilisateurs dans les réponses à des tweets. Il a donc fait disparaître le @ suivi du nom de ou des personnes destinataires d’un message. Pour le remplacer, Twitter se contentait du nom de la personne affiché en grisé au-dessus de la réponse. Quand la réponse était collective, la mention « et les autres (and others) » était affichée. Le passé est de rigueur, car ce petit changement a entraîné un vent de panique parmi les utilisateurs du média social et des réactions de colère. Twitter a fait machine arrière en parlant d’une mise en œuvre accidentelle. Pourtant, cette technique s’inscrit dans la stratégie de Twitter pour écrire des messages plus longs. La Défense s’équipe d’un cluster de 4 000 nœuds. Le ministère de la Défense vient de passer un marché pour s’équiper d’un cluster de 4 000 nœuds, qui sera installé par la Direction générale de l’armement (DGA) à Val-de-Reuil (Eure). Sur ce site, la DGA dispose d’un centre d’essais et de recherche en hydrodynamique et hydroacoustique navale, où sont testés les grands programmes de la Marine nationale. Cet équipement HPC, intégré dans des baies réfrigérées, sera fourni par la société APX, désormais aux mains du groupe Vinci. Le contrat, d’une valeur de 2,8 millions d’euros, prévoit que le cluster soit extensible à environ 6000 cœurs.

Google Home s’ouvre aux chatbots tiers. L’enceinte connectée de Mountain View s’ouvre aux développeurs hors du groupe. La firme met en avant Actions on Google, du nom du bouquet d’API (connecteurs logiciels) pour Google Assistant. Depuis octobre, ce bouquet est exploité en pré- version et améliore l’expérience utilisateur de l’assistant personnel intelligent. Google prévoit de lancer l’année prochaine « l’Embedded Google Assistant SDK », soit un kit de développement qui permettra aux fabricants d’intégrer Google Assistant dans d’autres appareils comme les smartphones Pixel, selon ITespresso.

Soitec affiche son premier bénéfice en près de 10 ans. Tout arrive. Même les bénéfices chez Soitec. Le spécialiste français des semi-conducteur a affiché un résultat net de 3,1 millions d`euros pour son premier semestre 2016, contre une perte de 42,8 millions d’euros un an auparavant (et -29,1 millions au deuxième semestre). Un résultat dans le vert, ce qui ne s’était plus vu depuis… 2007. Après une baisse des commandes de ses clients principaux, IBM et AMD, puis une diversification hasardeuse, le recentrage des activités sur le métier d’origine, soit la fabrication des galettes de silicium (wafer), orchestré par Paul Boudre a permis à l’entreprise de reprendre pied. Cette activité a généré 78% des 112 millions de chiffre d’affaires engrangés sur le semestre.

Microsoft-Linkedin : Satya Nadella fixe sa to do list

Après le feu vert sous conditions de la Commission européenne, Microsoft a officiellement finalisé l’acquisition de Linkedin. Pour mémoire, la firme de Redmond avait étonné tout le monde en proposant en juin dernier de racheter le réseau social pour la modique somme de 26,4 milliards de dollars. On a su par la suite que Salesforce était sur les rangs pour s’emparer de Linkedin. A cette époque, Satya Nadella, CEO de Microsoft avait dressé plusieurs scénarios d’intégration de Linkedin, comme par exemple les synergies possibles avec les outils de productivité et de collaboration comme Office 365 et Dynamics, ou aller vers le « social selling » à travers le graphe social de Linkedin. Les premières intégrations connues

On en sait maintenant un peu plus sur les orientations de cette intégration. Satya Nadella a présenté une « to do list » aux équipes des deux sociétés pour les mois à venir. Parmi les choses à faire « dans l’immédiat », on retrouve :

– fournir le réseau et l’identité Linkedin dans Outlook et la suite Office;

– pousser les notifications Linkedin dans Windows Action Center;

– donner la capacité aux membres du réseau social de rédiger son CV dans Word pour mettre à jour son profil, chercher et postuler à des annonces d’emplois sur Linkedin;

– étendre les contenus sponsorisés au sein des services Microsoft;

– assurer l’intégration de Linkedin Lookup (l’annuaire d’entreprise du réseau social) avec Active Directory et Office 365;

– rendre disponible l’offre Linkedin Learning (ex Lynda, spécialisé dans la formation) à l’écosystème Office 365 et Windows;

– développer une activité commerciale autour de l’écosystème du contenu et MSN.com;

– redéfinir le « social selling » en combinant Sales Navigator et Dynamics 365.

Sous surveillance de l’Europe et de la concurrence

L’ensemble de ces premières intégrations suivent les premières orientations fixées par Satya Nadella lors de l’annonce du rachat. Cette liste tient compte des conditions de la Commission européenne. Cette dernière a fixé des limites dans 3 domaines et pendant une durée de 5 ans : la possibilité pour les fabricants et distributeurs de PC de ne pas installer LinkedIn sous Windows ; la possibilité pour les autres réseaux sociaux professionnels de maintenir les niveaux actuels d’interopérabilité avec la gamme Office ; et, enfin, l’accès des prestataires de réseaux sociaux professionnels à Microsoft Graph, l’API permettant d’accéder aux données du Cloud de Redmond.

Gageons que l’exécutif bruxellois sera vigilant sur le respect de ces conditions. Il pourra surement compter sur l’attention de la concurrence eten particulier de Salesforce qui voit dans cette opération un risque pour la concurrence. La société de Marc Benioff s’inquiète d’une intégration trop poussée entre Linkedin et Dynamics 365, l’offre combinant ERP et CRM en mode Cloud de Microsoft.

A lire aussi :

10 questions sur le réseau social LinkedIn (quiz)

Et si Facebook concurrençait LinkedIn Bluemix Continuous Delivery facilite le DevOps

IBM a annoncé l’ajout d’un service d’intégration continue (continuous delivery) à Bluemix. Il doit aider les développeurs à élaborer l’ensemble des outils nécessaires à la création des applications.

Ce service s’intègre facilement à des outils tiers comme GitHub , Slack, d’autre solutions Open Source et d’autres services IBM. Traditionnellement cette intégration peut prendre plusieurs heures, voire plusieurs jours. Bluemix Continuous Delivery se définit comme hub central, «pour créer, gérer et dimensionner les toolchains. De plus, le service de livraison de pipeline automatise les compilations, les tests et les déploiements et peut détecter les problèmes avant que les applications ne soient activées, ce qui peut permettre aux développeurs de gagner temps et efforts et accélérer ainsi le retour sur investissement ».

Les développeurs peuvent élaborer des modèles des chaînes d’outils et les faire évoluer en quelques clics selon les besoins de l’entreprise. Des modèles sont déjà disponibles pour la construction de micro services, de conteneurs et d’applications nativement Cloud.

Watson n’est jamais très loin

David Lindquist, vice-président d’IBM explique : «L’un des plus grands défis des développeurs aujourd’hui est de déployer rapidement les applications pour rester compétitifs dans un monde dominé par les Cloud. » Et d’ajouter que « avec Bluemix Continuous Delivery, les développeurs peuvent non seulement créer rapidement, intégrer et partager des chaînes d’outils DevOps, mais aussi ajouter des services innovants comme l’informatique cognitive de Watson ou les données de Weather Company ».

Sur ce dernier point, on notera le partenariat noué entre Slack et IBM pour développer Slackbot, un assistant intelligent s’appuyant sur Watson pour converser avec les utilisateurs sur leur retour d’expérience d’une application, mais aussi avertir en cas d’incident réseau ou IT.

A lire aussi :

Cloud : IBM efface discrètement SoftLayer au profit de Bluemix

Cloud IBM : un Garage Bluemix sous le soleil de Nice

Crédit Photo : Ra2studio-Shutterstock Comment la Société Générale digère la culture Devops

Adapter les principes du Devops, nés dans les Gafa (Google, Apple, Facebook, Amazon), à l’organisation d’une banque. C’est en somme la mission à laquelle ont été confrontés deux coachs agiles, Adrien Blind et Laurent Dussault, qui intervenaient la semaine dernière dans le cadre de la conférence Devops Rex. « Dès 2011, la DSI de la Société Générale nous a demandé de prendre exemple sur les Gafa et de s’inspirer de leurs pratiques et outils », raconte Laurent Dussault. Certes, la banque ne part alors pas d’une feuille blanche puisqu’elle dispose déjà d’un centre de développement agile. Un acquis qu’elle entend alors pérenniser en l’étendant, en amont, aux équipes métier et, en aval, aux équipes en charges du déploiement et des ops. Objectif affiché de cette transformation : apporter plus de valeur aux métiers, améliorer le time-to-market (autrement dit réduire la durée de livraison des nouvelles fonctionnalités) et faire progresser la qualité des applications.

Autrement dit, les moyens et objectifs classiques du Devops. Mais ici à l’échelle d’une très grande entreprise. « Notre objectif était de faire percoler la démarche dans toute l’organisation », assure Laurent Dussault. C’est à ce vaste chantier que s’est attelée la DSI de la Société Générale au cours des trois dernières années. Chevilles ouvrières de cette mutation, les coachs ont commencé par insister sur la robustesse du code développé par les équipes (crafmanship). Et se sont assurées d’un appui de la direction générale, en l’occurrence de Frédéric Oudéa, le DG. « Nous lui avons expliqué les enjeux de cette transformation », racontent Adrien Blind et Laurent Dussault. A commencer par les freins que crée ce que les spécialistes du Devops appellent le « mur de confusion », autrement dit cette barrière qui sépare classiquement les études de la production.

Docker, orienté Devops d’entrée

« Et, au sein de la Société Générale, nous avions non pas un, mais deux murs de confusion », ajoute Laurent Dussault. Aux côtés des équipes projet, travaillent en effet des équipes en charge du déploiement et du fonctionnement des applications et également des équipes en charge des infrastructures. Chacune poursuivant des objectifs propres. «Nous avons proposé aux équipes de travailler différemment, en rapprochant les équipes projet de celles chargées du déploiement et du maintien en conditions opérationnelles, relate Adrien Blind. L’objectif est de créer de la proximité et de l’émulation, afin de faire naître un sentiment d’engagement commun sur les produits ».

Reste la question de l’infrastructure. Si la démarche de la Société Générale ne prévoit pas une fusion à proprement parler des études et de la production informatique – les deux coachs reconnaissant ne pas avoir abordé le chantier sous l’angle de l’organisation -, elle se concentre sur la création d’environnements à la volée, via des API. « On a créé une sorte d’AWS en interne », résume Laurent Dussault. Avec des notions de pipeline et d’environnements éphémères, permettant de faire correspondre le cycle de vie d’une application à celui de l’infrastructure sous-jacente. «Une technologie comme Docker embrasse très bien les notions évoquées, résume Adrien Blind, confirmant ainsi l’intérêt de la banque pour la technologie de la start-up. C’est l’artefact de demain qui réconcilie ces deux cycles de vie. » « Le coach n’est là que de façon provisoire »

Reste à obtenir l’adhésion des équipes aux démarches Devops. La méthode des coachs, présents pour accompagner ces mutations, s’appuie avant tout sur l’accompagnement au changement. Avec une part d’évangélisation, notamment assurée par des jeux. Comme cet atelier de construction avec des Kapla, au cours duquel des développeurs doivent bâtir des tours complexes que des opérationnels sont censés déplacer sur des socles. Une allégorie de l’informatique qui force chaque équipe à comprendre les contraintes de l’autre et permet de prendre conscience de l’intérêt de travailler avec des KPI communs. « Le coach n’est pas là pour aller brusquer les équipes sur le terrain, dit Adrien Blind. Notre objectif est avant tout de situer le niveau de maturité des équipes et de les amener à s’engager sur le futur qu’elles envisagent pour leur activité. Car le coach n’est là que de façon provisoire. »

Une démarche qui peut tout de même susciter quelques interrogations « On s’entend dire : ‘oui, mais ici, c’est la vrai vie’. Sous-entendu : notre démarche ne s’y applique pas », résume Laurent Dussault. Pour ce dernier, le coach doit savoir s’adapter au contexte dans lequel il est plongé, et toujours commencer par faire, par plonger lui-même dans le code pour montrer aux équipes que travailler autrement est possible. « Nous prenons le pari que la démarche va peu à peu s’étendre », résume le coach. Y compris au sein d’équipes travaillant sur une application de 2 millions de lignes, vieille de 20 ans et mise à jour une fois par trimestre.

A lire aussi :

Comment Microsoft a transformé sa R&D avec le Devops

Fnac : le Devops ne se limite pas à des outils

Tests applicatifs : les approches DevOps et agiles gagnent du terrain

Photo credit: Guillaume Lemoine via Visualhunt.com / CC BY-NC-SA