DuckDuckGo offre 225 000 dollars à 9 projets Open Source

Le moteur de recherche américain DuckDuckGo se veut le chantre de l’anonymat, en ne collectant pas de données sur ses utilisateurs. La société finance également des projets Open Source de façon régulière.

Pour cette édition 2016, DuckDuckGo offre 25 000 dollars à neuf projets, soit un total de225 000 dollars (contre 5 projets et 125 000 dollars l’année passée) :

Premier bénéficiaire, l’offre SecureDrop dédiée aux lanceurs d’alerte et développée par la Freedom of the Press Foundation. Le second soutien va au Freenet Project, qui œuvre en faveur de la liberté d’expression sur Internet. Vient ensuite l’OpenBSD Foundation, qui est en charge de projets comme l’OS ultra sécurisé OpenBSD, mais aussi OpenSSH et LibreSSL. Le CrypTech Project a droit lui aussi à une dotation. Il se penche sur la stratégique question de la mise au point d’une solution de chiffrement hardware Open Source. Cinquième candidat, le Tor Project, un réseau bien connu, qui permet de protéger l’anonymat de ses utilisateurs. L’initiative Save Security, qui milite en faveur d’une utilisation libre des technologies de chiffrement, proposée par Fight for the Future. 25 000 dollars vont au développement de VeraCrypt, l’un des successeurs de TrueCrypt, solution de chiffrement de disques. Riseup Labs a également été choisi, pour sa plate-forme LEAP, permettant de mettre en aisément des services en ligne sécurisés. Dernier candidat retenu, GPGTools, pour son outil GPGMail permettant d’apporter des fonctions de chiffrement à l’application Apple Mail.

À lire aussi : +600 % de trafic pour DuckDuckGo : merci la NSA ! Mozilla mise un million de dollars dans l’Open Source Mozilla dévoile ses investissements dans les projets Open Source

Crédit photo : © Vicente Barcelo Varona – Shutterstock crédit photo © FotoRequest – shutterstock Xojo 2016r1.1 amende ses outils de création d’applications web

L’environnement de développement cross plate-formeXojo passe en version 2016r1.1. Cette mouture ne corrige qu’un nombre limité de points (17 bugs) et n’apporte aucune nouveauté fonctionnelle.

Dans la pratique toutefois, les avancées de cette release 1.1 sont importantes. Le temps de compilation d’une application web est tout d’abord en nette baisse. Un utilisateur fait ainsi état d’une phase de compilation qui passe de 5 minutes à seulement 3 minutes pour un projet lourd. L’éditeur d’interfaces utilisateur lié aux applications web est lui aussi en progrès et devient plus fluide. En particulier en mode Retina/HiDPI.

Ce sont deux avancées bienvenues face à la version 2016r1 de cette offre, qui permettront de faciliter la mise au point (création et la compilation) de projets web.

Une offre qui gagne en stabilité

Quelques bugs particulièrement gênants sont également éliminés du framework. Le plug-in MySQL ne plante plus à la fermeture d’une base de données. Des crashs ont été éliminés dans la gestion des sockets réseau, du chiffrement, de la gestion des images et de certains éléments d’interface.

Enfin, l’environnement de développement se montrera lui aussi plus stable. Bref, la mise à jour vers cette version est vivement recommandée par les utilisateurs.

À lire aussi : Programmation : Xojo passe au Retina / HiDPI 2015r4 : Xojo corrige ses bugs, en attendant 2016 Programmation : Xojo passe au 64 bits, au Raspberry Pi et à LLVM

Saint-Gobain bâtit une usine Big Data en self-service

Afin d’accélérer les initiatives Big Data pour les différents métiers du groupe, la DSI de Saint-Gobain a lancé un “Big Data Central Service“ destiné à toutes les entités du groupe. Cette offre de services mutualisée vise à proposer une “Fabric Big Data” ou “Usine Big Data”, pour que les sociétés du groupe s’essayent à ces technologies, le plus simplement possible afin d’en percevoir concrètement les bénéfices. En s’appuyant sur une expertise Big Data, il s’agit d’accompagner les projets métiers du tout le Groupe et de former les contributeurs. Fondée en 1665 en tant que Manufacture Royale de Glaces, Saint-Gobain est aujourd’hui le leader mondial de l’habitat et de la construction comptant plus de 190 000 dans 65 pays, et gérant des dizaines de filiales spécialisées. D’où l’intérêt d’une démarche à la fois centralisée et mutualisée, sous forme de self-service.

La quadrature du cercle Big Data

L’approche repose sur quatre piliers : l’agilité de la solution pour rapidement concrétiser l’idée à travers la réalisation d’un POC (proof of concept ou prototype évolué). Dispenser de la formation sur les concepts Big Data basiques, l’intégration pour éviter la propagation des données et faciliter le partage et l’apprentissage, et la maîtrise des coûts.

« Nous avons très vite choisi Hadoop, car ces technologies peuvent couvrir la plupart des situations et ne sont pas restreintes à un cas d’usage spécifique,» explique Eric Merlateau, responsable IT Infrastructure Services Design chez Saint-Gobain.«Nous avons estimé que la distribution open source Cloudera convenait le mieux à nos attentes: c’est l’une des offres leaders mature et éprouvée, son logiciel Manager facilite l’administration des clusters, la solution est complète au-delà de Hadoop (Impala, Spark…), et l’éditeur propose un support professionnel.»

Des services accessibles à chacun selon ses besoins

La plateforme installée dans le datacenter de Saint-Gobain a été conçue pour être partagée en mode multitenant, sur un modèle hébergé à la demande. La sécurité est assurée par un mécanisme Kerberos (protocole d’authentification réseau basé sur un chiffrement symétrique utilisant des clés secrètes), le tout en interne chez Saint-Gobain. Enfin, une feuille de route a été définie pour intégrer au fil de l’eau les nouvelles versions et les outils externes.

Trois services sont proposés. Avec Discover, l’utilisateur découvre les concepts du Big Data et peut imaginer les diverses opportunités pour son entreprise. Le service Explore offre la possibilité de lancer des expérimentations et de concevoir des POC. Enfin, Travel est destiné aux lancements des projets Big Data en production et à leur supervision.

« Plusieurs types d’expérimentations ont été lancées. Parmi nos activités industrielles, Sekurit (vitrage automobile) Glass (verres fenêtres et baies) ou encore Certainteed (matériaux de construction) ont misé sur l’optimisation de la qualité de la production. Côté BI, les projets ont tenté de se mesurer aux solutions BI en place, et de s’essayer à l’analyse prédictive aussi bien chez Point-P (matériel BTP), que chez KparK (fenêtres sur mesure de groupe Lapeyre/Saint-Gobain) ou la filiale brésilienne. Sur le Web, la segmentation des clients, le machine learning ou l’expérience utilisateur ont séduit KparK et Weber (préparation et finition des sols),» se félicite Eric Merlateau.

Un succès au-delà des attentes

La décision de lancer cette initiative a été prise en mars 2015 (lors du salon Big Data), et le premier POC a été initié en septembre 2015. «Un processus itératif a permis d’affiner sans cesse notre plateforme et nos pratiques,» raconte Stéphane Saretta, responsable Architecture & Engineering chez Saint- Gobain. «Au final, les retours des toutes équipes métier sont unanimement positifs, et particulièrement sur le service de découverte du Big data, Discover. Un outil qui a donc logiquement été intégré au catalogue des formations internes de Saint-Gobain. Sur les 10 projets initiés, plusieurs n’ont pas abouti. Cependant, ils nous ont permis de comprendre différents points essentiels et d’apprendre en marchant. Au final, même ces derniers ont été bénéfiques, pour nous, et pour les entreprises concernées, et pour le Groupe.»

Parmi les leçons tirées de ces expériences, les deux responsables ne se contentent pas de constatations positives. « Même assistée, la définition des chargements de données reste une tâche complexe et lourde à mettre en place,» explique Stéphane Saretta. «Cependant, l’intégration s’est révélée une des clés du succès, car 75% des données utilisées utilisaient des données internes.»

« Le choix de Kerberos est un frein au déploiement en production de ce type d’environnement,» relate Eric Merlateau. «En revanche, la ségrégation des données a été très utile pour déployer très rapidement des Proofs of concept (Prototypes).»

Un avenir tout tracé, ou presque.

L’entreprise planifie déjà l’intégration la mise en production d’environnements en clusters dans un cloud partagé, intégré au réseau SG (Saint-Gobain), l’organisation de fourniture de services de production, l’élargissement de la palette d’outils (bases NoSQL et outils de recherche, notamment), et la définition d’une politique de mise à jour pour assurer la cohérence avec Cloudera.

En un an, la fabrique Big Data initiée pour tester le concept a donc bien donné lieu à des projets concrets et à une nouvelle dynamique dans le système d’information. Qui a dit que les grands groupes traditionnels avaient plus de mal à suivre et intégrer l’innovation?

A lire aussi :

Linky, c’est aussi un projet de Big Data

Big Data : les entreprises ne sont pas au niveau

Crédit photo : agsandrew / Shutterstock

Modernité, parallélisme et nouveaux processeurs au menu de GCC 6.1

Jakub Jelinek de Red Hat vient d’annoncer le lancement de GCC 6.1. Cette suite d’outils de compilation de code monte en puissance, avec des nouveautés majeures en nombre. Ce n’est pas une version mineure que présentent ici les développeurs, mais la première mouture de la génération GCC 6.

Premier changement de taille, le frontend C++ s’appuie maintenant sur le standardC++14 et non plus le C++98. Le support du C++17, quoiqu’encore au stade expérimental, a progressé. Autres nouveautés, le support des spécifications OpenMP 4.5 (programmation parallèle) et OpenACC 2.0a (accélérateurs de calcul). L’OpenACC permet à GCC 6.1 de lancer du code sur des GPU Nvidia. Le support HSA (Heterogeneous System Architecture) promu par AMD et ARM est également pris en charge.

Un support avancé des derniers processeurs

Globalement, le compilateur se veut plus strict dans ses vérifications et permettra ainsi de générer du code plus sur. Les optimisations appliquées lors de la phase d’édition de liens sont plus efficaces et permettent de générer des fichiers plus compacts.

Du côté des plates-formes processeur, le support des puces ARM 64 bits et Power est en très net progrès. La prise en charge des composants AMD Zen, Intel Skylake et IBM z13 est effective et le support du Power9 a démarré. Certaines offres anciennes, comme les puces allant de l’ARM2 au StrongARM et les SH d’Hitachi sont toutefois déclarées obsolètes et seront retirées dans le futur.

À lire aussi : Intel : coup de frein dans le développement des nouveaux processeurs Intel lance sa vague de processeurs Core vPro 6G Linux 4.5 va mettre l’accent sur les processeurs

Crédit photo : © Morrowind – Shutterstock

Microsoft Edge s’ouvre aux outils de développement externes

Microsoft annonce aujourd’hui le lancement d’Edge Diagnostic Adapter, une solution qui permet de piloter le navigateur web Edge depuis des outils de développement externes. Une offre livrée sous licence Open Source MIT et publiée sur GitHub.

Afin de favoriser l’adoption rapide de ce composant, Microsoft a opté pour l’utilisation du protocole de débogage de Chrome. La firme de Redmond indique ainsi qu’il sera possible de piloter Edge depuis des éditeurs de code comme Sublime Text ou Visual Studio Code.

Avec ce connecteur, Microsoft attaque sur le front des outils pour webmasters. Un des points faibles d’Edge. La firme a toutefois plusieurs fois indiqué que la situation était appelée à changer. Un élément stratégique, car attirer des développeurs c’est également s’assurer que leurs sites seront bien optimisés pour le navigateur web Edge.

Edge, multiplateforme ?

Sublime Text et Visual Studio Code sont tous deux multiplateformes, et accessibles aussi bien sous Windows que Linux ou OS X. Nous pouvons donc légitimement nous interroger sur la possibilité (certes très improbable) de voir Edge débarquer sur des systèmes d’exploitation tiers.

Rappelons que le moteur JavaScript d’Edge est maintenant accessible sous licence Open Source, et devrait être prochainement livré sous Ubuntu (voir « JavaScript : Microsoft ChakraCore part à l’assaut de Node.js et de Linux »).

À lire aussi : Vidéo : Microsoft Edge cartonne sur le VP9… surtout en 4K Microsoft met en pause Flash dans son navigateur web Edge Microsoft Edge compatible avec les extensions de Google Chrome

Le chômage IT recule avec l’arrivée du printemps

L’embellie constatée début 2016 sur le front de l’emploi IT, en France, perdure avec l’arrivée du printemps. Pôle emploi dénombrait37 200 chômeurs de catégorie A dans les systèmes d’information et de télécommunication en mars 2016, contre 38 600 en février.

Et le nombre des sans emploi complété des personnes ayant exercé une activité réduite (catégories ABC) est en repli pour le troisième mois consécutif dans les SI. 47 400 demandeurs d’emploi IT y étaient inscrits fin mars, alors qu’ils étaient 48 400 en février. Bien que ces chiffres restent supérieurs à ceux de mars 2015, ils témoignent d’une réelle embellie saisonnière de l’emploi IT.

Recherche DSI et développeurs désespérement

Autre point positif : les volumes d’offres d’emploi de cadres augmentent dans l’informatique, selon l’Apec. En cumul sur 12 mois glissants, les plus fortes hausses ont à nouveau été enregistrées dans la direction informatique (+63 % à fin mars 2016), l’informatique Web (+28 %) et l’informatique industrielle (+27 %). Plus largement, dans le secteur des activités informatiques et télécommunication, entre 38 800 et 41 800 recrutements de cadres sont attendus en 2016. Un chiffre en hausse par rapport à 2015 (plus de 37 000 embauches réalisées dans le secteur l’an dernier).

Les recrutements sont essentiellement axés sur les cadres ayant de 1 à 10 ans d’expérience et sur les jeunes diplômés. Les développeurs et les DSI figurent parmi les profils les plus recherchés.

Lire aussi :

Les recruteurs s’arrachent ingénieurs et cadres informaticiens… mais pas tous Vers une hausse des créations nettes d’emplois IT en 2016 crédit photo © ronstik / Shutterstock.com

Le Raspberry 3 écrase un MacBook sous Scratch

La Fondation Raspberry Pi a récemment publié un billet concernant Scratch, outil dédié à l’apprentissage de la programmation, livré en standard avec l’OS de base du Raspberry Pi.

Faute de pouvoir proposer la puissance d’une puce Intel Core de dernière génération, le Raspberry Pi se rattrape sur un cycle de renouvellement assez long, qui permet de laisser suffisamment de temps aux développeurs pour opérer des miracles en matière d’optimisation.

Et le résultat est ici impressionnant. Scratch sur un Raspberry Pi 3 tourne environdeux fois plus vite que sur un ordinateur portable Apple pourvu d’une puce Core i5 d’Intel.

Savoir-faire et assembleur ARM

Cette prouesse est le fruit de deux développeurs :Tim Rowledge, célèbre hackeur du monde Smalltalk, et Ben Avison, bien connu du monde RISC OS et grand spécialiste du code ARM.

« Nous avons fait un travail similaire [par le passé] avec Kodi et Epiphany, et vous pouvez vous attendre à beaucoup plus au cours des deux prochaines années », assure Eben Upton, fondateur de la Raspberry Pi Foundation. Nous nous rappelons en effet les travaux de la Fondation autour du navigateur web Epiphany, menés par des experts de Collabora et (là encore) de RISC OS Open (voir à ce propos notre précédent article « Le navigateur web du Raspberry Pi met le turbo »).

À lire aussi :

Raspberry Pi : le PiDrive de Western Digital accessible en France Le Raspberry Pi 3 utilisé comme serveur web de production 10 questions pour connaître le Raspberry Pi 3 (quiz)

Watch : Apple veut imposer les applications natives

« À partir du premier juin 2016, toutes les nouvelles applications watchOS soumises à l’App Store devront être des applications natives créées avec la version 2 ou ultérieure du watchOS SDK », peut-on lire sur le site développeur d’Apple.

La firme de Cupertino siffle ainsi la fin de la récré pour les éditeurs de logiciels ayant opté pour la solution de facilité consistant à créerdes applications iPhone interagissant avec la Watch, plutôt que des applications natives dédiées à la montre connectée d’Apple.

Ce mode de développement a permis d’enrichir la logithèque de la Watch à bon compte, mais a eu pour effet de multiplier les échanges de données entre la montre et l’iPhone, provoquant ainsi de multiples ralentissements, préjudiciables à l’expérience utilisateur.

Réduire le lien entre Watch et iPhone

Avec watchOS 2, Apple a introduit la possibilité de créer des applications natives. Ces dernières permettent non seulement de réduire les échanges avec le smartphone,mais même de s’en affranchir, puisqu’elles sont totalement autonomes. Plus besoin donc de porter son iPhone sur soi en toute circonstance.

Si la charge CPU est en hausse, les transferts réseau sont moins nombreux, ce qui devrait se traduire dans la pratique par une autonomie améliorée. Un iPhone reste toutefois toujours nécessaire pour assurer la passerelle avec l’Internet mobile.

À lire aussi : 10 questions sur le navigateur web Safari d’Apple Apple met du Skylake dans son MacBook 12 pouces Apple ouvre la billetterie de sa conférence WWDC 2016 PyPy 5.1 gagne en vitesse et économise les ressources

PyPy est un interpréteur Python de nouvelle génération, proposant un compilateur just-in-time, qui permet d’afficher des performances très supérieures à celles de l’interpréteur CPython. PyPy 4.0 se montrait ainsi 7,6 fois plus véloce que l’original.

Une nouvelle version de PyPy, la 5.1, vient d’être présentée par les développeurs. Au menu, une baisse de 20 % des besoins en mémoire et une accélération de 30 % du démarrage de l’application. Petit à petit, les deux défauts majeurs d’une offre avec compilateur JIT tendent donc à se réduire. Rappelons en effet que PyPy 5.0 proposait déjà une baisse des besoins en mémoire de 30 % et accélérait le démarrage de 30 %.

PyPy sur les mainframes de Big Blue

Cette nouvelle version de PyPy supporte également les mainframes IBM, sous Linux. Une version qui – selon les premiers tests – apporte les mêmes bénéfices en matière de vitesse que la mouture x86. PyPy pour les mainframes IBM s’ajoute aux versions x86 (Windows, Linux, OS X, FreeBSD et OpenBSD), ARM (Linux) et Power (Linux) de cette solution.

Notez que derrière PyPy se trouveRPython , un framework permettant de créer des implémentations de langages dynamiques avec compilateur just-in-time. Une technologie qui n’est pas réservée au seul monde Python, et pourra donc être utilisée pour d’autres solutions.

À lire aussi : Programmation : Rust 1.8 plus stable et toujours aussi solide Java, roi des langages de programmation en 2015 Programmation : Xojo passe au Retina / HiDPI

Crédit photo : © Julien Tromeur – Fotolia.com

Télégrammes : Safran vend Morpho; Orange déploie ses beacons à Paris; Opera sous VPN; HTC et Dassault Systèmes partenaires dans la VR

Safran vend Morpho à Smiths Group. Safran vient d’annoncé avoir conclu un accord de cession de sa filiale américaine Morpho Detection au britannique Smiths Group pour 710 millions de dollars. Morpho est spécialisée dans les solutions pour la détection et l’identification de substances illicites (explosifs, produits biologiques, chimiques, radiologiques, nucléaires…) à destination des services de sécurité des aéroports et autres sites ou événements sensibles. Elle a réalisé un chiffre d’affaires de 320 millions de dollars en 2015. En se délestant de sa filiale américaine, Safran confirme son recentrage sur l’aéronautique et la défense. 5000 balises beacons Orange sur Paris. Orange annonce avoir déployé 5000 beacons sur Paris. Installées dans les commerces partenaires de l’opérateur Phenix Groupe, ces balises Bluetooth permettront de commercialiser des services de proximité pour les annonceurs. Par exemple, envoyer des notifications d’opération promotionnelle à un utilisateur mobile quand il passe à proximité de son magasin préféré. Le réseau de Phenix couvrirait 80% de la capitale et touche potentiellement 12 millions de piétons par semaine. Le réseau sera étendu à 14 grandes villes française dans le courant de l’année, rapporte ITespresso.fr. Un client VPN gratuit dans Opera. La version ‘developer’ du navigateur Opera intègre désormais un client VPN nativement. Ce qui le distingue des autres navigateurs qui proposent également des clients de chiffrement des communications mais sous forme d’extensions dont l’origine n’est pas nécessairement clairement identifiée. Qui plus est, Opera déclare que son service de réseau privé virtuel est gratuit et sans limite. Le service s’appuie sur un chiffrement sur 256 bits. Il est activable depuis les préférences du navigateur (dans la catégorie Vie privée et Sécurité). Une fois activé, le VPN remplace l’adresse IP par une adresse virtuelle et permet de choisir une région d’origine pour la navigation (pour l’heure limité aux Etats-Unis, Canada et Allemagne), ce qui permet d’accéder à des contenus inaccessibles à certaines zones (souvent pour des questions de droits de diffusion). Enfin, le chiffrement renforce la protection des données potentiellement capturables à partir de hotspot Wifi publics. L’étiquette bleue qui apparait dans la barre d’adresse lorsque le VPN est activé permet par ailleurs de suivre la consommation des données. Un nouveau service qui pourrait inciter les autres navigateurs à intégrer également le VPN de manière native. HTC partenaire VR de Dassault Systèmes. HTC annonce un partenariat avec Dassault Systèmes dans le but de proposer de nouvelles solutions en matière de réalité virtuelles pour les entreprises. HTC accueillera dans son casque Vive les applications développée par l’éditeur français spécialiste mondial de la 3D industrielle. « Dassault Systèmes ouvre la voie en démontrant comment la réalité virtuelle peut aider les entreprises à transformer leur activité en améliorant leurs produits et services ou en créant entièrement de nouvelles offres ,» déclare Cher Wang, PDG de HTC. La plate-forme 3DExperience d’environnement collaboratif virtuel pour les entreprises sera notamment utilisée pour exploiter des applications de VR sur le HTC Vive. Les deux partenaires présenteront des applications de classe mondiale au cours de prochains événements de Dassault Systèmes dans quatre secteurs principalement : le design, la science, la fabrication et le marketing. En juillet prochain, lors du World Cities Summit 2016, les deux entreprises présenteront 3DExperienceCity, une offre de modélisation de projets et services urbains dans un environnement 3D.

50 milliards d’euros pour l’industrie 4.0 européenne

Amorcée au printemps 2015, la stratégie pour le marché unique numérique de la Commission Juncker gagne l’industrie. Mardi 19 avril, Andrus Ansip, vice-président de la Commission européenne pour le marché unique numérique, a présenté les mesures destinées à inciter davantage d’entreprises à moderniser leurs outils et transformer leurs modèles d’affaires par le numérique.

Les grands groupes et les PME de secteurs industriels sont ciblés, ainsi que les chercheurs et les services publics actifs sur ces marchés. Avec un objectif : tirer profit de la 4e révolution industrielle, celle de l’Internet des objets, des systèmes embarqués complexes et de l’intelligence artificielle.

Une nouvelle Europe industrielle

La France compte parmi les États membres qui font de l’industrie du futur un chantier prioritaire. En mai 2015, le pays a lancé la seconde phase de son programme dédié à lanouvelle France industrielle. « Toutefois, en pleine mondialisation, un seul pays ne peut pas faire face aux enjeux actuels. Nous devons agir à l’échelle européenne ,» ont déclaré dans une tribune les commissaires Ansip (marché unique numérique), Oettinger (économie et société numériques), Bieńkowska (marché intérieur, industrie, entrepreneuriat) et Moedas (recherche, science et innovation).

Selon eux, il faut « créer des liens entre les initiatives nationales et régionales existantes afin de les renforcer mutuellement ». C’est l’un des leviers clés du plan pour le marché unique numérique dévoilé l’an dernier. Il est également nécessaire de « stimuler l’investissement au moyen de partenariats stratégiques et encourager fortement [les acteurs] à saisir les opportunités offertes par le plan d’investissement de l’UE (de 315 milliards d’euros sur trois ans) et les Fonds structurels et d’investissement européens », ont ajouté par voie de communiqué les commissaires européens.

Cloud, 5G, IoT, data, cybersécurité

La Commission européenne propose donc de « mobiliser des fonds publics et privés de façon stratégique » pour « accélérer le processus d’élaboration des normes communes, en ciblant des priorités : la 5G, le Cloud, l’Internet des objets, les données et la cybersécurité ». Il s’agit en outre de favoriser le développement de réseaux intelligents, de services de e-santé et de solutions de conduite automatisée. L’Europe pourra ainsi « dynamiser l’innovation numérique et permettre une communication sûre et sans discontinuité entre des milliards de dispositifs connectés », a ajouté Andrus Ansip.

Dans le Cloud, « à partir d’infrastructures existantes, nous créerons un nuage informatique européen, soit une plateforme unique d’échanges et d’exploitation de gros volumes de données. Au départ, ce nuage sera mis à la disposition des chercheurs, lesquels doivent de plus en plus coopérer d’un pays à l’autre de l’Union pour faire progresser l’économie de la connaissance. À moyen terme, son utilisation sera étendue aux entreprises et aux services publics », ont expliqué les commissaires européens dans leur tribune.

La base d’utilisateurs de ce Cloud avec lequel « l’Europe participera à la course mondiale au calcul à haute performance », sera donc, dans un premier temps, constituée de scientifiques. 1,7 million de chercheurs et 70 millions de professionnels des secteurs scientifique et technologique sont ciblés. Ils font partie des talents dont l’Europe a besoin pour se doter des« compétences numériques adaptées aux emplois de demain ». Les entreprises et les administrations sont concernées.

Un gain de 110 milliards d’euros par an ?

La stratégie numérique européenne intègre un plan d’action pour l’administration en ligne. Des démarches comme l’enregistrement d’une entreprise, la participation à un appel d’offres ou la signature de documents officiels devront pouvoir se faire en ligne à l’avenir. Les mesures en ce sens seront précisées d’ici 2017. Cette année, dans le cadre d’un projet pilote, des entreprises souhaitant exercer dans plusieurs États membres de l’UE pourront effectuer leurs formalités dans un seul pays.

Au final, toutes les mesures présentées le 19 avril par la Commission devraient permettre de mobiliser plus de 50 milliards d’euros d’investissements publics et privés, dont 500 millions d’euros consacrées à un réseau européen de « plateformes d’innovation numérique ». Elles seront destinées aux entreprises qui veulent tester des solutions et s’informer sur l’innovation technologique.

Et le jeu en vaut la chandelle, semble-t-il. Selon l’étude « Industry 4.0 » publiée l’an dernier par PwC et Strategy&, les investissements de l’industrie européenne dans la numérisation de sa chaîne de valeur devraient s’élever à 3,3 % de son chiffre d’affaires annuel d’ici 2020, soit 140 milliards d’euros par an, pour un gain total de chiffre d’affaires estimé à 110 milliards d’euros annuels sur la période.

Lire aussi :

Travail : les robots vont-ils supplanter les salariés ?

Numérique : l’Europe hésite entre libre marché et régulation

Numérique : Paris et Berlin poussent l’Europe à faire plus Programmation : Rust 1.8 plus stable et toujours aussi solide

Le langage de programmation Rust est récemment passé en version 1.8. Cette offre Open Source monte en gamme sous Windows, avec une mouture MSVC 32 bits en progrès.

Sous Windows, Rust est accessible aujourd’hui en deux versions : une compatible avec l’API GNU et pouvant donc utiliser les librairies compilées avec le GCC ou celles de MinGW ; une autre conçue pour l’API MSVC utilisée par Visual Studio de Microsoft. Des moutures OS X et Linux de cette offre sont également accessibles. Le tout, en 32 bits ou 64 bits.

Une vingtaine de librairies de fonctions et de méthodes ont été stabilisées dans cette version 1.8. Les changements ont principalement porté sur le support UTF-16, la gestion du temps et la surcharge des opérateurs, nouveauté majeure de Rust 1.8.

Les développeurs pensent également de plus en plus à mettre à la retraite la procédure de compilation de Rust, basée sur make, en faveur de Cargo, outil créé en Rust.

Un rythme de développement soutenu

Au total, environ 1400 changements ont été apportés à Rust 1.8. Un travail qui se poursuit donc à bon rythme. Rust 1.7avait en effet apporté 1300 changements et stabilisé 40 librairies de fonctions et méthodes ; Rust 1.6, 1100 et 30 ; Rust 1.5, 700 et 52 ; Rust 1.4, 1200 et 48, etc.

Rappelons que la version 1.0 de Rust est arrivée il y a moins d’un an (le 15 mai 2015). Ce langage de programmation de nouvelle génération sert de base àServo , le moteur de rendu web de nouvelle génération de la Fondation Mozilla.

À lire aussi : Rust 1.0 : le langage de programmation des projets critiques Navigateur : Mozilla va tester le couple Servo+Browser.html en juin Programmation : le Go 1.5 de Google s’émancipe du langage C

Crédit photo : © Morrowind – Shutterstock

Apple ouvre la billetterie de sa conférence WWDC 2016

Apple annonce l’ouverture de la billetterie pour son prochain événement développeurs, la 27e Worldwide Developers Conference (WWDC), qui se tiendra à San Francisco du13 au 17 juin prochains.

« Avec quatre systèmes d’exploitation innovants et un nouveau langage de programmation intuitif, le tout animant plus d’un milliard d’appareils de par le monde, il n’y a jamais eu de meilleure occasion de rassembler notre communauté de développeurs », a déclaré Philip Schiller, vice-président senior marketing d’Apple.

Et de rappeler ainsi que la plate-forme Apple, en grande partie grâce aux terminaux mobiles, est présente dans le club très restreint du milliard d’utilisateurs, aux côtés d’autres offres comme Android, Windows ou même Ubuntu (voir à ce propos « 1 milliard de personnes utiliseraient Ubuntu »).

De nouveaux OS, desktops et mobiles

La recette de cette rencontre reste classique, avec la présentation des nouveaux systèmes d’exploitation de la firme que seront OS X 10.12 et iOS 10. watchOS et tvOS devraient également bénéficier d’un rafraichissement. À 1599 dollars le ticket, gageons toutefois que beaucoup se contenteront de suivre cet événement à distance.

Notez qu’Apple vient également de refondrela section de son site destinée à l’App Store. Une source d’informations appréciable pour les développeurs d’applications.

À lire aussi : L’iPad Pro 9,7 pouces d’Apple en 10 questions 10 questions sur le navigateur web Safari d’Apple Les iPad Pro 9,7 pouces et iPhone SE 4 pouces d’Apple en images

Crédit photo : © Northfoto – Shutterstock.com

Le cloud hybride Microsoft Azure Stack sur les rails

Avec Azure Stack, la firme de Redmond s’oriente résolument vers le cloud Hybride pour compléter son offre de cloud public Azure Pack. Azure Stack s’adresse aux clients qui veulent tirer profit des offres packagées du cloud public Azure Pack et porter les solutions Paas et Iaas sur un cloud privé, entièrement intégré, dans un environnement plus sécurisé. Il peut d’agir d’un hébergement local ou d’un mode managé chez un hébergeur tiers. Azure Stack est développé pour gérer plus facilement des débordements (pics d’activité, etc.) vers le cloud public de Microsoft en mode cloud hybride. Microsoft annonce 120 000 abonnements par mois sur la plateforme Azure avec 40% des revenus issus des start-up et des ISV (revendeurs indépendants de logiciels).

Fabien Dibot, consultant Cloud, et William Bordes, architecte infrastructures (photo ci-contre), ont présenté leur retour d’expérience sur le déploiement de la plateforme Azure Stack TP1 (Technical Preview 1) sur Windows Server 2016. Ils rappellent lespré-requis pour la configuration d’un environnement hardware confortable, à savoir 128 Go de RAM, 16 cœurs processeurs, et 5 disques, un pour l’OS, les 4 autres pour les applications et les données. La mise en production n’est pas à l’ordre du jour selon les deux développeurs qui témoignent de plantages répétés lors de l’implémentation de nouveaux services. Au crédit d’Azure Stack, ils citent un POC (Proof of concept) crédible, la facilité d’installation pour la base, un déploiement aisé en mode ARM qui fait appel aux templates (modèles) de manière groupée au lieu d’adresser chaque ressource individuellement. Il est désormais possible de contrôler finement les accès aux ressources, de façon transparente. Au passif, il reste encore beaucoup de travail pour combler les bugs et ajouter les nouveaux services et ressources qui devraient être progressivement disponibles. Pour l’heure, l’accès à la Market Place est impossible, il n’y a pas de support SAN et la documentation est très incomplète.

Azure IoT Suite pour les objets connectés

Dans le domaine de l’IoT, la firme de Redmond a annoncé un partenariat en avril avec BMW sur son offre BMW Connected, un assistant numérique personnel pour la mobilité, et travaille également avec les constructeurs automobiles français.Microsoft a ouvert son cloud à Sigfox, opérateur télécom de l’Internet des objets, pour gérer la myriade d’objets connectés sur la plateforme Azure IoT Suite. Le gros défi à relever est de gérer sur l’IoT Hub les millions de capteurs ou périphériques, d’analyser les données générées en quasi temps réel pour réaliser des prédictions, remonter des alertes et produire des rapports avec une haute disponibilité tout en assurant la sécurité. L’offre intégrée Microsoft Azure IoT Suite est disponible depuis le 29 septembre. Des fabricants de semi- conducteurs comme ARM et Texas Instruments sont certifiés par Microsoft concernant l’interopérabilité de leurs cartes de développement. Les développeurs disposent d’un accès aux SDK (Software Development Kits) Microsoft Azure IoT Suite publiés sur GitHub avec un exemple de maintenance prédictive et une solution de contrôle à distance.

Les limites de la BI face à l’analyse exploratoire des données

Lors des sessions sur Azure IoT Suite ou la stratégie de Microsoft pour l’utilisation de la data, les notions d’analyse prédictive ont été évoquées. Frederick Vautrain, directeur Data Science de VISEO, porte un regard neutre et argumenté sur les promesses encore floues du smart ou du Big Data. Il rappelle que la BI (Business Intelligence) mise en œuvre, notamment par Microsoft, se borne à utiliser toutes les données et à les comparer à des modèles. « ne suffit pas de cliquer sur une icône pour prévoir des comportements d’achats ou faire de la maintenance préventive, avance-t-il. En BI on sait ce que l’on cherche, en analyse exploratoire on essaie de trouver des comportements sans a priori. » Sur un exemple concret comme l’analyse des consommations d’eau remontées par les capteurs sur les compteurs d’eau, le chercheur essaie de trouver les régularités ou les atypismes afin de détecter les fuites, prévoir les consommations futures sur plusieurs années, etc. Le filtrage de la masse de données disponibles peut prendre jusqu’à 80 % du temps des data scientists.

En conclusion, si le Global Azure Bootcamp permet de dessiner les contours de l’offre Azure Stack, les clients devront encore attendre à une date non communiquée la version de production pour évaluer la promesse de valeur de la solution de cloud hybride de Microsoft.

[Article mis à jour le 21/04]

Lire également HPE et Microsoft Azure, pour le business et pour l’hybride SQL Server, la base de données étirable dans le Cloud Azure Microsoft livre une solution de Data Science basée sur Linux crédit photo © 2016 Slain-V

Google renforce la protection des données personnelles sur le Chrome Web Store

Google renforce aujourd’hui la politique liée à l’utilisation des données utilisateur par les extensions et applications web proposées sur son Chrome Web Store.

Parmi les nouvelles exigences imposées aux développeurs, la firme cite l’obligation d’être transparent au sujet du traitement des données utilisateur ; d’afficher ses pratiques en la matière, via la publication d’une politique d’utilisation des données privées ; d’utiliserle chiffrement pour tout transfert de données personnelles ou sensibles ; de demander aux internautes d’accepter la collecte des données, lorsque leur utilisation n’est pas liée à un composant central de l’application. La firme cite enfin l’interdiction de collecte des données de navigation du butineur, lorsque cela n’est pas strictement requis par l’application ou l’extension.

Date butoir : le 15 juillet 2016

La nouvelle section dédiée à l’utilisation des données utilisateur est accessible sur cette page web, avec en complément une FAQ dédiée qui répondra aux questions les plus courantes.

Google avertit les développeurs qu’en cas de manquement à ces règles, leur application ou extension sera retirée du Chrome Web Store à compter du 15 juillet 2016. Les éditeurs devront donc mettre leurs créations en conformité avant cette date. À lire aussi : Chrome for Work : Google ajoute un support 24×7 à Chrome Chrome 50 met de l’ordre dans le préchargement des ressources Chrome 50 met fin au support de Windows XP

Crédit photo : © Ra2studio – Shutterstock

Les recruteurs s’arrachent ingénieurs et cadres informaticiens… mais pas tous

Après avoir progressé de 2,3 % en 2015, les intentions de recrutement des entreprises en France (métropole et Outre-mer) devraient augmenter de 5,1 % en 2016, à 1 827 300 embauches prévues (soit 88 000 de plus qu’en 2015). C’est le plus haut niveau observé au cours des sept dernières vagues de l’enquête annuelle de Pôle emploi sur les besoins en main-d’œuvre (BMO), réalisée avec le Crédoc.

Le secteur des services concentre à lui seul près des deux tiers des projets de recrutement, soit sur des postes opérationnels et peu qualifiés (agent d’entretien, aide, manutentionnaire…), soit sur des postes de cadres. Et l’informatique joue un rôle moteur sur ce marché.

À qui profite la guerre des talents ?

Les ingénieurs, cadres d’études et R&D en informatique font leur entrée dans le classement des 15 métiers les plus recherchés cette année, avec 31 584 projets de recrutement (soit 5 874 de plus par rapport à 2015). Cela représente la majeure partie des embauches de cadres attendues dans le secteur des activités informatiques et télécoms cette année, selon des données compilées par l’Apec.

Les ingénieurs, cadres et responsables informatiques figurent aussi au top 10 des métiers non saisonniers les plus recherchés, selon l’enquête BMO 2016 de Pôle emploi. Mais « ce sont également des métiers où la part de projets difficiles à satisfaire est parmi les plus élevées » (avec 61,7 % de projets de recrutement IT jugés difficiles par les entreprises), souligne l’établissement public.

L’offre et la demande de compétences

Une intention d’embauche ne se traduit pas toujours par un recrutement. Et lechômage IT reste élevé. Ce « paradoxe » témoigne de l’inadéquation entre l’offre et de la demande de compétences techniques et relationnelles (soft skills), et de l’impossibilité pour le marché d’absorber à la fois les nouveaux entrants et les demandeurs d’emploi informatique.

Les cadres ayant de 1 à 10 ans d’expérience et les jeunes diplômés sont les plus demandés, notamment les développeurs et les spécialistes de l’analyse de données.

Lire aussi :

Vers une hausse des créations nettes d’emplois IT en 2016

Les recrutements de cadres IT devraient bondir en 2016

Ingénieurs informaticiens, mais où est la pénurie ? crédit photo © STILLFX / Shutterstock.com

Visual Studio Code 1.0 débarque sous Windows, OS X et Linux

Microsoft lance aujourd’hui la version 1.0 de son outil de développement Visual Studio Code. Cet éditeur de code est disponible pour Windows, OS X et Linux. Une solution accessible sous licence Open Source, proposant un support natif de Git et la possibilité d’être étendue par l’entremise de modules complémentaires.

Visual Studio Code a été initialement présenté en avril 2015. Voir à ce propos notre article « Visual Studio Code débarque sous Windows, Linux et OS X ». Un an plus tard, cette offre a suffisamment mûri pour être considérée comme stable par Microsoft.

500 000 utilisateurs actifs chaque mois

La firme en profite pour faire un point sur son utilisation. Plus de 2 millions de développeurs ont installé Visual Studio Code sur leur machine et plus de 500 000 l’utilisent chaque mois. Plus de 1000 extensions sont proposées, permettant ainsi de couvrir quasiment tous les langages de programmation actuellement disponibles (plus d’une centaine).

Le code source de cet éditeur de code est également utilisé au sein d’autres applications, comme Internet Explorer, qui s’appuie dessus pour ses outils F12 dédiés aux webmasters. Visual Studio Code est même devenu un vrai projet communautaire, avec plus de 300 changements proposés par les utilisateurs au cours de sa première année de carrière.

À lire aussi : Visual Studio 2016 se dévoile sur le web Analytique : Microsoft intègre R à Visual Studio Visual Studio Dev Essentials : un kit gratuit pour les développeurs

Devops : la France devance ses partenaires européens

Les décideurs IT français sont ouverts au changement, selon un sondage réalisé par Vanson Bourne pour l’hébergeur britannique Claranet auprès de 900 décideurs IT dans six marchés. Le Royaume- Uni, l’Allemagne et le Portugal sont à la traîne. La France, l’Espagne et le Benelux dominent.

Les décideurs IT déclarent consacrer 13 % de leur temps à l’innovation en France, soit le taux le plus élevé de l’échantillon. Si le taux d’adoption de l’approche Devops est plus élevé au Benelux (44 %), la France n’est pas en reste (38 %). Après l’Allemagne et le Portugal (28 % respectivement), le Royaume-Uni ferme la marche (26 %) dans ce domaine.

Du côté du Cloud, 64 % des répondants français hébergent leurs applications dans le nuage (33 % dans un Cloud privé, 31 % dans le Cloud public). Seul le Benelux fait mieux (72 % d’applications dans le Cloud). En France, 98 % des professionnels interrogés font appel aux prestations de fournisseurs de services IT et leur consacrent, en moyenne, 17 % de leurs budgets informatiques (un taux qui pourrait atteindre 20 % en 2021). Un niveau similaire à celui de l’Espagne sur ce critère.

Mais tous les signaux ne sont pas au vert dans l’IT. « La mobilité, la complexité et la sécurité devraient constituer de plus grands défis à horizon 2021 qu’ils ne le sont aujourd’hui, expliquent les auteurs de l’étude. Par ailleurs, « la compréhension entre les départements informatiques et les métiers (en France), bien qu’elle ne soit pas la plus mauvaise d’Europe, pourrait certainement être améliorée ».

Lire aussi :

Devops : les DSI français se voient trop beaux Coût et usages du Cloud public, les DSI toujours dans le brouillard

Docker 1.11 en route vers la compatibilité OCI

Avec un jour de retard,Docker a publié la version 1.11 de son moteur de conteneurisation d’applications. Il s’agit d’une mise à jour conséquente, fruit de 5 release candidate, selon la start-up avec pas moins de 90 changements. Et les évolutions concernent plusieurs éléments dont le builder, le client, la distribution, le système de log, le réseau, les plugins, les runtime, la sécurité ou les volumes.

Une version pré-compatible OCI

Selon le blog de Docker, la première grande évolution est qu’avec Docker 1.11, l’installation d’un conteneur Linux est maintenant composée de 4 binaires (docker, docker-containerd, docker- containerd-shim and docker-runc). Cette transformation s’inscrit dans la volonté de Docker d’être compatible avec les spécifications OCI (Open Container Initiative). Cette dernière est née en juin dernier avec comme ambition de développer un standard commun, indépendant de tout client et outil d’orchestration ainsi que portable sur de multiples plates-formes (Linux, Windows, Solaris, architectures Power et x86).

Pour Docker, cette approche passe à la fois par le projet ContainerD, un daemon avec une API et un client de ligne de commande pour superviser les conteneurs, mais aussi par runC, un runtime léger (schéma ci-dessous). Il s’agit d’un premier pas vers la conformité avec les spécifications OCI du moteur Docker. « Cette nouvelle architecture ouvre la voie à la possible évolution du Daemon sans avoir à arrêter les conteneurs en activité et cela devrait apporter un regain de performances sur de grands volumes de conteneurs », précise le blog.

Support de IPv6 et ARM64

Parmi les autres apports de la version 1.11 de Docker, il y a des éléments réseaux intéressants. Ainsi, un effort est mené sur IPv6 avec une option pour rechercher (Discovery au) et créer des réseaux ad hoc. A titre expérimental, Docker supporte les pilotes de réseau MacLAN et IP VLAN. Sur l’aspect support matériel et logiciel, les hardwares ARM64 (AArch64) sont pris en compte, tout comme la disponibilité d’un client de ligne de commande pour OpenBSD.

Suivent d’autres fonctionnalités qui sont pêle-mêle, la possibilité d’installer le Domainname et le Hostname séparément via l’API, le soutien du proxy SOCKS, visualiser les volumes montés au sein du conteneur, de voir la localisation des répertoires racines, le support d’OAuth pour les registres et l’envoi de log dans le Cloud de Google.

A lire aussi :

Pour son anniversaire, Docker saute le pas de Windows et Mac Docker Datacenter, la plateforme pour séduire les entreprises

Crédit Photo : Egorov Artem – shutterstock

Applications mobiles : mode d’emploi à l’attention des entreprises hésitantes

Pourquoi, et comment, rendre ses applications d’entreprise mobiles ? Cette question intéressera nécessairement les organisations qui n’auraient pas encore pris le train de la mobilité. Elle constituait la thématique de la table ronde du Club de la presse informatique B2B animée mercredi 13 avril par José Diz (par ailleurs contributeur de Silicon.fr). Pour Thierry Raguin, expert Mobilité & Design UX chez Econocom, « l’intérêt de la mobilité en entreprise est de permettre aux générations Y et Z qui ont grandi avec les mobiles de retrouver les mêmes outils pour travailler en mobilité et s’affranchir des horaires traditionnels de bureau, ce qui implique une transformation des systèmes historiques des entreprises ». Laquelle touche globalement toutes les applications de l’entreprise « en les adaptant aux besoins de l’utilisateur et au contexte de l’utilisation ».

Une transformation que Pierre Bijaoui, directeur technique Enterprise Services chez Hewlett Packard Enterprise, regarde sous un angle plus profitable en matière d’exploitation métier.« On veut aider nos clients à accroître leurs revenus. » Et de citer l’exemple d’une compagnie aérienne qui fait du Queue Boosting pour vendre des services supplémentaires par l’intermédiaire des agents de l’avionneur équipés de tablettes qui s’adressent aux voyageurs en attente de leur enregistrement sur le vol. « Cela améliore l’expérience client et augmente des revenus accessoires à une ligne de services. » Le CTO liste quatre autres priorités justifiant les applications mobiles : l’efficacité métier (avoir la bonne information pour la prise de décision); la réductions des coûts (notamment pour les forces de travail itinérantes qui n’ont plus besoin de bureau); la performance métier dans le monde digital; et la satisfaction des salariés et des partenaires. « A savoir comment mobiliser des applications d’entreprise afin de délivrer des services de qualité aux clients finaux, une problématique qu’on observe particulièrement dans le monde automobile avec les véhicules connectés. »

La mobilité s’applique-t-elle pour autant à l’ensemble des applications de l’entreprise ?« Il ne faut pas voir la mobilité comme une fin en soi, estime Sébastien Vugier, senior VP API & Analytics chez Axway, elle s’inscrit dans la transformation digitale de l’entreprise pour servir ses besoins de mobilité, s’ouvrir aux démarches d’innovation de son écosystème, et améliorer l’expérience client. Ce» qui passe par l’ouverture du système d’information pour préparer à la monétisation de services. Une vision qui s’applique aussi à l’ERP. « Oui, l’ERP est complètement ‘mobilisable’, confirme Jean-Roland Brisard, directeur ICS Solutions chez Infor. Notamment pour agir sur un processus d’entreprise, ce qui nécessite d’être connecté à l’ERP ». Une transformation qui s’applique déjà aux applications RH, CRM, notes de frais qui « ont été précurseurs dans la mobilité car c’est plus normalisé et plus sécurisé donc plus simple à rendre mobile ».

La sécurité incompatible avec la mobilité ?

Si, selon Jean-Roland Brisard, « toutes les applications n’ont pas vocation à être mobiles » (par exemple, le lancement d’un processus de facturation présentant peu d’intérêt en mobilité, selon lui), il reste à évaluer les risques que l’ouverture vers la mobilité impose en matière de sécurité. Une question susceptible d’intéresser l’AMF (Autorité des marchés financiers), pourtant peu concernée par la mobilité puisque les 450 salariés sont concentrés sur un seul site, à Paris.« Du coup, l’enjeu de l’ouverture du SI est un peu différent [des autres entreprises] puisque le périmètre d’application de la mobilité est réduit », concède Yann Holly qui vient tout juste de quitter le poste de DSI adjoint. La politique mobile de l’Autorité se confine ainsi à l’ouverture, réservée à certains responsables, de l’accès distant à la messagerie, « pour avoir ses messages dans sa poche », et à l’environnement de travail à partir du PC portable de l’utilisateur au prix d’un certain temps de latence. « Il y a aussi des enjeux de notoriété vis-à-vis des personnes tierces, épargnants ou sociétés, en droit d’attendre des services à valeur ajouté. » Une notoriété prise en compte dans le contrat. « En cas de détérioration de l’image d’un client suite à des failles de sécurité, de révélation de données, il y a des clauses d’indemnité, évoque Pierre Bijaoui. La sécurité est quelque chose qu’on prend très au sérieux. »

Une sécurité qui se construit sur « l’évaluation des risques », précise Thierry Raguin, en s’appuyant sur l’OWASP (Open Web Application Security Project), un référentiel de quatre niveaux d’exigence de sécurisation d’un environnement afin d’appliquer des bonnes pratiques applicatives.« Quand l’entreprise veut aller vite et déployer ses applications mobiles pour valoriser son image, c’est souvent au détriment de la sécurité », souligne de son côté Sébastien Vugier.« Beaucoup de sites applicatifs permettent, à partir d’un script, de récupérer librement des informations via des flux simplement parce qu’ils ne sont pas du tout authentifiés », confirme le responsable d’Econocom. Autrement dit, le périmètre de sécurisation est parfois mis à mal à cause d’une simple faille de conception.

Au-delà de la qualité de la conception de l’application mobile, « la meilleure protection est d’avoir des alertes d’anormalité », estime Jean-Roland Brisard. Un autre moyen de vérifier l’intégrité des applications mobiles déjà déployées passe aussi par l’analyse de code, estime Pierre Bijaoui qui en profite pour rappeler que HPE offre ce service via ArcSight (société rachetée en 2010). Les tests de pénétration peuvent aussi servir à évaluer la résistance aux attaques. Enfin, pour les sites nécessitant un monitoring de tous les instants, il faut se tourner vers le SIEM (Security Incident Environnement Management) qui surveille et analyse en temps réel l’ensemble des événements. « C’est très lourd à mettre en place, prévient le responsable chez HPE, mais très efficace ». Surtout si l’outil est renforcé par une équipe en mesure de répondre à n’importe quel incident de sécurité sous les 4 heures. Comptez 40 000 euros mensuels.

HTML5 ou application native ?

Les participants ont également abordé l’incontournable question de savoir quelle forme d’application mobile faut-il adopter. Une version mobile de l’application web grâce au HTML 5 et SS3 agrémentée de responsive design pour s’adapter automatiquement aux différents formats d’écran ? Ou bien une application native propre à chaque OS mobile ? Une problématique confrontée à « la diversité des terminaux et donc du coût impliqué pour la gestion du cycle de vie de l’application en regard des fonctions simples et des mises à jour rapides attendues, »souligne Pierre Bijaoui.

Plusieurs approches sont aujourd’hui possibles pour y répondre. La mise en HTML5 des fonctions nécessaires au processus métier pour le périphérique mobile en est une.« Mais les applications HTML5 ne tirent pas forcément bénéfice des spécificités du périphérique mobile », souligne le responsable chez HPE qui fait référence à l’utilisation des composants comme la caméra, le GPS et autres accéléromètres qu’embarque le terminal. L’autre approche, cross platform, permet le développement d’un code unique déployable sur l’ensemble des environnements iOS, Android, Windows Phone/Mobile. « L’application native offre forcément une meilleure expérience utilisateur, » assure Sébastien Vugier. Des éditeurs spécialisés comme Appcelerator racheté( par Axway) ou Xamarin (tombé entre les mains de Microsoft) proposent des outils spécifiques pour gérer un seul code réutilisable à hauteur de 60% à 90% dans plusieurs environnements mobiles.

Enfin, il existe l’offre hybride comme Cordoba qui encapsule du HTML5 dans une coque native et interagit avec le matériel via des passerelles Javascript. « Génial sur le papier, c’est infernal à gérer dans les faits, assure Thierry Raguin, notamment sous Android à cause de la diversité des versions web implémentées par les constructeurs. » Selon lui, au final, « l’application native est moins cher sur le long- moyen terme ». Grâce à l’optimisation des nouveaux outils de développement et aux compétences optimales des développeurs qui doivent bien connaître les environnements mobiles pour éviter les redondances fonctionnelles. Chez Infor, on ne se pose pas la question et on développe du natif d’un côté, pour des usages mobiles propres aux smartphones, et du HTML5 de l’autre, pour les postes sédentaires toujours plus tournés vers le Cloud. Il suffisait d’y penser.

Lire également Nicolas Thenoz (Xebia) : «Développer des applications mobiles de qualité» (vidéo) 75% des applications mobiles ne passent pas les tests de sécurité Applications mobiles : 5 millions d’emplois en Europe en 2018 IoT : un PC Intel pour… 13,5 euros

C’est probablement le PC Intel le moins cher à avoir jamais vu le jour. Conçu pour les développeurs, plus spécifiquement pour le segment de l’IoT, le Quark Microcontroller Developer Kit D2000 est en effet proposé au tarif de 15 dollars, soit 13,5 euros chez( Mouser Electronics par exemple). Cette carte-mère, regroupant tous les composants de la machine et pleinement compatible avec le jeu d’instructions x86, peut être employée pour développer des gadgets, des équipements industriels, des wearables ou autres applications de l’IoT. Le kit peut en effet être raccordé à différents types de capteurs.

Destinée à la communauté des makers et aux équipes de R&D des entreprises, la carte-mère, compatible avec les spécifications de l’Arduino Uno, vise, au même titre que des initiatives précédentes du fondeur, à replacer le géant des microprocesseurs sur ce marché où dominent les designs basés sur ARM. C’est ainsi que le Raspberry Pi s’est taillé un certain succès sur le marché, même si les spécifications du dernier modèle, le Raspberry Pi 3, se rapprochent des besoins d’un utilisateur desktop.

Intel fournit un IDE dérivé d’Eclipse

Avec le Quark Microcontroller Developer Kit D2000, la démarche est toute autre et entend se limiter aux besoins de l’embarqué. La carte accueille un micro-processeur Quark 32 bits cadencé à 32 MHz, de la mémoire Flash, un port USB 2.0 ainsi qu’un accéléromètre et magnétomètre à six axes couplé à un capteur de température. La machine peut être alimentée via une batterie (un port est prévu à cet effet) ou par une alimentation de 5 V. Intel fournit également un kit de développement, un IDE dérivé d’Eclipse.

Rappelons que le design de processeurs Quark, dévoilé par Intel fin 2013, combine miniaturisation – la surface de la première déclinaison était 5 fois plus petite que celle d’un cœur Atom Silvermont – et faible consommation énergétique.

A lire aussi :

Une carte mère Arduino avec microcontrôleur Intel

Galileo : Intel revisite la carte Arduino avec son SoC Quark X1000

Et notre dossier sur le développement avec le Raspberry Pi :

Raspberry Pi et développement : Apprendre à programmer (épisode 1) Raspberry Pi et développement : Java SE, first class citizen (épisode 2) Raspberry Pi et développement : C/C++ à toutes les sauces (épisode 3) Raspberry Pi et développement : du calcul au Big Data (épisode 4) Raspberry Pi et développement : .NET, avec ou sans Windows (épisode 5) Raspberry Pi et développement : un RAD nommé Xojo (épisode 6) Windows 10 amorce la conversion des apps Win32 en titres universels

Le projet Centennial de Microsoft prend forme, avec la mise en ligne d’un outil permettant de convertir les applications Win32 et .NET en titres compatibles avec le Windows Store de la firme.

Desktop App Converter Preview pourra être trouvé sur cette page web du site de l’éditeur. Attention toutefois, car le téléchargement atteint les 3,4 Go, nécessite la présence d’une version récente de Windows 10 Insider Preview (Build 14316 ou ultérieure), en édition Enterprise, ainsi que le support matériel du 64 bits et de la virtualisation.

Pas de conversion x86 → ARM

Compatible avec les logiciels Win32 et .NET 4.6.1, cet outil permettra d’assurer leur conversion en titres universels (UWP pour Universal Windows Platform), pouvant être diffusés sur le Windows Store et capables – dans certains cas – de fonctionner sur des terminaux non x86. Chose qui n’est vraie que pour le code .NET, car celui compilé spécifiquement pour les puces x86 ne sera pas converti par Centennial.

L’outil lance le processus d’installation de l’application à convertir, capte les échanges entre cette dernière et l’OS et les transforme en appels compatibles avec la plate-forme UWP.Un package AppX peut alors être généré, lequel sera diffusable sur le Windows Store, au côté des applications UWP ‘natives’.

Le poids du téléchargement s’explique par la fournitured’une machine virtuelle Windows spécifique complète, au sein de laquelle sera lancée l’application à convertir.

À lire aussi : Le Bash de Linux et un Cortana multidevice au menu de Windows 10 Chine : Microsoft confectionne un Windows 10 très GovtOS 10 questions sur Windows 10 Mobile

Crédit photo : © Stanislaw Mikulski – Shutterstock ZFS – Linux : la FSF met les points sur les i

Canonical voudrait faire du système de fichiers ZFS un des avantages clés de son OS Linux Ubuntu. La société marche ainsi sur les pas d’Oracle, qui met cette technologie au cœur de son offre Linux. Mais la Free Software Foundation (FSF) ne voit pas tout ceci d’un très bon œil.

L’organisation explique en quoi la licence CDDL de ZFS n’est pas compatible avec la GPL de Linux. La FSF se défend de vouloir donner des leçons aux promoteurs du projet Linux, auquel elle ne participe pas, mais rappelle quand même que ZFS constitue un problème auquel il convient de s’atteler sans attendre.

ZFS en version GPL ?

« Normalement, les questions d’incompatibilité de ce genre sont soulevées par les personnes qui tentent d’écrire des modules propriétaires pour des programmes sous copyleft. Ils veulent bénéficier du travail effectué par les développeurs de logiciels libres, sans fournir aux autres la même liberté, ce qui est contraire à toute éthique », explique Joshua Gay, licensing and compliance manager de la FSF.

« Ce n’est pas le cas ici, parce que ZFS est un logiciel libre. La solution idéale serait pour Oracle, qui est devenu un distributeur important et extrêmement influent de code couvert en GPL, de montrer son leadership en donnant l’autorisation explicite permettant à son travail sur ZFS d’être utilisé sous la licence GPL. »

L’autre solution consiste à adopter une offre plus en phase avec le noyau Linux,tel btrfs… développé en grande partie par Oracle.

À lire aussi : SUSE Linux : SLES 12 SP1 for SAP met Hana dans le Cloud Linux 4.6 va mettre l’accent sur les performances graphiques Linux 4.5 met le feu aux cartes graphiques AMD

Crédit photo : © Gonzalo Aragon – Shutterstock

Télégrammes : WordPress en HTTPS , SAP trop court ; Here, Bosch aussi ; Yahoo, Daily Mail itoo

WordPress.com bascule en HTTPS. Les sites ou les blogs qui sont hébergés sur la plateforme WordPress (soit quand même 25% du web)passeront en HTTPS. Auparavant seuls les sous- domaines WordPress.com étaient concernés par le chiffrement des communications. Pour étendre cette sécurité, son éditeur s’est tourné vers le projet Let’s Encrypt. Ce dernier propose des certificats gratuits. Une initiative qui connaît déjà un certain succès en dépassantle million de certificats délivrés pour sécuriser de près de 2,4 millions de sites web. Pour les sites hébergés sur WordPress.com, pas besoin de manipulation, le service se charge de basculer automatiquement en HTTPS. Un coup de pouce pour la sécurité des sites et des blogs, mais aussi pour le référencement en raison de la nouvelle politique de Google privilégiant les pages chiffrées.

SAP trop court. Vendredi, le premier éditeur européen, SAP, a émis une alerte sur résultat, reconnaissant que ses performances de début d’année seraient inférieures aux attentes. Pour expliquer cette contre-performance, l’éditeur met en avant des ventes de licences moins élevées qu’attendu, particulièrement aux Etats-Unis et au Brésil. SAP explique que son chiffre d’affaires atteindra 4,73 milliards d’euros, alors que le consensus des analystes visait 4,83 milliards. Bill McDermott, le Pdg, a toutefois assuré de sa « confiance totale » dans l’atteinte des objectifs annuels. L’éditeur dévoilera ses résultats définitifs du premier trimestre 2016 le 20 avril.

Here : Bosch s’y intéresse aussi. L’équipementier automobile Bosch confirme être en discussion avec Here pour le rachat d’une partie de son capital. Rappelons que cette société de cartographie, auparavant propriété de Nokia, a été racheté en août dernier par un consortium de constructeurs automobiles d’outre-Rhin : Audi (filiale de Volkswagen), BMW et Daimler. L’opération a été bouclée pour 2,5 milliards d’euros. En prenant une part du capital du Here, Bosch s’assurerait de conserver ses marchés auprès des clients de la société de cartographie. De son côté, Daimler est en pourparlers avec Amazon et Microsoft pour revendre des parts minoritaires du capital de Here. Les technologies de cartographie sont centrales dans la mise au point des véhicules autonomes.

Daily Mail confirme son intérêt pour Yahoo. Dans la course aux prétendants pour le rachat des activités web de Yahoo, il faudra compter avec le groupe de presse Daily Mail & General Trust. Il a confirmé être en négociations avec plusieurs investisseurs pour déposer une offre de reprise. Un porte-parole a expliqué : « étant donné le succès de daily.com, nous sommes en discussion avec plusieurs parties qui sont potentiellement des enchérisseurs ». La vente des actifs de Yahoo continue donc d’aiguiser les appétits et la liste des sociétés intéressées s’allongent. Verizon est le plus entreprenant, mais Microsoft et Google pourraient aussi être de la partie en appui d’offres de fonds d’investissements. La valorisation des actifs web de Yahoo est estimée à entre 6 à 8 milliards de dollars. La firme américaine a donné jusqu’au 18 avril aux repreneurs pour lui faire parvenir leur proposition.

Android Studio 2.0 met le feu à son émulateur intégré

Google vient de présenter la mouture définitive de son environnement de développement Android Studio 2.0. Une offre qui ne se base pas sur Eclipse, comme nombre d’IDE, mais sur IntelliJ IDEA, ici en version 15.

La première nouveauté réside dans l’émulateur Android, qui se veut environ 3 fois plus rapide que précédemment. Il est possible de l’alimenter en données et applications10 fois plus vite qu’une machine physique, indique la firme. Et il intègre dorénavant les services , ainsi que la plupart des capteurs que nous trouvons habituellement dans un terminal Android.

Autre avancée, Instant Run, qui permet de lancer les applications plus rapidement en ne construisant pas un nouvel APK en cas de mise à jour du projet, mais en poussant simplement les mises à jour du code vers l’application existante. À la clé, un lancement quasi instantané de la mouture de test d’une application, ce qui permettra aux développeurs de gagner un temps précieux.

Testez vos applications sur les terminaux Google

Le Cloud Test Lab s’invite également au sein d’Android Studio 2.0. Ce service en ligne permet de tester une application sur un large ensemble de terminaux hébergé au sein des datacenters de Google. Il n’est même pas besoin de mettre en place des protocoles de test, la firme se chargeant d’appliquer un panel de vérifications de base sur vos projets.

Enfin, les développeurs de jeux noteront la présence d’un nouveaudébogueur pour GPU qui permettra d’optimiser le code OpenGL ES. Une fonctionnalité encore à l’état de test dans Android Studio 2.0.

À lire aussi : Google corrige 8 failles critiques dans Android Android desktop : Remix OS se dévoile en images Première release pour CyanogenMod 13, le clone d’Android 6.0

Crédit photo : © Turbo – Shutterstock

Télégrammes : GFI qatari, mobile, Lumière sur le Dark Web, Swift intéresse Google

GFI : Mannai contrôle 25 % du capital. Dans un communiqué, la SSII française GFI indique que le groupe qatari Mannai a acquis 25 % de son capital auprès d’Apax, d’Altamir et de Boussard & Gavaudan. Soit quelque 16,7 millions d’actions au prix unitaire de 8,5 euros. Ce qui valorise GFI aux environs de 570 millions. A l’issue de ce qui n’est quela première étape de la prise de contrôle de Mannai, la groupe qatari va déposer une offre publique d’achat, à l’attention des actionnaires minoritaires, portant sur les actions, à un prix unitaire de 8,50 €, et sur les acquisitions d’actions remboursables (ou BSAAR), au tarif de 4,66 euros l’une. A l’issue de l’offre publique, la groupe qatari va acquérir auprès d’Apax France, d’Altamir et de Boussard & Gavaudan un nombre d’actions complémentaires lui permettant de détenir 51 % du capital et des droits de vote de GFI. Rappelons que le rachat de GFI par Mannai est une opération amicale, approuvée par le conseil d’administration de la SSII. En 2015, GFI a réalisé un chiffre d’affaires de 894 millions d’euros (11 % de croissance), pour un bénéfice de 22 millions. La société emploie 11 800 personnes. Reddit arrive sur mobile. Les applications iOS et Android (dont une bêta de la déclinaison Android avait été lancée plus tôt dans l’année) officielles de la plateforme communautaire Reddit sont enfin là, souligne ITespresso.fr. Ou pour le moins en cours de déploiement. Jusqu’à présent, Reddit proposait uniquement Alien Blue sur iOS (iPhone, iPad et iPod Touch), une application très populaire développée par Jason Morrissey, un développeur indépendant. Pour autant, le site communautaire a décidé de ne pas continuer avec Alien Blue en raison de limites techniques et de repartir de zéro pour la création des apps mobiles. Ces dernières devraient dynamiser l’audience du site qui compte plus de la moitié des utilisateurs sur smartphone. Seulement 30 000 sites sur le Dark Web. L’entreprise européenne Intelliagg et son homologue aémaricaine Darksum se sont penchées sur le Dark Web, la partie du web non référencée par les moteurs de recherche traditionnels et pointée du doigt pour héberger nombre de contenus et services illégaux. Le résultat de leur recherche est surprenant. Il n’y aurait que 29 532 sites en .onion (l’extension des sites du réseau anonyme Tor). Un chiffre bien éloigné des estimations précédentes et, dans tous les cas, des millions de sites « légitimes » qui peuplent la Toile. Néanmoins, les chercheurs précisent que nombre de sites qui apparaissent sur Tor ont des durées de vie très limitée et disparaissent tout aussi vite et que l’on peut soupçonner d’être utilisés dans le cadre de campagnes d’attaques informatiques. Ainsi, la moitié (54%) des 30 000 sites découverts ont disparu le temps de dresser la carte. L’étude nous apprend également que 76% des sites sont en anglais, 4% en Allemand et 3,7% en chinois. Les autres langages représentent moins de 3% des sites. Enfin, une analyse manuelle des sites accessibles révèle que 68% des contenus qu’ils hébergent sont considérés comme illégaux selon les lois anglo-saxonnes. Google louche sur Swift pour remplacer Java. Google envisagerait d’utiliser Swift comme langage de « première classe » pour Android, rapporte The Next Web. Autrement dit, remplacer Java par le langage d’Apple pour motoriser son OS mobile. Un choix qui serait motivé par les poursuites incessantes d’Oracle qui accuse Google de violation de brevets sur Java. De plus, Apple a basculé Swift sous licence Open Source en décembre dernier. Ce qui permettra à Mountain View de conserver le modèle ouvert de sa plate- forme. Enfin, Swift est de plus en plus adopté par les développeurs. Néanmoins, pour adopter Swift, Google devra développer son propre moteur d’exécution, et proposer de nouveaux SDK et API. Google n’est pas le seul à s’intéresser à Swift. Facebook et Uber aussi. Les trois entreprises se sont rencontrées à Londres pour en discuter. Avec Mitaka, OpenStack entre en phase de simplification intensive

OpenStack continue sa démarche de simplification de la gestion de la plateforme Cloud Open Source, tout en poursuivant les innovations sur les différents projets. Mitika succède à Liberty après 6 mois de développement et plusieurs milliers de contributions (développeurs et clients). Pour les membres du projet « il est difficile de mentionner tous les changements effectués entre les différentes release ». Une chose est néanmoins sûre, OpenStack est de plus en plus adopté et intégré par des opérateurs et de grandes entreprises. On retrouve des noms comme Wal-Mart, eBay, PayPal, AT & T, Comcast, IBM, Cisco, Dell, Intel, Hewlett Packard Enterprise etle dernier contrat en date, Volkswagen.

Un client unifié

Le maître mot de cette 13ème version d’OpenStack est donc la simplification d’intégration et de gestion de l’ensemble des projets (que la Fondation a regroupés sous l’appellation Big Tent) de la plateforme à travers un client OpenStack. Précédemment, chaque projet (stockage, réseau, sécurité, etc.) disposait de sa propre interface de ligne de commande. Il existait bien un outil donnant une vision unifiée, nommé Horizon, mais il ne donnait pas un accès aux lignes de commande. Avec ce client, un administrateur peut créer depuis un seul point, un profil, des ressources de stockage en mode bloc ou pousser des serveurs et des fonctions réseau. Ce client peut être exécuté localement ou en mode Cloud et configurable pour plusieurs Cloud OpenStack.

Pour arriver à cette plus grande intégration, OpenStack a travaillé sur la mise en place de paramétrage par défaut de certains projets. Les options pouvant être activables par la suite. Différents scénarios sont disponibles, inspirés des déploiements des clients cités précédemment (opérateurs, industriels, etc). Une courbe d’apprentissage qui passe aussi par la création d’un langage commun (common verbs) entre les différents projets et gérer par le client avec la mise en place de SDK pour gérer plusieurs langages.

Nova délocalise EC2

Sur les projets eux-mêmes, on notera que Nova, brique de calcul, laisse tomber le support EC2 d’AWS. Mais cela ne signifie pas qu’OpenStack n’est plus compatible avec Amazon Web Services. « L’idée est de déplacer cette fonctionnalité Amazon du cœur du projet Nova vers un repository dédié, comme nous l’avions déjà fait avec S3 dans le cadre du projet Swift », précise Jonathan Bryce, directeur exécutif de la Fondation OpenStack. Toujours dans Nova, Mikita améliore la capacité des Cells v2 (technologie introduite avec Grizzly en 2013) qui agrègent plusieurs modules de calcul Nova gérés à travers une seule API. L’objectif est d’automatiser les processus et d’accélérer l’ajout des ressources de calcul. Prendre en compte la fameuse « scalabilité ». Sur la sécurité, le gestionnaire d’identité, Keystone bénéficie lui aussi d’une simplification en passant à une seule étape pour son installation

Parmi les autres projets qui méritent une attention, il y a Kuryr qui se focalise sur la technologie des conteneurs. Celui-ci a pour ambition de rapprocher Docker d’OpenStack en passant par la brique réseau Neutron. On devrait en parler plus longuement lors de l’OpenStack Summit qui se déroulera du 25 au 29 avril à Austin. Les équipes de la Fondation devraient lever le voile sur les futures orientations de la release N pour Newton.

A lire aussi :

L’adoption d’OpenStack fait encore débat dans l’industrie

La Fondation OpenStack veut certifier les administrateurs

Programmation : Xojo passe au Retina / HiDPI

La version 2016r1 de l’environnement de développement cross-plate-formeXojo est de sortie. Rappelons que cet outil permet de créer des applications Windows, OS X, iOS et web depuis un même environnement et un même code source.

La grande nouveauté de cette version est le support des résolutions élevées des écransRetina (Apple) ou HiDPI (Microsoft). Un support qui est aussi valable pour l’IDE, mais uniquement en mode Retina pour le moment (avec un résultat visiblement très réussi, selon les premiers retours).

Pour un IDE en mode HiDPI sous Windows, il faudra encore patienter un peu. L’éditeur doit en effet régler un problème : autant il n’y a qu’un ‘niveau’ de résolution Retina, autant le HiDPI peut sous Windows prendre deux formes différentes.

Le HiDPI, cauchemar des développeurs

Un souci que les utilisateurs retrouveront également dans leurs applications, avec comme point d’orgue l’affichage d’images, directement impacté par les configurations HiDPI. Heureusement, les ImageSets viennent ici en renfort, en permettant de définir plusieurs tailles pour une seule et même image, afin de s’adapter aux résolutions classiques (x1), Retina (x2) et HiDPI (x2 ou x3 suivant les cas).

À noter, le support HiDPI reste encore à l’état de bêta sous Windows, avec quelques menus bugs lors du redimensionnement de certains éléments. Xojo a toutefois le mérite de proposer enfin une première réponse à ce problème, qui provoque bien des maux de tête chez les développeurs. L’éditeur profite aussi de cette édition pour revoirle guide de référence livré avec sa solution, lequel est enrichi pour l’occasion d’un outil de recherche plus efficace.

À lire aussi : Programmation : Xojo passe au 64 bits, au Raspberry Pi et à LLVM Raspberry Pi et développement : un RAD nommé Xojo 2015r4 : Xojo corrige ses bugs, en attendant 2016

Les États-Unis affûtent leur projet Open Source, la France aussi

L’administration utilise largement l’Open Source, mais elle hésite encore à partager le code source de logiciels développés par ses soins. Les choses changent, malgré tout. En France, Bercy a récemment ouvert à tous le code source de son calculateur d’impôts. Aux États-Unis, la Maison Blanche veut accélérer le partage entre agences fédérales du code source de logiciels conçus en interne.

Un document ouvert aux contributions d’internautes jusqu’au 11 avril prochain, témoigne des ambitions de la Maison Blanche en la matière (Federal Source Code Policy). L’administration Obama préconise la mise à disposition et la réutilisation par les agences fédérales de tout nouveau code de logiciel développé par ou pour le gouvernement américain. Washington veut aussi, dans le cadre d’un programme pilote de trois ans, qu’une partie du code ‘maison’ financé par le gouvernement soit communiquée au public sous la forme d’un logiciel Open Source. Les agences fédérales concernées sont appelées à libérer au moins 20 % du code développé en interne chaque année.

20 % du code source fédéral libéré demain ?

Au début de l’été 2016, ou 90 jours après la publication du document final de politique fédérale dédiée au code source, Washington lancera sonProject Open Source, un référentiel en ligne regroupant outils, méthodes et meilleures pratiques. Avec l’objectif de guider les agences qui devront appliquer cette politique. Le programme sera évalué dans deux ans par la Maison Blanche.

« Grâce à cette politique et au programme pilote, nous pouvons économiser l’argent des contribuables en évitant les achats dupliqués de logiciels personnalisés, et promouvoir l’innovation et la collaboration à travers toutes les agences fédérales », expliquait le 10 mars dernier Tony Scott, DSI de l’État fédéral américain. Il s’agit donc d’éviter les doublons, mais aussi d’accélérer la résolution de bugs et de failles de sécurité. Et, par conséquent, d’intégrer des méthodes agiles de développement et de déploiement. Des principes chers aux équipes de développeurs et chefs de projet de 18F et USDS, les agences de l’administration américaine dédiées au développement, au test et à la gestion de projets numériques. En France, la Dinsic et Etalab à la manœuvre

En France, la Direction interministérielle du numérique et du système d’information et de communication de l’État (Dinsic) et la mission Etalab oeuvrent en ce sens. Après l’édition 2016 du socle interministériel des logiciels libres (SILL), fruit de la circulaire Ayrault de 2012, un forum de discussion sur le logiciel libre a été ouvert. Et le hackaton #CodeImpot a été organisé les 1er et 2 avril pour l’ouverture du code source du calculateur d’impôts de Bercy.

Le but de ces initiatives : dialoguer avec l’écosystème tout en renforçant la capacité d’agir des utilisateurs et contributeurs du libre dans l’administration. Dans le secteur public, l’utilisation des logiciels libres est « encouragée ». Et les députés français ont adopté fin janvier dernier le projet de loi pour une République numérique, dont l’amendement sur le droit d’accès au code source.

Lire aussi :

La DSI de l’État promeut son forum sur le logiciel libre

Economies sur l’IT : les Etats-Unis ne font… pas mieux que la France crédit photo © Leszek Glasner / shutterstock.com

TSA Randomizer, la note salée d’IBM pour une app iPad basique

L’affaire commence à prendre de l’ampleur aux Etats-Unis. La TSA (Transport Security Administration) dispose d’une application sur iPad (nommée « TSA Randomizer ») dans certains aéroports américains pour réguler les queues lors des contrôles de sécurité des passagers. En clair, l’application est chargée de dire si la personne va dans la ligne où les contrôles seront plus poussés ou une autre avec des inspections classiques. Un système aléatoire (droite/gauche) qui répond à plusieurs objectifs : avoir un effet dissuasif sur les terroristes, éviter des problèmes de discrimination, fluidifier les files d’attentes en période d’affluence le matin et le soir, etc.

Une réponse à 336 000 dollars

Là où le bât blesse, c’est le prix payé par la TSA pour réaliser cette application. Un développeur, Kevin Burke, a recherché dans un premier temps qui était le prestataire pour le développement de cette application. Une recherche rapide sur Google lui a donnée la réponse : IBM. Seconde étape, il a réclamé des précisions sur ce contrat et plus spécifiquement sur la création du TSA Randomizer et son coût. La réponse des autorités a été relativement rapide et on peut lire dans une lettre que le montant payé par l’administration est de 336 413,59 dollars. Un journaliste au Time, Pratheek Rebala, va même plus loin sur Twitter et considère que le projet (comprenant 9 contrats) a un coût global de 1,4 million de dollars. Les données sont publiques et disponibles à cette adresse. Difficile cependant de déterminer ce que regroupe ce projet comme l’indique Kevin Burke. « Il peut s’agir de l’application pour iPad, des achats d’iPad ou du développement de plusieurs applications pour iPad. »

La TSA confirme un coût de 47 000 dollars

La TSA est sortie de sa réserve pour expliquer à nos confrères deMashable que le montant payé pour réaliser cette application est de 47 400 dollars, soit une partie des 336 000 dollars cités par Kevin Burke. Un porte-parole de l’administration n’a pas souhaité détailler le reste du contrat. Il n’empêche, même à 47 000 dollars, la note est encore salée pour certains commentateurs. Nos confrères de Mother Jones n’hésitent pas à dire que la TSA inaugure un nouveau taux horaire pour coder. Kevin Burke estime lui que pour un débutant, ce développement ne devrait pas prendre au mieux plus de 1 journée. En tout cas, plusieurs développeurs se sont déjà proposés de travailler pour la TSA pour des tarifs beaucoup plus raisonnables.

A lire aussi :

Facebook ferme Parse, sa plateforme de développement mobile

Samsung et Oracle s’allient autour des applications mobiles business

Crédit Photo : Arina P Habich-Shutterstock