<<

Toyota mise 50 millions de dollars sur l’IA dans ses voitures

L’engouement pour la voiture connectée ou plus encore les véhicules autonomes ne se dément pas. Que ce soit Google, Apple ou Uber, les sociétés technologiques investissent massivement dans le futur de l’automobile. Les constructeurs ne sont pas en reste comme le montre l’annonce d’investissements de la part de Toyota.

La firme Japonaise a en effetannoncé un partenariat avec le MIT (Massachussetts Institute of Technology) et L’Université de Stanford pour développer l’intelligence artificielle dans le domaine de l’automobile. Toyota a décidé d’investir 50 millions sur 5 ans dans cette initiative. Dans le même temps, le constructeur a annoncé le recrutement du Dr Gill Pratt, ancien responsable des programmes à la DARPA (Defense Advanced Research Projects Agency) avec un focus sur les problématiques de robotique.

Des recherches pas limitées à la voiture

Il a été embauché pour justement accélérer et diriger les recherches sur les véhicules intelligents et la robotique. Il a expliqué que « la clé des programmes avec les centres de recherche est de cibler la capacité des technologies dans les véhicules à reconnaître les objets autour de l’auto dans différents environnements, de fournir une action sur cet environnement et interagir en toute sécurité avec les occupants, les autres véhicules et les piétons ».

Si les véhicules autonomes sont les priorités des recherches menées, Toyota estime que les travaux sur les interactions homme-machine auront aussi des impacts sur d’autres secteurs y compris dans notre quotidien. A suivre…

A lire aussi :

Gartner met la voiture connectée au sommet de son Hype Cycle Vincent Costet, BMW « Sécurité, confort et divertissement, 3 piliers de la voiture connectée » crédit photo © vichie81 – shutterstock

Analytique : organise le travail avec VoloMetrix

Microsoft a fait l’acquisition de VoloMetrix, qui propose un outil d’amélioration de l’organisation du travail pour gagner en productivité en entreprise. Le montant de la transaction n’a pas été divulgué. L’éditeur basé à Seattle (à proximité de Redmond, siège de Microsoft) emploie une quarantaine d’employés. Dans unbillet de blog, Microsoft précise ainsi : « Aujourd’hui, la plupart d’entre nous ne possède pas les outils et les informations afin de nous aider à prendre de meilleures décisions au sujet de notre ressource la plus au travail : notre temps. »

Une analogie avec les trackers de fitness est également faite pour souligner l’importance d’optimiser son temps de travail avec des outils adaptés. Si les appareils électroniques dans la mouvance du « quantified self » permettent d’améliorer son hygiène de vie, de nouvelles solutions permettent, elles, maintenant d’optimiser son organisation au travail. C’est dans cette logique que Microsoft a racheté VoloMetrix pour résoudre cette problématique : « Au regard de la gestion du temps, notre entreprise se concentre-t-elle sur les priorités ? »

Une intégration dans Office 365

Les technologies de VoloMetrix seront intégrées dans Office Delve, la première application pratique d’Office Graph, et dans le service Delve Organizational Analytics annoncé à la conférence Ignite et dont la bêta sera lancée dans le courant du mois.

Associés au machine learning (technologie d’intelligence artificielle) et aux bases de données des entreprises, les outils analytiques de productivité fleurissent sur le marché. Ils devront maintenant prouver leur efficace sur le terrain, tout en limitant l’aspect intrusif dans l’espace collaboratif, souligne ITespresso.

A ce jour, VoloMetrix a levé 17 millions de dollars suivant deux tours de table, le dernier ayant été mené en octobre 2014 par Split Rock Partners (12 millions de dollars). Une précédente levée de fonds avait été prise en main par Shasta Ventures.

Créé en 2011, VoloMetrix compte des clients aussi prestigieux que Facebook, Boeing, Qualcomm, Seagate, Symantec, et Genentech.

A lire aussi :

Microsoft France, le bon élève sur Windows 10

AWS et Microsoft font voler l’aviation américaine dans le Cloud

Crédit photo :

Télégrammes : Windows 10 par continents, Une apps visualise les ondes, Salesforce achète Akta, Sony Pictures négocie avec ses ex-employés

Le site StatCounter qui retrace les configurations des utilisateurs sur 3 millions de site dans le monde, donne un aperçu original de la migration vers Windows 10 selon les continents. En tête, l’Australie a succombé majoritairement au nouvel OS de Microsoft avec 7,59% d’adoption, suivent ensuite l’Europe (notamment grâce à laFrance parmi les bons élèves) et les Etats-Unis, respectivement 7,51% et 6,63%. Plus étonnant, l’Antarctique arrive en 4e position avec un taux de pénétration de 5,94%. Elle devance l’Amérique du Sud (4,98%), l’Asie (3,37%) et l’Afrique (2,9%). Une application, Architecture Radio, pourrait voler au secours des personnes atteintes d’hypersensibilité aux ondes électromagnétiques. Un développeur néerlandais, spécialisé dans la datavisualisation a élaboré un programme capable de détecter et de rendre visibles les satellites d’observation et les antennes relais, ainsi que les ondes émises. L’application sera disponible sur iOS en décembre prochain et plus tard sur Android. Les mauvaises langues diront que la première chose à faire pour une personne électrosensible est de se débarrasser de son téléphone ou de sa tablette. Toujours est-il que cette pathologie a été récemment reconnue par la justice en France par une décision d’un tribunal de Toulouse. Salesforce poursuit ses emplettes avec l’acquisition de Akta, un cabinet de conseil spécialisé dans la transformation numérique des entreprises, développement d’applications, relations clients, etc. Il a notamment accompagné plusieurs grandes sociétés dans ce domaine, SpotOn, Agentis Energy, SocialCrunch, Starbucks, Motorola Solutions ou Verizon. Ce rachat n’est pas surprenant, car d’autres sociétés se sont déjà adjoint les compétences d’experts de cabinets similaires comme Google avec Mike & Maaike, de Fjord Design par Accenture ou de Hot Studio par Facebook. Sony Pictures a donc préféré un accord à l’amiable plutôt qu’un procès. Des anciens employés de la firme avaient intenté un procès après le piratage massif de leur employeur. On se souvient qu’ennovembre dernier un groupe sous le pseudo GOP (Guardian of Peace) avait revendiqué le vol de données allant des derniers films jusqu’aux mails des dirigeants. Les soupçons se sont portés sur la Corée du Nord en représailles de la sortie du film « L’interview qui tue ». Les ex-employés considèrent que les studios de cinéma ont manqué à leurs obligations de protéger suffisamment les données personnelles de ses salariés. On ne connaît pas les détails de la négociation, mais on peut se douter que le volet financier doit être conséquent.

Crédit Photo : Juefraphoto-Shutterstock Amazon Machine Learning prend ses quartiers en Europe

Le service Amazon Machine Learning s’invite sur le datacenter de Dublin (en Irlande) de la firme américaine. Une aubaine pour les entreprises devant – ou souhaitant – héberger leurs applications sur le sol européen, afin de réduire les temps de latence, ou de répondre à des problématiques de localisation des données.

« Ce service fournit des outils et assistants de visualisation qui vous guident à travers le processus de création de modèles de Machine Learning, sans avoir besoin d’en maîtriser les algorithmes et techniques complexes, explique Amazon. Il est hautement évolutif et peut générer des milliards de prédictions chaque jour. »

Pour l’analyse prédictive

Ce service a été initialement proposé aux États-Unis, et ce dès avril 2015 (voir à ce propos notre article « DaaS, Machine Learning, conteneurs, stockage : Amazon booste son Cloud »). L’offre Amazon Machine Learning se veutun concurrent d’Azure Machine Learning, proposé par Microsoft (voir « Avec Azure Machine Learning, Microsoft met de l’intelligence dans les données »).

Amazon donne quelques idées d’applications pratiques de cette technologie : mise en place de modèles prédictifs de détection des fraudes ; personnalisation du contenu d’un site web via l’analyse prédictive ; classement des données et textes non structurés ; prévision de la perte de clients.

À lire aussi : Croissance de +80 % pour Amazon Web Services Amazon finalise Aurora, son alternative Cloud à MySQL Amazon Web Services fait les yeux doux aux développeurs

Crédit photo : © Ken Wolter – Shutterstock.com

Alibaba va ouvrir une plate-forme d’intelligence artificielle

Parallèlement à ses activités de commerce en ligne, Alibaba poursuit a grande vitesse le développement de ses services Cloud. Le groupe chinois annonce le lancement de DTPAI, une nouvelle offre de son Cloud public Aliyun tirant parti des technologies d’intelligence artificielle. La première en Chine, selon l’entreprise. La plate-forme combine technologies de machine learning et d’algorithmes propres à Alibaba présentés dans une interface de type « drag and drop ». Ce service permettrait ainsi aux développeurs de mettre en place des outils de prédiction des comportements des consommateurs sans avoir à écrire une seule ligne de code.

« DTPAI contient des algorithmes de machine learning matures et avancés dont l’efficacité est vérifiée par des scénarios poussés établis à partir des données d’Alibaba récupérées depuis les activités de Taobao, Alipay Tmall [filiales du groupe, NDLR) », déclare Xiao Wei, directeur produit, à nos confrères de VentureBeat. Ou le Big Data au service de l’intelligence artificielle. La plate-forme s’appuiera sur des « workloads » de classification, de clustering, de fonction d’abstraction et de statistiques massives pour proposer son offre de « deep learning ».

100 pétaoctets de données en 6 heures

DT PAI opère depuis la plate-forme Open Data Processing Service (ODPS) qui, aux dires du groupe, peut traiter 100 Po (1000 To) de données en 6 heures. ODPS avait été lancée en juillet 2014 pour aider à gérer les demandes de prêts des fournisseurs des sites de e-commerce du groupe. Alyun lancera une première offre d’essai gratuite du service dans les prochaines semaines. Elle sera réservée à un nombre restreint de clients.

Alibaba entend donc rejoindre les géants américains du Cloud.Microsoft et AWS ont également lancé leurs offres de machine learning pour mettre en place des services prédictifs ces derniers mois. En juillet, le groupe chinois annonçait un investissement de 1 milliard de dollars dans le Cloud qui s’est notamment traduit par l’annonce, le 19 août, de l’ouverture d’un troisième datacenter hors de Chine, à Singapour, en septembre prochain. Soit le septième centre de calculs aujourd’hui, dont un à Santa Clara en Californie. Alibaba poursuivra son expansion en Europe (Allemagne), au Moyen- Orient (Dubai) et au Japon. La conquête du monde est lancée.

Lire également Cloud : Alibaba défie AWS, Google et Microsoft aux Etats-Unis Alibaba et la mobilité boostent les résultats de Yahoo Smartphones : Alibaba s’invite discrètement au capital de Meizu

Big Data : Azure Data Factory de Microsoft pleinement opérationnel

Azure Data Factory (ADF) sort donc de son statut de preview (depuis octobre 2014) pour être disponible officiellement sur le Cloud de Microsoft. ADF se définit comme un service Cloud d’intégration de données qui a pour vocation à orchestrer et automatiser la collecte et la transformation des informations. Cette solution est une des composantes de la brique analytique en mode Cloud élaborée par Microsoft. Cette brique comprend Azure Data Catalog, Azure Machine Learning, HDInsight, Power BI et Azure Stream Analytics.

Dans un blog, Joseph Sirosh, vice-président de la gestion de l’information et du machine learning chez Microsoft, explique qu’« avec ADF, les services de traitements de données existants peuvent constituer des pipelines de données qui sont hautement disponibles et pilotables dans le Cloud ». Il ajoute que « ces pipelines de données peuvent être prévus pour collecter, préparer, transformer, analyser et publier des données. ADF est capable de gérer et orchestrer toutes les données et les traitements complexes sans intervention humaine. Les solutions peuvent être construites et déployées rapidement dans le Cloud. Elles peuvent se connecter à un nombre croissant de sources de données aussi bien en on-premise ou dans le Cloud ».

Un composant de Cortana Analytics Suite

Ces derniers temps, Microsoft avait focalisé l’attention sur l’assistant vocal Cortana et plus particulièrement sur l’offre Cortana Analytics Suite. On sait peu de chose sur cette dernière, sinon qu’il y a un soupçon de Business Intelligence, une bonne dose de machine learning… et la possibilité de formuler des requêtes en langage naturel, à la voix ou au clavier. Le lancement est prévu à l’automne – avec un atelier découverte les 10 et 11 septembre prochains à Redmond, au siège social de l’éditeur – pour cette offre cloud de big data analytique qui regroupe plusieurs services Azure déjà commercialisés ou accessibles en préversion. ADF est donc une composante de Cortana Analytics Suite.

Sur le front de la concurrence, ADF trouve devant lui des offres de Talend ou Informatica. Par ailleurs, les autres fournisseurs de Cloud dispose d’outils pour l’intégration de données. AWS propose Pipeline Data et l’on trouve DataFlow du côté de Google.

A lire aussi :

MapR adapte sa distribution Hadoop à Spark et Azure Azure Data Lake, du stockage Hadoop sur le Cloud de Microsoft

Crédit Photo : agsandrew- Shutterstock Petit-déjeuner événement : Internet des objets pour les entreprises

Les objets connectés: leviers de croissance et nouveaux business models pour l’entreprise

Dans le B2B, les objets connectés permettent d’apporter de nouveaux services dans de très nombreux secteurs d’activité (industrie, automobile, transports, énergie, commerce, sécurité, santé, habitat, …)

Quels sont les usages ? Les besoins métiers ? Quels sont les business models associés ? Comment une entreprise peut-elle s’organiser pour bénéficier de ces nouveaux leviers de croissance ? Comment adapter sa stratégie informatique d’aujourd’hui pour préparer l’IoT de demain ? Quels sont les impacts de ces développements (sécurité, connectivité) ? Les évolutions possibles ?

Inscrivez-vous

En partenariat avec Cisco, Deloitte et IBM, Level 3 vous invite à un petit déjeuner présentations / échanges le jeudi 17 septembre prochain pour évoquer les grands enjeux de l’Internet des Objets. Bénéficiez de précieux conseils de nos interlocuteurs experts en la matière et la présentation de leurs analyses récentes :

Vincent Boulanger – Directeur de la Stratégie France Cisco Nicolas Barbier – Senior Manager Deloitte Digital Christian Comtat – Directeur du Développement Cloud Computing IBM France

Cet évènement se veut informatif et interactif. Il sera animé par notre Directeur Stratégie Level 3 M. Yannick Leboyer. Nous vous attendons donc avec plaisir à partir de 8h30 le jeudi 17 septembre au club confair à Paris (75009) pour un petit déjeuner suivi des interventions. Le nombre de places étant limité, merci de vous inscrire rapidement.

IBM Remix, une communauté pour les apps du IoT

L’Internet des objets est à la mode et la plupart des acteurs IT se mobilisent pour être présents sur ce marché. IBM n’échappe pas à cette règle et vient de lancerRemix , une initiative aider les développeurs à la création d’applications pour l’Internet des objets. Cet espace est dédié à la création, l’édition et le partage d’expérience autour du IoT. Au sein de Remix, IBM met à disposition des outils analytiques, du machine learning, ainsi que la plateforme as a service maison, Bluemix. Le projet comprend des tutoriels et des guides à destination des développeurs. Pour Christopher O’Connor interrogé par nos confrères de ZDnet, « Remix a pour but de démocratiser le développement d’applications pour l’Internet des objets en le rendant accessibles aux ingénieurs hardware expérimentés que les ingénieurs logiciels novices ».

Des tutoriels pour comprendre

Un tour sur la page du site Remix montre les premiers tutoriels. Le dernier en date porte sur l’envoi et la réception de photo depuis un Raspberry Pi via MQTT (un des protocoles de communication de l’IoT). D’autres tutoriels donnent des indications pour connecter les terminaux au Cloud ou pour établir un lien Bluetooth entre un capteur Texas Instrument et un Raspberry Pi. Il peut s’agir aussi d’éléments de sécurité comme la détection d’intrusion via Twitter au sein de Bluemix.

Les aides sont nombreuses et devraient s’étoffer avec le temps. En guidant en facilitant le travail des développeurs, IBM souhaite les attirer à utiliser ses outils comme le PaaS ou le Cloud (via SoftLayer) et répondre à la problématique actuelle de l’Internet des objets, la création d’un écosystème. Aujourd’hui, les questions se posent majoritairement sur les standards de communication, des plateformes, des OS pour que les développeurs puissent se positionner et réfléchir à la création de programmes.

A lire aussi :

Amazon Web Services dévoile ses recettes pour l’Internet des Objets La simulation au service de l’Internet des objets

Capgemini transforme le système de reporting de Munich Re

Capgemini va assurer la maintenance et le développement de la base de données internationale de l’assureur Munich Re. La SSII française, via son unité Insights & Data, va aussi déployer un nouveau système de reporting basé sur les technologies Big Data de SAP, à savoir la plateforme de traitement en mémoire SAP HANA et la solution d’intégration des données SAP Data Services.

Mondialisation des services IT

« Nous cherchions un partenaire IT international proposant des modèles de servicesoffshore flexibles, des capacités de production standardisées et une grande expérience », a déclaré Rainer Janßen, DSI de Munich Re. Et ce pour accompagner la mondialisation des services IT de l’assureur allemand et la transformation de son système de reporting global. Un contrat de 5 ans a été signé avec la SSII. Dans un premier temps, l’équipe du Business Intelligence Service Center (BISC) de Capgemini en Inde sera chargée du support du système actuellement utilisé par Munich Re. L’assureur migrera ensuite de SAP Business Information Warehouse vers le nouveau système. Munich Re bénéficiera « d’un mode de production global, agile et fiable », a indiqué la SSII, d’après laquelle « l’assureur pourra ainsi optimiser ses coûts et profiter de services évolutifs et flexibles à l’échelle mondiale. »

Lire aussi : Avec le rachat d’iGate, Capgemini devient une SSII… indo-américaine L’offshore en Inde fait-il encore recette ? crédit photo © Watcarakun-Shutterstock

SAP poursuit sa croissance dans le cloud à marge forcée

SAP vient de présenter ses résultats financiers pour le second trimestre, ainsi que son premier semestre 2015. Pour Henri Van der Vaeren, DG de SAP France & Maghreb, « nous avons bien démarré l’année et le second trimestre a été conforté notamment par l’activité Cloud ». Les chiffres parlent d’eux- mêmes. Le chiffre d’affaires pour le trimestre augmente de 20% à 4,9 milliards d’euros. Au sein de ces revenus, l’activité Cloud affiche une croissance de 129% sur un an en franchissant le cap du milliard d’euros (1,056) sur le semestre (552 millions d’euros sur le trimestre). «Il y a eu une accélération des commandes notamment sur HANA, la plateforme In Memory qui a doublé ses clients avec 6400 comptes convertis et une hausse de 140% pour l’offre S4HANA qui comprend 940 clients », explique le dirigeant. Une conquête confirmée avec les nouveaux contrats Cloud qui ont bondi de 162% pour fournir un revenu de 262 millions d’euros.

Les ventes de licences de logicielles ont cru de 13% à 3,5 milliards d’euros pour le second trimestre et de 14% à 6,66 milliards d’euros pour le premier semestre. Les analystes ont été déçus par le profit opérationnel qui affiche une progression de 13% sur un an à 1,39 milliard d’euros. «Cela signifie que nous arrivons à monter en puissance dans le Cloud sans trop impacter les solutions on premise », constate le responsable de SAP France. Une stratégie qui impacte la marge opérationnelle qui passe à 28,0% contre 29,8% un an auparavant. On notera par ailleurs l’excellente performance de Business Network avec une croissance de 194% du chiffre d’affaires à 400 millions d’euros au second trimestre.

La France rattrape son retard sur le Cloud

Sur la France, les chiffres sont également bons avec une croissance à deux chiffres pour les revenus qui se rapprochent du milliard d’euros. Sur la ventilation, Henri Van der Vaeren précise que le on premise a progressé de 13%, alors que l’activité Cloud s’est envolée de 86%. Il avoue que la France a eu du retard sur l’adoption du Cloud, mais le décollage est là. La filiale française annonce le recrutement de 104 nouveaux clients sur l’ensemble des solutions de l’éditeur. Parmi les références citées par le dirigeant, on retrouve Burger King, Vinci Energies ou Primagaz pour des migrations sur HANA (consolidation de bilans financiers) ou sur la rénovation de leur ERP. «En France, nous sommes en mode rattrapage et nous avons un très bon pipeline sur le Cloud au 3ème trimestre », explique-t- il. Sur les autres régions, on constate que la zone Amérique est fortement impactée par le taux de change euro/dollars.

Au regard des différents résultats, SAP confirme ses prévisions pour l’année 2015. Sur l’activité Cloud, abonnement et support, l’éditeur allemand s’attend à un chiffre d’affaires compris entre 1,95 et 2,05 milliards d’euros. Le profit opérationnel sera compris dans une fourchette de 5,6 à 5,9 milliards d’euros.

A lire aussi :

Analyse prédictive : SAP Predictive Analysis joue les oracles

SAP Hana : du In-Memory, mais aussi du Cloud et du Paas

Crédit Photo : Viet Gallery-Shutterstock

Gigjam : Microsoft place Cortana au centre du bureau du futur

Pas moins de 14 000 participants sont venus assister à la Worldwide Partner Conference (WPC), et suivre les diverses sessions et conférences, partager des expériences ou tout simplement nouer des liens commerciaux.

« Microsoft is back ! », ont lancé à plusieurs reprises des porte-parole de l’éditeur lors de l’événement. Comme pour expliquer que malgré une arrivée et une visibilité tardive sur le Cloud et la mobilité, le géant de Redmond avait enfin rejoint le terrain de jeu. Certes, VMware s’est taillé la part du lion dans la virtualisation, Amazon et Google ont pris des positions dominantes sur le Cloud, et Microsoft n’est pas encore perçu au même niveau qu’Apple sur les mobiles et les tablettes (loin s’en faut…).

Cependant, Redmond dispose d’une arme dont tous ses concurrents rêvent : un écosystème de partenaires mondial qui génère plus de 92 % de ses revenus !

Face à ce nouvel environnement constitué de millions de terminaux mobiles, du Cloud et de senseurs tous azimuts, , le Pdg de Microsoft, positionne son entreprise et son écosystème dans un même élan : « en tant qu’écosystème, que pouvons-nous réaliser d’unique et de percutant ? Pour moi, la réponse est claire. Nous incarnons l’entreprise et l’écosystème en mesure de concevoir des expériences de productivité et des plateformes pour un monde “Mobile-First” et “Cloud-First”. Nous incarnons l’entreprise et l’écosystème à même de réinventer la productivité pour cette nouvelle génération. »

Au-delà du lyrisme inhérent à ce type de discours devant des partenaires, Satya Nadella annonce très vite sa stratégie et sa vision reposant sur trois piliers : « Réinventer la productivité et les processus métier (et les lier plus intimement), concevoir une informatique encore plus personnelle (avec un environnement de travail moderne), et bâtir la plateforme Cloud intelligente. » Vaste programme !

Gigjam : le bureau intelligent de demain?

Les démonstrations suivent, avec des exemples concrets des projets en cours de développement comme Gigjam. Sur l’écran apparaît un fond neutre. Julia White, dirigeante de la partie , s’adresse vocalement à Cortana (l’assistant vocal de Windows 10): « Hey Cortana, affiche-moi les clients ! » Et le PC affiche immédiatement la liste, après avoir retrouvé l’information dans les applications Dynamics (CRM, ERP…). Toutefois, Gigjam peut aussi fonctionner avec des applications non Microsoft et des applications SaaS.

Puis Julia White enchaîne : « Hey Cortana, montre-moi les commandes en cours ! » Cette fois, la liste des commandes s’affiche à côté, mais les deux informations ne sont pas liées. Il suffit alors de dessiner un cercle entourant les informations à relier, et Gigjam propose un menu en bas d’écran pour choisir des options. Bien entendu, Gigjam détermine les informations qu’il analyse comme les plus susceptibles d’être reliées… Et le résultat s’affiche aussitôt. Pour obtenir plus d’information, la responsable Office poursuit : « Hey Cortana, affiche mes e-mails ! », puis : « Hey Cortana, filtre mes e-mails par client ! ». Gigjam détermine alors qu’il faut établir le lien avec la fiche client déjà affichée et met en exergue les e-mails de ce client dans la liste. Etonnant ! Et le tout sans code ni saisie manuelle.

Puis la démonstration continue, avec la possibilité d’entourer des informations à partager en direct avec des contacts, et la possibilité de barrer les données à ne pas partager. Quelques manipulations basiques qui laissent imaginer bien des scénarios. Et avec plus de commandes… vocales ou pas, d’ailleurs.

Bien entendu, l’illusionniste nous a caché les arcanes de la solution. A savoir : de l’intégration middleware avec des applications et des solutions collaboratives, des API Rest pour des services SaaS, des mécanismes d’authentification oAuth1 et oAuth2 liés à un annuaire, des technologies de tableau blanc avec une information partielle et différente pour chaque participant, et la possibilité de définir des règles favorisant l’automatisation, sans oublier l’utilisation des possibilités linguistiques et de Machine Learning de Cortana, etc.

Quoi qu’il en soit, ce projet de bureau de demain, très applaudi lors de la WPC, semble très prometteur ! « Cela vous donne un aperçu de ce qui devient possible si l’on abat les murs qui séparent les terminaux, les applications et les gens, et de comment on peut les réunir pour produire un résultat »,résume Satya Nadella. « Il ne s’agit pas ici d’un simple partage d’écran avec des contacts. Il s’agit d‘une application qui génère la création et la distribution de mini-applications à la volée, adaptées aux terminaux concernés. C’est ainsi que nous imaginons le futur des processus d’entreprise et des communications productives. » Cloud agile et multi-plateformes

Pour Microsoft, Azure et les logiciels serveur forment un tout basé sur le même code dans une vision du Cloud hybride ne limitant pas les développeurs et favorisant les scénarios de migration multiples. La mobilité va alors de soi, avec un système d’exploitation bientôt similaire sur tous les terminaux (Windows 10) et une productivité optimale promise aux développeurs.

« Nous proposons le Cloud le plus ouvert et le plus flexible (public, hybride ou privé) », annonce le Pdg à ses partenaires. « Vous pouvez écrire des applications en Java, en .net par exemple, vous pouvez exécuter Windows ou Linux, ou vous pouvez supporter le back-end d’applications mobiles Windows phone, Android ou iOS. Et surtout, vous pouvez gérer globalement les identités, les informations, et protéger l’ensemble pour toutes ces plateformes. »

De l’analytique global et prédictif en mode vocal

A l’heure de l’entreprise digitale, l’analytique occupe une place centrale dans le système d’information. A l’instar de ses concurrents (qui l’ont déjà largement évoqué), Microsoft rallie le mouvement qui consiste à “transformer l’information en action”. Pour y parvenir, il convient de combiner la BI traditionnelle consistant à analyser ce qui s’est passé pour optimiser les processus, l’analyse temps réel pour comprendre ce qui se passe et agir/corriger immédiatement, et l’analyse prédictive pour anticiper ou simuler des scénarios permettant de déterminer ce que devrait faire l’entreprise sous diverses conditions.

Microsoft profite de sa WPC pour annoncer Cortana Analytics, évoquée sur Silicon.fr il y a quelques heures, et dont Satya Nadella nous explique les origines :« Nous avons pris toutes les technologies analytiques avec lesquelles nous avons conçu la plupart de nos propres applications, Cortana, Bing et sa compréhension du Web, tout ce que nous avons réalisé avec le visuel et le vocal, ainsi que l’infrastructure Big Data, le Machine Learning… et nous avons tout regroupé dans une suite baptisée Cortana Analytics. »Là encore, beaucoup de promesses et de potentiel, mais une disponibilité encore incertaine.

A lire aussi :

Microsoft livre la Build 10240 de Windows 10 : une RTM déguisée ? Microsoft restructure son activité mobile en supprimant 7800 postes Microsoft SQL Server 2016 : une base de données extensible sur le Cloud

Cortana Analytics : Microsoft ajoute la voix au Big Data

Un soupçon de Business Intelligence, une bonne dose de machine learning… et la possibilité de formuler des requêtes en langage naturel, à la voix ou au clavier : ainsiMicrosoft présente-t-il Cortana Analytics.

Lancement prévu à l’automne – avec un atelier découverte les 10 et 11 septembre prochains à Redmond, au siège social de l’éditeur – pour cette offre cloud de big data analytique qui regroupe plusieurs services Azure déjà commercialisés ou accessibles en préversion.

La disponibilité générale n’interviendra pas immédiatement : Microsoft prendra d’abord la température avec une bêta qui mettra notamment en œuvre les technologies de reconnaissance du texte, de la parole, des visages et des formes issues du projet Oxford.

Un objectif : permettre aux entreprises de valoriser leurs données… par étapes. Il s’agira en l’occurrence de progresser du « Que s’est-il passé ? » au « Pourquoi cela s’est-il passé ? », puis d’évoluer vers un raisonnement de type « Que va-t-il se passer ? » et « Que devrais-je faire ? ».

Azure Data Factory, Data Catalog et Event Hubs seront mis à contribution pour la gestion de l’information. Data Lake et SQL Data Warehouse le seront pour son stockage. Machine Learning, HDInsight et Stream Analytics, pour son traitement. Power BI, pour sa visualisation.

Des services indépendants

Tous ces services resteront accessibles séparément, indépendamment de l’offre Cortana Analytics proposée sur le modèle de l’abonnement mensuel. Mais pour Microsoft, une offre ainsi « packagée » présente l’avantage de répondre à des scénarios plus complexes dans la recommandation, les prévisions, la détection de fraude ou encore la maintenance préventive.

Et de donner l’exemple de l’hôpital Dartmouth-Hitchcock (Nouvelle-Angleterre), qui a développé un système d’individualisation du suivi médical basé sur Cortana Analytics. Ces annonces ont été faites dans le cadre de la Worldwide Partners Conference de Microsoft (WPC 2015), organisée à Orlando (Floride), selon ITespresso.

En matière de partenariats, on notera que l’écosystème Azure fait désormais partie, aux côtés d’Office 365, Intune, CRM Online et Enterprise Mobility Suite, du programme CSP (« Cloud Solution Provider »). Lequel donne davantage de marge aux partenaires Microsoft pour gérer directement la relation avec les clients, sur les questions d’allocation des ressources, de facturation et d’assistance technique.

A lire aussi :

Microsoft donne à Cortana un début d’accent français Cortana : Microsoft ajoute la voix à son CRM crédit photo : zhu difeng / Shutterstock

Gestion des données : Veritas sauvegarde son cœur de métier

Laurent Martini a fait un choix de cœur et de raison. Ayant démarré chez Veritas en 2001, l’ancien directeur général de Symantec France est donc revenu dans sa maison d’origine qui retrouve son indépendance. En effet, l’exécutif de Symantec a décidé de séparer la société en deux activités, une liée à la sécurité et l’autre à la disponibilité, la gestion des données. Le split s’est déroulé au mois d’avril dernier. La séparation finale sera effective d’ici le 3 octobre et en janvier 2016, Veritas devrait s’introduire en Bourse.

A moins que les choses ne changent avec les rumeurs d’un rachat par le fonds d’investissement Carlyle. Laurent Martini ne commente pas les rumeurs. La business Unit affiche un chiffre d’affaires de 2 milliards de dollars et comprend 8200 employés. Il évoque plus facilement l’intérêt de la séparation, « nous gagnons plus d’agilité pour nous concentrer sur les besoins des métiers ». Un moyen aussi de « se reconcentrer sur le cœur de métier de Veritas, la gestion et la protection des données ».

Une aide à trouver les données intéressantes

Pour se démarquer des compétiteurs, Veritas veut proposer des produits qui accompagnent les clients à valoriser leurs données. « Avant, les clients nous demandaient des croissances de 30% du volume de données. Aujourd’hui, nous sommes à 50%. Ils disposent de plusieurs Po de données et n’arrivent pas à savoir quelles sont les données importantes, car seules 1,5% des données sont réellement intéressantes», souligne le dirigeant. Aidé par un CPO (Chief Product Officer), Veritas a toiletté et innové dans ses solutions. Comme une fusée à 3 étages, elles se segmentent en gouvernance, protection de la donnée et disponibilité.

Sur le premier étage, Veritas propose Data Insight 5.0 qui permet de répondre à la question « comment j’accède à mes données et notamment les non structurées ? ». Cette solution analytique était présente chez Symantec sur la partie DLP (Data Loss Prevention) et intègre l’indexation des données, des logs, les accès, etc. Parmi les nouvelles fonctionnalités, Laurent Martini alerte sur « la capacité à analyser des données hébergées dans le Cloud via des API pour AWS ou Google ».

NetBackup en pilier et Information Fabric en devenir

Sur la partie protection de la donnée, Veritas s’appuie sur son offre historique NetBackup. Cette dernière passe en version 7.7 et gagne une plus grande intégration avec les plateformes de virtualisation comme vSphere 6 ou Hyper-V, ainsi que les environnements Cloud AWS et Google. Petit nouveau dans le portefeuille de Veritas, Information Map. Ce service «utilise les métadonnées des sauvegardes de NetBackup pour les placer dans un Cloud et les délivrer visuellement sur les tableau de bord des clients ». Une dataviz des métadonnées qui s’inscrit dans une démarche plus complète d’ « Information Fabric » que Veritas est en train d’élaborer.

Dernier étage de la fusée, la disponibilité avec Infoscale qui est le pivot de la virtualisation du stockage en mode scale-out. Capable de gérer le clustering et le file system, Infoscale assure la haute disponibilité de cluster Unix, en mode actif-actif ou actif-passif. A cela s’ajoute, Resiliency Platform, une solution de console unifiée pour gérer la continuité de services et s’assurer que les données et les applications critiques restent accessibles dans des environnements physiques et virtuels complexes et multi fournisseurs.

A lire aussi :

Symantec en quête d’un repreneur pour Veritas ?

Google améliore le système antispam de Gmail

Intelligence artificielle et réseau de neurones informatique s’invitent dans la messagerie Gmail. Le service en ligne de Google utilise dorénavant ces techniquespour affiner la détection des messages indésirables.

Le spam sera ainsi écarté plus efficacement de la boite de réception, et les faux positifs devraient se montrer moins nombreux. Le choix des utilisateurs, qui peuvent indiquer si un message doit ou ne doit pas être considéré comme un spam, ne sera plus seulement utilisé pour affiner le moteur antispam de Gmail, mais également pour en personnaliser les effets, utilisateur par utilisateur. Certains peuvent en effet considérer que certains messages, par exemple desnewsletters , sont acceptables, alors que d’autres y verront un courrier indésirable. Enfin, les tentatives de phishing seront mieux détectées.

Faciliter l’envoi de courriers

Les spams sont de plus en plus sophistiqués, et donc difficiles à détecter. Le filtreantispam de Google a ainsi parfois tendance à marquer comme spam des messages qui sont légitimes.

Pour permettre aux entreprises d’éviter que les messages soient marqués commespam , Google propose aujourd’hui les Postmaster Tools, qui permettront à ceux qui envoient des courriers électroniques en masse d’analyser divers paramètres : erreurs de délivrance, rapports de spam, réputation de l’émetteur. De quoi permettre aux entreprises d’affiner leurs campagnes d’envoi d’e-mails.

À lire aussi : Google I/O : 900 millions d’utilisateurs pour Gmail Google améliore la sécurité de sa messagerie en ligne Gmail Amazon part à l’assaut de Gmail et Exchange avec WorkMail

Crédit photo : © Nikolai Sorokin – Fotolia.com

Axa et Polytechnique s’offrent une chaire de data science orientée assurance

Après la chaire « Internet of Everything », la chaire «Data Science for Insurance Sector » vient renforcer l’offre de l’École Polytechnique. L’établissement à dominante scientifique s’est associé au Groupe AXA, via sa filiale AXA Global Direct. Portée par la Fondation de l’École Polytechnique, cette chaire internationale d’enseignement et de recherche permettra de« soutenir les travaux de recherche menés dans les laboratoires de l’X, proposer aux élèves-ingénieurs et étudiants des cas d’études concrets et former par la culture projet des data scientists dans le secteur de l’assurance, »selon ses promoteurs.

Pour Jacques Biot, président de l’École Polytechnique, c’est l’occasion de réaffirmer le bien-fondé d’une politique de chaire « tournée vers le monde économique et visant à satisfaire les besoins en recrutement des entreprises face aux mutations technologiques. »

Alimenter un vivier de talents du Big Data

Le traitement et l’analyse de données massives (Big Data) impacteront durablement le marché de l’assurance. Ainsi, la data science permettra, à terme, d’adapter de manière individuelle les services d’assurance aux usages des bénéficiaires et aux contraintes du marché. En soutenant la chaire internationale « Data Science for Insurance Sector », Axa alimente donc un vivier de talents.

« Ce partenariat représente une nouvelle étape dans notre stratégie d’accélération de notre transformation digitale », a déclaré Stéphane Guinet, directeur général d’Axa Global Direct.« Travailler avec les étudiants de l’École Polytechnique, ses professeurs et ses chercheurs, va nous aider à construire un socle de connaissances solides ». Et ce en s’appuyant notamment sur les compétences du Laboratoire d’informatique (LIX) et du Centre de mathématiques appliquées (CMAP) de l’École Polytechnique.

Lire aussi : Jean-Yves Le Drian et Cisco parrainent la chaire des objets connectés à Polytechnique Objets connectés : Cisco et le CESI ouvrent une chaire « industries et services de demain » crédit photo © McIek – Shutterstock

Facebook et IA, à la recherche du 6ème sens numérique

Intelligence artificielle, réalité virtuelle, nouvelles formes de communication : Mark Zuckerberg a ratissé large ce mardi dans le cadre d’une session publique de questions-réponses sur sa page Facebook. Tout en revenant sur le développement des accès Internet dans le monde, le fondateur et patron du réseau social a également abordé des sujets plus personnels : sa définition du bonheur, ses aspirations pour les 10 prochaines années, ses interrogations sur la vie éternelle…

Les travaux sur l’intelligence artificielle ont pris leur envol fin 2013. Le Français Yann Le Cun, enseignant spécialiste du « deep learning » à l’université de New York, est recruté pour monter un laboratoire.

Deux autres structures ont vu le jour depuis lors. L’une est installée au siège social californien de Facebook (Menlo Park). L’autre vient d’être ouverte – début juin – à Paris. Elle est chapeautée depuis la Silicon Valley par Yann Le Cun, dans le cadre du programme FAIR (Facebook AI Research).

Ce réseau de laboratoires travaille notamment sur des algorithmes capables de comprendre ce que partagent les utilisateurs pour montrer le contenu aux personnes susceptibles d’être intéressées.

En mars, lors de la dernière conférence F8, Facebook avait levé le voile sur quelques-uns de ses développements en coulisse. Dont un système – à l’état de prototype – destiné à contextualiser les statuts écrits… et les vidéos, en étant par exemple capable de reconnaître près de 500 types d’activités sportives et de faire des différences subtiles, par exemple entre patinage et hockey sur glace.

L’intelligence artificielle, un 6ème sens humain ?

Côté statuts, cette intelligence artificielle peut déterminer, sans connaissances préalables, des relations d’inclusion, de possession ou encore de situation. L’idée générale étant de « ne pas montrer de vidéos de base-ball à quelqu’un qui n’aime que le football ».

Mark Zuckerberg va plus loin : « Si quelqu’un publie une photo sur laquelle apparaît un de ses amis, nous devons nous assurer que cet ami la voie. Si quelqu’un publie la photo d’un chien, on doit pouvoir la montrer à celles et ceux qui aiment les chiens ». Pour le jeune milliardaire, cela implique de développer des systèmes qui reprennent – et améliorent – les cinq sens humains, selon ITespresso.

Outre la vision, l’écoute fait l’objet d’une attention particulière au sein des laboratoires, avec la fonction « speech-to-text » et l’interprétation du langage naturel. C’est précisément le domaine de compétence du Language Technology Group, monté discrètement en interne et qui s’appuie notamment sur les technologies héritées du rachat de Wit.AI (API de reconnaissance vocale pour les applications).

Interrogé sur l’avenir de Facebook à moyen terme, Mark Zuckerberg met l’accent sur les expériences immersives en réalité virtuelle, ainsi que sur l’apport des « wearables », au-delà des montres connectées. S’interrogeant sur le fonctionnement du cerveau et de l’apprentissage, sur la possibilité d’éradiquer un jour toutes les maladies, il se demande aussi «si une loi mathématique fondamentale régit les relations humaines ». Et d’ajouter, en référence au programme Internet.org : « En moyenne, pour 10 personnes connectées, 1 sort de la pauvreté. […] Cela veut dire 400 millions sur les quelque 4 milliards qui n’ont pas encore accès au Net ».

A lire aussi :

Assises de la sécurité 2014 : le cerveau au cœur de la cybersécurité

Comment l’intelligence artificielle va remplacer des millions d’emplois

Bill Gates se méfie des progrès de l’intelligence artificielle

@life_in_a_pixel-shutterstock

Salesforce étoffe sa &D et s’empare de Kerensen Consulting

Marc Benioff peut être soulagé d’avoir réalisé sa keynote de la convention des clients Salesforce à Paris dans des conditions convenables. Le CEO de l’éditeur leader de solutions CRM dans le cloud a résisté aux mouvements de grogne des taxis vis-à-vis d’UberPop, aux perturbations ponctuelles dans les transports en commun de la capitale et des soucis d’accès Internet qui ont dérangé l’entrée des milliers de participants dans le complexe du Palais des Expositions (Porte de Versailles) abritant l’évènement IT.

Après une courte session live ambiance folk-pop et de folktronica de Lilly Wood and the Prick, Marc Benioff a enchaîné avec le cœur du business de Salesforce : la « Customer Success Platform ». Au menu : « Customer » à toutes les sauces. Difficile d’échapper à ce mantra. Il répète à satiété combien les solutions de sa firme sont pertinentes pour les entreprises qui veulent approfondir leur relation client.

Les études de marché confortent Marc Benioff dans ses éléments de langage : en 2014, Salesforce.com a poursuivi son ascension dans le segment CRM avec une part de marché de 18,4% selon Gartner. Ce qui lui permet de distancer ses principaux rivaux SAP et Oracle, rappelle Silicon.fr.

« Comment se rapprocher des clients ? On parle fondamentalement de la transformation intrasèque du business », assène Marc Benioff qui a pris l’habitude pendant sa keynote de faire le tour du plateau central pour gagner en proximité avec l’assistance. Salesforce, c’est un nouveau modèle « technologique » (cloud), « économique » (système d’abonnement) et « philanthropique » (Fondation Salesforce), clame le CEO.

L’éditeur revendique plus de 150 000 clients dans le monde, tous domaines confondus (transports, finances, médias, industries, santé…). En France, il n’existe pas de communication officielle mais on évoquait l’an passé un millier d’entreprises clientes. Sachant qu’elle part à la conquête de tous les segments d’entreprise : start-up, TPE, PME et grands comptes.

L’effectif monde continue de grossir et atteint désormais 16 000 employés. En France, l’éditeur serait en mesure de générer une valeur équivalente à 3,3 milliards d’euros du PIB et de créer 20 000 emplois d’ici 2018 selon une étude IDC. Au niveau local, l’écosystème partenaires s’agrandit. 60 partenaires BtoB exposaient lors du Salesforce World Tour Paris.

Rachat de Kerensen Consulting et nouveau centre R&D

Salesforce peut compter sur des intégrateurs importants comme Accenture et Capgemini mais aussi sur des sociétés à périmètre plus concis commeKerensen Consulting (effectif : 150 personnes), que l’éditeur américain vient de racheter.

Ce cabinet conseil & intégration technologique aide les entreprises à basculer dans le cloud.« La demande est très forte sur le marché en termes de compétences Salesforce ,» justifie Alexandre Dayon, Président des Produits, en marge de la plénière.

La R&D monte aussi en puissance. A Paris, un nouveau labo à Paris dédiée à l’intégration de solutions Microsoft et d’outils pour les centres d’appels est créé. Sachant que la firme américaine dispose déjà d’un centre de recherche à Grenoble (Isère).

Salesforce Analytics Cloud arrive en français

Des cas clients sont mis en avant pour souligner l’apport stratégique des solutions Salesforce dans le business : comment répondre aux besoins d’analyse de données de la PME Petzl (équipements pour l’escalade, l’alpinisme, la spéléologie…), comment une multinationale comme Coca Cola peut interagir avec les consommateurs ou comment approfondir la relation client dans le cas d’une branche d’entreprise publique comme SNCF Voyages.

Alexandre Dayon prend en charge la présentation de la déclinaison française de la suite Analytics Cloud, qui permet de tirer parti des sources de données disponibles pour améliorer la relation client et faciliter la prise de décisions business.

Adaptée aux supports mobiles (smartphones et tablettes), Analytics Cloud est basée sur la plateforme Wave, qui avait été présentée lors de la convention « maison » Dreamforce organisée en octobre 2014 à San Francisco. Elle sera disponible en français à partir du 15 juillet, précise ITespresso.

Illustration avec Petzl : Alexandre Dayon démontre comment l’équipementier français spécialisé dans les activités dédiées à la verticalité est en mesure d’évaluer un inventaire de stock (données disponible dans une base SAP) dans une boutique Le Vieux Campeur et de basculer les éléments dans un dashboard épuré Salesforce depuis un smartphone…La visualisation et la disponibilité des stocks de produits Petzl faciliteront les process de ré-approvisionnement.

Un client grand compte comme SNCF exploite simultanément plusieurs suites Salesforce comme Cloud Analytics, Marketing Cloud et Community Cloud.

Un autre outil fait également son apparition dans la communication associée à la convention : Service for Apps (service d’assistance inclus dans des applications mobiles)

Signalons que, lors de la keynote, Marc Benioff ne fera pas mention de Microsoft.

Probablement afin d’éviter que le feu desrumeurs concernant d’un méga-rapprochement avec Salesforce soit attisé.

Interpellé sur le sujet lors du point presse post-keynote, Alexandre Dayon ne fera aucun commentaire sur le sujet.

Mais le Président des Produits Salesforce précisera néanmoins que des partenariats techniques avec Microsoft sont réalisés sur plusieurs fronts : Office (bureautique), PowerBI (décisionnel), Azure (cloud)…

Tant qu’il y a de l’IT, il y a de l’espoir.

A lire aussi :

Racheter Salesforce ? « Aucun intérêt », selon SAP

Salesforce promeut l’égalité salariale dans la Silicon Valley

Big Data : Google ciblerait Dunnhumby, filiale fidélité de Tesco

Google se serait rapproché de la société de capital-investissement Permira pour faire une offre sur Dunnhumby, d’après . Spécialiste de l’analytique et de l’expérience client, Dunnhumby gère notamment le programme de fidélité Clubcard de sa maison mère, le distributeur britannique Tesco.

En août 2014, après avoir révisé à la baisse ses perspectives annuelles, Tesco avait annoncé vouloir limiter son budget IT et réduire ses coûts. Quelques mois plus tard, en février 2015, son DSI, Mike McNamara, a quitté le groupe britannique pour prendre la direction informatique du distributeur américain Target, encore sonné par l’attaque sur ses lignes de caisse. Dans la foulée, Tesco a vendu ses services haut débit Tesco Broadband et de streaming video Blinkbox à TalkTalk, et annoncé mettre en vente Dunnhumby. L’entreprise emploie3 000 personnes et analyse les données d’un milliard de consommateurs dans le monde.

Google face à WPP, Nielsen et d’autres

Google est intéressé par les actifs de Dunnhumby, mais il est loin d’être le seul. Le groupe publicitaire britannique WPP et le cabinet Nielsen feraient également partie d’une liste de10 repreneurs potentiels. Les premières offres devraient être transmises avant la fin juillet, selon le Guardian. Pour Tesco, c’est l’occasion de se recentrer sur son cœur de métier tout en renflouant ses caisses. La vente de Dunnhumby pourrait lui rapporter 2 milliards de livres sterling.

Lire aussi :

L’Europe se penche sur les entraves au e-commerce transfrontalier Auchan ajoute du Big Data à la sauce Splunk à son panier e-Commerce crédit photo © venimo – Fotolia.com

Sécurité : Balabit prend le virage du Big Data et du comportemental

Le CEO de Balabit, Zoltan Gyorko, est conscient que «la société a eu plusieurs vies en 15 ans d’existence ». L’aventure a commencé avec un projet de fin d’études avec le firewall (Zorp) en 2000. Un succès en Hongrie qui a permis à l’entreprise de se faire un nom et de travailler sur d’autres projets. Les années suivantes, elle a ajouté d’autres produits comme Syslog-ng, gestionnaire de log Open Source (basé sur les travaux en 1998 de Balázs Scheidler un des fondateurs de Balabit) et Shell Control Box pour la surveillance des comptes à privilèges.

Des travaux qui se sont accompagnés par une volonté d’aller à l’international. D’abord en Europe, l’Allemagne, l’Angleterre, la France (où la société se trouve en concurrence avec Wallix), la Russie et les Etats-Unis. Des changements qui ont nécessité des investissements. L’année dernière, Balabit a levé 8 millions de dollars auprès de C5 Consulting. Une prochaine IPO ? Le dirigeant préfère laisser la question en suspens et engager la conversation vers la nouvelle marotte de Balabit, eCSI.

L’analyse comportementale, l’avenir de la sécurité

Pour beaucoup de spécialistes de la sécurité, il ne fait plus de doute que la prévention des incidents de sécurité ne se réalise plus uniquement par des solutions classiques comme les firewalls ou les IDS. Il faut ajouter dans le réseau de l’intelligence pour détecter les comportements inhabituels. Balabit est en phase avec cette analyse en mettant le comportement humain au cœur de son concept eCSI où la sécurité informatique est liée au facteur humain (erreur humaine, attaques sophistiquées internes ou externes, etc.).

« Il faut une réorientation de la sécurité IT vers la surveillance et la remontée d’informations en temps réel », souligne Marton Illes, évangéliste du concept eCSI. La notion de temps réel est relative avoue le responsable en expliquant que cela peut aller « de la milliseconde à la journée. Le temps réel s’adapte au temps du business ». Il faut donc injecter du Big Data, de l’analytique, de la gestion de log et de la surveillance des comptes à privilèges.

Un triptyque de solution pour un concept

Et cela tombe bien, car Balabit fournit déjà deux briques pour la notion d’eCSI : Syslog-gn et Shell Box Store. Chacun des produits a évolué pour apporter sa pierre à l’édifice. Ainsi, les versions Open Source 3.7 et Premium 5F3 de Syslog-ng se sont enrichies de passerelles avec l’environnement Hadoop à travers une machine virtuelle Java pour dialoguer avec les librairies HDFS. Balabit travaille avec MapR et Hortonworks pour brancher « un streaming de logs » dans Hadoop, via un cluster HDFS (Kafka développé par Linkedin par exemple). « Nous arrivons à envoyer 55 000 logs par seconde sur la distribution Hortonworks », évoque Istvan Szabo, responsable produit Syslog-ng. Ce service s’apparente alors à un outil ETL (Extract Transform Load) pour les logs et répond aux besoins de filtrer, anonymiser et chiffrer les données (aussi bien sur le stockage que pendant le transfert des données) avant leur traitement. Autre étage à la fusée eCSI, la surveillance des comptes à privilège avecla Shell Control Box. La dernière version 4F1 a été dévoilée en mai dernier avec une meilleure intégration des audits pour la conformité PCI-DSS ou la capacité de rejouer un audit dans un navigateur web. Sur la partie configuration réseau, Shell Control Box a évolué pour combiner les connections Bastion (invisible) et Routeur (transparent) pour gérer plus d’interfaces logiques.

Enfin dernier étage, BlindSpotter qui est la solution qui se charge d’analyser le comportement des utilisateurs à travers les données des deux solutions analysées précédemment. Pour Peter Gyongyos, en charge de ce produit, « il a été pensé comme un outil d’enquête (forensic) avec plusieurs éléments fournis en temps réel, logs, SIEM, PAM (module d’authentification), LDAP, autres données utilisateurs, mais aussi les rapports, les alertes, les actions, etc. L’objectif est de suivre les traces numériques et d’élaborer une baseline d’un comportement normal par utilisateur». Il ne s’agit pas pour autant de récréer un outil de comparaison de signature, mais bien de s’attacher au comportement de l’utilisateur. Le message est clair, combattre les menaces internes, mais également les APT (Advanced Persistent Threat) qui ont pour vocation de rester le plus longtemps cachés pour mener à bien leurs attaques (vol de données, malware,etc).

Convaincre et éduquer sur les algorithmes

Pour cela, BlindSpotter embarque plusieurs séries algorithmesd’ pour percer à jour le comportement suspect : répartition du temps (en fonction des heures d’activités de l’utilisateur), l’association règles d’apprentissage et extraction fréquente de données (exemple quand un port change sans raison), recommandation des systèmes et des clusters (ex connexion à un CRM comme Salesforce) ou analyse sémantique (répétition de commandes).

Cette solution qui sera un produit à part devrait arriver dans les prochaines semaines officiellement, souligne le responsable qui ne veut pas dévoiler les différentes versions et encore moins les tarifications. Mais Peter Gyongyos se veut pragmatique. « Les gens ne sont pas prêts à avoir une confiance aveugle dans les algorithmes jugés flous et heuristiques. Ils préfèrent avoir des règles claires. » Il reste du chemin à parcourir, pour éduquer et convaincre, mais les paris ne font pas peur à Zoltan Gyorko. « Nous avons changé plusieurs fois de stratégie pour accompagner les tendances, nous sommes agiles et nous avons plutôt bien réussi notre adaptation. » A suivre…

A lire aussi :

Avis d’expert – Les logs, cette mine d’informations pour les pirates crédit photo © drx – Fotolia.com Analyse prédictive : SAP Predictive Analysis joue les oracles

Entrepôts de données, analyse de grands volumes d’information, voire analyses en temps réel, la Business Intelligence s’est aujourd’hui installée dans tous les domaines applicatifs et métier. Mais déjà, les solutions passent au stade suivant : la prédiction, déjà bien initiée avec les datamarts et autres logiciels combinant informatique et modèles statistiques. SAP entend bien devenir incontournable sur le secteur, et emporter une part conséquente de ce gros gâteau. C’est en tout cas le message martelé par le premier éditeur européen la semaine passée, lors d’un événement organisé à Nice (SAP Insider).

« Les applications analytiques permettent d’analyser ce qui s’est passé sur une période écoulée, ou jusqu’à aujourd’hui au sein des activités de l’entreprise. Les fonctions prédictives utilisent l’information pour se projeter dans l’avenir en simulant ce qui va se passer, en mesurant les impacts selon différents paramètres…», explique Steve Lucas, président Platform Solutions chez SAP (en photo ci-dessus).

L’après-Clementine

Après plusieurs évolutions en la matière, SAP semble avoir stabilisé sa R&D pour proposer une solution maison. Au départ, SAP Predictive Analysis était intégrée au moteur statistique et aux algorithmes de Clementine, de l’éditeur SPSS. Cependant, le rachat de SPSS par IBM pendant l’été 2009 a poussé l’éditeur allemand à rechercher une solution alternative. Une démarche qui l’a amené à racheter l’éditeur français Kxen en septembre 2013.

« L’interface très étudiée de Kxen Infinite Insight simplifie fortement la conception de modèles statistiques, et les met à la portée d’utilisateurs métier », assure Waldemar Adams, senior vice-président Analytics EMEA chez SAP, qui s’empresse de relativiser : « Pour peu que ces spécialistes métier disposent aussi de bonnes connaissances en statistiques, bien entendu. »

Des statistiques plus intégrées et plus ouvertes

La version 2.2 de Predictive Analysis annoncée à Nice apporte plusieurs évolutions majeures. Tout d’abord la possibilité d’utiliser en mémoire des jeux de données beaucoup plus volumineux, avec plusieurs milliers de colonnes. Essentiel à l’heure du croisement des Big Data. Sans oublier la possibilité de détecter en temps réel les tendances des marchés, des ventes, ou les évolutions du comportement des consommateurs par exemple.

« Les solutions prédictives proposent à l’utilisateur de se baser sur plusieurs colonnes avec des jeux de données représentatifs ‘suffisants’. Cependant, un volume d’information important permet d’améliorer la fiabilité des prédictions. Et surtout, si l’entreprise ne connait pas a priori précisément ce qu’elle recherche, il lui faut utiliser toutes les colonnes sans avoir à se limiter à une sélection », affirme Steve Lucas. Et surtout, « la nouvelle version Predictive Analysis 2.2 dispose d’un moteur unique pour toutes les fonctions prédictives », ajoute Waldemar Adams. De nouveaux algorithmes sont disponibles dans l’Automatic Predictive Library (ou APL), et l’intégration du langage Open Source ‘R’ (via des librairies) apporte une ouverture intéressante, bien que des concurrents comme Teradata (avec TeradataR) ou encore IBM (SPSS et son R Integration package) l’aient déjà réalisée depuis plusieurs années. Améliorations également dans la gestion des modèles et les fonctions de comparaison de modèles.

Aujourd’hui, Predictive Analysis est uniquement disponible en mode logiciel traditionnel à installer sur site. Toutefois, l’éditeur souligne l’intégration étroite avec les vues de la SAP Hana Platform, sans oublier l’intégration avec SAP Business Warehouse (BW) en mode offline, une solution très utilisée chez ses clients.

Si la plate-forme Hana incarne pour l’éditeur l’un des modes de déploiement privilégiés pour ces modèles prédictifs, les possibilités offertes vont bien au-delà.« Les modèles conçus avec Predictive Analysis disposent de cinq types de déploiement : sur Hana, en lien avec toute base de données, intégré dans des applications SAP (comme SAP Fraud Management), en tant que solution indépendante, ou encore en mode intégré sur des solutions d’autres éditeurs (OEM),» détaille Waldemar Adams.

Planification en mode Saas

Les intervenants n’ont cessé de le marteler lors de SAP Insider:« Nous souhaitons apporter de la simplicité à l’utilisateur final et au spécialiste IT ». Pas facile de faire rimer SAP et simplicité… Pourtant, l’éditeur déploie de grands moyens pour y parvenir et peaufine ses interfaces. Outre Infinite Insight, qui propose une interface et une visualisation étudiées pour simplifier la conception des modèles, l’utilisateur final bénéficie de Lumira dont l’interface graphique et ergonomique apporte de très nombreuses visualisations de données (avec propositions des trois visualisations a priori les plus adaptées) et une exploration dynamique des résultats.

Dans le sillon d’éditeurs comme Anaplan, nouvelle vedette du Planning en mode Saas, SAP annonce son application mobile SAP Cloud for Planning. Une façon d’impliquer plus directement l’utilisateur final, qui peut désormais accéder à tout moment et en tout lieu à son Saas de planning stratégique intégrant des fonctions analytiques évoluées.

A lire aussi :

SAP Hana : du In-Memory, mais aussi du Cloud et du Paas SAP S/4 Hana : réellement simple ? SAP transforme Hana en plate-forme pour l’Internet des objets

IBM investit massivement dans la technologie Big Data Spark

Apache Spark est un projet en pleine croissance dans le monde duBig Data. Cette offre est capable de fonctionner sur un cluster de serveurs et permet de traiter les données jusqu’à 100 fois plus rapidement que Hadoop, du fait de l’utilisation de techniques In-Memory.

IBM n’a pas manqué de remarquer cette solution Open Source, que la firme juge comme étant potentiellement « le plus important nouveau projet Open Source de la décennie »dans le secteur du traitement de données.

Big Blue compte donc mettre le paquet sur Spark. Cette offre sera intégrée à ses solutions dédiées aux mondes de l’analytique et du commerce. Elle sera également proposée sur le Watson Health Cloud et déclinée en offre à la demande sur le PaaS Bluemix.

SystemML sera placé sous licence Open Source

Dans le même temps, plus de 3 500 développeurs et chercheurs d’IBM se pencheront sur des projets relatifs à Spark. 12 laboratoires seront investis dans ces travaux, dont un – situé à San Francisco – dédié spécifiquement à Spark.

La technologie de Machine Learning d’IBM, SystemML, sera également offerte à la communauté Spark sous forme Open Source. Enfin, diverses opérations de formation seront proposées au public, avec comme objectif de former plus d’un million de data scientists et data engineers à Spark, au travers de cours en ligne (MOOC).

À lire aussi : Le gouvernement britannique s’associe avec IBM sur le Big Data Des rachats pour IBM et Cisco : ruée vers OpenStack Apache vient booster Hadoop avec Spark 1.0

Crédit photo : © Lassedesignen – Shutterstock

Le Power8 d’IBM surclasse le x86 sur les marchés financiers

Avec ses serveurs Power8, IBM compte bien dépasser les machines x86. En particulier dans les secteurs exigeants. La firme à mis face à face un serveur équipé de deux Power8 à 12 cœurs cadencés à 3,52 GHz et un serveur x86 pourvu de deux puces Xeon E5-V3 18 cœurs à 2,3 GHz.

Sur le papier, ces machines proposent un indice ‘cœurs x fréquence’ presque identique. Toutefois, le serveur Power s’est montré 2,3 fois plus rapide que son homologue x86 dans le cadre de calculs financiers et analytiques (benchmark STAC-A2). En ajoutant un Xeon Phi au serveur x86, l’écart se réduit, mais le Power8 reste 1,7 fois plus véloce. L’utilisation d’un accélérateur Nvidia permet toutefois de renverser la vapeur.

Reste qu’avec des CPU seuls, les Power8 sont aujourd’hui sans équivalent. Un grand nombre de threads par cœur et une bande passante généreuse sont directement liés à ces bons résultats.

Les FPGA en renfort

Big Blue dispose également d’une arme secrète pour passer à la vitesse supérieureles : accélérateurs. Ceux à base de GPU proposés par Nvidia, mais aussi les FPGA, très populaires dans le monde de la finance.

C’est dans cet esprit qu’Alpha Data vient de présenter un kit de développement basé sur sa carte accélératrice ADM-PCIE-7V3. Cette dernière est compatible avec le bus CAPI des serveurs Power8 et intègre un puissant FPGA Xilinx Virtex-7 X690T.

À lire aussi : HPC : One Stop Systems allie 16 GPU aux serveurs Power8 IBM lance SuperVessel son Cloud Power8 gratuit IBM met du Power8 dans HANA

LinkedIn rend Open Source Pinot, son outil d’analyse en temps réel

LinkedIn multiplie les initiatives dans le Big Data. Huit mois après avoir dévoilé son framework d’analyse de données en temps réel Pinot (en réference au cépage du même nom), le réseau social professionnel américain a annoncé, mercredi 10 juin, rendre sa solution Open Source. Le but : ouvrir Pinot aux contributions de développeurs tiers et élargir son adoption.

Pour collecter des évènements en temps réel et réagir à l’activité de l’utilisateur en quelques secondes, LinkedIn s’est détourné de solutions propriétaires et d’alternatives comme Druid, le data store Open Source qui se rapproche le plus de Pinot. Cet outil maison a été conçu pour traiter « des milliards d’évènements en temps réel par jour ». Hautement évolutif et tolérant aux pannes, selon ses promoteurs, Pinot offre un faible temps de latence et dispose d’une interface de type SQL. Pinot en téléchargement sur Github

En interne, LinkedIn utilise Pinot depuis plus de deux ans avec 30 de ses produits, dont XLNT, plateforme de test A/B, indique dans unbillet de blog Kishore Gopalakrishna, responsable technique logiciels chez LinkedIn. Parallèlement, Pinot sert debackend à plus de 25 produits d’analyse destinés aux clients et aux membres du réseau (Qui a consulté votre profil ou vos nouvelles ? Quel est l’impact des offres d’emploi et des annonces publicitaires diffusées via LinkedIn…).

Le code source de Pinot est disponible sous licence Apache 2.0 sur Github. En plus de Pinot, LinkedIn a « ouvert » d’autres solutions d’infrastructure data, parmi lesquelles :Azkaban, Kafka, Samza et Voldemort. Il n’est pas le seul. D’autres grands noms du numérique ont rendu Open Source leurs propres outils d’analyse et traitement de , donteBay avec Pulsar et Twitter avec Storm.

Lire aussi : Emploi et Big Data : LinkedIn ouvre ses données aux chercheurs Linkedin s’empare de l’expertise Big Data de Carreerify

Crédit : McIek Shutterstock

BI : Qlik veut convertir les métiers au mélange des données

Dans la foulée des annonces de Qlik Sense, de ses offres cloud, et de son service Datamarket (issu du rachat du service Data as a Service ou DaaS éponyme –données professionnelles accessibles en mode cloud), l’éditeur suédois a organisé une journée dédiée à ses clients et partenaires à Paris. Une occasion pour Silicon.fr de rencontrer Anthony Deighton, son directeur technique (CTO), et James Richardson, son Managing Director (ex-analyste du cabinet d’études Gartner).

Dès la création de la société, le leader de la visualisation et de l’exploration analytiques choisit de stocker tous les détails des données en mémoire, et pas uniquement les résultats. Un défi risqué dans les années 1990, lorsque la mémoire coutait beaucoup plus cher… L’évolution informatique semble lui avoir donné raison, comme le prouve la généralisation du In-Memory ou encore SAP avec Hana.

Libérer l’utilisateur de la technologie

« En 30 ans, la Business Intelligence a fortement évolué. Devenue stratégique, elle s’impose désormais à tous les niveaux de l’entreprise,» assure James Richardson. «C’est pourquoi les utilisateurs peuvent à présent faire beaucoup plus avec une solution comme Qlik. Grâce à la plateforme Sense, les métiers peuvent explorer intelligemment leurs données en mode Click&Look sans dépendre sans cesse des informaticiens afin de découvrir des informations ou de prendre de meilleures décisions. Nous visons trois objectifs essentiels. Avant tout : libérer l’utilisateur métier des barrières technologiques grâce à la visualisation. Second objectif : intégrer et donner accès à tous les types de données internes ou externes à l’entreprise. Traditionnellement, la BI se contentait d’analyser les informations transactionnelles des ERP et autres applications centrales. D’ailleurs, les volumes ne sont pas forcément importants. Enfin, il s’agit de mettre fin à l’utilisateur final passif se contentant de visualiser le résultat d’une chaîne de traitements: SGBD, ETL, front-office… Aujourd’hui, l’utilisateur plus impliqué veut être actif et explorer des données de façon interactive, collaborative, afin d’exprimer des idées, des opinions, etc.»

Le mélange de données à la portée des métiers

La variété des données à considérer et leurs différents formats –bases de données, tableurs, etc.) apportent un niveau de complexité pour l’utilisateur final, non-initié aux liaisons de données et autres référentiels informatiques. Les opérations dites « de data blending » (mélange de données) nécessitent une connaissance de la structure des données et de la mise en relation entre elles. Peut-on alors s’affranchir des informaticiens ?

« Dans Sense, notre moteur d’associations détecte les relations a priori possibles entre des colonnes Excel et des champs de bases de données, ou en analysant la forme des informations… Il propose donc automatiquement à l’utilisateur des liens qu’il peut refuser, soit parce qu’il constate que cela n’a aucun sens, soit parce que le résultat final n’apporte rien. Mais bien souvent, la proposition est pertinente,» explique Anthony Deighton. « Effectivement, parfois l’opération s’avère inefficace. Néanmoins, cela présente l’avantage de mettre à jour des problèmes d’incohérence ou de qualité des données, avec charge à l’utilisateur et aux informaticiens d les résoudre. Toutefois, l’utilisateur connait ses informations généralement locales et est à même de trouver rapidement une solution.»

Pourtant le problème des données non structurées ne devrait-il pas s’accentuer? « Pour ma part, je ne connais pas de données non structurées. Toute information a une structure, non seulement les bases de données, mais aussi les documents bureautiques ou les objets connectés. Le défi consiste surtout à détecter cette structure,» rétorque le directeur technique. Cette question de qualité des données est épineuse, car essentielle à la pertinence des analyses. D’où l’importance croissante des solutions de gouvernance des données.

« Cependant, avec les grands volumes, la pertinence a fortement tendance à augmenter,» relativise James Richardson. « La question à se poser touche aux seuils de tolérance acceptable par l’entreprise pour telle ou telle analyse. Ainsi, sur des informations locales, elle pourrait envisager 90 à 95% de fiabilité, contre 99,99% pour des données professionnelles achetées auprès de spécialistes. Par ailleurs, le phénomène culturel reste l’un des freins majeurs à la démocratisation de l’accès aux outils de BI. Certaines personnes pensent que leur pouvoir tient dans ces informations. Mais cela évolue finalement assez vite dans le bon sens. Et ces solutions visuelles y contribuent.»

La concurrence, quelle concurrence ?

Dans le sillon d’entreprises pionnières comme Qlik et Tableau, et face aux succès remportés, tous les acteurs de la BI ont fortement investi sur la visualisation et l‘exploration des données. La concurrence s’accentue donc, non seulement pour Qlik, mais aussi pour des acteurs comme Tableau.

« Souvent, ces acteurs ont imité l’interface de Qlik, mais leur moteur reste le même, et ne propose ni le même spectre fonctionnel ni la même agilité,» affirme Anthony Deighton. «Contrairement à Qlik, ces plates formes n’ont pas été originellement conçues avec cette préoccupation visuelle intégrée dans leur socle. Ni avec la mobilité. Résultat la combinaison des deux devient généralement laborieuse et complexe, et non naturelle,» renchérit James Richardson.

La guerre des trois n’aura pas lieu

Longtemps, les éditeurs de BI ont proposé leurs solutions comme exclusivement à destination des informaticiens. Puis, depuis quelques années, certains responsables d’entreprise (marketing, financiers…) ont décidé de passer outre l’informatique. Alors, une grande partie des éditeurs ont court-circuité les DSI en s’adressant directement aux métiers. Résultat : des solutions souvent hétérogènes et complexes à intégrer, des conflits plus tendus encore, et un remplacement de l’éditeur quand il faut quelqu’un porte le chapeau…

« Chacun doit trouver sa place dans la décision, avec pour objectif une solution qui réponde aux attentes de l’utilisateur final. Car, finalement, tout le monde ressort perdant de la bataille entre DSI et directions métier, et surtout l’entreprise. La solution doit être simple à utiliser, ergonomique et pouvoir apporter la bonne information dans le bon contexte et au bon moment à l’utilisateur. Avec la possibilité pour l’informaticien d’intervenir. Sinon, comment l’utilisateur peut-il avoir confiance dans les résultats de données ? Comment pourrait-il utiliser un outil qui ne convient pas?… Le dénouement passe par un partenariat en bonne intelligence autour d’un outil collaboratif,» conclut James Richardson.

A lire aussi :

Avec Sense 2.0, Qlik pousse la dataviz vers les métiers et le Cloud Qlik Branch, une plateforme ouverte au partage d’API entre développeurs

Crédit Photo : Syda production-Shutterstock

Le gouvernement britannique s’associe avec IBM sur le Big Data

Le ministre des Sciences du gouvernement britannique,Jo Johnson, a levé le voile sur un partenariat signé avec IBM, d’une durée de cinq ans et d’un montant de313 millions de livres (environ 453 millions d’euros).

L’objectif est de booster la recherche sur le Big Data au sein du Royaume-Uni. Le gouvernement va mettre 113 millions de livres sur la table, et IBM 200 millions, sous la forme d’un ensemble de technologies et d’une expertise sur site.

L’accès aux datacenters d’IBM et à la plate-forme Watson sera ouvert aux chercheurs. Un minimum de 24 chercheurs de la firme américaine seront également détachés auprès du Hartree Centre, piloté par le STFC (Science and Technology Facilities Council). Les résultats des travaux menés par les universitaires britanniques et les équipes d’IBM seront commercialisés conjointement par les deux acteurs.

Des serveurs OpenPower

Ce partenariat est d’importance pour IBM, mais également pour la Fondation OpenPower. Cette technologie sera en effet un des éléments clés des infrastructures qui seront mises en place dans le cadre de ces travaux de recherche, aux côtés de Watson, lui aussi basé sur la technologie Power.

Les machines OpenPower se positionnent ainsi comme les fantassins des infrastructures massives dédiées à des traitements Big Data, la tête pensante de ces clusters restant Watson.

À lire aussi : Quiz Silicon.fr – 10 questions pour tout savoir sur l’initiative OpenPower SoftLayer va intégrer des serveurs OpenPower à ses offres bare metal Tyan et Cirrascale lancent les premiers serveurs OpenPower non IBM

Crédit photo : © Feature Photo Service

Discover 2015 : les 4 commandements de Hewlett Packard Entreprise

La séparation en deux activités arrive à grand pas pour HP, car elle sera effective au 1er novembre prochain, a annoncé Meg Whitman, CEO du groupe. Elle a profité de l’évènement annuel de la firme à Las Vegas pour reparler de la création de ces deux entités et surtout de dresser unefeuille de route pour l’activité entreprise qu’elle va diriger.

En premier lieu, elle justifie inlassablement cette scission pour mieux rassurer les clients. «Nous avons besoin de plus d’agilité, d’apporter plus vite des solutions à vos besoins notamment dans la transformation numérique », rappelle la dirigeante. Elle constate en outre que les stratégies métiers et IT ne sont pas si éloignées au point d’en faire un nouveau credo, le « new style of business ».

Les choses ont bien avancé depuis l’annonce de cette séparation. Hewlett Packard Entreprise a vu son périmètre se cantonner des serveurs et du stockage au Cloud en passant par la sécurité et le réseau, tout en gardant au passage les services. L’organigramme des différents responsables de ces divisions a aussi été arrêté en janvier dernier. Pour mémoire, il comprend Mike Nefkens, en charge des services, et Robert Youngjohns, à la tête de la division Software.Antiono Neri, responsable de l’activité serveur et réseau, prend part à l’aventure pour s’occuper de la gestion courante. Ils étaient tous présents sur scène, mais on aura noter l’absence de Bill Veghte, en charge de la stratégie de HP et homme fort de HP Entreprise. Cette entité s’est dotée d’un nouveau logo avec un rectangle vert qui avait été présenté en avril dernier.

Bascule sur l’hybride

Puis est venu le temps pour Meg Whitman de décliner sa stratégie pour HP Entreprise. Elle se décline en 4 orientations : transformation, protection, accompagnement et renforcement. A chaque orientation, les dirigeants de HP Entreprise cités précédemment sont venus apporter la bonne parole de manière un peu docte, parfois, et commerciale, souvent. La première pierre de la stratégie de Meg Whitman est la transformation des sociétés vers des infrastructures hybrides. « Avec le développement des applications (1 trillion en 2020), des devices (100 milliards), les entreprises ont besoin de se reposer sur des infrastructures plus agiles, plus rapides. Il est donc nécessaire de les accompagner vers des solutions d’automatisation, d’orchestration et de convergence », souligne Mike Nefkens.

HP Entreprise propose plusieurs éléments pour cette transformation comme l’a rappelé Antonio

Neri. Sur le Cloud par exemple, la firme de Palo Alto a dévoilé la9 ème itération de Helion Cloud System comprenant la plateforme Helion Openstack ainsi qu’une version de Cloud Foundry et la dernière mouture de CSA (Cloud Service Automation). Elle sera disponible en septembre prochain. On peut ajouter l’amélioration du reporting et du monitoring avec View 2.0 et Ops Analytics pour permettre à la DSI de « devenir un broker d’applications et de services ».

La sécurité, un problème de Big Data

La seconde orientation est la sécurité avec comme objectif de protéger les données, les applications contre différentes menaces (cyberattaques, erreurs humaines, incidents systèmes). Pour Robert Yougjohns, « la sécurité est un problème de Big Data. Pour détecter les menaces, il faut analyser des énormes volumes de données ». L’analytique est donc la clé pour réduire le temps de détection des attaques. Le responsable n’a pas fait d’annonces produits. Il faudra attendre septembre pour en savoir un peu plus notamment sur les évolutions du produit ArcSight.

Troisième étage de la stratégie de HP Entreprise, valoriser les données de l’entreprise. Car le constat est sans appel : « actuellement 80 à 90 % des personnes considèrent que les promesses du Big Data ne sont pas effectives ou surévaluées », constate Mike Nefkens. Pour les porte-parole, le salut passera par les solutions de HP en matière de Big Data comme Haven ou la mise en place d’une plateforme Hadoop en collaboration avec Hortonworks. Aruba au cœur de la mobilité

Enfin, dernière brique du ‘quadrant magique’ de HP Entreprise : la mutation de la productivité. Sous ce concept, on retrouve notamment la transition vers la mobilité. Dans ce cadre,l’acquisition d’Aruba Networks va prendre tout son sens. Son CEO, Dominic Orr, a fait sensation sur scène avec un dynamisme rafraîchissant pour expliquer les besoins des différentes générations en entreprises et leur implication sur les réseaux. Pour Antonio Neri, il ne fait aucun doute qu’Aruba va redéfinir le paysage du réseau. Toutefois, il faudra là encore attendre quelques mois avant d’en savoir un peu plus.

Au final, Meg Whitman a donné sa feuille de route : «nous nous sommes demandés comment positionner HP non pas pour seulement survivre, mais aussi prospérer ». Cela passera par des acquisitions probablement, comme le montrent les derniers mouvements autour d’Aruba ou de Contextream. La dirigeante sait qu’elle joue une partie de poker importante, car les derniers résultats financiers de HP n’étaient pas au beau fixe.

A lire aussi :

Discover 2015 : HP enfonce le coût sur le stockage flash

HP s’ancre dans le SDN/NFV avec Contextream

Antemeta et HP, une histoire commune sur le stockage et l’innovation

« Ce ne sont pas nos amis, ils sont des partenaires de raison où les clients recherchent des experts et des compétences », explique Gérald Karsenti, PDG de HP France en parlant d’Antemeta. L’intégrateur français de solutions de stockage assume ce rôle de partenaire depuis 20 ans, précise Stéphane Blanc, président d’Antemeta. L’histoire des deux acteurs a commencé en février 1995 avec le développement des services Storageworks de HP. Puis, «il y a eu quelques infidélités » glisse discrètement Stéphane Blanc. Déçu par Storageworks, il a écumé la Silicon Valley pour trouver une technologie plus performante et importera dans l’hexagone les produits 3Par, dont le CEO, David Scott est un ancien de HP. Cette infidélité ne durera pas, car au mois de septembre2010, après une bataille homérique entre HP et Dell, 3Par tombe dans l’escarcelle de la firme de Palo Alto.

Depuis ce rachat, les relations sont de plus en plus étroites entre les deux partenaires. «Nous disposons de la troisième base installée de baies 3Par dans le monde », constate Stéphane Blanc. Une connaissance des produits qui lui permet de disposer d’une R&D en étroite collaboration avec les laboratoires de HP pour développer des fonctionnalités ou des outils de gestion des solutions de stockage. Le directeur technique d’Antemeta, Samuel Berthollier, est venu présenter les dernières évolutions des solutions 3Par Vision et Peer Persitent pour AIX. Des solutions de gestion du stockage

Sur le premier, il s’agit d’un service de reporting sur l’utilisation des baies.La troisième version vient de sortir et comprend quelques innovations, comme le traitement en quasi temps réel avec des points de mesure remontés chaque seconde. Un avantage et un inconvénient constate le CTO d’Antemeta. « Les clients sont très demandeurs de ces informations en temps réel. Par contre il est difficile de leur fournir des données sur mobiles ou tablettes, car certains vont jusqu’à 150 000 points retranscrits. Nous avons essayé, mais les écrans ne sont pas adaptés et les navigateurs crashent.» L’application qui tourne sous Windows s’essaye à la BI et au machine learning pour prévoir le comportement des baies et l’évolution des besoins de stockage du client (consommation IOPS, niveau d’utilisation de la baie, etc.).

Autre service, Peer Persistent pour AIX. « Il s’agit d’un outil pour s’assurer la migration d’une baie à une autre à chaud dans des datacenters distants. HP a eu la bonne idée d’intégrer cette fonctionnalité dans les contrôleurs. Mais sur d’autres environnements comme AIX d’IBM très implantés dans certains secteurs comme la banque, il a été nécessaire de développer des solutions ad hoc », indique Samuel Berthollier. Des solutions qui sont homologuées par les laboratoires de HP et qui sont ensuite proposées aux clients HP/3Par.

10% de passage en full flash

Mais la prochaine grande rupture, c’est la flash. Pour Gerald Karsenti, « l’année 2015 sera celle de la flash avec un marché en forte croissance avec une orientation vers les services et les usages ». Les prix et les capacités commencent à devenir intéressants sur la mémoire flash au point de devenir une vraie alternative aux disques traditionnels. Stéphane Blanc est plus direct. « Les constructeurs de disques se sont reposés sur leurs lauriers, il n’y avait plus de réelle innovation. La flash a redistribué les cartes. »

Un engouement pour la flash qui commence à percer selon le dirigeant «: Nous avons migré aujourd’hui 10% de notre base installée en full-flash. » Et les ambitions sont grandes dans ce domaine, sans pour autant tout confier à HP. En effet, Antemeta a noué un partenariat avec Pure Storage depuis plusieurs mois pour développer son activité autour du flash. L’intégrateur pousse également ses services managés avec des bons retours notamment sur sa dernière offre Arcabox, un service de stockage Cloud pour les entreprises.

A lire aussi :

Avec ArcAbox, Antemeta à l’assaut du stockage Cloud pour entreprise Antemeta : « Nous avons développé une solution de gestion unifiée de stockage NAS » Analytique Big Data : R sera intégré en standard au sein de SQL Server 2016

Fin janvier, Microsoft annonçait l’acquisition de , spécialiste du langage de programmation R. Voir à ce propos notre précédent article «Microsoft gobe Revolution Analytics sur un R de Big Data ».

Les annonces autour de cette technologie ne se seront pas fait attendre. « SQL Server 2016 (qui sera accessible en version publique de test cet été) comprendra de nouvelles fonctions d’analyse en temps réel, le chiffrement automatique des données et la possibilité d’exécuter R au sein de la base de données elle-même », explique ainsi David Smith sur le blog de Revolution Analytics.

« Les data scientists n’auront plus besoin d’extraire les données d’un serveur SQL via ODBC pour les analyser avec R. Au lieu de cela, Ils seront en mesure d’amener le code R au cœur des données, où il sera exécuté dans un processus de SQL Server lui-même. Ceci élimine le temps et le stockage nécessaire pour déplacer les données, et offre toute la puissance de R et des packages CRAN dans la base de données. »

R, la nouvelle star des data scientists

R est un outil Open Source de traitement des données, spécialisé dans les analyses statistiques. Des caractéristiques qui lui valent une popularité croissante au sein de la communauté desdata scientists. L’acquisition de Revolution Analytics et l’inclusion de R au sein de SQL Server 2016 sont donc des avancées clés pour Microsoft sur le terrain du Big Data analytique.

La firme n’est toutefois pas seule dans ce secteur. Elle a en effet étéprécédée par Oracle, qui a déployé très tôt R dans ses offres (voir l’article de février 2012 « Oracle place le langage R au cœur de son offre analytique big data »).

À lire aussi : Rust 1.0 : le langage de programmation des projets critiques Programmation : Xojo pourra créer des applications Raspberry Pi La NASA et IBM lancent un concours de programmation basé sur Bluemix

Crédit photo : © McIek – Shutterstock

Avec Sense 2.0, Qlik pousse la dataviz vers les métiers et le Cloud

Outre Analytics Platform, destinée aux développeurs pour concevoir des applications analytiques avec exploration visuelle des données, l’éditeur suédois fait évoluer sa plateforme Sense destinée à l’utilisateur non informaticien, et annonce ses nouveaux services cloud. Les rachats des sociétés DataMarket et Vizubi (et sa ligne de produits Nprinting) donnent naissance à des offres intégrées à forte valeur ajoutée.

Quelles sont les particularités et les différences entre Analytics Platform et Sense ?

Stéphane Briffod : La business intelligence traditionnelle est assez rigide et très orientée informatique. En outre, au sein des départements de l’entreprise les utilisateurs nécessitent non seulement les données centrales, mais aussi celle provenant de tableurs comme Excel ou d’autres sources d’information, ou encore du cloud. On constate aussi un écart important entre l’anarchie des données de l’utilisateur et l’indispensable gouvernance informatique. C’est pourquoi Qlik se positionne en tant que plate-forme d’entreprise permettant une collaboration entre l’informatique et les métiers, avec du self-service discovery, des tableaux de bord, du reporting, des analyses guidées, des applications analytiques embarquées dans d’autres logiciels, de la collaboration et du partage…

Le travail des informaticiens reste indispensable, mais l’entreprise a besoin de plus d’agilité pour permettre aux métiers de prendre des décisions dans l’heure ou dans la journée. Ce qui amène à repenser l’organisation des données dans l’entreprise afin de réconcilier ces deux mondes. Analytics Platform apporte au développeur une solution simple pour concevoir rapidement des applications analytiques en quelques jours ou semaines et non plus en plusieurs mois ou années. Elle repose sur le moteur associatif de données en mémoire QIX in-memory Associative Indexing Engine, proposant aussi des APIs de mash-up et d’extension. Analytics Platform permet d’étendre la Business Intelligence aux clients et partenaires via l’extranet et Internet, favorisant la collaboration et l’interaction autour des données.

Quant aux utilisateurs métier, Sense Enterprise 2.0 leur apporte le self-service, la collaboration et du partage, la possibilité de créer très simplement des visualisations différentes, en modifiant des axes, filtrant les résultats, etc. Qlik Sense Enterprise 2.0 (disponible dès juin 2015) leur apporte une utilisation ergonomique et intuitive pour la visualisation de données en libre-service, le reporting, les tableaux de bord, et les analyses guidées et intégrées. Et suite à l’acquisition récente de NPrinting, Sense permet désormais d’imprimer et d’exporter des analyses au format PDF ou sous PowerPoint (ou Word), et de produire ces rapports pour les partager. Analytics Platform est intégré dans Sense. Ce qui répond au besoin d’agilité. En effet, dans les rapports interactifs ou applications analytiques conçues par les informaticiens, certaines choses non prévues s’avèrent parfois indispensables pour l’utilisateur final, qui peut via Qlik Sense en réaliser en grande partie de façon autonome.

Pouvez-vous nous expliquer la nouvelle fonction Smart Data Load ?

Avec Sense, l’utilisateur métier peut combiner des informations issues de diverses sources et les relier automatiquement, afin de révéler des relations invisibles entre ces informations. Le profiling Visuel de la nouvelle fonctionSmart Data Load permet à l’utilisateur métier d’associer visuellement et en quelques clics des sources de données via une interface graphique intuitive.

Par exemple, s’il utilise une feuille Excel avec une colonne « Client » et des données venant d’une base de données ou application avec une colonne « Customer », Smart Data Load lui suggérera automatiquement de relier ces deux colonnes. Et le tout, sans script ni code d’aucune sorte. Un script étant généré automatiquement, l’informaticien pourra éventuellement s’en servir pour d’autres cas d’usage.

Qu’offrez-vous aujourd’hui (et demain) sur le Cloud ?

Sous Qlik Cloud, via le service Sense Cloud, l’utilisateur peut partager gratuitement des applications Sense avec d’autres personnes (jusqu’à 5, et plus au cours du second semestre 2015) qui nécessitent juste un terminal équipé d’un navigateur Internet. Au cours du second semestre, il sera également possible directement dans Sense Cloud de créer des applications analytiques, du Story Telling, de la visualisation, etc.

Suite à l’acquisition de Datamarket, nous proposerons dès le mois de juin (et dans QlikView au second semestre 2015) notre offre de Data as a serviceQlik DataMarket permettant aux utilisateurs de Sense d’accéder à une multitude de données externes payantes ou gratuites afin d’enrichir leurs informations (avec des bases de données Entreprises, météorologie, finances, démographie…). Des opérations qui permettent d’apporter plus de valeur et donc de prendre de meilleures décisions aussi bien pour de de l’analyse que pour du prédictif. Ces sources de données sont préfigurées et accessibles via un modèle d’abonnement.

Au second semestre 2015, Sense Charts offrira aux utilisateurs métier techniques d’intégrer des visualisations interactives Sense au sein d’une page Web ou d’un blog ou de les partager gratuitement sur les réseaux sociaux. Et chacun pourra consulter ces graphiques interactifs depuis n’importe quel support et même –par exemple- filtrer ces données pour découvrir davantage d’informations avancées. Le tout à partir d’un simple navigateur.

A lire aussi :

Qlik Branch, une plateforme ouverte au partage d’API entre développeurs

René Bergniard : « Qlikview ne se limite pas à la dataviz »

Crédit Photo : Syda production-Shutterstock

Le Machine Learning améliore la productivité de la PME Conexance

Mise à jour à 14h22

Remplacer un long processus manuel par des algorithmes qui découvrent seuls les relations les plus significatives entre différentes variables. Cette approche, qui est au cœur du Machine Learning, ne pouvait pas laisser la PME lilloise Conexance indifférente. Regroupant une quarantaine de personnes, ce prestataire spécialiste de statistiques propose à des sociétés d’un même secteur de partager, au sein de clubs fermés (distribution, presse et caritatif), des données anonymisées afin d’effectuer des analyses sur de larges volumes d’information. «Nous gérons des données historisées sur de longues périodes, renfermant de multiples informations sur les comportements des clients. Notre travail consiste à fournir des informations prédictives à nos clients : modélisation du churn (déperdition au sein de la base clients, NDLR), définition du potentiel de clients, stratégie d’acquisition de nouveaux clients… », précise René Lefébure, le directeur de la R&D de Conexance. Au total, la PME a agrégé, dans ses bases, 24 millions de foyers et gère pas moins de 1 700 variables essentiellement transactionnelles (2 500 prévues fin 2016. Autant d’éléments potentiellement significatifs des comportements clients. « C’est cette largeur qui pose problème. Nous avions besoin de nouveaux algorithmes », reprend René Lefébure.

Un modèle prêt en moins d’une heure

Avant tout pour des questions de productivité. Chez Conexance, une équipe de9 personnes doit réaliser plus de 5 000 scorings par an. « Or, chacun d’entre eux nécessite en moyenne 6 passages (choix des dimensions et algorithmes pertinents, NDLR). Ces étapes statistiques demandent entre 3 heures – pour les scorings les plus simples – et jusqu’à 7 ou 8 heures de travail », détaille le directeur de la R&D. D’où l’intérêt de la PME pour les services de Machine Learning. Après étude (et évaluation de plusieurs alternative dont l’offre de Sas Institute et des solutions Open Source bâties autour de R), Conexance opte pour l’offre Microsoft : Azure Machine Learning. « Aujourd’hui, avec plus de 1 000 variables et environ 1 million d’enregistrements, construire un modèle sur ce service prend environ 50 minutes. Et le faire tourner demande 11 à 12 minutes de plus », assure René Lefébure. A condition évidemment de dimensionner l’infrastructure Azure en conséquence, ce qui a un impact sur les coûts.

Le gain de productivité pour les équipes de statisticiens n’en reste pas moins important. Un élément intéressant pour Conexance, qui, pour gagner l’adhésion de nouveaux clients à ses clubs, propose des tests gratuits sur de premiers scoring. Etre en mesure de les produire rapidement et de façon très automatisée s’avère donc crucial pour la société nordiste.

Prédictions plus fiables

Par ailleurs, le passage au Machine Learning masque également un enjeu de performances. « Dans l’univers mouvant de la donnée, où il faut faire progresser les rendements des campagnes, multiplier les types de scoring, intégrer des démarches de segmentation ou encore raccourcir les délais de livraison, miser sur une analyse statistique qui, elle, n’évolue pas ne me paraît pas être le bon modèle », résumé René Lefébure. Le Machine Learning permet defaire tourner en parallèle 8 modèles différents. « Selon les problématiques il est possible soit de sélectionner le meilleur modèle (selon un ou plusieurs critères), soit de combiner les différents modèles et/ou leurs résultats », précise le statisticien dans un billet de blog. Là où la méthode classique ne permet de bâtir – en 3 heures au mieux – qu’un modèle reposant sur un seul algorithme. Conexance avance des gains dans la qualité de prédiction allant de 20 % – « ce qui ne change rien pour un client sur le plan opérationnel »- à 300 %. Un bond qui, là, se révèle très significatif et qui résulte de « l’intégration de davantage de variables et de l’utilisation d’une combinaison de modèles », selon René Lefébure

Si la PME utilise pour l’instant Azure for Machine Learningen doublon de son outillage traditionnel (basé sur les solutions de Sas Institute), essentiellement pour benchmarker les modèles traditionnels de Conexance, René Lefébure envisage un avenir où le Machine Learning prendra le pas sur les démarches manuelles. « A terme, j’espère que ces dernières ne représenteront plus que 10 % de nos opérations de scoring », dit-il. D’ici la fin 2015, la PME envisage également la construction d’un portail sur lequel ses clients pourront faire fonctionner eux-mêmes les modèles les plus performants.

Signalons que Conexance s’est également appuyé sur Azure pour son architecture Hadoop. Celle-ci héberge des données non structurées (essentiellement des données de navigation), tandis que les bases SQL plus classiques (Oracle pour les données très confidentielles et SQL Server) prennent en charge les données transactionnelles.

A lire aussi :

Machine Learning contre statistiques « classiques » : qui remportera le match ? (tribune) Ciblage marketing : la Fnac fait confiance au Machine Learning Bernard Ourghanlian, Microsoft : « Pourquoi le Machine Learning va gagner l’entreprise »

Crédit photo : agsandrew / Shutterstock